Scénario d’exemple : Gladys doit couper ma prise de courant de bureau (ordi fixe + 2 écrans) le soir à 20h si la consommation de la prise est inférieur à 20W.
J’aimerais que Gladys me contacte et me demande « Il faudrait couper la prise du bureau pour économiser de l’électricité, veux-tu que je m’en charge ». Si je réponds « oui vas-y » alors la prise est coupée.
La scène doit donc prendre en compte deux choses :
Envoyer un message à l’utilisateur via Telegram ou un autre moyen
Attendre et comprendre la réponse puis continuer ou arrêter la scène en fonction
The interconnection with ChatGPT is only accessible via Gladys Plus, right?
In that case, it’s up to you to decide whether that means we can close this feature request or not
Because it would then become a « premium » feature (and why not, in itself).
Actually, it’s a feature that seems quite complicated to implement correctly without an intelligent understanding of the text, and ChatGPT is just perfect for that
In the future, if local, high-performing models (even on small machines with few GPUs) can do it, why not run it locally as well, but in the current state of things, I think we’ll stick with ChatGPT for that