Pour compléter, je trouverais utile de pouvoir faire l’équivalent de ‹ contrôler un appareil › depuis une demande à l’IA.
Un exemple d’utilisation (peut-être pas indispensable, mais pour montrer clairement l’idée) : Je définis un appareil MQTT nommé « nombre de voiture sur le parking », puis je demande à l’IA « Analyse cette photo, identifie le nombre de véhicules garés, et injecte cette valeur dans l’appareil MQTT ‹ nombre de voiture sur le parking ›. »
Et plus concrètement, je l’utiliserais pour que l’IA analyse la photo de mon manomètre et injecte sa valeur dans l’appareil MQTT que j’ai créé pour ça. Pour l’instant, j’ai réussi à le faire mais en demandant à l’IA de lancer l’une des 20 scènes que j’ai créée pour chaque pression entre 0,8 et 2,7 bars, tous les 0.1 bars
Ça marche bien pour ce qui est de l’appel de la bonne scène après la détection faite par l’IA.
Mais la ‹ lecture › de la pression sur la photo est assez instable, l’IA se trompe souvent d’une graduation. La photo prise par ma caméra (à laquelle j’ai rajouté une lentille ‹ macro ›) ressemble à ça :