Bonjour,
Bon je suis un néophyte en développement donc je lance une idée mais je sais bien que ce n’et pas si simple.
Aujourd’hui avec le machine learning on peut avec une caméra localiser une personne, un chien, un visage, caractériser s’il est debout / assis (la personne pas le chien!) voire l’identifier (certains identifient l’humeur)
tout ça avec moult documentation sur le ML et le raspberry pi tout en open source.
La domotique de demain n’est elle pas liée à cette avancée et pourquoi nous n’avons pas aux usa [EDIT: En chine!] ou chez des dingues d’informatique des maisons qui s’adaptent non en fonction des paramètres du TAG NFC ou du wifi du téléphone ou encore du bluetooth de la montre mais bien des input VIDEO. Certains s demandent déjà comment exploiter la caméra du ps eye inutile branchée au raspberry.
[BenPi, montre du doigt la lampe => allumer la lampe, Il y a 2 personnes dans la pièce et ils sont assis, le chien gratte à la porte etc…] tous ces paramètres permettent des scénarios sur mesure.
J’ai l’impression qu’il suiffrait d’adapter le blocs de codes déjà existants à gladys pour que ça fonctionne rapidement.
Voilà c’était juste une réflexion de mon point de vu de païen. C’est plus compliqué que ça?
Alors la parcontre pour les gestes je pense que sa risque d’être difficile à réaliser…
Surtout je pense qu’il y aura plein de faux positifs.
Enfait je pensais plus à un truc qui reconnais si y a une personne, 2 personne, 1 chat…
Par ailleurs j’ai commencé à installer
Sa marche après je voulais l’adapter pour gladys
Mais ton lien avais l’air plus performant…
Et même dans l’idéal ça serait la reconnaissance facial mais c’est plus lourd…(après on pourrait l’activer que quand la maison est vide)