Configuration des caméras dans les scènes

Salut à tous,

J’ai testé la configuration des scènes le week-end dernier et je la trouve facile à comprendre et à prendre en main. Super boulot Pierre-Gilles !

Mon objectif est de pouvoir envoyer la dernière image de la caméra à une heure donnée et à terme que l’image me soit envoyée uniquement quand je ne suis pas chez moi. Je pensais paramétrer ça à l’aide du calendrier pour que Gladys sache si je suis en vacances par exemple. Par contre, je ne parviens pas à envoyer la dernière image de la caméra via Télégram. Est-ce qu’il y aurait une variable à insérer dans le corps du message envoyé par la scène qui contiendrait la photo ?

Merci d’avance pour votre aide,

Mastho

Merci ! :slight_smile:

Ce n’est pas encore possible, mais c’est un développement prévu !

1 « J'aime »

Salut @Pierre-Gilles,
Est-il envisagé de pouvoir sauvegarder dans un cloud des images prises à intervalle régulier puis d’en faire un timelapse ?
De plus, est-il possible d’utiliser les détecteurs de mouvement de la caméra pour paramétrer la prise de vue, puis son envoi sur ce cloud ou par mail…?
Et enfin, sera-t-il possible de connecter et obtenir l’image d’une webcam USB raccordée à un port du Rpi dans Gladys ?
Merci d’avance pour tes réponses.

C’est dans quel but? :slight_smile: Pour mieux comprendre ton besoin.

Tu utilise quel modèle de caméra exactement?

Je n’ai jamais testé mais je pense que c’est déjà possible ! Dans Gladys on utilise ffmpeg pour lire les images de caméra, et visiblement tu peux donner à ffmpeg un PATH local d’une caméra au lieu d’une URL distante.

https://trac.ffmpeg.org/wiki/Capture/Webcam

Si ta caméra est disponible sur le port USB /dev/video0 par exemple, tu peux mettre ce PATH dans Gladys à la place de l’URL, et il se peut que ça marche :slight_smile: (à tester)

En vacances, cela permet de savoir ce qui s’est passé chez soi, de voir le temps qu’il a fait dans la journée.

C’est une D-Link_DCS-5222LB motorisée, vision nocturne, détecteur de présence.

En effet, /dev/video0 fonctionne, merci :wink:
Par contre le flux n’est pas sécurisé par mot de passe.

Ok, est-ce que tu pourrais créer un post sur le forum dans la catégorie Feature Requests (c’est tout nouveau !)

Tu créé un post avec un titre clair, et tout le monde sur le forum pourra voter pour cette feature si elle intéresse du monde :slight_smile:

ça va me permettre de prioriser les développements!

Ok ! Et tu sais avec quel protocole les capteurs de cette caméra communiquent ? Si on veut récupérer la data, il faut que la caméra soit ouverte là dessus :slight_smile:

Top ! Tu pourrais documenter ce que tu as fais pour le faire fonctionner? Sur le forum, ou mieux sur la documentation si tu peux. Je suis sur que tu n’es pas le seul à vouloir faire ça :slight_smile:

Normal, c’est en direct en USB, quand tu branche une souris USB à ton ordinateur il faut rentrer un mot de passe pour la souris? :slight_smile:

Salut @pierre-gilles,
J’ai trouvé de la documentation et des infos :
http://gurau-audibert.hd.free.fr/josdblog/wp-content/uploads/2013/09/URL-command-for-DCS-5220-DCS-2120_2007_06_06.pdf
http://gurau-audibert.hd.free.fr/josdblog/wp-content/uploads/2013/09/DCS-910920_CGI_v1-20.pdf

https://www.developpez.net/forums/d1424172/systemes/hardware/achat-conseils/peripheriques/camera-ip-commandes-url-api-dlink-dcs-932l/

2 « J'aime »

Du coup, comme indiqué il y a moyen de faire une requête HTTP en cas de mouvement détecté. Une fois qu’on aura l’Open API avec des tokens dans Gladys 4, tu pourras faire une scène déclenché par un mouvement de ta caméra :slight_smile: top

1 « J'aime »

Bonjour :slight_smile:

Désolé de déterrer ce message, mais, tout comme @gaetanb76, j’aurais souhaité pouvoir nativement utiliser Gladys pour réagir dans une scène sur mouvement détecté sur une caméra.

Donc :

  • la documentation Gladys explique-t’elle comment procéder (je n’ai pas trouvé …) ?
  • L’API décrite par @pierre-gilles est-elle à ce jour disponible pour consommation depuis MotionEyes ?

Merci :slight_smile:

Salut @jean_bruder :slight_smile:

Tu as quel modèle de caméra ?

Je pense qu’on peut ouvrir un nouveau sujet pour ton cas spécifique !

Bonsoir @pierre-gilles :slight_smile:

Le modèle ne me semble pas être pertinent. J’ai testé plusieurs modèles « NO NAME », la seule condition est de répondre à la norme ONVIF, et donc de proposer un flux de type RTSP. MotionEyes accède très facilement de cette manière :slight_smile:
D’ailleurs, j’ai configuré l’une des miennes sous Gladys très facilement de cette manière. Il me reste à présent à pouvoir faire agir Gladys lorsque quelque chose se passe sur l’image !

1 « J'aime »

Chaque caméra a des spécificités particulières donc c’est pertinent si :slight_smile:

Attention aux modèles « NO NAME », les implémentations RTSP sont souvent très approximatives et j’ai plein d’exemples d’utilisateurs qui ont des bug mystiques dû à des implémentations très partielles de ces protocoles ^^

Sinon je ne sais pas si tu connais Frigate ?

C’est un tool qui te permet de faire de la détection d’objets/humains sur des caméras, et ensuite de publier un message MQTT en cas de détection.

C’est donc compatible Gladys :slight_smile:

La seule contrainte est qu’il faut utiliser un « TPU » (Tensor Processing Unit) pour que la partie « IA » tourne sur du hardware dédié, mais une fois un TPU utilisé, c’est normalement hyper rapide :

Exemple de TPU sur Amazon : Google Coral USB Edge TPU ML Accelerator

Bonjour @pierre-gilles,

J’avais testé Frigate, mais pas retenu, car trop « overkill » (TPU, tout ça …) par rapport au besoin, et remplacé par MotionEyes, qui est actuellement utilisé chez moi (pour 4 caméras No-NAME accédées via ONVIF), sans pour autant apporter le même résultat, car n’utilisant pas la reconnaissance de formes, mais juste les changements importants dans des zones (ce qui est suffisant pour moi).

Conclusion : Conserver MotionEyes et « bricoler » ensuite du côté de Gladys pour réagir :slight_smile: On va y arriver :wink:

Belle journée,
Jean

Ok, j’ai cherché un peu de documentation sur MotionEye pour t’aider, mais je ne trouve rien du tout… J’ai cru qu’on comprendre qu’on pouvait lancer un script avec MotionEye, et dans ce cas c’est assez simple dans le script il suffit de publier un message dans MQTT pour faire réagir Gladys

1 « J'aime »