Gladys Assistant v4.25.1: Tasmota, et correction de bugs!

Salut à tous !

Un petit post pour vous présenter Gladys Assistant v4.25.1, sorti vendredi dernier et qui devrait déjà être déployé sur vos instances :sunglasses:

Améliorations Tasmota autour du suivi de consommation

Il y avait plusieurs problèmes d’unités avec l’intégration Tasmota sur les fonctionnalités de suivi de consommation, et c’est maintenant corrigé dans Gladys :

image

Merci @Terdious pour la PR, et @GBoulvin pour les tests :pray:

Correction d’un bug lié aux caméras (ffmpeg)

Chez certains utilisateurs, lorsque leur caméra ne répondait pas bien aux requêtes Gladys, les process ffmpeg restaient actifs et s’accumulaient sur le système de l’utilisateur, prenant de la RAM inutilement.

Cette mise à jour limite les requêtes pour aller chercher une image de caméra à 10 secondes.

Au delà, le process est tué pour éviter de saturer la RAM.

Merci à @lmilcent qui a remonté le bug :pray:

Correction d’un bug dans l’interface d’édition de scènes

Le bouton « Executer seulement lorsque le seuil est passé » n’était plus cliquable.

C’est désormais corrigé.

Correction d’un bug sur le nouveau widget « Appareils »

Le nouveau widget « Appareils » a fait son entrée dans la dernière version de Gladys, et il y avait un bug sur les volets roulants qui n’étaient pas contrôlables.

C’est désormais corrigé dans cette version.

Amélioration des unités m²

Toutes les unités avec un exposant ont désormais l’exposant et non pas juste un « 2 »

Le changelog complet est disponible ici .

Comment mettre à jour ?

Si vous avez installé Gladys avec l’image Raspberry Pi OS officielle, vos instances se mettront à jour automatiquement dans les heures à venir. Cela peut prendre jusqu’à 24h, pas de panique.

Si vous avez installé Gladys avec Docker, vérifiez que vous utilisez bien Watchtower ( Voir la documentation )

6 « J'aime »

Au top merci à tous !!

1 « J'aime »

Merci pour cette nouvelle version estivale :slight_smile:

Je vais pouvoir tester le fix avec un refresh d’image toutes les secondes :imp:

1 « J'aime »

hello,
petite question : depuis le passage en 4.25 je constate que mon container gladys redémarre systematiquement toutes les 8-9 h.
d autres ont ils fait le meme constat ?
gladys ?docker?

Pas pour moi visiblement.
Capture d'écran 2023-07-03 à 16.01.11

Merci pour cette mise à jour bien utile :+1:

1 « J'aime »

Pour moi non plus
image

Merci pour ce travail

1 « J'aime »

pour moi aussi le container est créé depuis 2 j mais redemarre tous les 8/9 h.

CONTAINER ID   IMAGE                           COMMAND                  CREATED        STATUS                  PORTS                                                                                            NAMES
9423a0d2c8ae   koenkk/zigbee2mqtt:latest       "docker-entrypoint.s…"   33 hours ago   Up 30 hours                                                                                                              gladys-z2m-zigbee2mqtt
213df88766f2   gladysassistant/gladys:v4       "docker-entrypoint.s…"   2 days ago     Up 2 hours                                                                                                               gladys
382d1aca2515   eclipse-mosquitto:2             "/docker-entrypoint.…"   2 weeks ago    Up 30 hours                                                                                                              gladys-z2m-mqtt
7b0f1fffd08d   eclipse-mosquitto:2             "/docker-entrypoint.…"   2 weeks ago    Up 30 hours                                                                                                              eclipse-mosquitto
3022ae50d1f0   nodered/node-red:latest         "./entrypoint.sh"        4 weeks ago    Up 30 hours (healthy)                                                                                                    node_red
a82e3156b2b2   portainer/portainer-ce:latest   "/portainer"             5 weeks ago    Up 30 hours             0.0.0.0:8000->8000/tcp, :::8000->8000/tcp, 0.0.0.0:9443->9443/tcp, :::9443->9443/tcp, 9000/tcp   portainer
6bc764d42070   containrrr/watchtower           "/watchtower --clean…"   3 months ago   Up 30 hours             8080/tcp
       watchtower

Salut, pense a mettre des logs sinon c’est difficile de deviner ce qui se passe sur ta machine :slightly_smiling_face:

hello,
je pensais surtout que cela venait d un pb avec docker.
mais bonne pioche de ta part, j ai regardé les logs et là je pense avoir trouvé l anomalie !
apparemment c est le service nextcloud.
j ai arreté le service (que je n utilisais pas) et depuis plus de redemarrage toutes les 8 h.
j ai l impression que cela generait des surconso de ram. d ailleurs sur le serveur gladys j avais firefox et mqtt explorer qui plantait au bout d un certain temps et ne voulaient plus redemarrer et depuis que j ai arreté le service nexcloud dans gladys plus de pb.
l extrait du log en pj si cela peut aider. je ne me suis pas encore lancé sur le dev gladys (j ai installé un env et en ai l intention mais pour le moment je suis sur du dev delphi/pascal, sql et python).

2023-07-03T23:59:02+0200 <info> bot.poll.js:36 (MessageHandler.poll) Fail to request new Nextcloud Talk messages, retry
2023-07-03T23:59:02+0200 <warn> bot.poll.js:37 (MessageHandler.poll) TypeError: Invalid URL
    at new NodeError (node:internal/errors:399:5)
    at new URL (node:internal/url:560:13)
    at dispatchHttpRequest (/src/server/services/nextcloud-talk/node_modules/axios/lib/adapters/http.js:176:20)
    at new Promise (<anonymous>)
    at http (/src/server/services/nextcloud-talk/node_modules/axios/lib/adapters/http.js:112:10)
    at Axios.dispatchRequest (/src/server/services/nextcloud-talk/node_modules/axios/lib/core/dispatchRequest.js:51:10)
    at Axios.request (/src/server/services/nextcloud-talk/node_modules/axios/lib/core/Axios.js:142:33)
    at Function.wrap [as request] (/src/server/services/nextcloud-talk/node_modules/axios/lib/helpers/bind.js:5:15)
    at MessageHandler.poll (/src/server/services/nextcloud-talk/lib/bot/bot.poll.js:34:31)
    at Timeout._onTimeout (/src/server/services/nextcloud-talk/lib/bot/bot.poll.js:52:27)
    at listOnTimeout (node:internal/timers:569:17)
    at processTimers (node:internal/timers:512:7) {
  input: '/ocs/v2.php/apps/spreed/api/v1/chat/?timeout=15&lookIntoFuture=0&includeLastKnown=1',
  code: 'ERR_INVALID_URL'
}
2023-07-03T23:59:03+0200 <info> bot.poll.js:36 (MessageHandler.poll) Fail to request new Nextcloud Talk messages, retry
2023-07-03T23:59:03+0200 <warn> bot.poll.js:37 (MessageHandler.poll) TypeError: Invalid URL
    at new NodeError (node:internal/errors:399:5)
    at new URL (node:internal/url:560:13)
    at dispatchHttpRequest (/src/server/services/nextcloud-talk/node_modules/axios/lib/adapters/http.js:176:20)
    at new Promise (<anonymous>)
    at http (/src/server/services/nextcloud-talk/node_modules/axios/lib/adapters/http.js:112:10)
    at Axios.dispatchRequest (/src/server/services/nextcloud-talk/node_modules/axios/lib/core/dispatchRequest.js:51:10)
    at Axios.request (/src/server/services/nextcloud-talk/node_modules/axios/lib/core/Axios.js:142:33)
    at Function.wrap [as request] (/src/server/services/nextcloud-talk/node_modules/axios/lib/helpers/bind.js:5:15)
    at MessageHandler.poll (/src/server/services/nextcloud-talk/lib/bot/bot.poll.js:34:31)
    at Timeout._onTimeout (/src/server/services/nextcloud-talk/lib/bot/bot.poll.js:52:27)
    at listOnTimeout (node:internal/timers:569:17)
    at processTimers (node:internal/timers:512:7) {
  input: '/ocs/v2.php/apps/spreed/api/v1/chat/?timeout=15&lookIntoFuture=0&includeLastKnown=1',
  code: 'ERR_INVALID_URL'
}

Suite au dernier message de @Einstein8854, je suis aller faire un tour dans Paramètre>Services pour éteindre nextcloud-talk (qui ne me sert pas) et comme je n’y avais pas mis les pieds depuis longtemps la liste s’est drôlement allongée !

Certains me questionnent :

  • example : ???
  • zwave : en erreur

Je sais que le zwave est obsolète mais est-ce normal qu’il soit en erreur ? est-ce que cela affecte les performances de gladys ?

Puis-je désactivé example ? sert-il à autre chose ?

D’ailleurs, je constate une étrangeté : les noms de services ne s’affiches pas de la même façon suivant si je suis sur mobile ou sur l’ordi (tous deux via Gladys+)


Honnêtement ça ne change rien du tout :smiley:

Example est un service d’exemple principalement destiné aux développeurs pour montrer un exemple. Ca ne sert à rien d’en prendre compte, il n’y a rien qui tourne dedans :slight_smile:

Z-Wave t’embête pas avec ça, il n’y a plus une seule ligne de code Z-wave sur Gladys :slight_smile: ça doit être un résidu. ça n’a aucun impact sur Gladys.

Etrange, ça doit être un problème de chargement des traductions. Tu peux créer une issue Github ? Je te garantie pas que je regarde à court terme, c’est vraiment très mineur ^^

Il me semblait que gladys ne devait pas tomber si un service tombe, as tu une idée du pourquoi un service tel que nextcloud (non configuré qui pluw est) face craché gladys ?

En allant désactivé le service, je me suis rendu compte que le service bluetooth chez moi etait en erreur aussi :

Je ne retrouve pas de log particulier.

Tu peux créer un sujet séparé avec toutes les informations ? (logs du crash notamment)

Ton message etait destinés a @Einstein8854 je suppose ? :smiley:

Car moi jai pas d’info (log date ou autre) pour le bluetooth :-/

Non c’était pour toi ! Je croyais que tu parlais du service Nextcloud qui faisait crasher Gladys ?

Beh cest ce qui arrive a @Einstein8854 pour le coup moi jai juste ete desactiver le service au cas ou ^^'.

Mais mon service bluetooth est en erreur mais aucun crash de gladys

Merci @Einstein8854 d’avoir remonté le problème Nextcloud Talk, pour ceux qui l’ont est ce que l’un de vous à moyen d’accéder à sa base de données et vérifier la valeur des variables NEXTCLOUD_TALK_TOKEN. Normalement si le poll est lancé c’est que vous avez déjà essayé de configurer le service et qu’il y a une valeur
Je vais essayer de régler le problème rapidement

1 « J'aime »

@bertrandda Normalement un crash au start d’un service n’est pas censer faire crasher Gladys, tu vois ce qui a pu passer à travers de ça ? :slight_smile: