Félicitations @damalgos et bon courage ![]()
Du coup pour répondre à ta question, j’ai avancé sur un module, ce qu’il fait actuellement (tout côté back)
- installer le conteneur rhasspy (qui contient tous les éléments pour comprendre et parler)
- configurer le conteneur (encore en cours)
- récupérer le contenu de la voix et l’envoyer à Gladys
- Gladys réponds à rhasspy qui parle dans le haut parleur
Il reste beaucoup à faire:
- toute la partie front, j’ai rien fais et un peu la flemme j’aime pas trop ça mais va falloir s’y mettre quand le back sera bon)
- Installation de rhasspy proprement avec une bonne conf
- Récupérer la base de données de mozzilla pour la compréhension qui est hyper complète, téléchargement d’une grosse base ça peut poser des problèmes technique
- Configuration de tout ce qui concerne les langues
Voila pour les news je vais essayer d’avancer un peu dessus si possible, au moins d’avoir une base clair est facile à reprendre / m’aider sur ce sujet.
Merci pour vos réponses !
Félicitations à toi et désolé pour tes grasses mat 
Ok j’attends pas de souci 
@damalgos, à mon avis on le reverra pas avant longtemps, il est tombé sur un truc à programmer qui quoi qu’il fasses sera toujours bourré de bugs !!! Moi j’en suis à quinze ans de lignes de code et elle bugue régulièrement, curieusement beaucoup plus depuis 2/3 ans il parait que c’est l’adolescence programmée !! 
Sinon pour ceux que cela intéresse, je suis tombé sur cela, c’est récent et cela a l’air performant
https://hub.docker.com/r/alphacep/kaldi-vosk-server
https://hub.docker.com/r/alphacep/kaldi-fr

Créer sa propre reconnaissance vocale. Librairie python : vosk
Alright, I’m reviving this thread…
Did you see this? VoiceGPT - Voice Assistant That Uses The ChatGPT Chatbot
Couldn’t we adapt it to Gladys?
Hello. It’s based on Google Cloud Speech-to-Text API so everything you say goes to Google. I don’t think that’s the idea with Gladys Assistant ![]()
I’m well aware of that, but… Compatibility between Google Home and OpenAI means we’re already going through external servers for certain integrations.
Recognition could only occur when a trigger (button) is activated…
That’s the idea of the (rather simple) script I was highlighting here.
@GBoulvin the problem with this kind of solution is the hardware: if you want speech recognition that works well you need dedicated hardware for that (multiple microphones, a speaker for responses + a Raspberry Pi or other), all added up, is it realistic (economically and functionally) to have a setup that is much more expensive and less capable than a Google Home / Amazon Echo Dot?
If you’re going to use Google’s speech-to-text API anyway, why not just buy a Google Home for 29€?