Hermes Agent : l’agent IA open source qui apprend, se souvient et vit là où vous vivez
La plupart des agents IA disponibles aujourd’hui repartent de zéro à chaque conversation, restent attachés à un IDE ou à une fenêtre de chat, et oublient tout ce qu’on leur a appris la veille. Hermes Agent, projet open source publié par Nous Research sous licence MIT, prend le contre-pied : un agent autonome qui grandit avec l’usage, accumule de la mémoire et des compétences au fil des sessions, et qu’on peut rejoindre depuis Telegram, Discord, Slack, WhatsApp, Signal ou Matrix pendant qu’il travaille sur un VPS à 5 euros par mois.
Une boucle d’apprentissage fermée
La proposition centrale de Hermes Agent tient en une idée : un agent IA ne devrait pas être un outil figé, mais un compagnon qui s’enrichit. Pour cela, le projet articule plusieurs mécanismes :
- Mémoire persistante curée par l’agent lui-même, avec relances périodiques qui poussent à consigner ce qui mérite de l’être
- Création autonome de skills après des tâches complexes, écrites dans un format inspiré du standard ouvert agentskills.io
- Auto-amélioration des skills pendant leur exécution, à mesure que l’agent rencontre des cas limites
- Recherche cross-session via FTS5 couplée à des résumés générés par LLM, pour retrouver une décision prise il y a trois semaines sans la rejouer
- Modélisation dialectique de l’utilisateur via Honcho, qui affine au fil du temps un modèle de qui vous êtes et de ce que vous attendez
Ces mécanismes ne sont pas des extensions tierces empilées : ils sont intégrés au cœur du runtime, ce qui change fondamentalement la dynamique d’usage par rapport à un agent stateless.
Vit là où vous vivez
Hermes ne se contente pas d’un terminal. Son messaging gateway expose un seul process qui parle simultanément à plus de vingt canaux : Telegram, Discord, Slack, WhatsApp, Signal, Matrix, Mattermost, Microsoft Teams, Google Chat, Email, SMS, sans oublier les plateformes asiatiques (DingTalk, Feishu, WeCom, QQ Bot). Une conversation entamée dans un terminal peut se poursuivre depuis un téléphone sur Telegram, avec transcription des notes vocales et continuité du contexte.
Côté exécution, six backends sont disponibles : local, Docker, SSH, Singularity, Daytona, Modal. Daytona et Modal apportent une persistance serverless intéressante : l’environnement de l’agent hiberne quand il est inactif et se réveille à la demande, ce qui ramène le coût à quasi zéro entre les sessions. Hermes peut donc tourner ailleurs que sur votre poste, et on peut lui parler de loin, ce qui change la définition même d’un assistant personnel.
Indépendant du modèle, intégré à l’écosystème
Hermes est compatible avec à peu près n’importe quel fournisseur LLM : Nous Portal (les modèles maison Hermes, Nomos, Psyche), OpenRouter et ses 200+ modèles, NVIDIA NIM (Nemotron), Xiaomi MiMo, z.ai/GLM, Kimi/Moonshot, MiniMax, Hugging Face, OpenAI, ou n’importe quel endpoint compatible. Le changement de modèle se fait via hermes model, sans modification de code.
L’agent expose plus de 70 outils intégrés et un support natif du Model Context Protocol. On peut donc connecter n’importe quel serveur MCP, filtrer ses outils, et étendre Hermes en toute sécurité. Pour ceux qui suivent ce site, c’est la convergence naturelle de plusieurs sujets déjà traités : MCP comme couche d’interopérabilité, LiteLLM ou vLLM comme couche de service modèle, des skills portables compatibles avec le standard ouvert.
Installation et premier contact
Sur Linux, macOS, WSL2 ou Termux, l’installation tient en une commande :
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash
source ~/.bashrc
hermes setup # assistant de configuration complet
hermes # démarre la conversation
Quelques commandes utiles à connaître :
hermes model: choisir fournisseur et modèlehermes tools: activer ou désactiver des outilshermes gateway setuppuishermes gateway start: connecter Telegram, Discord et compagniehermes doctor: diagnostiquer une installation/skillsou/<skill-name>dans la conversation : invoquer les compétences acquises
Automatisation, délégation, parallélisme
Trois capacités méritent d’être citées pour ceux qui pensent agents en production. Hermes embarque un cron natif qui livre ses résultats sur n’importe quelle plateforme connectée : rapports quotidiens, audits hebdomadaires, sauvegardes nocturnes décrits en langage naturel et exécutés sans intervention. L’agent sait déléguer en parallèle à des sous-agents isolés, ce qui collapse des pipelines multi-étapes en une seule inférence côté principal. Et la fonctionnalité Programmatic Tool Calling via execute_code permet d’écrire des scripts Python qui appellent les outils par RPC, sans gonfler le contexte.
Limites honnêtes
Hermes est un projet ambitieux, encore jeune sur certains aspects : le support Windows natif est en bêta précoce, le mode vocal et certaines intégrations exotiques bougent vite, et la richesse même du système (memoire, skills, gateway, sous-agents) demande quelques heures pour être pleinement comprise. La courbe d’entrée est plus douce que sur un framework agent à monter soi-même, mais plus exigeante qu’une simple extension IDE. C’est cohérent avec son ambition : Hermes n’est pas un wrapper de chat, c’est un agent autonome qui s’installe pour durer.
Où Hermes s’inscrit dans une stack askem
Hermes recoupe et complète plusieurs briques déjà évoquées sur ce site : MCP comme protocole d’extension, Ollama, vLLM ou LiteLLM côté service modèle, Mem0 ou Letta comme alternatives sur la couche mémoire, n8n ou Temporal côté orchestration de workflows. Là où ces outils sont des briques à assembler, Hermes propose un agent prêt à l’emploi qui les intègre nativement, avec le pari d’un compagnon qui apprend et qui dure, plutôt que d’un assistant éphémère.
Projet : github.com/NousResearch/hermes-agent, Documentation : hermes-agent.nousresearch.com/docs, Licence MIT, construit par Nous Research
