You are currently viewing Open WebUI : une interface web open source pour piloter ses LLM locaux

Open WebUI : une interface web open source pour piloter ses LLM locaux

Open WebUI : une interface web open source pour piloter ses LLM locaux

Vous avez déployé Ollama sur votre serveur et vous interrogez vos modèles via curl ou un script Python ? Open WebUI transforme cette interaction en une expérience fluide, comparable à ChatGPT, mais entièrement auto-hébergée. Ce projet open source (licence MIT) fournit une interface web complète pour converser avec vos LLM, gérer des documents RAG, et collaborer en équipe, le tout sans envoyer une seule requête vers un service cloud.

Pourquoi Open WebUI plutôt qu’un simple terminal

Ollama expose une API REST puissante, mais l’usage quotidien en ligne de commande atteint vite ses limites : pas d’historique structuré, pas de gestion multi-utilisateurs, pas de support natif pour les fichiers. Open WebUI comble ces lacunes en offrant une couche d’interaction riche au-dessus de vos modèles locaux.

L’outil s’adresse autant au développeur solo qui veut tester rapidement des prompts qu’à l’équipe projet qui souhaite partager un assistant IA interne sans dépendre d’un fournisseur SaaS.

Déploiement avec Docker

Le déploiement se fait en une seule commande Docker, ou via un fichier docker-compose.yml pour l’intégrer à une stack existante :

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
      - WEBUI_AUTH=true
      - DEFAULT_MODELS=llama3.1:8b
    volumes:
      - open-webui-data:/app/backend/data
    depends_on:
      - ollama
    restart: unless-stopped

  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    volumes:
      - ollama-data:/root/.ollama
    restart: unless-stopped

volumes:
  open-webui-data:
  ollama-data:

Une fois lancé, l’interface est accessible sur le port 3000. Le premier utilisateur inscrit devient administrateur.

Fonctionnalités clés

Conversations multi-modèles

Open WebUI permet de basculer entre tous les modèles disponibles sur votre instance Ollama (Llama 3.1, Mistral, Gemma, Phi, CodeLlama…) depuis un simple sélecteur. Vous pouvez même comparer les réponses de deux modèles côte à côte sur un même prompt, un atout considérable pour évaluer quel modèle convient le mieux à un cas d’usage.

RAG intégré : interroger ses documents

L’une des fonctionnalités les plus puissantes est le RAG (Retrieval-Augmented Generation) intégré. Il suffit de glisser-déposer un PDF, un fichier Markdown ou un document texte dans la conversation pour que Open WebUI l’indexe automatiquement et permette au modèle de répondre en s’appuyant sur son contenu. En coulisses, le texte est découpé en chunks, transformé en embeddings, et stocké dans une base vectorielle locale (ChromaDB par défaut, ou Qdrant si vous l’avez déjà déployé).

Gestion multi-utilisateurs et rôles

Open WebUI intègre un système d’authentification avec trois niveaux de rôles : administrateur, utilisateur standard, et utilisateur en attente de validation. L’administrateur contrôle quels modèles sont accessibles, quels utilisateurs peuvent uploader des documents, et peut consulter les statistiques d’utilisation. Pour une intégration SSO, il est possible de connecter Open WebUI à Keycloak via OAuth2/OIDC.

Prompts système et « modelfiles »

Vous pouvez créer des assistants spécialisés en définissant des prompts système persistants, par exemple un assistant juridique, un rédacteur technique, ou un analyste de données. Ces configurations sont sauvegardées et partageables entre utilisateurs. Open WebUI supporte également les Modelfiles d’Ollama pour personnaliser finement le comportement d’un modèle (température, top_p, contexte système).

Outils et fonctions

Depuis la version 0.3, Open WebUI supporte un système de « Tools » et « Functions » extensible en Python. Vous pouvez écrire des fonctions personnalisées que le modèle peut appeler : interroger une base PostgreSQL, lancer une recherche sur un portail CKAN, récupérer la météo, ou déclencher un workflow n8n. C’est l’équivalent du function calling d’OpenAI, mais sur vos modèles locaux.

Intégration dans une stack open source existante

Open WebUI s’insère naturellement dans l’écosystème décrit sur ce site :

Ollama fournit les modèles LLM. Qdrant peut remplacer ChromaDB comme base vectorielle pour un RAG plus performant en production. Keycloak centralise l’authentification SSO. Traefik ou Nginx gère le reverse proxy et le TLS. Langfuse peut être connecté pour tracer et évaluer les conversations. Et n8n permet d’automatiser des workflows déclenchés par les interactions utilisateur.

Le résultat : une plateforme conversationnelle IA complète, auto-hébergée, sans licence propriétaire, et dont vous maîtrisez chaque brique.

Sécurité et bonnes pratiques

Quelques recommandations pour un déploiement en production : activez systématiquement l’authentification (WEBUI_AUTH=true), placez Open WebUI derrière un reverse proxy avec TLS, limitez l’accès réseau au port Ollama (11434) aux seuls conteneurs autorisés, et sauvegardez régulièrement le volume open-webui-data qui contient l’historique des conversations et les index vectoriels.

Si vous exposez l’interface sur Internet, le passage par Keycloak avec authentification à deux facteurs est fortement recommandé.

Pour aller plus loin

Le projet évolue rapidement (plusieurs releases par semaine). Parmi les fonctionnalités récentes : le support des pipelines multi-étapes, l’intégration de la génération d’images via Stable Diffusion, le support de backends alternatifs comme vLLM ou llama.cpp server, et un système de plugins communautaires. Le dépôt GitHub compte plus de 50 000 étoiles, ce qui en fait l’un des projets open source IA les plus actifs de 2025-2026.

Open WebUI représente la brique manquante entre « j’ai un LLM qui tourne sur mon serveur » et « mon équipe utilise un assistant IA au quotidien ». En quelques minutes de configuration Docker, vous obtenez une interface de production qui n’a rien à envier aux solutions cloud, avec la souveraineté des données en prime.