DATE
12/12/2025
Déploiement d'une IA en local
Conception et déploiement technique d'une solution d'intelligence artificielle locale (Ollama / Open WebUI) connectée à l'Active Directory. Projet actuellement en phase de pré-production avant ingestion des données métiers.
Entreprise
IA
Service
Mairie de Fougères — Service Informatique
Contexte
VM Linux, Ollama, Open WebUI, LDAP/AD
Statut
En production

Contexte et problématique :
Architecture et Mise en œuvre technique
Virtualisation : Création et dimensionnement d'une machine virtuelle Linux dédiée sous Ubuntu Server.
Moteur d'IA : Installation et configuration d'Ollama pour la gestion des modèles de langage (LLM) comme Llama 3 ou Mistral.
Interface Web : Déploiement d'Open WebUI via Docker pour offrir une interface ergonomique similaire aux outils Cloud.
Gestion des identités : Configuration du protocole LDAP pour synchroniser l'outil avec l'Active Directory de la mairie. Cela permet aux agents d'utiliser leur session Windows habituelle pour se connecter.
Sécurisation (RBAC) : Création de groupes d'accès cloisonnés (Administratif, Technique) pour préparer la future restriction des données.


Statut et Perspectives d'évolution (V2)
À ce jour, le socle technique (l'infrastructure, le moteur d'IA et l'authentification) est 100% opérationnel et sécurisé en phase de pré-production. La prochaine étape majeure, avant l'ouverture officielle aux agents, consiste à intégrer les connaissances métiers de la Mairie et la création d'agents IA.
Pour maximiser l'adoption par les agents, plusieurs évolutions sont déjà planifiées :
Prochaines étapes d'amélioration :
Création d'Agents Métiers (Assistants spécialisés) : Configuration de "modèles personnalisés" (via les System Prompts dans Open WebUI) pour créer des assistants bureautiques spécifiques. Exemple : Un agent "Rédacteur administratif" formaté pour répondre avec le ton de la mairie, ou un agent "Aide RH" pour vulgariser des textes de loi.
Mise en place du RAG (Retrieval-Augmented Generation) : Connecter l'IA à une base de documents internes sécurisée (notes de service, arrêtés municipaux) pour que les agents puissent interroger l'IA directement sur le savoir de la Mairie.
Optimisation des performances : Suivi de la charge matérielle de la VM Linux (monitoring CPU/RAM) pour ajuster les ressources allouées en fonction de la montée en charge et du nombre d'utilisateurs simultanés. Dans lequel un serveur va surement être pris et qui va être dédie pour l'IA.

Compétence acquise
Gérer le patrimoine informatique :
✅
Recenser et identifier les ressources numériques— tu as créé et géré une VM dédiée ✅Mettre en place et vérifier les niveaux d'habilitation associés à un service— tu as configuré les groupes d'accès LDAP
Répondre aux incidents et demandes :
✅
Traiter des demandes concernant les services réseau et système— déploiement d'un nouveau service système pour les agents
Travailler en mode projet :
✅
Analyser les objectifs et les modalités d'organisation d'un projet— tu as analysé le besoin de la mairie ✅Planifier les activités— tu as suivi les étapes VM → Ollama → WebUI → LDAP → Groupes
Mettre à disposition des utilisateurs un service informatique :
✅
Déployer un service— déploiement complet d'Ollama + Open WebUI ✅Réaliser les tests d'intégration et d'acceptation d'un service— tests de connexion LDAP et d'accès ✅Accompagner les utilisateurs dans la mise en place d'un service— mise à disposition aux agents
Organiser son développement professionnel :
✅
Mettre en œuvre des outils et stratégies de veille informationnelle— ce projet découle directement de ta veille sur l'IA
