Pré-requis : Bonnes bases en environnement Linux (ligne de commande), notions de réseau (ports, firewall, proxy), premières notions sur l’IA générative et les API web
Objectifs : Comprendre l’architecture d’Ollama et des modèles open source (Mistral…) en contexte entreprise - Savoir installer, configurer et sécuriser Ollama sur un serveur on-premise ou cloud - Être capable d’exposer un ou plusieurs modèles IA aux applications internes (API) en maîtrisant les aspects performance, monitoring et gouvernance
Sanction : Attestation de fin de formation mentionnant le résultat des acquis
Référence : INT102822-F
Accessibilité : Si vous êtes en situation de handicap, nous sommes en mesure de vous accueillir, n'hésitez pas à nous contacter à referenthandicap@dawan.fr, nous étudierons ensemble vos besoins
Contact : commercial@dawan.fr
1 875,00 € HT
Panorama des modèles IA open source (Mistral, LLaMA, autres) et cas d’usage en entreprise
Positionnement d’Ollama : moteur local, orchestrateur de modèles, alternative aux API cloud
Principes de base des LLM : tokens, prompts, contextes, limites de taille et coûts indirects
Choisir un modèle en fonction des besoins (génération de texte, chat, résumé, code, etc.)
Atelier pratique : prise en main d’Ollama en local sur poste de travail (installation rapide et premier prompt avec un modèle Mistral)
Préfigurer l’architecture cible : serveur unique, cluster, intégration avec les SI existants
Pré-requis matériels : CPU vs GPU, RAM, stockage, bande passante, dimensionnement de base
Environnement système : choix de la distribution Linux, gestion des utilisateurs, droits sudo
Contraintes réseau : ports, reverse proxy, SSL/TLS, prise en compte des proxies d’entreprise
Atelier pratique : définir une architecture cible et une fiche de dimensionnement pour un premier serveur Ollama d’entreprise
Installation d’Ollama sur un serveur Linux : étapes clés et vérifications indispensables
Gestion du service (systemd) et démarrage automatique, logs et fichiers de configuration
Configuration des options de base : ports d’écoute, répertoires de modèles, accès réseau
Mise en place d’un reverse proxy (nginx ou équivalent) pour exposer Ollama en HTTPS
Atelier pratique : installation complète d’Ollama sur un serveur de test et vérification d’accès via API depuis un poste client
Télécharger, installer et mettre à jour un modèle Mistral avec Ollama (pull, list, remove)
Comprendre l’impact des différentes tailles de modèles (7B, 8B, 12B, etc.) sur la performance
Configurer les paramètres d’inférence : température, top-p, context window, temps de réponse
Stratégies de stockage des modèles et des caches, organisation par environnement (test, prod)
Atelier pratique : déployer plusieurs variantes de modèles Mistral, comparer leurs temps de réponse et ajuster les paramètres d’inférence
Découvrir l’API HTTP d’Ollama : endpoints principaux, formats de requêtes et réponses
Intégrer Ollama dans une application interne (exemples en Python ou Node.js)
Mettre en place des clés d’API ou un proxy d’authentification pour sécuriser l’accès
Bons réflexes pour gérer les files d’attente, les timeouts et la résilience des appels
Atelier pratique : développer un petit service interne (chat ou complétion de texte) connecté à un modèle Mistral déployé sur Ollama
Identifier les risques : fuites de données, prompts sensibles, dérives d’usage
Mettre en place des restrictions d’accès par réseau, authentification et journalisation
Bonnes pratiques pour l’usage de données internes : anonymisation, jeux de test, règles internes
Éléments de conformité (RGPD, confidentialité, localisation des données, journalisation des accès)
Atelier pratique : définir une politique d’usage et un document de bonnes pratiques IA pour les utilisateurs internes
Surveiller l’activité : logs, métriques de performance, consommation CPU/GPU/RAM
Mettre en place un monitoring basique (export de métriques, tableaux de bord simples)
Planifier les mises à jour d’Ollama et des modèles tout en limitant l’indisponibilité
Stratégies de sauvegarde et de restauration : configurations, scripts, documentation technique
Atelier pratique : construire un mini plan d’exploitation (monitoring, sauvegarde, mises à jour) pour le serveur Ollama d’entreprise
Synthèse des choix techniques et organisationnels réalisés pendant la formation
Identifier les évolutions possibles : RAG, connexion à une base documentaire, multi-modèles
Planifier un pilote interne avec un petit groupe d’utilisateurs et des cas d’usage concrets
Formaliser les prochaines étapes : responsabilités, jalons, ressources nécessaires
Atelier pratique : élaborer une feuille de route personnalisée pour passer du serveur de test à un service Ollama opérationnel en production
Le délai d’accès à la formation certifiante est de 7 jours après validation du dossier. Dans le cas d’un financement via votre CPF, la validation de votre dossier devra être réalisée 11 jours ouvrés avant le début de formation. Hors certification CPF, délais d'accès de une à trois semaines en fonction des sessions ouvertes.
Pour suivre une session à distance depuis l'un de nos centres, contactez-nous.
Aucune date de programmée actuellement. Pour plus d'information sur les prochaines sessions, nous vous invitons à joindre le service commercial par téléphone au 02/318.50.01 (prix d'un appel local) ou depuis notre formulaire de contact.