Tout n’est pas un LLM

8 types de modèles d’IA à connaître en 2025

En 2023, quand on parlait d’« IA », la majorité pensait à ChatGPT.

Avance rapide jusqu’en 2025 : le paysage a totalement changé. Les LLMs (Large Language Models) ont lancé la révolution, mais on entre maintenant dans l’ère des modèles spécialisés, chacun avec une compétence unique.

Et pourtant, on continue d’appeler ça des LLMs.
C’est comme appeler « voiture » tout ce qui roule : vélo, camion, avion… même si les usages sont très différents.

Pour un chercheur, un fondateur de startup, un chef de produit ou même un simple curieux, connaître la différence entre un LLM, un LAM, un MoE, etc., n’est plus un luxe, c’est un avantage compétitif.

Voici donc 8 types de modèles d’IA à connaître et leur vraie utilité :

1. LLM — Large Language Model

C’est quoi un LLM ?

Un modèle d’IA capable de compléter tes phrases, écrire des essais, corriger du code ou même imiter Shakespeare.
Entraîné sur d’immenses quantités de texte (internet, livres, articles, code, etc.), il prédit le mot suivant à partir de ce qui a été dit.

Pourquoi c’est populaire ?

  • Puissance de conversation (ChatGPT, Claude, Gemini)

  • Création de contenu (texte, code…)

  • Connaissances générales

Cas d’usage

  • Rédaction de contenu

  • Aide à la programmation

  • Chatbots

  • Traduction

  • Éducation

Limites

  • Peut halluciner (invente des infos)

  • Coûteux en calcul

  • Ne comprend pas vraiment (juste des patterns)

2. LCM — Latent Consistency Model

C’est quoi un LCM ?

Un générateur ultrarapide d’images IA, capable de créer une image nette sur un smartphone sans connexion cloud.

Conçu pour la vitesse et les petits appareils, c’est le modèle idéal pour les filtres IA, les effets AR/VR, ou les caméras intelligentes.

Fonctionnement

  • Basé sur les modèles de diffusion

  • Génère une image en quelques étapes rapides (vs des dizaines chez d’autres modèles)

  • Optimisé pour les appareils peu puissants

Cas d’usage

  • Génération d’images embarquées

  • Applications AR/VR

  • Prototypes visuels rapides

  • Amélioration visuelle en temps réel

3. LAM — Language Action Model

C’est quoi un LAM ?

Un assistant intelligent qui comprend, planifie, agit et se souvient.

Il fait le lien entre texte et actions concrètes : il peut interagir avec des outils, gérer des tâches ou exécuter des API.

Fonctionnement

  • Combine : LLM + mémoire + planification + exécution

  • Gère des tâches complexes sur plusieurs étapes

  • Interagit avec le monde réel (apps, services…)

Cas d’usage

  • Agents IA autonomes (ex : Devin)

  • Assistants numériques

  • Outils de productivité

  • Robotique

4. MoE — Mixture of Experts

C’est quoi un MoE ?

Un modèle composé de plusieurs experts spécialisés.

Quand tu poses une question, il ne consulte que les experts pertinents, au lieu de tout activer.

Fonctionnement

  • Un router sélectionne les bons experts selon la requête

  • Chaque expert traite une partie, puis on combine les résultats

  • Économe en ressources, très efficace

Cas d’usage

  • Modèles IA à grande échelle

  • Inference rapide et efficace

  • Assistants spécialisés (droit, médecine…)

  • Traduction multilingue

5. VLM — Vision Language Model

C’est quoi un VLM ?

Un modèle qui voit et lit en même temps, et comprend les deux.

Il traite simultanément des images et des textes, et peut générer ou interpréter des réponses combinées.

Fonctionnement

  • Encodeur image + encodeur texte → espace commun

  • Comprend les relations entre image et texte

  • Répond, commente, classe, explique…

Cas d’usage

  • Assistants multimodaux (ChatGPT-4o)

  • Légendes d’image, questions visuelles

  • Moteurs de recherche image + texte

  • Accessibilité, robotique, AR/VR

6. SLM — Small Language Model

C’est quoi un SLM ?

Un modèle compact et léger, conçu pour fonctionner hors ligne sur ton smartphone, TV ou montre connectée.

Fonctionnement

  • Architecture type LLM, mais miniaturisée

  • Paramètres optimisés

  • Fonctionne sur l’appareil sans serveur cloud

Cas d’usage

  • Chatbots locaux

  • Objets connectés intelligents

  • Confidentialité (aucune donnée sort du device)

  • Aide au codage local

7. MLM — Masked Language Model

C’est quoi un MLM ?

Un modèle de type BERT, qui prédit des mots manquants dans une phrase complète (et non juste le mot suivant).

Il comprend le contexte des deux côtés, ce qui le rend très utile pour la compréhension profonde du texte.

Cas d’usage

  • Moteurs de recherche

  • Analyse de sentiment

  • Reconnaissance d'entités (dates, noms…)

  • Classification de texte

8. SAM — Segment Anything Model

C’est quoi SAM ?

Un modèle de Meta AI capable de segmenter tout objet dans une image avec une précision pixel par pixel.

Il ne fait pas que reconnaître un chien — il trace ses contours exacts, même sans avoir été entraîné sur cette classe d’objet.

Fonctionnement

  • Encode l’image + le prompt (point, boîte, masque…)

  • Produit un masque précis autour de l’objet ciblé

Cas d’usage

  • Imagerie médicale

  • AR, robotique

  • Montage vidéo

  • Analyse scientifique (satellites, microscopie)

En résumé

👉 Chaque modèle a un rôle :

  • LLM = texte généraliste

  • SLM = texte léger et local

  • LAM = agent qui agit

  • MoE = experts ciblés

  • LCM = image rapide

  • VLM = image + texte

  • MLM = compréhension fine

  • SAM = segmentation visuelle

Le futur de l’IA est spécialisé, multimodal et orienté action.

Qu'as-tu pensé de cette newsletter ? 🧠

Connexion ou S'abonner pour participer aux sondages.

Reply

or to participate.