A
Agent IA Programme autonome capable d’accomplir des tâches complexes en utilisant des modèles d’IA pour planifier, raisonner et agir. Contrairement aux chatbots simples, les agents peuvent utiliser des outils, accéder à des données externes et exécuter des séquences d’actions pour atteindre un objectif défini.
AGI (Artificial General Intelligence) Intelligence artificielle hypothétique qui égalerait ou dépasserait l’intelligence humaine dans tous les domaines cognitifs. Contrairement à l’IA étroite actuelle (spécialisée dans des tâches précises), l’AGI pourrait apprendre et s’adapter à n’importe quelle tâche intellectuelle comme un humain.
Alignement Processus visant à s’assurer que les systèmes d’IA agissent conformément aux valeurs et objectifs humains. L’alignement cherche à éviter que les IA produisent des résultats dangereux, biaisés ou contraires aux intentions de leurs concepteurs et utilisateurs.
Altman, Sam PDG d’OpenAI depuis 2019, figure centrale du développement de ChatGPT et de GPT-4. Il a été brièvement évincé puis réintégré en novembre 2023, témoignant des tensions autour de la gouvernance de l’IA. Influent dans les débats sur la régulation et la sécurité de l’IA.
Amodei, Dario Co-fondateur et PDG d’Anthropic, ancien VP Recherche chez OpenAI. Il a quitté OpenAI en 2021 pour créer Anthropic avec pour mission de développer une IA plus sûre et plus interprétable. Pionnier du RLHF et expert reconnu en alignement d’IA.
Anthropic Entreprise d’IA fondée en 2021 par d’anciens membres d’OpenAI, créatrice de Claude. Elle se concentre sur la recherche en sécurité et l’alignement de l’IA, avec une approche Constitutional AI pour créer des systèmes plus contrôlables et transparents.
API (Application Programming Interface) Interface permettant d’intégrer des modèles d’IA dans des applications tierces. Les APIs d’IA générative permettent aux entreprises d’utiliser des modèles comme GPT-4 ou Claude dans leurs propres produits sans développer leur propre IA.
Apprentissage par renforcement (Reinforcement Learning) Technique d’apprentissage automatique où un agent apprend par essais-erreurs en recevant des récompenses ou pénalités. Utilisé notamment dans le RLHF pour affiner les modèles de langage selon les préférences humaines.
B
Bengio, Yoshua Pionnier du deep learning, lauréat du prix Turing 2018 avec LeCun et Hinton. Professeur à l’Université de Montréal et fondateur de Mila, il est devenu un ardent défenseur d’une régulation stricte de l’IA et alerte sur les risques existentiels.
Biais algorithmique Discrimination systématique dans les résultats d’une IA, reflétant souvent les biais présents dans les données d’entraînement. Ces biais peuvent concerner le genre, l’origine ethnique, l’âge ou d’autres caractéristiques, posant des risques juridiques et éthiques pour les entreprises.
Brin, Sergey Co-fondateur de Google avec Larry Page, revenu activement dans l’entreprise en 2023 pour contribuer au développement de Gemini. Son retour témoigne de l’importance stratégique de l’IA pour Google face à la concurrence d’OpenAI.
C
ChatGPT Assistant conversationnel d’OpenAI lancé en novembre 2022, basé sur les modèles GPT. Son adoption massive (100 millions d’utilisateurs en 2 mois) a déclenché la course à l’IA générative et transformé la perception publique de l’IA.
ChatGPT Atlas – Navigateur de OpenAI
Claude Famille d’assistants IA développés par Anthropic, réputés pour leurs capacités de raisonnement, leur fenêtre contextuelle étendue (jusqu’à 200 000 tokens) et leur approche axée sur la sécurité. Claude 4 est la dernière génération avec les versions Opus et Sonnet.
Comet – Navigateur Perplexity
Copilot (Microsoft) Assistant IA de Microsoft intégré dans l’ensemble de sa suite logicielle (Windows, Office 365, Edge). Basé sur les modèles d’OpenAI avec lesquels Microsoft a un partenariat stratégique majeur. Concurrent direct de Google Workspace avec Gemini.
Constitutional AI Approche développée par Anthropic pour entraîner des IA selon des principes éthiques explicites (une “constitution”). Le modèle apprend à s’auto-corriger selon ces règles, rendant son comportement plus prévisible et aligné avec les valeurs humaines.
D
DALL-E Modèle de génération d’images d’OpenAI capable de créer des visuels à partir de descriptions textuelles. DALL-E 3, la version actuelle, est intégrée à ChatGPT et représente l’état de l’art en génération d’images avec Midjourney et Stable Diffusion.
Data augmentation Technique consistant à enrichir artificiellement un jeu de données d’entraînement en créant des variations des données existantes. Permet d’améliorer les performances des modèles, particulièrement quand les données réelles sont limitées ou coûteuses.
Deep learning (Apprentissage profond) Sous-ensemble du machine learning utilisant des réseaux de neurones artificiels à multiples couches. Technique fondamentale derrière les progrès récents en IA, permettant d’apprendre des représentations complexes à partir de grandes quantités de données.
Diffusion (modèles de) Architecture utilisée pour la génération d’images (Stable Diffusion, Midjourney, DALL-E). Ces modèles apprennent à “débruiter” progressivement une image aléatoire pour créer une image cohérente correspondant à une description textuelle.
E
Embedding Représentation numérique (vecteur) d’un contenu (texte, image, audio) dans un espace mathématique où des éléments similaires sont proches. Les embeddings permettent aux IA de comprendre les relations sémantiques et sont essentiels pour la recherche et la recommandation.
Éthique de l’IA Ensemble de principes et pratiques pour développer et déployer l’IA de manière responsable. Couvre la transparence, l’équité, la confidentialité, la responsabilité et l’impact sociétal. Sujet crucial pour la réputation et la conformité réglementaire des entreprises.
F
Few-shot learning Capacité d’un modèle à apprendre une nouvelle tâche avec seulement quelques exemples. Les grands modèles de langage excellent dans ce domaine, permettant de les adapter rapidement à de nouveaux cas d’usage sans réentraînement coûteux.
Fine-tuning (Ajustement fin) Processus d’adaptation d’un modèle pré-entraîné à un cas d’usage spécifique en l’entraînant sur un jeu de données ciblé. Permet de spécialiser un modèle général pour les besoins particuliers d’une entreprise tout en conservant ses capacités de base.
G
Gemini Famille de modèles d’IA multimodaux de Google DeepMind, successeur de Bard. Disponible en plusieurs versions (Ultra, Pro, Nano) et intégré dans l’écosystème Google (Search, Workspace, Android). Principal concurrent de GPT-4 et Claude.
Génération augmentée par récupération (RAG) Technique combinant la récupération d’informations dans une base de données avec la génération de texte. Permet aux modèles d’IA d’accéder à des connaissances actualisées ou spécifiques à l’entreprise, réduisant les hallucinations et améliorant la précision.
GitHub Copilot Assistant de programmation IA développé par GitHub et OpenAI, intégré aux environnements de développement. Suggère du code en temps réel, accélère le développement et aide à l’apprentissage. Premier cas d’usage massif d’IA générative en entreprise.
Goodfellow, Ian Inventeur des GANs (réseaux antagonistes génératifs) en 2014, architecture révolutionnaire pour la génération de contenu. Ancien directeur de recherche chez Google Brain, puis Apple. Figure majeure du deep learning et de la génération d’images.
GPT (Generative Pre-trained Transformer) Architecture et famille de modèles de langage d’OpenAI. GPT-4 (lancé en mars 2023) est actuellement l’un des modèles les plus performants, utilisé dans ChatGPT, Copilot et de nombreuses applications professionnelles.
GPU (Graphics Processing Unit) Processeur spécialisé initialement conçu pour le rendu graphique, devenu essentiel pour l’entraînement et l’inférence des modèles d’IA. Les GPU NVIDIA (A100, H100) dominent le marché et représentent un investissement majeur pour les entreprises développant l’IA.
H
Hallucination Phénomène où un modèle d’IA génère des informations fausses ou inventées avec assurance. Risque majeur pour les applications professionnelles, nécessitant validation humaine et techniques de mitigation comme le RAG ou le fine-tuning.
Hassabis, Demis Co-fondateur et PDG de DeepMind (racheté par Google en 2014), lauréat du prix Nobel de chimie 2024 pour AlphaFold. Pionnier de l’IA combinant neurosciences et apprentissage par renforcement, figure centrale du développement de Gemini.
Hinton, Geoffrey “Parrain du deep learning”, lauréat du prix Turing 2018. A quitté Google en 2023 pour alerter librement sur les risques de l’IA. Ses travaux sur les réseaux de neurones dans les années 2000-2010 ont posé les fondations de la révolution actuelle.
Hugging Face Plateforme communautaire et entreprise leader pour le partage et le déploiement de modèles d’IA open source. Propose des milliers de modèles pré-entraînés, des datasets et des outils facilitant l’adoption de l’IA par les entreprises.
I
IA explicable (XAI) Ensemble de techniques rendant les décisions des systèmes d’IA interprétables et compréhensibles par les humains. Cruciale pour la conformité réglementaire (RGPD, AI Act) et pour établir la confiance dans les décisions critiques.
IA multimodale Systèmes capables de traiter et générer plusieurs types de données (texte, image, audio, vidéo) simultanément. GPT-4, Gemini et Claude 3 sont multimodaux, permettant des applications plus riches comme l’analyse de documents visuels.
Inférence Phase d’utilisation d’un modèle d’IA entraîné pour faire des prédictions ou générer du contenu. Contrairement à l’entraînement qui est coûteux et ponctuel, l’inférence est récurrente et son coût dépend du volume d’utilisation.
Instruction tuning Méthode d’entraînement où le modèle apprend à suivre des instructions variées en langage naturel. Étape clé après le pré-entraînement, permettant aux modèles de langage de devenir des assistants polyvalents comme ChatGPT ou Claude.
K
Karpathy, Andrej Ex-directeur de l’IA chez Tesla, co-fondateur d’OpenAI, figure influente de la communauté IA sur les réseaux sociaux. Reconnu pour ses contributions pédagogiques et son travail sur les réseaux de neurones convolutifs et les transformers.
Knowledge distillation Technique de compression de modèle où un petit modèle “étudiant” apprend à imiter un grand modèle “professeur”. Permet de déployer des modèles performants sur des infrastructures plus légères, réduisant coûts et latence.
L
LangChain Framework open source populaire pour développer des applications utilisant des LLM. Facilite la création de chaînes de traitement, l’intégration avec des bases de données vectorielles et le développement d’agents, accélérant le déploiement de solutions d’IA.
LeCun, Yann Vice-président et chief AI scientist chez Meta, lauréat du prix Turing 2018 avec Hinton et Bengio. Pionnier des réseaux de neurones convolutifs et défenseur de l’IA open source, position qui diverge du consensus sur la régulation stricte.
LLaMA (Large Language Model Meta AI) Famille de modèles de langage open source de Meta, disponibles en différentes tailles. LLaMA 3 (2024) rivalise avec les modèles propriétaires, démocratisant l’accès à l’IA avancée et stimulant l’innovation dans l’écosystème open source.
LLM (Large Language Model) Modèle d’IA entraîné sur d’énormes corpus de texte, capable de comprendre et générer du langage naturel. GPT-4, Claude, Gemini sont des LLM. Leur taille (milliards de paramètres) leur confère des capacités émergentes comme le raisonnement complexe.
M
Machine learning (Apprentissage automatique) Branche de l’IA où les systèmes apprennent à partir de données plutôt que d’être explicitement programmés. Inclut le deep learning, l’apprentissage supervisé/non supervisé et par renforcement. Fondement de la plupart des applications d’IA modernes.
Midjourney Générateur d’images IA accessible via Discord, réputé pour la qualité artistique de ses créations. Utilisé par des designers, marketeurs et créatifs pour le prototypage visuel, l’illustration et la génération de concepts créatifs.
Mistral AI Startup française fondée en 2023 par d’anciens chercheurs de Meta et Google, spécialisée dans les modèles open source. Mistral Large et ses versions optimisées représentent l’excellence européenne en IA et une alternative aux géants américains.
MLOps (Machine Learning Operations) Ensemble de pratiques pour industrialiser le développement, le déploiement et la maintenance des modèles d’IA. Équivalent du DevOps pour l’IA, essentiel pour gérer le cycle de vie des modèles en production à grande échelle.
Modèle de fondation Modèle d’IA de grande taille, pré-entraîné sur des données massives et polyvalentes, pouvant être adapté à de nombreuses tâches. GPT, BERT, ou CLIP sont des modèles de fondation servant de base à d’innombrables applications.
N
Navigateurs Web La nouvelle bataille à l’aire de l’IA.
Ng, Andrew Co-fondateur de Coursera, ancien responsable de l’IA chez Google et Baidu. Figure pédagogique majeure ayant formé des millions de personnes à l’IA via ses cours en ligne. Fondateur de DeepLearning.AI et Landing AI, influent dans la démocratisation de l’IA.
NLP (Natural Language Processing) Domaine de l’IA traitant de l’interaction entre ordinateurs et langage humain. Comprend la compréhension, la génération, la traduction et l’analyse de texte. Les LLM représentent l’état de l’art actuel du NLP.
O
OpenAI Laboratoire de recherche en IA créé en 2015, devenu leader avec ChatGPT et GPT-4. Initialement à but non lucratif, transformé en structure hybride avec Microsoft comme principal investisseur. À l’avant-garde de l’IA générative et des débats sur sa gouvernance.
Overfitting (Surapprentissage) Phénomène où un modèle apprend trop spécifiquement ses données d’entraînement et perd sa capacité à généraliser. Risque majeur en IA nécessitant techniques de régularisation et validation rigoureuse avant déploiement en production.
P
Paramètre Valeur numérique apprise pendant l’entraînement d’un modèle d’IA. Les LLM modernes comptent des milliards de paramètres (GPT-4 en aurait 1700 milliards). Plus de paramètres implique généralement plus de capacités mais aussi plus de coûts de calcul.
Perplexity AI Moteur de recherche conversationnel lancé en 2022, combinant IA générative et recherche web. Offre des réponses synthétiques avec citations, se positionnant comme alternative à Google Search et concurrent de ChatGPT pour la recherche d’informations.
Pichai, Sundar PDG de Google et Alphabet depuis 2019, pilote la transformation IA de Google avec Gemini. Face à la menace d’OpenAI, il a réorganisé Google autour de l’IA et lancé le développement accéléré de produits IA compétitifs.
Prompt (Invite) Instruction en langage naturel donnée à un modèle d’IA générative pour obtenir un résultat spécifique. La qualité du prompt influence directement la qualité de la réponse. Le “prompt engineering” est devenu une compétence essentielle.
Prompt engineering Art et science de formuler des instructions optimales pour obtenir les meilleurs résultats d’un modèle d’IA. Inclut techniques de few-shot learning, chain-of-thought prompting et structuration. Compétence stratégique pour maximiser la valeur de l’IA en entreprise.
R
RAG (Retrieval-Augmented Generation) Architecture combinant recherche documentaire et génération de texte pour ancrer les réponses d’une IA dans des sources fiables. Technique clé pour créer des assistants d’entreprise précis et vérifiables, réduisant drastiquement les hallucinations.
RLHF (Reinforcement Learning from Human Feedback) Technique d’entraînement où des humains évaluent et classent les sorties du modèle pour guider son apprentissage. Méthode clé ayant transformé GPT-3 en ChatGPT, rendant les modèles plus utiles, honnêtes et inoffensifs.
S
Stable Diffusion Modèle de génération d’images open source développé par Stability AI, permettant de créer des visuels à partir de descriptions textuelles. Alternative open source à DALL-E et Midjourney, largement adopté pour sa flexibilité et son coût d’utilisation.
Sutskever, Ilya Co-fondateur et ancien chief scientist d’OpenAI, figure centrale du développement de GPT. Étudiant de Hinton, pionnier du deep learning. A joué un rôle clé dans la tentative d’éviction de Sam Altman en novembre 2023 avant de quitter OpenAI en 2024.
T
Temperature Paramètre contrôlant le caractère aléatoire des réponses d’un modèle génératif. Une température basse (0-0.3) produit des réponses déterministes et précises, une température élevée (0.7-1) favorise la créativité et la diversité. Crucial pour ajuster le comportement selon l’usage.
Token Unité de base de traitement du texte par les LLM, généralement un mot ou une partie de mot. Les coûts d’API et les limites contextuelles sont exprimés en tokens. Comprendre la tokenisation est essentiel pour optimiser les coûts d’utilisation.
Transfer learning (Apprentissage par transfert) Réutilisation d’un modèle pré-entraîné comme point de départ pour une nouvelle tâche. Approche dominante en IA moderne permettant d’obtenir d’excellents résultats avec moins de données et de temps d’entraînement que partir de zéro.
Transformer Architecture de réseau de neurones introduite par Google en 2017, devenue le standard pour le traitement du langage. Base de tous les LLM modernes (GPT, BERT, Claude), révolutionnaire par son mécanisme d’attention permettant de traiter efficacement de longues séquences.
V
Vector database (Base de données vectorielle) Système de stockage optimisé pour les embeddings, permettant des recherches par similarité sémantique à grande échelle. Composant clé des architectures RAG et des applications de recherche intelligente. Pinecone, Weaviate et ChromaDB sont des solutions populaires.
Z
Zero-shot learning Capacité d’un modèle à effectuer une tâche sans aucun exemple spécifique d’entraînement, en s’appuyant uniquement sur sa connaissance générale. Les LLM modernes excellent dans ce domaine, permettant de les utiliser immédiatement sur de nouveaux cas d’usage sans préparation.