Glossaire
Agent
Une entité autonome qui perçoit son environnement à travers des capteurs, traite l'information, prend des décisions en fonction de sa programmation et de ses expériences acquises, et agit sur son environnement pour atteindre des objectifs spécifiques.
Agentic AI
Systèmes d'IA conçus pour agir de manière autonome en tant qu'agents intelligents, capables de prendre des décisions, d'exécuter des actions et de poursuivre des objectifs avec une intervention humaine minimale. Ces systèmes peuvent percevoir leur environnement, raisonner sur des situations et exécuter des tâches de façon indépendante tout en s'adaptant aux conditions changeantes.
Agentic RAG
Génération augmentée par récupération avancée qui intègre des agents IA autonomes dans le pipeline RAG. Contrairement au RAG traditionnel, le RAG agentique permet aux agents IA d'adapter dynamiquement les processus de récupération, de valider le contexte et d'utiliser la réflexion, la planification, l'utilisation d'outils et la collaboration multi-agents pour une récupération d'informations plus sophistiquée.
Agentic Services
Services cloud ou distribués qui exploitent les capacités de l'IA agentique pour effectuer des tâches complexes de manière autonome. Ces services peuvent gérer des flux de travail à étapes multiples, s'intégrer à diverses API et outils, et fonctionner en continu pour atteindre les objectifs spécifiés sans surveillance humaine constante.
API (Application Programming Interface)
Un ensemble de protocoles et d'outils permettant à différentes applications logicielles de communiquer entre elles. Les services d'IA fournissent souvent des API pour permettre l'intégration avec d'autres systèmes et applications.
Artificial Intelligence (AI)
Systèmes informatiques conçus pour effectuer des tâches qui nécessitent habituellement l'intelligence humaine, notamment l'apprentissage, le raisonnement, la résolution de problèmes, la perception et la compréhension du langage. L'IA englobe diverses approches, des systèmes à règles à l'apprentissage automatique et aux réseaux de neurones.
Attention Mechanism
Une technique utilisée dans les réseaux de neurones, en particulier les transformeurs, qui permet aux modèles de se concentrer sur les parties pertinentes des données d'entrée lors du traitement de l'information. Ce mécanisme permet aux modèles de pondérer dynamiquement l'importance des différentes entrées.
Autonomous Systems
Systèmes autogouvernés capables de fonctionner de manière indépendante sans contrôle humain, prenant des décisions et exécutant des actions en fonction de leur programmation, de leurs capteurs et de leurs comportements appris.
Backpropagation
Un algorithme fondamental dans l'entraînement des réseaux de neurones qui calcule les gradients en propageant les erreurs en arrière à travers les couches du réseau, permettant au modèle d'ajuster les poids et d'améliorer ses performances.
Bias (AI)
Erreurs systématiques ou préjugés dans les systèmes d'IA pouvant mener à des résultats injustes. Les biais peuvent être introduits par les données d'entraînement, la conception des algorithmes ou les contextes de déploiement, et les traiter est essentiel pour un développement éthique de l'IA.
Chain-of-Thought
Une technique de prompting qui encourage les modèles de langage à décomposer un raisonnement complexe en étapes intermédiaires, améliorant les performances sur les tâches nécessitant un raisonnement ou une résolution de problèmes en plusieurs étapes.
Computer Vision
Un domaine de l'IA qui permet aux ordinateurs d'extraire des informations pertinentes à partir d'images numériques, de vidéos et d'autres entrées visuelles, et de prendre des décisions ou de formuler des recommandations sur cette base.
Context Awareness
La capacité des systèmes d'IA à comprendre et à prendre en compte le contexte situationnel, l'historique et l'environnement lors de la prise de décisions ou de la formulation de réponses.
Context Window
La quantité maximale de texte (mesurée en tokens) qu'un modèle de langage peut traiter en une seule fois. Des fenêtres de contexte plus grandes permettent aux modèles de gérer des documents plus longs et de maintenir la cohérence sur des conversations prolongées.
Deep Learning
Un sous-ensemble de l'apprentissage automatique auto-améliorant où les algorithmes d'IA sont conçus avec une structure de réseau de neurones artificiels multicouche, leur permettant d'établir des corrélations plus complexes par rapport aux systèmes basés sur l'apprentissage automatique plus simples.
Embedding
Une représentation mathématique de données (texte, images, etc.) sous forme de vecteurs dans un espace de haute dimension, où les éléments sémantiquement similaires sont positionnés plus près les uns des autres. Les embeddings permettent aux systèmes d'IA de comprendre et de traiter le sens.
Few-Shot Learning
Une approche d'apprentissage automatique où les modèles apprennent à effectuer de nouvelles tâches avec seulement quelques exemples, en exploitant les connaissances préalables pour généraliser à partir de données limitées.
Fine-tuning
Le processus d'adaptation d'un modèle d'IA pré-entraîné pour effectuer des tâches spécifiques en l'entraînant sur des jeux de données spécialisés. Cela permet aux modèles à usage général de devenir plus efficaces pour des cas d'utilisation particuliers.
Generative AI
Modèles d'IA qui apprennent les motifs existants dans les données d'entraînement et génèrent de nouveaux exemples correspondant à un motif particulier demandé dans le prompt. Cela inclut la génération de texte, d'images, d'audio et de vidéo.
GPT (Generative Pre-trained Transformer)
Une famille de grands modèles de langage développés par OpenAI qui utilisent l'architecture transformer et sont pré-entraînés sur de vastes quantités de données textuelles pour générer du texte semblable au langage humain et effectuer diverses tâches linguistiques.
Gradient Descent
Un algorithme d'optimisation utilisé pour minimiser les fonctions de perte en apprentissage automatique en ajustant itérativement les paramètres du modèle dans la direction qui réduit l'erreur.
Hallucination
Lorsque les modèles d'IA génèrent des informations fausses ou absurdes qui semblent plausibles mais ne sont pas fondées sur leurs données d'entraînement ou le contexte fourni. Un défi majeur pour garantir des sorties d'IA fiables.
Hyperparameter
Variables de configuration définies avant l'entraînement d'un modèle d'apprentissage automatique qui contrôlent le processus d'apprentissage lui-même, comme le taux d'apprentissage, la taille des lots ou le nombre de couches.
Inference
Le processus d'utilisation d'un modèle d'IA entraîné pour effectuer des prédictions ou générer des sorties à partir de nouvelles données d'entrée. C'est la phase opérationnelle où l'IA applique ses connaissances acquises.
Intent Recognition
La capacité des systèmes d'IA à comprendre et identifier l'objectif ou l'intention sous-jacente derrière les entrées des utilisateurs, permettant des réponses plus précises et utiles.
Large Language Model (LLM)
Modèles d'IA avancés entraînés sur de vastes quantités de données textuelles pour comprendre et générer un langage semblable au langage humain. Parmi les exemples figurent GPT-4, Claude et Gemini. Ces modèles constituent la base de nombreux systèmes d'IA agentiques modernes.
Machine Learning (ML)
Un sous-ensemble de l'IA qui permet aux systèmes d'apprendre et de s'améliorer automatiquement par l'expérience sans être explicitement programmés pour chaque scénario. Les algorithmes de ML construisent des modèles mathématiques à partir de données d'entraînement pour effectuer des prédictions ou prendre des décisions.
Model Architecture
La conception structurelle d'un réseau de neurones, définissant comment les couches sont organisées, connectées et comment l'information circule à travers le système.
Multi-modal AI
Systèmes d'IA capables de traiter et de comprendre simultanément plusieurs types de données d'entrée, comme le texte, les images, l'audio et la vidéo, pour fournir des réponses plus complètes et contextuelles.
Natural Language Processing (NLP)
La branche de l'IA consacrée à permettre aux ordinateurs de comprendre, interpréter et générer le langage humain de manière pertinente. Le NLP alimente les chatbots, les services de traduction et les outils d'analyse textuelle.
Neural Network
Un système informatique inspiré des réseaux de neurones biologiques, composé de nœuds interconnectés (neurones) qui traitent l'information. Les réseaux de neurones profonds à couches multiples constituent la base des avancées modernes en IA.
Overfitting
Une erreur de modélisation où un modèle d'apprentissage automatique apprend trop bien les données d'entraînement, y compris le bruit et les valeurs aberrantes, ce qui entraîne de mauvaises performances sur de nouvelles données inédites.
Parameters
Les variables internes d'un modèle d'apprentissage automatique qui sont apprises à partir des données d'entraînement. Les grands modèles de langage peuvent avoir des milliards voire des milliers de milliards de paramètres encodant des connaissances.
Pre-training
La phase initiale d'entraînement d'un grand modèle sur des jeux de données massifs pour apprendre des motifs généraux et des connaissances avant l'ajustement fin pour des tâches spécifiques.
Prompt Engineering
La pratique consistant à concevoir et optimiser des prompts textuels pour obtenir les réponses souhaitées des modèles de langage IA. Un prompting efficace implique de formuler des instructions claires, de fournir du contexte et de structurer les requêtes pour des performances optimales de l'IA.
RAG (Retrieval-Augmented Generation)
Une technique qui améliore les modèles de langage en récupérant des informations pertinentes à partir de sources de connaissances externes avant de générer des réponses, améliorant la précision et permettant aux modèles d'accéder à des informations à jour.
Reinforcement Learning
Une approche d'apprentissage automatique où les agents apprennent à prendre des décisions en interagissant avec un environnement et en recevant des retours sous forme de récompenses ou de pénalités. Cette méthode est essentielle pour l'entraînement d'agents autonomes.
Scalability
La capacité des systèmes d'IA et des services agentiques à gérer des charges de travail, des utilisateurs ou une complexité croissants sans dégradation significative des performances ou de l'efficacité.
Semantic Search
Une technique de recherche qui comprend l'intention et le sens contextuel des requêtes de recherche plutôt que de simplement faire correspondre des mots-clés, permettant des résultats de recherche plus pertinents et intelligents.
Supervised Learning
Une approche d'apprentissage automatique où les modèles sont entraînés sur des données étiquetées, apprenant à faire correspondre des entrées à des sorties connues. Utilisé pour des tâches comme la classification et la régression.
Temperature (AI)
Un paramètre qui contrôle le caractère aléatoire des sorties des modèles d'IA. Des températures plus basses produisent des réponses plus déterministes, tandis que des températures plus élevées augmentent la créativité et la variation.
Token
L'unité de base du texte que les modèles de langage traitent. Un token peut être un mot, une partie de mot ou un signe de ponctuation. Les modèles ont des limites de tokens qui définissent la taille de leur fenêtre de contexte.
Training Data
Les informations utilisées pour enseigner aux modèles d'IA comment effectuer des tâches spécifiques. La qualité et la diversité des données d'entraînement ont un impact significatif sur les performances et les capacités des systèmes d'IA.
Transfer Learning
Une technique où les connaissances acquises lors de l'entraînement sur une tâche sont appliquées à une tâche différente mais connexe, permettant un apprentissage efficace avec moins de données.
Transformer Architecture
Une architecture de réseau de neurones qui a révolutionné le NLP et constitue la base des modèles de langage modernes. Les transformeurs utilisent des mécanismes d'attention pour traiter et comprendre les relations dans les données séquentielles.
Unsupervised Learning
Approches d'apprentissage automatique où les modèles trouvent des motifs dans les données sans exemples étiquetés, incluant des techniques de clustering et de réduction de dimensionnalité.
Vector Database
Bases de données spécialisées conçues pour stocker et rechercher efficacement des embeddings vectoriels de haute dimension. Essentielles pour les systèmes RAG, la recherche sémantique et la correspondance de similarité dans les applications d'IA.
Zero-Shot Learning
La capacité des modèles d'IA à effectuer des tâches sans exemples d'entraînement spécifiques, en s'appuyant sur les connaissances générales et les instructions fournies dans les prompts.