Glosario
Agent
Una entidad autónoma que percibe su entorno a través de sensores, procesa información, toma decisiones basándose en su programación y experiencias aprendidas, y actúa sobre el entorno para lograr objetivos específicos.
Agentic AI
Sistemas de IA diseñados para actuar de forma autónoma como agentes inteligentes, capaces de tomar decisiones, ejecutar acciones y perseguir objetivos con mínima intervención humana. Estos sistemas pueden percibir su entorno, razonar sobre situaciones y ejecutar tareas de forma independiente mientras se adaptan a condiciones cambiantes.
Agentic RAG
Generación aumentada por recuperación avanzada que integra agentes de IA autónomos en el proceso de RAG. A diferencia del RAG tradicional, el RAG agéntico permite a los agentes de IA adaptar los procesos de recuperación de forma dinámica, validar el contexto y utilizar reflexión, planificación, uso de herramientas y colaboración multiagente para una recuperación de información más sofisticada.
Agentic Services
Servicios en la nube o distribuidos que aprovechan las capacidades de la IA agéntica para realizar tareas complejas de forma autónoma. Estos servicios pueden gestionar flujos de trabajo de múltiples pasos, integrarse con diversas APIs y herramientas, y operar de forma continua para alcanzar objetivos específicos sin supervisión humana constante.
API (Application Programming Interface)
Un conjunto de protocolos y herramientas que permite a diferentes aplicaciones de software comunicarse entre sí. Los servicios de IA suelen proporcionar APIs para facilitar la integración con otros sistemas y aplicaciones.
Artificial Intelligence (AI)
Sistemas informáticos diseñados para realizar tareas que normalmente requieren inteligencia humana, incluyendo aprendizaje, razonamiento, resolución de problemas, percepción y comprensión del lenguaje. La IA abarca diversos enfoques, desde sistemas basados en reglas hasta aprendizaje automático y redes neuronales.
Attention Mechanism
Una técnica utilizada en redes neuronales, especialmente en transformers, que permite a los modelos centrarse en partes relevantes de los datos de entrada al procesar información. Este mecanismo permite a los modelos ponderar dinámicamente la importancia de diferentes entradas.
Autonomous Systems
Sistemas autónomos que pueden operar de forma independiente sin control humano, tomando decisiones y ejecutando acciones basándose en su programación, sensores y comportamientos aprendidos.
Backpropagation
Un algoritmo fundamental en el entrenamiento de redes neuronales que calcula gradientes propagando errores hacia atrás a través de las capas de la red, permitiendo al modelo ajustar los pesos y mejorar su rendimiento.
Bias (AI)
Errores sistemáticos o prejuicios en los sistemas de IA que pueden llevar a resultados injustos. El sesgo puede introducirse a través de los datos de entrenamiento, el diseño del algoritmo o los contextos de implementación, y abordarlo es crucial para el desarrollo ético de la IA.
Chain-of-Thought
Una técnica de prompting que anima a los modelos de lenguaje a descomponer razonamientos complejos en pasos intermedios, mejorando el rendimiento en tareas que requieren razonamiento o resolución de problemas en múltiples pasos.
Computer Vision
Un campo de la IA que permite a los ordenadores extraer información significativa de imágenes digitales, vídeos y otras entradas visuales, y tomar acciones o hacer recomendaciones basándose en esa información.
Context Awareness
La capacidad de los sistemas de IA para comprender y considerar el contexto situacional, el historial y el entorno al tomar decisiones o proporcionar respuestas.
Context Window
La cantidad máxima de texto (medida en tokens) que un modelo de lenguaje puede procesar a la vez. Ventanas de contexto más grandes permiten a los modelos manejar documentos más extensos y mantener la coherencia en conversaciones prolongadas.
Deep Learning
Un subconjunto del aprendizaje automático donde los algoritmos de IA están diseñados con una estructura de red neuronal artificial multicapa, permitiéndoles realizar correlaciones más complejas en comparación con sistemas basados en aprendizaje automático más simples.
Embedding
Una representación matemática de datos (texto, imágenes, etc.) como vectores en un espacio de alta dimensionalidad, donde los elementos semánticamente similares se posicionan más cerca entre sí. Los embeddings permiten a los sistemas de IA comprender y procesar el significado.
Few-Shot Learning
Un enfoque de aprendizaje automático donde los modelos aprenden a realizar nuevas tareas con solo unos pocos ejemplos, aprovechando el conocimiento previo para generalizar a partir de datos limitados.
Fine-tuning
El proceso de adaptar un modelo de IA preentrenado para realizar tareas específicas entrenándolo con conjuntos de datos especializados. Esto permite que los modelos de propósito general sean más eficaces para casos de uso particulares.
Generative AI
Modelos de IA que aprenden patrones existentes en los datos de entrenamiento y generan nuevos ejemplos que se ajustan a un patrón particular solicitado en el prompt. Esto incluye la generación de texto, imágenes, audio y vídeo.
GPT (Generative Pre-trained Transformer)
Una familia de modelos de lenguaje de gran escala desarrollados por OpenAI que utilizan la arquitectura transformer y están preentrenados con grandes cantidades de datos textuales para generar texto similar al humano y realizar diversas tareas lingüísticas.
Gradient Descent
Un algoritmo de optimización utilizado para minimizar funciones de pérdida en aprendizaje automático, ajustando iterativamente los parámetros del modelo en la dirección que reduce el error.
Hallucination
Cuando los modelos de IA generan información falsa o sin sentido que parece plausible pero no está fundamentada en sus datos de entrenamiento o en el contexto proporcionado. Un desafío clave para garantizar resultados fiables de la IA.
Hyperparameter
Variables de configuración establecidas antes de entrenar un modelo de aprendizaje automático que controlan el proceso de aprendizaje en sí, como la tasa de aprendizaje, el tamaño del lote o el número de capas.
Inference
El proceso de utilizar un modelo de IA entrenado para hacer predicciones o generar resultados basándose en nuevos datos de entrada. Esta es la fase operativa en la que la IA aplica su conocimiento aprendido.
Intent Recognition
La capacidad de los sistemas de IA para comprender e identificar el propósito o la intención subyacente detrás de las entradas del usuario, permitiendo respuestas más precisas y útiles.
Large Language Model (LLM)
Modelos avanzados de IA entrenados con grandes cantidades de datos textuales para comprender y generar lenguaje similar al humano. Ejemplos incluyen GPT-4, Claude y Gemini. Estos modelos constituyen la base de muchos sistemas modernos de IA agéntica.
Machine Learning (ML)
Un subconjunto de la IA que permite a los sistemas aprender y mejorar automáticamente a partir de la experiencia sin ser programados explícitamente para cada escenario. Los algoritmos de ML construyen modelos matemáticos basados en datos de entrenamiento para hacer predicciones o tomar decisiones.
Model Architecture
El diseño estructural de una red neuronal, que define cómo se organizan y conectan las capas y cómo fluye la información a través del sistema.
Multi-modal AI
Sistemas de IA capaces de procesar y comprender múltiples tipos de datos de entrada simultáneamente, como texto, imágenes, audio y vídeo, para proporcionar respuestas más completas y contextuales.
Natural Language Processing (NLP)
La rama de la IA centrada en permitir a los ordenadores comprender, interpretar y generar lenguaje humano de manera útil. El NLP impulsa chatbots, servicios de traducción y herramientas de análisis de texto.
Neural Network
Un sistema de computación inspirado en las redes neuronales biológicas, compuesto por nodos interconectados (neuronas) que procesan información. Las redes neuronales profundas con múltiples capas constituyen la base de los avances modernos en IA.
Overfitting
Un error de modelado donde un modelo de aprendizaje automático aprende demasiado bien los datos de entrenamiento, incluyendo ruido y valores atípicos, lo que resulta en un rendimiento deficiente con datos nuevos no vistos.
Parameters
Las variables internas de un modelo de aprendizaje automático que se aprenden a partir de los datos de entrenamiento. Los modelos de lenguaje de gran escala pueden tener miles de millones o billones de parámetros que codifican conocimiento.
Pre-training
La fase inicial de entrenamiento de un modelo grande con conjuntos de datos masivos para aprender patrones y conocimientos generales antes de su ajuste fino para tareas específicas.
Prompt Engineering
La práctica de diseñar y optimizar prompts de texto para obtener las respuestas deseadas de los modelos de lenguaje de IA. Un prompting eficaz implica formular instrucciones claras, proporcionar contexto y estructurar las solicitudes para un rendimiento óptimo de la IA.
RAG (Retrieval-Augmented Generation)
Una técnica que mejora los modelos de lenguaje recuperando información relevante de fuentes de conocimiento externas antes de generar respuestas, mejorando la precisión y permitiendo a los modelos acceder a información actualizada.
Reinforcement Learning
Un enfoque de aprendizaje automático donde los agentes aprenden a tomar decisiones interactuando con un entorno y recibiendo retroalimentación en forma de recompensas o penalizaciones. Este método es crucial para entrenar agentes autónomos.
Scalability
La capacidad de los sistemas de IA y los servicios agénticos para manejar cargas de trabajo, usuarios o complejidad crecientes sin una degradación significativa en el rendimiento o la eficiencia.
Semantic Search
Una técnica de búsqueda que comprende la intención y el significado contextual de las consultas en lugar de simplemente coincidir con palabras clave, permitiendo resultados de búsqueda más relevantes e inteligentes.
Supervised Learning
Un enfoque de aprendizaje automático donde los modelos se entrenan con datos etiquetados, aprendiendo a mapear entradas a salidas conocidas. Se utiliza para tareas como clasificación y regresión.
Temperature (AI)
Un parámetro que controla la aleatoriedad de las salidas del modelo de IA. Temperaturas más bajas producen respuestas más deterministas, mientras que temperaturas más altas aumentan la creatividad y la variación.
Token
La unidad básica de texto que procesan los modelos de lenguaje. Un token puede ser una palabra, parte de una palabra o un signo de puntuación. Los modelos tienen límites de tokens que definen el tamaño de su ventana de contexto.
Training Data
La información utilizada para enseñar a los modelos de IA cómo realizar tareas específicas. La calidad y diversidad de los datos de entrenamiento impactan significativamente en el rendimiento y las capacidades de los sistemas de IA.
Transfer Learning
Una técnica en la que el conocimiento adquirido al entrenar en una tarea se aplica a una tarea diferente pero relacionada, permitiendo un aprendizaje eficiente con menos datos.
Transformer Architecture
Una arquitectura de red neuronal que revolucionó el NLP y constituye la base de los modelos de lenguaje modernos. Los transformers utilizan mecanismos de atención para procesar y comprender las relaciones en datos secuenciales.
Unsupervised Learning
Enfoques de aprendizaje automático donde los modelos encuentran patrones en datos sin ejemplos etiquetados, incluyendo técnicas de agrupamiento y reducción de dimensionalidad.
Vector Database
Bases de datos especializadas diseñadas para almacenar y buscar eficientemente embeddings vectoriales de alta dimensionalidad. Esenciales para sistemas RAG, búsqueda semántica y coincidencia de similitud en aplicaciones de IA.
Zero-Shot Learning
La capacidad de los modelos de IA para realizar tareas sin ejemplos de entrenamiento específicos, basándose en el conocimiento general e instrucciones proporcionadas en los prompts.