NEURAL42 - Zur Startseite

Glossar

Agent

Eine autonome Einheit, die ihre Umgebung über Sensoren wahrnimmt, Informationen verarbeitet, Entscheidungen auf Basis ihrer Programmierung und gelernten Erfahrungen trifft und auf die Umgebung einwirkt, um bestimmte Ziele zu erreichen.

Agentic AI

KI-Systeme, die darauf ausgelegt sind, als intelligente Agenten autonom zu handeln – fähig, Entscheidungen zu treffen, Aktionen auszuführen und Ziele mit minimalem menschlichem Eingriff zu verfolgen. Diese Systeme können ihre Umgebung wahrnehmen, Situationen analysieren und Aufgaben selbstständig ausführen, während sie sich an veränderte Bedingungen anpassen.

Agentic RAG

Fortgeschrittene Retrieval-Augmented Generation, die autonome KI-Agenten in die RAG-Pipeline einbettet. Im Gegensatz zu herkömmlichem RAG ermöglicht Agentic RAG den KI-Agenten, Abrufprozesse dynamisch anzupassen, Kontext zu validieren und Reflexion, Planung, Tool-Nutzung sowie Multi-Agenten-Kollaboration für eine ausgefeiltere Informationsbeschaffung einzusetzen.

Agentic Services

Cloud-basierte oder verteilte Dienste, die agentische KI-Fähigkeiten nutzen, um komplexe Aufgaben autonom auszuführen. Diese Dienste können mehrstufige Workflows abwickeln, sich mit verschiedenen APIs und Tools integrieren und kontinuierlich arbeiten, um festgelegte Ziele ohne ständige menschliche Aufsicht zu erreichen.

API (Application Programming Interface)

Ein Satz von Protokollen und Werkzeugen, der es verschiedenen Softwareanwendungen ermöglicht, miteinander zu kommunizieren. KI-Dienste stellen häufig APIs bereit, um die Integration mit anderen Systemen und Anwendungen zu ermöglichen.

Artificial Intelligence (AI)

Computersysteme, die darauf ausgelegt sind, Aufgaben auszuführen, die typischerweise menschliche Intelligenz erfordern – darunter Lernen, logisches Denken, Problemlösung, Wahrnehmung und Sprachverständnis. KI umfasst verschiedene Ansätze von regelbasierten Systemen bis hin zu maschinellem Lernen und neuronalen Netzen.

Attention Mechanism

Eine Technik in neuronalen Netzen, insbesondere Transformern, die es Modellen ermöglicht, sich bei der Verarbeitung auf relevante Teile der Eingabedaten zu konzentrieren. Dieser Mechanismus erlaubt es Modellen, die Wichtigkeit verschiedener Eingaben dynamisch zu gewichten.

Autonomous Systems

Selbstverwaltende Systeme, die unabhängig ohne menschliche Steuerung operieren können und Entscheidungen auf Basis ihrer Programmierung, Sensoren und gelernten Verhaltensweisen treffen.

Backpropagation

Ein grundlegender Algorithmus beim Training neuronaler Netze, der Gradienten berechnet, indem Fehler rückwärts durch die Netzwerkschichten propagiert werden, wodurch das Modell Gewichte anpassen und seine Leistung verbessern kann.

Bias (AI)

Systematische Fehler oder Vorurteile in KI-Systemen, die zu unfairen Ergebnissen führen können. Bias kann durch Trainingsdaten, Algorithmus-Design oder den Einsatzkontext eingeführt werden – seine Bekämpfung ist entscheidend für eine ethische KI-Entwicklung.

Chain-of-Thought

Eine Prompting-Technik, die Sprachmodelle dazu anregt, komplexe Überlegungen in Zwischenschritte aufzuteilen, was die Leistung bei Aufgaben verbessert, die mehrstufiges Denken oder Problemlösung erfordern.

Computer Vision

Ein Bereich der KI, der Computern ermöglicht, aussagekräftige Informationen aus digitalen Bildern, Videos und anderen visuellen Eingaben zu gewinnen und darauf basierend Aktionen durchzuführen oder Empfehlungen abzugeben.

Context Awareness

Die Fähigkeit von KI-Systemen, den situativen Kontext, die Historie und die Umgebung zu verstehen und bei Entscheidungen oder Antworten zu berücksichtigen.

Context Window

Die maximale Textmenge (gemessen in Tokens), die ein Sprachmodell auf einmal verarbeiten kann. Größere Kontextfenster ermöglichen es Modellen, längere Dokumente zu verarbeiten und über ausgedehnte Gespräche hinweg Kohärenz zu bewahren.

Deep Learning

Ein Teilbereich des maschinellen Lernens, bei dem KI-Algorithmen eine mehrschichtige, künstliche neuronale Netzwerkstruktur nutzen, um komplexere Zusammenhänge zu erkennen als einfachere Systeme des maschinellen Lernens.

Embedding

Eine mathematische Darstellung von Daten (Text, Bilder usw.) als Vektoren in einem hochdimensionalen Raum, wobei semantisch ähnliche Elemente näher beieinander positioniert sind. Embeddings ermöglichen es KI-Systemen, Bedeutung zu verstehen und zu verarbeiten.

Few-Shot Learning

Ein Ansatz des maschinellen Lernens, bei dem Modelle lernen, neue Aufgaben mit nur wenigen Beispielen auszuführen, indem sie Vorwissen nutzen, um aus begrenzten Daten zu generalisieren.

Fine-tuning

Der Prozess der Anpassung eines vortrainierten KI-Modells an spezifische Aufgaben durch Training mit spezialisierten Datensätzen. Dadurch werden allgemeine Modelle für bestimmte Anwendungsfälle effektiver.

Generative AI

KI-Modelle, die in Trainingsdaten vorhandene Muster erlernen und neue Beispiele erzeugen, die einem bestimmten, im Prompt angeforderten Muster entsprechen. Dazu gehören Text-, Bild-, Audio- und Videogenerierung.

GPT (Generative Pre-trained Transformer)

Eine Familie großer Sprachmodelle von OpenAI, die die Transformer-Architektur nutzen und auf riesigen Textmengen vortrainiert werden, um menschenähnlichen Text zu erzeugen und verschiedene Sprachaufgaben auszuführen.

Gradient Descent

Ein Optimierungsalgorithmus, der Verlustfunktionen im maschinellen Lernen minimiert, indem Modellparameter iterativ in die Richtung angepasst werden, die den Fehler reduziert.

Hallucination

Wenn KI-Modelle falsche oder unsinnige Informationen erzeugen, die plausibel erscheinen, aber nicht in ihren Trainingsdaten oder dem bereitgestellten Kontext verankert sind. Eine zentrale Herausforderung für zuverlässige KI-Ausgaben.

Hyperparameter

Konfigurationsvariablen, die vor dem Training eines Machine-Learning-Modells festgelegt werden und den Lernprozess selbst steuern, wie z. B. Lernrate, Batch-Größe oder Anzahl der Schichten.

Inference

Der Prozess der Nutzung eines trainierten KI-Modells, um Vorhersagen zu treffen oder Ausgaben auf Basis neuer Eingabedaten zu erzeugen. Dies ist die operative Phase, in der die KI ihr gelerntes Wissen anwendet.

Intent Recognition

Die Fähigkeit von KI-Systemen, den zugrunde liegenden Zweck oder das Ziel hinter Nutzereingaben zu verstehen und zu erkennen, um genauere und hilfreichere Antworten zu ermöglichen.

Large Language Model (LLM)

Fortgeschrittene KI-Modelle, die auf riesigen Textmengen trainiert werden, um menschliche Sprache zu verstehen und zu erzeugen. Beispiele sind GPT-4, Claude und Gemini. Diese Modelle bilden die Grundlage für viele moderne agentische KI-Systeme.

Machine Learning (ML)

Ein Teilbereich der KI, der es Systemen ermöglicht, automatisch aus Erfahrung zu lernen und sich zu verbessern, ohne für jedes Szenario explizit programmiert zu werden. ML-Algorithmen erstellen mathematische Modelle auf Basis von Trainingsdaten, um Vorhersagen oder Entscheidungen zu treffen.

Model Architecture

Das strukturelle Design eines neuronalen Netzes, das definiert, wie Schichten angeordnet und verbunden sind und wie Informationen durch das System fließen.

Multi-modal AI

KI-Systeme, die in der Lage sind, mehrere Datentypen gleichzeitig zu verarbeiten und zu verstehen – wie Text, Bilder, Audio und Video –, um umfassendere und kontextbezogene Antworten zu liefern.

Natural Language Processing (NLP)

Der Bereich der KI, der sich darauf konzentriert, Computern das Verstehen, Interpretieren und Erzeugen menschlicher Sprache zu ermöglichen. NLP ist die Grundlage für Chatbots, Übersetzungsdienste und Textanalyse-Tools.

Neural Network

Ein Computersystem, das von biologischen neuronalen Netzen inspiriert ist und aus miteinander verbundenen Knoten (Neuronen) besteht, die Informationen verarbeiten. Tiefe neuronale Netze mit mehreren Schichten bilden die Basis moderner KI-Durchbrüche.

Overfitting

Ein Modellierungsfehler, bei dem ein Machine-Learning-Modell die Trainingsdaten zu gut lernt – einschließlich Rauschen und Ausreißern –, was zu schlechter Leistung bei neuen, ungesehenen Daten führt.

Parameters

Die internen Variablen eines Machine-Learning-Modells, die aus Trainingsdaten gelernt werden. Große Sprachmodelle können Milliarden oder Billionen von Parametern haben, die Wissen kodieren.

Pre-training

Die initiale Trainingsphase, in der ein großes Modell auf massiven Datensätzen allgemeine Muster und Wissen erlernt, bevor es für spezifische Aufgaben feinabgestimmt wird.

Prompt Engineering

Die Praxis des Entwerfens und Optimierens von Textprompts, um gewünschte Antworten von KI-Sprachmodellen zu erhalten. Effektives Prompting umfasst klare Anweisungen, Kontextbereitstellung und strukturierte Anfragen für optimale KI-Leistung.

RAG (Retrieval-Augmented Generation)

Eine Technik, die Sprachmodelle verbessert, indem vor der Antwortgenerierung relevante Informationen aus externen Wissensquellen abgerufen werden, was die Genauigkeit erhöht und Modellen den Zugriff auf aktuelle Informationen ermöglicht.

Reinforcement Learning

Ein Ansatz des maschinellen Lernens, bei dem Agenten lernen, Entscheidungen zu treffen, indem sie mit einer Umgebung interagieren und Feedback in Form von Belohnungen oder Strafen erhalten. Diese Methode ist entscheidend für das Training autonomer Agenten.

Scalability

Die Fähigkeit von KI-Systemen und agentischen Diensten, wachsende Arbeitslasten, Nutzer oder Komplexität ohne signifikanten Leistungsabfall oder Effizienzverlust zu bewältigen.

Semantic Search

Eine Suchtechnik, die die Absicht und kontextuelle Bedeutung von Suchanfragen versteht, statt nur Schlüsselwörter abzugleichen, und so relevantere und intelligentere Suchergebnisse ermöglicht.

Supervised Learning

Ein Ansatz des maschinellen Lernens, bei dem Modelle auf gelabelten Daten trainiert werden und lernen, Eingaben bekannten Ausgaben zuzuordnen. Dies wird für Aufgaben wie Klassifikation und Regression verwendet.

Temperature (AI)

Ein Parameter, der die Zufälligkeit der KI-Modellausgaben steuert. Niedrigere Temperaturen erzeugen deterministischere Antworten, während höhere Temperaturen Kreativität und Variation erhöhen.

Token

Die grundlegende Texteinheit, die Sprachmodelle verarbeiten. Ein Token kann ein Wort, ein Wortteil oder ein Satzzeichen sein. Modelle haben Token-Limits, die die Größe ihres Kontextfensters definieren.

Training Data

Die Informationen, die verwendet werden, um KI-Modellen beizubringen, wie bestimmte Aufgaben auszuführen sind. Qualität und Vielfalt der Trainingsdaten beeinflussen die Leistung und Fähigkeiten von KI-Systemen erheblich.

Transfer Learning

Eine Technik, bei der Wissen, das beim Training einer Aufgabe gewonnen wurde, auf eine andere, aber verwandte Aufgabe angewendet wird, was effizientes Lernen mit weniger Daten ermöglicht.

Transformer Architecture

Eine neuronale Netzwerkarchitektur, die NLP revolutioniert hat und die Grundlage moderner Sprachmodelle bildet. Transformer nutzen Attention-Mechanismen, um Beziehungen in sequentiellen Daten zu verarbeiten und zu verstehen.

Unsupervised Learning

Ansätze des maschinellen Lernens, bei denen Modelle ohne gelabelte Beispiele Muster in Daten finden, einschließlich Clustering und Dimensionsreduktion.

Vector Database

Spezialisierte Datenbanken zum Speichern und effizienten Durchsuchen hochdimensionaler Vektor-Embeddings. Unverzichtbar für RAG-Systeme, semantische Suche und Ähnlichkeitsabgleich in KI-Anwendungen.

Zero-Shot Learning

Die Fähigkeit von KI-Modellen, Aufgaben ohne spezifische Trainingsbeispiele auszuführen, indem sie sich auf allgemeines Wissen und die in Prompts bereitgestellten Anweisungen stützen.