Die wichtigsten Fachbegriffe aus der KI BIBEL – alphabetisch sortiert und kompakt erklärt. Vertiefte Erklärungen, Praxisbeispiele und Checklisten finden Sie im Buch.
Methode zur Evaluation von KI-Modellen oder Prompts, bei der zwei Varianten gleichzeitig getestet und die Ergebnisse verglichen werden. Wichtig für die systematische Optimierung von KI-Anwendungen.
Offener Kommunikationsstandard, der von Google in Zusammenarbeit mit der Linux Foundation entwickelt wurde und 2025 auf dem Google Cloud Next vorgestellt wurde. Ermöglicht KI-Agenten unterschiedlicher Hersteller, miteinander zu interagieren und Aufgaben zu delegieren, ohne dass proprietäre Schnittstellen erforderlich sind. Komplementär zum MCP.
Eine gezielte Manipulation der Eingaben eines KI-Systems, um fehlerhafte Ergebnisse zu provozieren. Beispiel: Minimale, für Menschen unsichtbare Änderungen an einem Bild führen dazu, dass ein Bilderkennungssystem ein Stoppschild als Geschwindigkeitsbegrenzung klassifiziert.
Hypothetische Form der KI, die über intellektuelle Fähigkeiten verfügt, die denen des Menschen in allen Bereichen ebenbürtig oder überlegen sind. Bislang nicht realisiert. Führende KI-Forscher sind tief gespalten über den Zeitpunkt der Erreichbarkeit.
Verordnung (EU) 2024/1689 – das weltweit erste umfassende Gesetz zur Regulierung von KI-Systemen. Trat am 1. August 2024 in Kraft. Zentrales Instrument: Der risikobasierte Ansatz mit vier Risikostufen.
Englischer Begriff für KI-Kompetenz. Im EU AI Act (Art. 4) als gesetzliche Pflicht für Unternehmen verankert: Sie müssen sicherstellen, dass ihr Personal über ausreichende KI-Kompetenz verfügt.
KI-generierte direkte Antwortzusammenfassungen, die Suchmaschinen (wie Google) über den klassischen blauen Links anzeigen. Kernaspekt der neuen Suchrealität im Bereich GEO.
Vorgeschlagene EU-Richtlinie zur KI-spezifischen Haftung mit Beweislastvereinfachungen. Die EU-Kommission hat den Vorschlag am 11. Februar 2025 aus dem Arbeitsprogramm zurückgezogen; KI-Haftung wird seither primär über die neue Produkthaftungsrichtlinie (PLD 2024/2853) abgedeckt.
Die Ausrichtung eines KI-Systems auf menschliche Werte, Absichten und Ziele. Das Alignment-Problem – wie stellt man sicher, dass ein KI-System das tut, was Menschen wirklich wollen? – ist die zentrale offene Herausforderung der KI-Sicherheitsforschung.
Schwache oder schmale KI – Systeme, die auf spezifische Aufgaben spezialisiert sind. Alle heute existierenden KI-Systeme, einschließlich ChatGPT, Claude und Gemini, fallen in diese Kategorie.
Programmierschnittstelle, über die Entwickler KI-Modelle in eigene Anwendungen integrieren können. Alle großen KI-Anbieter stellen ihre Modelle über APIs zur Verfügung (z. B. OpenAI API, Anthropic API).
Hypothetische Stufe der KI, die menschliche Intelligenz in nahezu allen Bereichen weit übertrifft. Aktuell Science-Fiction.
Der zentrale Mechanismus der Transformer-Architektur. Berechnet, wie stark jedes Element in einer Eingabe auf jedes andere „achten“ sollte. Ermöglicht das Verständnis von Kontextbeziehungen über große Textmengen hinweg.
Konzept, bei dem KI nicht als Ersatz für den Menschen, sondern als Verstärker menschlicher Fähigkeiten verstanden wird. Betont die Zusammenarbeit zwischen Mensch und Maschine.
Ein neuronales Netz, das darauf trainiert wird, seine Eingabe in eine komprimierte Darstellung zu überführen und daraus die Eingabe zu rekonstruieren. Varianten (VAE – Variational Autoencoder) dienen der generativen KI.
Selbstfahrendes Fahrzeug nach SAE-Klassifikation mit fünf Autonomiestufen. Level 2 (Teilautomatisierung) ist heute weit verbreitet; Level 4 (vollautomatisiert ohne Fahrer) ist in Pilotprojekten verfügbar; Level 5 (vollautonom unter allen Bedingungen) bleibt Entwicklungsziel.
Der grundlegende Lernalgorithmus neuronaler Netze. Berechnet den Fehler der Ausgabe rückwärts durch das Netz und passt die Gewichte an, um den Fehler zu minimieren.
Verarbeitung mehrerer Eingaben gleichzeitig statt einzeln. Im KI-Kontext relevant für effiziente Inferenz und Kostenreduktion beim API-Einsatz.
Standardisierter Test zur Messung der Leistung von KI-Modellen unter definierten Bedingungen. Bekannte Benchmarks: MMLU (Allgemeinwissen), HumanEval (Code), GPQA (Expertenwissen auf PhD-Niveau).
Systematische Verzerrung in den Ergebnissen eines KI-Systems, die bestimmte Gruppen benachteiligt. Kann aus Daten (Daten-Bias), Annotationen (Labeling-Bias), Unterrepräsentation (Repräsentations-Bias) oder sich selbst verstärkenden Rückkopplungsschleifen (Feedback-Loop-Bias) entstehen.
Bezeichnung für KI-Systeme, deren interne Entscheidungsprozesse für Menschen nicht nachvollziehbar sind. Tiefe neuronale Netze sind typische Black-Box-Systeme. Gegenteil: Erklärbare KI (XAI).
Die Nutzung privater KI-Tools und -Konten für berufliche Zwecke. Eines der Hauptquellen von Schatten-KI und Datenschutzverstößen in Unternehmen.
Standard für die kryptografische Kennzeichnung digitaler Inhalte mit Herkunftsinformationen. Ermöglicht die Nachverfolgung, ob ein Inhalt von Menschen oder KI erstellt wurde. Entwickelt von Adobe, Microsoft, Intel und anderen.
Eine Prompting-Technik, bei der das Modell aufgefordert wird, seinen Denkprozess Schritt für Schritt darzulegen, bevor es eine Antwort gibt. Verbessert die Ergebnisqualität bei komplexen Aufgaben erheblich.
Familie von KI-Sprachmodellen des Unternehmens Anthropic. Stand Q1/2026 umfasst dies Claude Opus (Reasoning-fokussiert) und Claude Sonnet (ausgewogen). Bekannt für langen Kontextfenster (bis 1 Mio. Token) und Constitutional AI als Sicherheitsansatz.
Spezialisiertes neuronales Netz für die Verarbeitung räumlich strukturierter Daten, insbesondere Bilder. Der gefilterte Blick auf Teilbereiche (Faltungsoperation) macht CNNs besonders effektiv für Bilderkennung.
Fähigkeit eines KI-Agenten, einen Computer-Desktop eigenständig zu bedienen – Maus bewegen, klicken, tippen, scrollen. Von Anthropic für Claude eingeführt, ermöglicht vollautomatische Desktop-Workflows.
Von Anthropic entwickelter Ansatz, KI-Modelle durch explizit definierte Prinzipien (eine „Verfassung“) zu alignieren. Statt ausschließlich menschliches Feedback zu nutzen, bewertet das Modell seine eigenen Ausgaben anhand dieser Prinzipien.
Die maximale Menge an Text (in Token), die ein Sprachmodell gleichzeitig verarbeiten kann. Aktuelle Frontier-Modelle haben Kontextfenster von 128.000 bis 2.000.000 Token.
Systematisches Modell für die Erstellung hochwertiger Prompts. Steht für: Context (Kontext), Role (Rolle), Action (Aufgabe), Format, Tone (Ton).
Veränderung der statistischen Eigenschaften von Eingabedaten über die Zeit, die dazu führen kann, dass ein KI-Modell an Genauigkeit verliert. Erfordert kontinuierliches Monitoring in produktiven Systemen.
Zentrales Datenspeichersystem, das große Mengen strukturierter und unstrukturierter Rohdaten in ihrer ursprünglichen Form ablegt. Ausgangspunkt für viele KI-Trainingsdatensätze.
Angriff auf KI-Systeme, bei dem Trainingsdaten absichtlich manipuliert werden, um das Modell in eine gewünschte Richtung zu beeinflussen oder es vollständig zu korrumpieren.
Teilgebiet des maschinellen Lernens, das auf tiefen neuronalen Netzen mit vielen Schichten basiert. Grundlage der meisten modernen KI-Systeme, ermöglicht durch Skalierungsgesetze.
KI-generiertes oder -manipuliertes Bild, Audio oder Video, das eine Person in einer Situation zeigt, die nie stattgefunden hat. Entstand als Portmanteau aus „Deep Learning“ und „Fake“. Unterliegt im EU AI Act Kennzeichnungspflichten.
Chinesisches KI-Unternehmen (DeepSeek-V3, veröffentlicht am 26. Dezember 2024; DeepSeek-R1, veröffentlicht am 20. Januar 2025), das mit dem Reasoning-Modell R1 Frontier-Leistung für einen Bruchteil der Trainingskosten westlicher Konkurrenten erzielte. Löste eine internationale Debatte über Kosteneffizienz im KI-Training aus.
Die Bereitstellung eines trainierten KI-Modells in einer produktiven Umgebung, in der es von Endnutzern eingesetzt werden kann. Deployment-Entscheidungen sind für den AI Act hochrelevant.
Generatives Modell, das lernt, ein verrauschtes Bild schrittweise zu „entrauschen“ und so neue, hochwertige Bilder aus Rauschen zu erzeugen. Grundlage von Midjourney, Stable Diffusion und der GPT-Image-Reihe (ehem. DALL-E 3).
EU-Gesetzgebungspaket, am 19. November 2025 von der EU-Kommission vorgeschlagen; es soll unter anderem die Fristen für Hochrisiko-KI-Systeme (Annex III) auf Dezember 2027 verschieben und einen Single Reporting Point für Unternehmen einführen (Trilog-Verhandlungen seit März 2026).
Technologien, die verhindern, dass vertrauliche Daten das Unternehmensnetz verlassen. Im KI-Kontext eingesetzt, um das Einfügen sensibler Daten in öffentliche KI-Tools zu unterbinden.
Trainingsverfahren, das 2023 von Rafailov et al. (Stanford) als einfachere Alternative zu RLHF eingeführt wurde. Anstatt ein separates Reward-Modell zu trainieren, optimiert DPO das Sprachmodell direkt auf Basis von Präferenzpaaren (bevorzugte vs. abgelehnte Ausgaben). Reduziert Komplexität und Instabilität des RLHF-Prozesses erheblich.
Verpflichtende Risikoanalyse nach Art. 35 DSGVO für KI-Systeme, die voraussichtlich ein hohes Risiko für die Rechte und Freiheiten betroffener Personen darstellen. Eng verzahnt mit dem Risikomanagement des AI Acts.
Europäische Verordnung (EU) 2016/679 zum Schutz personenbezogener Daten, die auch für die Verarbeitung durch KI-Systeme gilt. Die DSGVO und der EU AI Act ergänzen sich und überlappen sich in weiten Teilen.
Ausführung von KI-Modellen direkt auf Endgeräten (Smartphones, IoT-Sensoren, Industriemaschinen), anstatt in der Cloud. Vorteile: geringere Latenz, mehr Datenschutz, Offline-Fähigkeit.
Numerische Darstellung von Text, Bildern oder anderen Daten als Vektoren in einem hochdimensionalen Raum. Semantisch ähnliche Inhalte liegen nah beieinander. Grundlage von Vektordatenbanken und semantischer Suche.
Fähigkeiten, die bei kleinen Modellen nicht beobachtbar sind, aber ab einer bestimmten Modellgröße oder Trainingstiefe plötzlich auftreten. Beispiel: Mehrsprachigkeit, logisches Schlussfolgern, In-Context Learning.
Mechanismus in Claude Opus und vergleichbaren Reasoning-Modellen, bei dem das Modell explizit „nachdenkt“, bevor es antwortet – der interne Denkprozess ist für den Nutzer teilweise einsehbar.
Die maschinelle Lesbarkeit von Inhalten für KI-Crawler und -Parser. Eine Kernmetrik der GEO, die misst, wie leicht ein Modell strukturierte Fakten, Entitäten und Zusammenhänge aus einer Webseite extrahieren kann (z. B. durch Server-Side Rendering und klare HTML-Struktur).
Strategischer Bestandteil der GEO. Der gezielte Aufbau von KI-Sichtbarkeit und „AI Availability“, indem Marken oder Produkte in den primären Drittquellen (Reddit, Wikipedia, Fachmedien) platziert werden, die von Modellen beim Datentraining oder Retrieval am höchsten gewichtet werden.
Prozess der manuellen Auswahl, Transformation und Erstellung von Merkmalen (Features) aus Rohdaten, um die Leistung von ML-Modellen zu verbessern. Bei modernen Deep-Learning-Modellen weitgehend durch automatisches Lernen ersetzt.
Prompting-Technik, bei der dem Modell ein oder mehrere Beispiele des gewünschten Outputs mitgegeben werden, bevor die eigentliche Aufgabe gestellt wird.
Weitertrainieren eines vortrainierten Basismodells auf einem kleineren, domänenspezifischen Datensatz, um seine Leistung für eine bestimmte Aufgabe zu verbessern. Ressourcenschonender als Vortraining von Grund auf.
Synonym für Basismodell: Ein großes, vortrainiertes KI-Modell, das als Grundlage für viele verschiedene Downstream-Anwendungen dient. Aktuelle GPT-Modelle, Claude Sonnet und Gemini Pro sind Foundation Models.
Mechanismus, über den ein Sprachmodell externe Werkzeuge, APIs und Datenbanken aufruft. Zentrale Voraussetzung für die Funktionsfähigkeit von KI-Agenten.
Rahmenmodell zur Einordnung der KI-Entwicklung nach Autonomiegrad. Stufe 0: Regelbasierte Software (kein Lernen, kein AI Act). Stufe 1: Chatbots (passive Frage-Antwort-Systeme). Stufe 2: Reasoning-Modelle (KI, die denkt und plant). Stufe 3: Autonome Agenten (eigenständig handelnde KI). Stufe 4: Innovator-KI/AGI (forschende KI, die Neues erschafft). Stufe 5: Organisations-KI/ASI (organisationslenkende Superintelligenz, hypothetisch).
Generatives Modell, bestehend aus zwei konkurrierenden neuronalen Netzen: dem Generator (erzeugt synthetische Daten) und dem Diskriminator (unterscheidet echte von generierten Daten). 2014 von Ian Goodfellow eingeführt.
Familie von KI-Modellen von Google DeepMind. Stand Q1/2026 umfasst dies Gemini Pro (Frontier), Gemini Flash (schnell und kosteneffizient) und Gemma 4 (Open-Source-Variante). Nativ multimodal.
Die strategische Disziplin zur Optimierung von Inhalten, um von generativen KI-Anwendungen, Suchmaschinen (AI Overviews) und Chatbots als präferierte Quelle zitiert und detaillierter wiedergegeben zu werden. Verbindet SEO mit Extractability, Fame Engineering und Entitäten-Optimierung.
Grundprinzip: Die Qualität der Ausgabe eines KI-Systems hängt direkt von der Qualität seiner Eingaben (Trainingsdaten und Prompts) ab. Gilt für Modelltraining und für tägliches Prompting gleichzeitig.
KI-Modell mit allgemeinem Verwendungszweck, das für eine breite Palette von Aufgaben eingesetzt werden kann. Aktuelle GPT-Modelle, Claude Sonnet, Gemini Pro und Llama fallen in diese Kategorie. Unterliegt eigenen Regeln im AI Act (Art. 51–56).
Spezialisierter Prozessor, ursprünglich für Computergrafik entwickelt, der aufgrund seiner massiv parallelen Rechenarchitektur besonders effizient für das Training und die Inferenz neuronaler Netze ist. NVIDIAs H100 und H200 sind die Industriestandards 2026.
Verknüpfung der Ausgaben eines KI-Modells mit verifizierten, aktuellen Datenquellen. Reduziert Halluzinationen, indem das Modell seine Antworten auf konkrete Referenzdokumente stützt.
Situation, in der ein Sprachmodell plausibel klingende, aber faktisch falsche Ausgaben erzeugt. Entsteht, weil Modelle auf statistische Plausibilität optimiert sind, nicht auf Wahrheit. Aktuelle Frontier-Modelle halluzinieren je nach Domäne in 5–15 % der Faktenfragen.
Systemdesign, bei dem ein Mensch in den Entscheidungsprozess eingebunden ist und die finale Kontrolle behält. Pflicht für Hochrisiko-KI-Systeme nach Art. 14 EU AI Act.
Systemdesign, bei dem die KI eigenständig entscheidet, aber ein menschlicher Supervisor jederzeit eingreifen und stoppen kann. Mittelposition zwischen vollautonomer KI und Human-in-the-Loop.
Konfigurationsparameter eines KI-Modells, die vor dem Training festgelegt werden (z. B. Lernrate, Anzahl der Schichten, Batch-Größe). Nicht durch den Lernprozess selbst, sondern durch den Entwickler angepasst.
Fähigkeit von LLMs, aus Beispielen im Prompt zu lernen, ohne die Modellgewichte anzupassen. Ermöglicht Few-Shot- und Zero-Shot-Prompting.
Der Vorgang, bei dem ein trainiertes KI-Modell auf neue Eingaben angewendet wird und Ausgaben erzeugt. Im Gegensatz zum Training ist Inferenz bei jeder Nutzung des Modells erforderlich.
Faktendichte; das Maß an neuen, dichten und validierbaren Entitäten oder Konzepten, die in einem Dokument vorkommen, im Vergleich zur kontextuellen Norm. Gilt als entscheidender Ranking- bzw. Auswahlaspekt für Systeme, die Quellen synthetisieren.
Internationaler Standard für KI-Managementsysteme (AIMS), verabschiedet Ende 2023. Definiert Anforderungen für die verantwortungsvolle Entwicklung, den Einsatz und das Monitoring von KI-Systemen in Organisationen. Harmoniert mit dem EU AI Act.
KI-System, das eigenständig wahrnimmt, plant, handelt und dabei Werkzeuge nutzt, um ein vorgegebenes Ziel autonom zu erreichen – oft ohne kontinuierliche menschliche Anleitung.
Die Fähigkeit, KI-Systeme zu verstehen, kritisch zu bewerten und verantwortungsvoll einzusetzen. Gemäß Art. 4 EU AI Act seit Februar 2025 gesetzliche Pflicht für Unternehmen.
Deutsches nationales Durchführungsgesetz zum EU AI Act, mit dem Deutschland die Zuständigkeiten der nationalen Marktüberwachungsbehörden (primär Bundesnetzagentur) für den AI Act regelt. Stand Q1/2026 in Vorbereitung.
Strukturierte Wissensdatenbank, die Entitäten (Personen, Orte, Konzepte) und ihre Beziehungen als Graph darstellt. Kann mit RAG-Systemen kombiniert werden, um KI-Antworten zu verbessern.
KI-gesteuerte Waffensysteme, die Ziele eigenständig identifizieren, auswählen und angreifen können, ohne dass ein Mensch die finale Entscheidung trifft. Gegenstand intensiver internationaler Debatten; kein bindendes Verbot existiert Stand 2026.
Familie von Open-Source-KI-Modellen von Meta AI. Stand Q1/2026 ist Llama verfügbar. Ermöglicht lokale Ausführung und Fine-Tuning ohne Abhängigkeit von proprietären Cloud-APIs.
Großes Sprachmodell mit Milliarden bis Billionen von Parametern, trainiert auf riesigen Textkorpora. Beispiele: aktuelle GPT-Modelle, Claude Sonnet, Gemini Pro, Llama.
Benutzerfreundliche Desktop-Anwendung für Windows, Mac und Linux, die den einfachen Download und die lokale Ausführung von Open-Source-KI-Modellen ohne Programmierkenntnisse ermöglicht.
Spezielle RNN-Variante mit Gattern für selektives Speichern und Vergessen von Informationen. Dominierte die Sprachverarbeitung vor der Transformer-Ära; in modernen LLMs weitgehend ersetzt.
Von Anthropic 2024 als offener Standard veröffentlichtes Protokoll für die standardisierte Anbindung von KI-Modellen an externe Werkzeuge, Datenquellen und Dienste. Vergleichbar mit einem USB-Standard für KI-Integrationen.
Konzept, das fordert, dass ein Mensch stets die wirksame Kontrolle über kritische KI-Entscheidungen behält – besonders relevant bei autonomen Waffensystemen und Hochrisiko-KI.
Technik, bei der das KI-Modell dazu verwendet wird, bessere Prompts zu generieren. Das Modell hilft, die eigene Eingabequalität zu verbessern.
Französisches KI-Unternehmen, das leistungsfähige Open-Source-Modelle (Mistral 7B, Mixtral) und den KI-Assistenten „Le Chat“ entwickelt. Pionier europäischer KI-Entwicklung mit Fokus auf Datenschutz nach EU-Standards.
Modellarchitektur mit vielen spezialisierten Teilnetzen (Experten), von denen pro Eingabe nur ein Bruchteil aktiviert wird. Ermöglicht sehr große Gesamtmodelle bei effizienter Inferenz. GPT-4 und Mixtral basieren auf diesem Prinzip.
Sammlung von Praktiken, Prozessen und Werkzeugen zur Operationalisierung von Machine-Learning-Modellen im Unternehmensumfeld. Umfasst die gesamte Pipeline von der Modellentwicklung über das Training und Testing bis zu Deployment, Monitoring und Retraining in Produktionsumgebungen. Analogie zu DevOps in der klassischen Softwareentwicklung.
Wichtiger Benchmark zur Messung des Allgemeinwissens von KI-Modellen über 57 Themengebiete, von Mathematik bis Jura.
KI-Architektur, in der mehrere spezialisierte KI-Agenten parallel oder sequenziell zusammenarbeiten, um komplexe Aufgaben zu lösen, die ein einzelner Agent nicht bewältigen könnte. Jeder Agent übernimmt eine klar definierte Rolle (z. B. Planer, Researcher, Coder, Reviewer). Orchestriert durch Frameworks wie LangGraph, AutoGen oder CrewAI und standardisiert durch das A2A-Protokoll.
KI-Systeme, die gleichzeitig verschiedene Datentypen (Text, Bild, Audio, Video, Code) verarbeiten und generieren können. Gemini Pro und aktuelle GPT-Modelle sind nativ multimodal.
Rechenmodell, das lose als Analogie zum biologischen Gehirn konzipiert ist. Besteht aus Schichten von Knoten (Neuronen) und gewichteten Verbindungen. Das Lernen erfolgt durch Anpassung der Gewichte.
Teilgebiet der KI, das sich mit der Verarbeitung und dem Verständnis menschlicher Sprache befasst. Grundlage aller Sprachmodelle.
Open-Source-Kommandozeilen-Tool für die lokale Verwaltung und Ausführung von KI-Modellen. Beliebt bei Entwicklern für die Integration lokaler Modelle in eigene Anwendungen.
KI-Systeme, die im eigenen Rechenzentrum oder auf eigenen Servern betrieben werden, anstatt auf Cloud-Infrastruktur. Bietet maximale Datenkontrolle, erfordert aber eigene IT-Infrastruktur.
Sammelbezeichnung für OpenAIs KI-Agenten-System, das eigenständig in Webbrowsern navigiert, Formulare ausfüllt und Buchungen vornehmen kann. Der ursprüngliche Dienst „Operator“ (Januar 2025) wurde am 31. August 2025 eingestellt und ging im seit Juli 2025 verfügbaren „ChatGPT Agent“ auf.
Problem, bei dem ein Modell die Trainingsdaten zu exakt lernt, inklusive ihrer Fehler und Zufälligkeiten, und dadurch bei neuen, unbekannten Daten schlechte Leistung zeigt.
Die internen Gewichte eines neuronalen Netzes, die während des Trainings durch Backpropagation angepasst werden. Große Modelle besitzen Milliarden bis Billionen Parameter. Die Parameterzahl ist eine (unvollständige) Näherung für Modellkomplexität.
Überarbeitete EU-Produkthaftungsrichtlinie (2024/2853), die seit Oktober 2024 Software und KI-Systeme ausdrücklich als Produkte einbezieht und damit der verschuldensunabhängigen Produkthaftung unterstellt.
Die Eingabe (Anweisung, Frage, Kontext, Beispiele), die ein Nutzer an ein KI-System gibt, um eine Ausgabe zu erzeugen.
Die systematische Gestaltung von Prompts, um KI-Systeme zu optimalen Ergebnissen zu führen. Umfasst Techniken wie CRAFT, Chain-of-Thought, Few-Shot und Metaprompting.
Sicherheitsangriff, bei dem versteckte Anweisungen in eine Nutzereingabe oder ein externes Dokument eingebettet werden, um das Verhalten eines KI-Systems zu manipulieren. Besonders gefährlich bei KI-Agenten.
Strukturierte Sammlung bewährter, wiederverwendbarer Prompts für verschiedene Aufgaben. Festes Element professioneller Enterprise-KI-Nutzung.
Technik zur Reduzierung des Speicherbedarfs eines Modells durch Darstellung der Gewichte mit geringerer numerischer Präzision (z. B. 4-Bit statt 32-Bit). Ermöglicht die lokale Ausführung großer Modelle auf Consumer-Hardware.
Architektur, bei der ein Sprachmodell vor der Antwortgenerierung relevante Informationen aus einer externen, aktuellen Wissensbasis abruft und diese in die Antwort einbezieht. Reduziert Halluzinationen bei faktenbasierten Aufgaben erheblich.
KI-Modell, das vor der Antwort einen mehrstufigen internen Denkprozess durchläuft (System 2). Beispiele: OpenAI Thinking-Modelle, Claude Opus. Besonders effektiv bei Mathematik, Logik und komplexen Analysen.
Systematische Angriffssimulation, bei der ein Team gezielt versucht, ein KI-System zu manipulieren oder zu korrumpieren. Im EU AI Act für GPAI-Modelle mit systemischem Risiko verpflichtend.
Trainingsverfahren, bei dem menschliche Bewertungen von KI-Antworten als Belohnungssignal für das Modell genutzt werden, um es an menschliche Präferenzen zu alignieren.
Neuronaler Netz-Typ mit Rückkopplungsverbindungen, der sequenzielle Daten verarbeitet. Durch Transformer weitgehend abgelöst.
Empirisch belegte Gesetzmäßigkeiten, nach denen die Leistung von LLMs vorhersagbar und kontinuierlich mit Modellgröße, Datenmenge und Rechenleistung skaliert. Grundlage der Investitionsentscheidungen der großen KI-Unternehmen.
Die nicht genehmigte Nutzung von KI-Tools durch Mitarbeiter außerhalb der von der IT kontrollierten Unternehmensinfrastruktur. Stellt erhebliche Datenschutz- und Compliance-Risiken dar. Laut Microsoft-Studie 2024 nutzen 78 % der KI-Nutzer in Unternehmen private KI-Accounts für berufliche Aufgaben.
Methode der erklärbaren KI (XAI), die den Beitrag jedes Eingabefeatures zur Vorhersage eines Modells berechnet.
Kompaktes Sprachmodell mit 1–14 Milliarden Parametern, das für spezifische Aufgaben optimiert und auf Consumer-Hardware ausführbar ist. Beispiele: Phi-4 (Microsoft), Gemma 3 (Google), Llama.2 (Meta).
Die Bewertung von Personen anhand ihres sozialen Verhaltens oder persönlicher Merkmale durch KI-Systeme. Seit Februar 2025 durch den EU AI Act verboten (Art. 5).
Begriff der Linguistin Emily Bender für LLMs: Systeme, die sprachliche Muster aus Trainingsdaten hochkomplex nachahmen, ohne dahinterliegende Bedeutungen zu verstehen.
Aus Daniel Kahnemans Psychologie entlehnte Unterscheidung zwischen schnellen, intuitiven KI-Modellen (System 1 – z. B. kleinere GPT-Modelle, Claude Sonnet) und langsamen, analytischen Reasoning-Modellen (System 2 – z. B. OpenAI Thinking-Modelle, Claude Opus).
Unsichtbare Voranweisung, die das grundlegende Verhalten, die Persönlichkeit und die Einschränkungen eines KI-Systems definiert. Wird von Unternehmen eingesetzt, um KI-Anwendungen anzupassen.
Automatisierte Analyse großer Mengen urheberrechtlich geschützter Werke durch KI-Systeme. In der EU durch die DSM-Richtlinie (Art. 3 und 4) reguliert: Erlaubt, sofern der Rechteinhaber nicht widersprochen hat (Opt-Out-Prinzip).
Zusätzliche Rechenleistung, die während der Inferenz (nicht während des Trainings) eingesetzt wird, um bessere Ergebnisse zu erzielen. Grundlage der Reasoning-Modelle.
Die grundlegende Verarbeitungseinheit für Text in Sprachmodellen. Ein Token entspricht typischerweise 3–4 Zeichen oder etwa ¾ eines englischen Wortes. 1.000 Token entsprechen etwa 750 Wörtern.
Algorithmus, der Text in Tokens aufteilt, bevor er in ein Sprachmodell eingespeist wird. Verschiedene Modelle verwenden unterschiedliche Tokenisierungsstrategien.
Ansatz, bei dem ein Modell, das auf einer großen, allgemeinen Datenmenge vortrainiert wurde, auf einer kleineren, domänenspezifischen Datenmenge weitertrainiert wird (Fine-Tuning). Grundlage praktisch aller modernen LLMs.
Grundlegende neuronale Netz-Architektur, 2017 von Vaswani et al. (Google) in der Arbeit „Attention Is All You Need“ vorgestellt. Basiert auf Self-Attention-Mechanismen und ist die Grundlage aller modernen Sprachmodelle.
Erweiterte Prompting-Technik, bei der das Modell mehrere verschiedene Lösungsansätze parallel verfolgt, bewertet und den besten auswählt.
Von Alan Turing 1950 vorgeschlagenes Gedankenexperiment zur Messung maschineller Intelligenz: Kann ein Mensch im schriftlichen Gespräch nicht unterscheiden, ob sein Gegenüber eine Maschine oder ein Mensch ist?.
Problem, bei dem ein Modell zu simpel ist und die zugrunde liegenden Muster in den Trainingsdaten nicht erfasst. Gegenteil von Overfitting.
Spezialisierte Datenbank für die effiziente Speicherung und Abfrage von Embeddings (Vektoren). Kernkomponente von RAG-Systemen. Bekannte Beispiele: Pinecone, Weaviate, Chroma.
Begriff für den paradigmatischen Wandel in der Softwareentwicklung, bei dem Entwickler (oder auch Nicht-Programmierer) ihre Architekturabsicht in natürlicher Sprache beschreiben, anstatt Code semantisch Zeile für Zeile zu schreiben. Tools wie GitHub Copilot Agent Mode, Lovable oder Bolt.new setzen Prompts in vollständig deployte Anwendungen um. Begriff geprägt Anfang 2025.
KI-Modell, das Text und Bilder gleichzeitig verarbeiten kann. Ermöglicht Aufgaben wie Bildbeschreibung, visuelle Fragebeantwortung und Dokumentenanalyse.
Unsichtbare oder sichtbare Markierung in KI-generierten Inhalten (Text, Bild, Audio), die eine maschinelle Herkunft nachweisbar macht. Technisch verwandt mit C2PA. Im EU AI Act als Transparenzmaßnahme für synthetische Inhalte vorgesehen.
Methoden und Ansätze, die KI-Entscheidungen für Menschen nachvollziehbar und interpretierbar machen. Methoden: LIME, SHAP, Attention Visualization, Chain of Thought. Im EU AI Act als Voraussetzung für Hochrisiko-Systeme verankert.
Prompting-Technik, bei der dem Modell keine Beispiele vorgegeben werden – nur die Aufgabenbeschreibung. Das Modell löst die Aufgabe allein auf Basis seines Vorwissens.
Sicherheitsprinzip, das keine implizite Vertrauenswürdigkeit für KI-Systeme oder -Agenten annimmt. Jede Aktion eines KI-Agenten muss explizit autorisiert werden.
Die KI BIBEL liefert zu jedem Fachbegriff den vollständigen Kontext: Praxisbeispiele, Checklisten, Handlungsempfehlungen und die Einordnung in das Gesamtbild der KI-Landschaft.
Bestellen