opened book on brown table

Glossar

A

  • Algorithmus: Schritt-für-Schritt-Vorschrift zur Lösung eines Problems.

  • Alignment: Ausrichtung von KI-Systemen auf menschliche Ziele/Werte.

  • Anomalieerkennung: Finden ungewöhnlicher Muster (z. B. Betrug, Maschinenausfall).

  • API (Schnittstelle): Zugangspunkt, über den Software Dienste/Funktionen nutzt.

  • Augmented Intelligence (IA): KI unterstützt Menschen, ersetzt sie nicht.

B

  • Bias (Verzerrung): Systematische Fehler durch schiefe Daten/Modelle.

  • Black Box: Modell, dessen innere Entscheidungen schwer erklärbar sind.

  • Bot: Automatisiertes Programm, das Aufgaben selbstständig ausführt.

C

  • Chatbot: Software, die per Sprache/Text interagiert.

  • CNN (Convolutional Neural Network): Netztyp für Bilder/Videos.

  • Computer Vision: Maschinelles Sehen (Erkennen, Segmentieren, Verfolgen).

D

  • Data Governance: Regeln/Prozesse für Datenqualität, Zuständigkeiten, Sicherheit.

  • Data Lake: Zentrales Rohdaten-Repository.

  • Datenannotation: Markieren/Labeln von Daten fürs Training.

  • Datenschutz: Schutz personenbezogener Daten (z. B. DSGVO).

  • Deep Learning: Lernen mit tiefen neuronalen Netzen.

  • Differential Privacy: Mathematische Technik zum Schutz individueller Daten.

  • Diffusionsmodell: Generatives Modell, das aus Rauschen Inhalte erzeugt.

E

  • Edge-AI: KI läuft direkt am Gerät/Sensor, nicht nur in der Cloud.

  • Embedding: Vektor-Darstellung von Inhalten (Worte, Bilder) für Suche/Ähnlichkeit.

  • Explainable AI (XAI): Methoden, die KI-Entscheide nachvollziehbar machen.

F

  • Federated Learning: Dezentrales Lernen ohne zentrale Datensammlung.

  • Feature (Merkmal): Relevante Eigenschaft von Daten fürs Modell.

  • Fine-Tuning: Nachtrainieren eines vortrainierten Modells auf eigene Daten.

  • Foundation-Modell: Großes Basismodell, das viele Aufgaben abdecken kann.

G

  • Generative KI: Modelle, die neue Inhalte erzeugen (Text, Bild, Audio, Code).

  • GPU: Grafikprozessor, beschleunigt KI-Berechnungen massiv.

H

  • Halluzination: Überzeugend klingende, aber falsche KI-Antwort.

I

  • Inferenz: Nutzung eines trainierten Modells zur Vorhersage/Antwort.

  • IoT (Internet of Things): Vernetzte Geräte/Sensoren mit Daten & oft Edge-KI.

K

  • Klassifikation: Einordnung in Kategorien (z. B. „Spam“/„Nicht-Spam“).

  • Knowledge Graph: Wissensnetz aus Entitäten und Beziehungen.

L

  • LLM (Large Language Model): Großes Sprachmodell mit breitem Sprachwissen.

  • Latenter Raum: Verdichtete, abstrakte Repräsentation von Daten.

  • Labeling: Vergabe von richtigen Antworten/Tags an Trainingsdaten.

M

  • Machine Learning (ML): Verfahren, die aus Daten Muster lernen.

  • MLOps: Betrieb/Überwachung von ML-Modellen im Produktivbetrieb.

  • Model Drift: Modellleistung verschlechtert sich durch veränderte Realität.

  • Multimodal: Modell verarbeitet mehrere Arten von Daten (Text/Bild/Audio).

N

  • Neuronales Netz: Verbund aus künstlichen „Neuronen“, die Signale verarbeiten.

  • NLP (Natural Language Processing): Sprachverarbeitung durch Computer.

O

  • Open-Source-Modell: Frei nutzbares/prüfbares KI-Modell.

  • Overfitting: Modell lernt Trainingsdaten auswendig, generalisiert schlecht.

P

  • Precision/Recall (Präzision/Vollständigkeit): Qualitätsmaße für Vorhersagen.

  • Prompt: Eingabetext/Aufforderung an ein generatives Modell.

  • Prompt Engineering: Gestaltung von Prompts für bessere Ergebnisse.

R

  • RAG (Retrieval-Augmented Generation): Generieren + Abrufen externer Wissensquellen.

  • Regression: Vorhersage stetiger Werte (z. B. Preis, Temperatur).

  • Reinforcement Learning (RL): Lernen durch Belohnung/Feedback.

S

  • Semi-Supervised Learning: Mischung aus gelabelten und ungelabelten Daten.

  • Supervised Learning: Lernen aus gelabelten Beispielen.

  • Synthetic Data: Künstlich erzeugte Trainingsdaten.

T

  • Token: Kleinste Verarbeitungseinheit (Wortteil) für Sprachmodelle.

  • Transfer Learning: Wissen eines Modells auf neue Aufgabe übertragen.

  • Transformer: Architektur für Sequenzen (heutiger Standard in NLP).

  • Turing-Test: Prüft, ob eine Maschine menschliches Gespräch überzeugend simuliert.

U

  • Underfitting: Modell ist zu einfach, lernt Muster nicht.

  • Unsupervised Learning: Lernen ohne Labels (Clustering, Dimensionalität).

V

  • Vektor-Datenbank: Speichert Embeddings für schnelle Ähnlichkeitssuche.

  • Vision Transformer (ViT): Transformer-Variante für Bilder.

Z

  • Zero-Shot/Few-Shot: Modelle lösen Aufgaben ohne/mit sehr wenigen Beispielen.