KI Glossar

Aus Thomas-Krenn-Wiki
Zur Navigation springen Zur Suche springen

Das folgende KI Glossar erläutert die für das Verständnis von künstlicher Intelligenz wichtigsten Grundbegriffe in leicht verständlicher Sprache.

Agent

Ein Agent ist ein System, das seine Umgebung wahrnehmen, Entscheidungen treffen und autonom handeln kann, um bestimmte Ziele zu erreichen.

Ein KI-Agent kann ein reines Softwareprogramm sein oder auch ein physischer Roboter. Agenten zeichnen sich durch ihre Fähigkeit aus, flexibel auf neue Situationen zu reagieren und aus Erfahrungen zu lernen.

Ein intelligenter Kundenservice-Agent beispielsweise kann Kundenanfragen verstehen, Informationen aus einer Wissensdatenbank abrufen und das Problem des Kunden selbstständig lösen oder an einen menschlichen Mitarbeiter weiterleiten.

Data Bias

Data Bias entsteht, wenn die Trainingsdaten eines KI-Modells systematische Verzerrungen oder Vorurteile enthalten. Diese Ungleichheiten werden von der KI gelernt und reproduziert, was dazu führen kann, dass die KI diskriminierende Ergebnisse liefert.

Wenn beispielsweise ein KI-System zur Bewerberauswahl hauptsächlich mit Daten von männlichen Mitarbeitern trainiert wird, könnte es fälschlicherweise lernen, männliche Bewerber zu bevorzugen.

Deep Learning

Deep Learning ist eine Methode des maschinellen Lernens, die künstliche neuronale Netze mit vielen Schichten verwendet, ähnlich der Struktur des menschlichen Gehirns. Diese Netze können sehr komplexe Muster in großen Datenmengen wie Bildern, Tönen oder Texten erkennen.

Ein Anwendungsbeispiel ist die Gesichtserkennung.

Generative KI

Generative KI ist eine Form der künstlichen Intelligenz, die auf das Erstellen neuer Inhalte programmiert ist, wie zum Beispiel Texte, Bilder, Musik oder Videos. Sie lernt aus riesigen Datenmengen, um Muster zu erkennen und auf dieser Grundlage etwas völlig Neues zu schaffen.

Diese Technologie ist der Motor hinter Anwendungen wie ChatGPT, die menschenähnliche Konversationen führen oder auf Kommando kreative Texte verfassen können.

GPT

GPT steht für Generative Pre-trained Transformer und bezeichnet eine Familie von Large Language Models.

Generativ bedeutet, das Modell kann neue Inhalte erstellen.

Pre-trained heißt, dass es bereits mit einer riesigen Datenmenge vortrainiert wurde.

Transformer ist die zugrundeliegende Architektur.

Diese Modelle sind die treibende Kraft hinter Anwendungen wie ChatGPT und können für eine Vielzahl von Aufgaben wie Text- oder Bilderstellung sowie Programmierung eingesetzt werden.

Halluzination

Eine Halluzination ist eine von generativer KI erzeugte Antwort, die überzeugend klingt, aber sachlich falsch ist oder nicht auf ihren Trainingsdaten basiert. Das Modell erfindet Informationen, weil es darauf ausgelegt ist, plausible Wortfolgen zu generieren. Ob diese wahr oder falsch ist, spielt für den Algorithmus keine Rolle.

Beispiele für Halluzinationen sind ein Chatbot, der eine detaillierte Biografie über eine nicht existierende Person schreibt oder ein KI-Tool zur Videoerstellung, welches Touristenattraktionen in fernen Ländern erfindet.

Inferencing

Inferencing (deutsch: Inferenz oder Schlussfolgerung) bezeichnet die Anwendung gelernten Wissens durch ein KI-Modell, um auf neue, unbekannte Daten zu reagieren. Dies ist der aktive Teil der KI, bei dem sie ihre eigentliche Aufgabe ausführt.

Nachdem das Modell beispielsweise darauf trainiert wurde, wie eine Katze aussieht, kann es ein ihm unbekanntes Bild analysieren und die Schlussfolgerung (Inferenz) ziehen, dass eine Katze darauf zu sehen ist.

KI (Künstliche Intelligenz)

Künstliche Intelligenz, oft als KI oder AI (vom englischen Artificial Intelligence) abgekürzt, bezeichnet die Fähigkeit von Computersystemen, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern. Dazu gehören das Lernen aus Erfahrung, das Verstehen von Sprache, das Erkennen von Mustern und das Treffen von Entscheidungen.

KI war bereits in vielen Bereichen unseres Alltags präsent, von personalisierten Empfehlungen bei Streaming-Diensten bis hin zu intelligenten Assistenten auf unseren Smartphones. Nach Veröffentlichung von ChatGPT im Jahr 2022 ist besonders Generative KI mit Werkzeugen zur Text-, Bild- oder Soundgenerierung stärker in den Fokus gerückt.

Kontextgröße

Die Kontextgröße, oft auch als Kontextfenster bezeichnet, gibt an, wie viele Informationen ein Sprachmodell auf einmal berücksichtigen kann, wenn es eine Antwort generiert. Eine größere Kontextgröße bedeutet, dass das Modelllängere Textabschnitte oder Gesprächsverläufe "im Gedächtnis behalten" und somit kohärentere und relevantere Antworten geben kann.

Die Kontextgröße bestimmt, wie lange ein Chatbot sich nach mehreren Nachrichten noch an das "erinnert", was Sie am Anfang gesagt oder geschrieben haben.

Large Language Model

Ein Large Language Model (LLM) ist ein KI-Modell, das darauf trainiert wurde, menschliche Sprache in großem Umfang zu verstehen und zu erzeugen. Diese Modell werden mit riesigen Mengen an Textdaten aus dem Internet und Büchern trainiert, um menschenähnliche Texte zu schreiben, Fragen zu beantworten und Sprachen zu übersetzen.

Ein bekanntes Beispiel für eine Anwendung, die auf einem LLM basiert, ist ChatGPT.

Machine Learning

Machine Learning (deutsch: Maschinelles Lernen) ist ein Teilbereich der KI, bei dem Computer aus Daten lernen, ohne explizit für jede Aufgabe programmiert zu werden. Algorithmen werden mit großen Datenmengen trainiert, um Muster zu erkennen und auf dieser Basis Vorhersagen für neue, unbekannte Daten zu treffen.

Stellen Sie sich vor, Sie zeigen einem Computer Tausende von Bildern von Katzen; durch maschinelles Lernen lernt das System schließlich von selbst, eine Katze auf einem neuen Bild zu erkennen.

Modell

Ein Modell im Sinne der künstlichen Intelligenz bezeichnet ein Softwareprogramm, das mit großen Datenmengen darauf trainiert wurde, Muster zu erkennen, Entscheidungen zu treffen oder neue Inhalte zu generieren.

Die bekannteste Form eines Modell ist das Large Language Model, was anhand von Texteingaben aufgrund seiner Trainingsdaten neue, textliche Inhalte erschafft.

Multimodalität

Multimodalität bezeichnet die Fähigkeit eines KI-Systems, Informationen aus unterschiedlichen Eingabedaten – wie Text, Bilder, Videos und Ton – gleichzeitig zu verarbeiten und zu verstehen.

Ein multimodales Modell kann beispielsweise ein Bild ansehen und eine passende textliche Beschreibung dafür erstellen oder eine gesprochene Frage verstehen und mit einem relevanten Bild antworten.

Neuronales Netz

Ein künstliches neuronales Netz ist ein Computermodell, das von der Funktionsweise des menschlichen Gehirns inspiriert ist. Es besteht aus vielen miteinander verbundenen Verarbeitungseinheiten, den sogenannten Neuronen, die in Schichten angeordnet sind.

Durch einen Trainingsprozess lernt das Netz, indem es die Verbindungsstärken (auch: Gewichtungen) zwischen den Neuronen so anpasst, dass es eine bestimmte Aufgabe immer besser erfüllt.

Ein Beispiel zum besseren Verständnis: Stellen Sie sich vor, Sie möchten einem Kind beibringen, Äpfel von Birnen zu unterscheiden. Sie zeigen ihm viele Bilder und teilen ihm jedes Mal mit, was das Bild zeigt. Ein neuronales Netz lernt auf ähnliche Weise: Man füttert es mit Tausenden von Bildern von Äpfeln und Birnen, und es passt seine internen „Stellschrauben“ so lange an, bis es selbstständig und zuverlässig Äpfel von Birnen auf neuen, unbekannten Bildern unterscheiden kann.

Parameter

Parameter sind die internen Variablen eines KI-Modells, die während des Trainingsprozesses angepasst werden. Man kann sie sich als die Stellschrauben des Modells vorstellen, deren Werte bestimmen, wie das Modell eine bestimmte Aufgabe löst.

Die Anzahl der Parameter ist oft ein Maß für die Komplexität und Leistungsfähigkeit eines Modells; moderne große Sprachmodelle haben Milliarden, teilweise Billionen, von Parametern.

Prädiktive KI

Im Gegensatz zur Generative KI erschafft die prädiktive KI keine neuen Inhalte, sondern klassifiziert oder unterscheidet zwischen verschiedenen Arten von Daten. Sie lernt, Daten zu kategorisieren und die verschiedenen Kategorien zu erkennen. Auf dieser Basis kann sie eine Entscheidung treffen oder vorhersagen machen.

Diese Art von KI wird häufig für Aufgaben wie die Spam-Erkennung in E-Mails oder die Diagnose von Krankheiten anhand medizinischer Bilder eingesetzt.

Prompt

Ein Prompt ist die Anweisung oder Frage, die ein Benutzer einer KI gibt, um eine bestimmte Antwort oder Aktion auszulösen. Die Qualität des Prompts hat einen großen Einfluss auf das Ergebnis, das die KI liefert. Je klarer und detaillierter die Anweisung, desto besser ist in der Regel die Antwort.

Quantisierung

Quantisierung ist ein Prozess, bei dem die Präzision von Zahlen in einem KI-Modell reduziert wird, um es kleiner und schneller zu machen.

Dies verringert den Speicherbedarf und den Energieverbrauch des Modells.

Reinforcement Learning

Reinforcement Learning (deutsch: bestärkendes Lernen) ist ein Lernprozess durch Trial and Error. Ein KI-System, ein sogenannter Agent, lernt durch Belohnung und Bestrafung, in einer Umgebung Entscheidungen zu treffen. Für richtige Entscheidungen erhält der Agent eine Belohnung, für falsche eine Bestrafung, wodurch er mit der Zeit lernt, die beste Strategie zu entwickeln.

Eine KI, die ein Videospiel spielt, lernt beispielsweise durch Reinforcement Learning. Sie probiert verschiedene Züge aus und wird für das Erreichen eines neuen Levels (Belohnung) bestärkt, während sie für den Verlust eines Lebens (Bestrafung) lernt, diesen Fehler zu vermeiden.

Supervised Learning

Supervised Learning (deutsch: überwachtes Lernen) ist eine Methode, bei der ein KI-Modell anhand von Daten trainiert wird, die bereits mit den richtigen Antworten versehen (gelabelt) sind. Der Algorithmus lernt, indem er seine Vorhersagen mit den korrekten Ergebnissen vergleicht und sich selbst korrigiert, ähnlich wie ein Schüler mit einem Lösungsbuch lernt.

Diese Methode wird häufig für Vorhersagen eingesetzt, zum Beispiel zur Prognose von Aktienkursen oder zur Erkennung von Kreditkartenbetrug.

Um einer KI beizubringen, Katzen zu erkennen, zeigt man ihr zum Beispiel Tausende von Bildern, die entweder als "Katze" oder "Keine Katze" markiert sind. Nach dem Training kann die KI dann selbstständig auf neuen Bildern Katzen identifizieren.

Token

Ein Token ist die kleinste Einheit, in die ein Text von einem Sprachmodell zerlegt wird, um ihn zu verarbeiten. Ein Token kann ein ganzes Wort, ein Wortteil oder sogar nur ein einzelnes Zeichen sein.

Für die KI sind diese Tokens wie Bausteine, aus denen sie Sprache zusammensetzt und versteht.

Training

Das Training ist der Prozess, bei dem ein KI-Modell lernt, eine bestimmte Aufgabe zu erfüllen, indem man es mit einer großen Mengen an Daten füttert. Während des Trainings passt das Modell seine internen Parameter an, um Muster in den Daten zu erkennen und seine Vorhersagen immer genauer zu machen.

Man kann es sich wie das Lernen für eine Prüfung vorstellen: Je mehr Übungsmaterial (Daten) das Modell durcharbeitet, desto besser wird seine Leistung bei der eigentlichen Prüfung (der Anwendung).

Transformer

Die Transformer-Architektur ist ein spezielles Design für neuronale Netze. Dieses Design ist besonders gut darin, Zusammenhänge in sequenziellen Daten, z.B. Texten, zu verstehen. Im Gegensatz zu älteren Modell kann ein Transformer alle Teile eines Satzes gleichzeitig betrachten, wodurch er den Kontext besser erfassen kann.

Diese Technologie ist die Grundlage für die meisten modernen großen Sprachmodelle wie GPT.

Unsupervised Learning

Beim Unsupervised Learning (deutsch: unüberwachtes Lernen), erhält das KI-Modell Daten ohne jegliche Labels oder vorgegebene Antworten. Die Aufgabe der KI ist es, selbstständig Muster, Strukturen oder Anomalien in den Daten zu finden. Diese Methode ist besonders nützlich, um große Datenmengen zu analysieren.

Ein Online-Shop könnte beispielsweise unüberwachtes Lernen nutzen, um das Kaufverhalten seiner Kunden zu analysieren.


Autor: Stefan Bohn

Stefan Bohn ist seit 2020 bei der Thomas-Krenn.AG beschäftigt. Ursprünglich als Berater für IT-Lösungen im PreSales beheimatet, wechselte er 2022 zum Product Management. Dort widmet er sich dem Wissenstransfer und treibt dabei auch das Thomas-Krenn Wiki voran.

Das könnte Sie auch interessieren

N8n installieren
Reverse Proxy für n8n mit Nginx Proxy Manager einrichten