top of page

Wie funktioniert generative KI?

  • Autorenbild: Generative AI Works
    Generative AI Works
  • 18. Juni
  • 4 Min. Lesezeit
Abstrakte Wellen

Eine Schritt-für-Schritt-Erklärung


Generative Künstliche Intelligenz (Generative AI) entwickelt sich schnell zu einer der bedeutendsten Technologien unserer Zeit. Sie wandelt unsere Interaktion mit Daten, Medien und Maschinen um – sei es bei Texten, Bildern, Musik oder Code.


Doch wie funktioniert generative KI eigentlich konkret?


In diesem Artikel analysieren wir Generative AI in einzelne Schritte – vom Daten sammeln bis zur tatsächlichen Generierung – und erläutern nicht nur das Wie, sondern auch das Warum dahinter. Egal, ob du in der Technologie arbeitest, Designaufgaben übernimmst, Entscheidungen triffst oder einfach nur interessiert bist: Hier erhältst du einen detaillierten Einblick in die Funktionsweise von Generativer KI.



Was genau ist generative KI?


Generative KI-Systeme sind in der Lage, neue Inhalte zu schaffen – seien es Texte, Bilder, Audioaufnahmen, Code oder Videos.


Diese Systeme generieren aktiv neue Ergebnisse, im Gegensatz zu klassischen (diskriminativen) Modellen, die Inhalte analysieren und klassifizieren.


Als etablierte Technologien gelten unter anderem GPT (Text), DALL·E oder Midjourney (Bild) sowie MusicLM (Audio).Tiefenlernende neuronale Netze, meist auf der Transformer-Architektur basierend, bilden den Kern dieser Systeme. Sie lernen aus riesigen Datenmengen, komplexe Zusammenhänge zu verstehen und zu reproduzieren.



Schritt-für-Schritt: Wie funktioniert Generative KI?

Wie funktioniert Generative KI? Schritt-für-Schritt Einleitung

Schritt 1: Datensammlung und vorbereitung


Die Qualität generativer KI hängt von den Daten ab, auf denen sie beruht. Aus diesem Grund fängt alles damit an, große Mengen an qualitativ hochwertigen Daten zu sammeln – etwa Texte aus dem Internet, öffentlich zugängliche Bilddatenbanken oder Audioarchivmaterial.


Vor dem Start des Trainings wird das Rohmaterial:

  • bereinigt (Fehler, Duplikate, nicht relevante Inhalte),

  • standardisiert (z. B. Bildgrößen, Zeichencodierung),

  • und in eine vom Modell verstandene Form gebracht (Tokenisierung bei Texten, Vektorisierung bei Bildern).


Schritt 2: Wahl der Modellarchitektur


An dieser Stelle wird festgelegt, welcher neuronale Aufbau zum Einsatz kommt. Die Transformer-Architektur (seit 2017) hat sich aufgrund ihrer Fähigkeit, kontextuelle Zusammenhänge über längere Distanzen hinweg zu erfassen, als besonders leistungsstark etabliert.


Beispiele:

  • GPT (Generative Pre-trained Transformer) für Text

  • Stable Diffusion für Bilder

  • Codex für Programmiercode

Diese Modelle bestehen aus vielen Schichten mit Self-Attention, Feedforward-Netzen und Positionskodierungen.


Schritt 3: Modelltraining


Das Training ist der rechenintensivste Teil. Hier lernt das Modell statistische Muster in den Daten – durch viele Millionen Durchläufe (Iterationen).

Das passiert in mehreren Schritten:

  • Forward Pass: Aus Eingaben werden Ausgaben generiert

  • Loss-Berechnung: Die Differenz zum gewünschten Ergebnis wird ermittelt

  • Backpropagation: Die Gewichte des Modells werden angepasst, um den Fehler zu minimieren

Das Training dauert oft Wochen und benötigt enorme Rechenleistung (GPUs, TPUs, Cluster).


Schritt 4: Feinabstimmung und Alignment


Nach dem Basis-Training wird das Modell oft auf spezifische Bereiche feinjustiert – z. B. juristische Texte, medizinisches Wissen oder kreatives Schreiben.


Das sogenannte Alignment sorgt dafür, dass das Modell sich an menschliche Werte, ethische Leitlinien oder spezifische Business-Ziele anpasst. Ein verbreiteter Ansatz: RLHF – Reinforcement Learning from Human Feedback.


Weshalb das von Bedeutung ist? Da ein unkontrolliertes Modell auch Unsinn fabrizieren oder riskante Inhalte erzeugen kann.


Schritt 5: Inferenz (Generierung in Echtzeit)


Jetzt kommt der spannende Teil: Das Modell wird genutzt.Ein Benutzer gibt einen Prompt ein – das Modell erzeugt daraus ein Ergebnis. Ob Text, Bild oder Code.


Typische Techniken in der Inferenzphase:

  • Sampling-Strategien wie Top-k, Top-p, Temperature

  • Prompt Engineering, um präzisere Ergebnisse zu erhalten

  • Tokenweise Generierung mit kontextueller Anpassung


Schritt 6: Nachbearbeitung und Integration


Bevor das Resultat beim Nutzer ankommt, wird es häufig noch bearbeitet. Insbesondere im Unternehmenskontext von Bedeutung:

  • Inhalte werden gefiltert (Sicherheit, Datenschutz)

  • Stil, Ton oder Format werden modifiziert

  • Die Ausgabe wird in Software oder Workflows eingebunden (z. B. mittels APIs)



Schwächen und Limitationen generativer Modelle


Trotz ihrer beachtlichen Kompetenzen sind generative Modelle nicht perfekt. Wenn man sie strategisch nutzen möchte, ist es wichtig, ihre Grenzen zu verstehen – in technischer, ethischer und konzeptioneller Hinsicht.


Halluzinationen und "Confidence ohne Wissen"


Generative Modelle erzeugen Inhalte, die zwar plausibel erscheinen, aber faktisch inkorrekt sind. Das wird als Halluzination bezeichnet. Der Grund dafür ist, dass das Modell keine tatsächliche Kenntnis der Welt hat – es sagt nicht „was stimmt“, sondern „was wahrscheinlich kommt“.


Je mehr Selbstbewusstsein ein Output ausstrahlt, desto riskanter kann dieser Effekt werden – vor allem in heiklen Bereichen wie Recht, Medizin oder Wissenschaft.


Verzerrungen und ethische Fallstricke


Generative Modelle werden auf großen (oft unkontrollierten) Datenmengen trainiert, wodurch sie systematisch die Vorurteile übernehmen, die in diesen Daten enthalten sind. Das umfasst unter anderem:


  • Rollenbilder von Frauen und Männern

  • Kulturelle und ethnische Klischees

  • Sprachliche Vorherrschaft (zum Beispiel Perspektiven mit einem Fokus auf die englische Sprache)


Ein Modell kann also unbeabsichtigt diskriminieren, auch wenn dies nicht ausdrücklich programmiert wurde. Diese Verzerrungen sind schwer zu identifizieren und noch schwieriger zu korrigieren, da sie tief in der Trainingsbasis verankert sind.


Was generative Modelle grundlegend von klassischen KI-Ansätzen unterscheidet


Wer Generative AI wirklich verstehen will, muss erkennen, dass sie in einem ganz anderen Paradigma arbeitet als klassische KI-Systeme.


Von Logik zu Wahrscheinlichkeit


Klassische KI (z. B. regelbasierte Systeme oder Entscheidungsbäume) arbeitet deterministisch:

  • „Wenn A, dann B“

  • Klare, nachvollziehbare Regeln


Generative Modelle dagegen sind statistische Wahrscheinlichkeitsmaschinen:

  • Sie berechnen, was wahrscheinlich als nächstes kommt

  • Kein festes „Wissen“, sondern dynamisches Sprachmodellieren


Das bedeutet: sie imitieren Verstehen, ohne tatsächlich zu verstehen.


Kein echtes „Reasoning“, sondern Pattern Matching


Generative Modelle:

  • können hervorragend Muster erkennen und imitieren

  • aber sie können nicht wirklich schlussfolgern, prüfen oder planen


Sie wirken intelligent, sind aber keine Agenten mit Intention. Das führt zu Missverständnissen bei der Erwartung:

  • Sie schreiben wie Menschen

  • Aber sie denken nicht wie Menschen


Emergenz statt Programmierung


Viele Fähigkeiten großer Modelle (z. B. logisches Schließen, Programmieren, Übersetzen) wurden nicht explizit beigebracht – sie entstanden durch Skalierung.


Diese emergenten Eigenschaften sind faszinierend – aber auch schwer zu kontrollieren.



Zusammenfassung:


Generative AI ist keine magische Blackbox – sondern ein komplexer, aber nachvollziehbarer Prozess. Von der Datenauswahl über das Modelltraining bis zur nutzerzentrierten Generierung greifen viele Schritte ineinander, um Systeme zu schaffen, die schreiben, gestalten, komponieren oder sogar argumentieren können.


Bei Generative AI Works helfen wir Organisationen nicht nur zu verstehen, wie Generative AI funktioniert – sondern auch, wie man sie strategisch und sinnvoll einsetzt.


Ob interner Copilot, kreative Automatisierung oder erste Experimente mit intelligenten Agenten: Das Verständnis der Mechanik ist der erste Schritt zur erfolgreichen Anwendung.


👉 Du willst tiefer einsteigen? Schreib uns – wir freuen uns auf den Austausch.



Kommentare


bottom of page