9. März 2026
Jahresend-Gedanken: Was KI uns über uns selbst zeigt
Dieses Jahr hat eine Einsicht besonders deutlich gemacht: Verstehen ist nicht dasselbe wie Erleben. Und genau dieser Unterschied wird im Zeitalter der künstlichen Intelligenz immer wichtiger.
Viele kluge Beiträge weisen darauf hin, dass große Sprachmodelle letztlich ebenfalls neuronale Netze sind und dass menschliches Denken strukturell gar nicht so grundverschieden funktioniert. Mustererkennung, Feedback, Rekombination von Wissen und Lernen aus Rückmeldungen prägen sowohl biologische als auch künstliche Systeme.
Ein besonders anschauliches Beispiel liefert ein Beitrag von Christoph Puppe, der das menschliche Gehirn als eine Art „Mixture of Experts“ auf biologischer Grundlage beschreibt: mit Gating-Mechanismen, Feedbackschleifen, Lernprozessen und sogar Fehlannahmen oder „Halluzinationen“, die durch soziale Rückmeldung korrigiert werden.
Diese Analogie ist treffend – und doch nicht vollständig.
Selbst wenn sich die grundlegenden Architekturen ähneln, bleibt ein entscheidender Unterschied bestehen: Menschen machen Erfahrungen. KI hat Interaktionen.
Interaktionen verarbeiten Ereignisse. Erfahrungen binden diese Ereignisse jedoch in biografische, normative und emotionale Kontexte ein. Sie entstehen in Beziehungen, haben Konsequenzen und prägen Entscheidungen, mit denen Menschen leben müssen.
Auch KI-Systeme lernen zunehmend über Handlung und Rückkopplung. Funktional wird dabei manchmal von „Erfahrung“ gesprochen. Tatsächlich handelt es sich jedoch um strukturierte Interaktion: um Optimierung von Modellen, nicht um persönliches Erleben. Um Anpassung von Systemen, nicht um Verantwortung für Folgen.
Gerade an diesem Punkt wird die Diskussion rechtlich und gesellschaftlich relevant.
Der EU AI Act fragt nicht danach, ob künstliche Systeme intelligent sind. Entscheidend sind vielmehr Fragen der Verantwortung und Zurechenbarkeit:
- Wer trägt Verantwortung für Entscheidungen, die mithilfe von KI-Systemen getroffen werden?
- Wer trifft letztlich die Entscheidung?
- Was geschieht, wenn Systeme falsch liegen?
Diese Fragen zeigen sich besonders deutlich in aktuellen Diskussionen über algorithmische Entscheidungsunterstützungssysteme oder Datenanalyseplattformen. Je näher technische Systeme an menschliche Entscheidungsräume heranrücken, desto wichtiger werden Transparenz, Nachvollziehbarkeit und klare Verantwortungsstrukturen.
Transparenz ist dabei kein zusätzlicher Komfort, sondern eine Voraussetzung für Verantwortung.
Denn Verantwortung lässt sich nicht an Systeme delegieren. Sie entsteht nicht im Code, sondern bleibt bei den Menschen, die Systeme entwickeln, einsetzen und Entscheidungen treffen.
Gerade hier zeigt sich etwas Grundsätzliches über menschliche Gesellschaften: Menschsein definiert sich nicht über Optimierung oder Geschwindigkeit. Es zeigt sich vielmehr im gemeinsamen Umgang mit Unsicherheit, im gegenseitigen Aushalten von Spannungen, in Co-Regulation und in Verantwortung füreinander.
KI steht selbst nie auf dem Spiel.
Menschen schon – individuell wie gesellschaftlich.
Vielleicht liegt genau darin ein produktiver Umgang mit künstlicher Intelligenz: Sie als Werkzeug zu nutzen und die dadurch gewonnene Klarheit und Zeit in das zu investieren, was Maschinen nicht leisten können – in Beziehungen, Erklärung, Verantwortung und bewusste Entscheidungen.
Das ist kein lauter technologischer Fortschrittsoptimismus.
Aber vielleicht ein leiser und sehr realer Grund zur Hoffnung am Jahresende.
