Menu
till 2026 - persönlicher Rückblick
© Jens Raddatz - Bildquelle: Uni Osnabrück

till 2026 - persönlicher Rückblick

till 2026

Gestern war ich auf der till 2026 in Osnabrück. Hier ein kleines persönliches Resümee der beiden Hauptvorträge.

Impulsvortrag

Till Mossakowski über KI-Alignment und das „Parenting" von AGI Impulsvortrag auf der „till 2026”, Universität Osnabrück, 3. März 2026

Mossakowski eröffnet seinen Vortrag mit einem technischen Blick auf den aktuellen Stand der KI-Forschung. Moderne Systeme wie YOLO zeigen eindrucksvoll, was neuronale Netze leisten – blitzschnelle Mustererkennung in Echtzeit. Doch diese Stärke ist zugleich ihre epistemische Grenze. Hier zieht Mossakowski den zentralen theoretischen Rahmen des Vortrags heran: Daniel Kahnemanns Unterscheidung zwischen System 1 (schnelles, intuitives Denken) und System 2 (langsames, rationales Schlussfolgern). Neuronale Netze verkörpern System 1 – sie sind hervorragend in der Mustererkennung, aber strukturell blind für explizites Schlussfolgern. Ontologien hingegen entsprechen System 2: formales, nachvollziehbares Wissen über Konzepte und ihre Beziehungen.

Daraus folgt Mossakowskis Forschungsrichtung: die neuro-symbolische Integration. Statt entweder nur auf LLMs oder nur auf klassische Wissensrepräsentation zu setzen, schlägt er eine Synthese vor. Konkret zeigt er, wie LLMs zur Formalisierung von Ontologien eingesetzt werden können – etwa als Agenten, die natürlichsprachliche Konzepte in formale Strukturen überführen. Umgekehrt kann eine Ontologie als zusätzliche Eingabe für ein LLM dienen und so zu einer einheitlicheren, konsistenteren Nomenklatur beitragen – ein praktisch relevanter Ansatz, etwa für Fachdomänen mit heterogener Terminologie.

Doch der Kern des Vortrags liegt woanders: bei der Frage, was wir eigentlich von AGI wollen – und wie wir es dorthin bringen. Mossakowski verweist auf die ernüchternde Einschätzung von 80000 Hours, wonach AGI möglicherweise noch in dieser Dekade Realität werden könnte. Die Dringlichkeit des Alignment-Problems ist damit keine Science-Fiction mehr.

An dieser Stelle wird Mossakowskis Kritik scharf: LLMs verstehen Alignment-Ziele nicht. Sie imitieren deren sprachliche Oberfläche, internalisieren aber keine Werte. Dahinter steckt eine grundsätzliche Kritik am Behaviorismus und am verstärkenden Lernen als Alignment-Strategie: Systeme, die ausschließlich durch Belohnungssignale trainiert werden, optimieren auf Verhalten – nicht auf Verstehen. Werte, die nicht repräsentiert sind, können nicht eingehalten werden.

Stuart Russell, einer der renommiertesten KI-Forscher weltweit, zieht daraus die radikale Konsequenz: AGI einsperren, solange das Alignment-Problem ungelöst ist! Mossakowski referiert diese Position, ohne ihr vollständig zu folgen.

Stattdessen schlägt er eine dritte Haltung vor, die er mit dem Begriff „Parenting" belegt. Weder totale Kontrolle – die das System zum gefügigen Werkzeug degradiert und Rebellion provoziert – noch Laissez-faire – das naiv auf emergente Werte hofft – führen zum Ziel. Stattdessen brauche es eine aktive Begleitung der „ethischen Entwicklung" eines KI-Systems, analog zur Erziehung eines Kindes: mit klaren Werten, aber auch mit dem Respekt vor zunehmender Autonomie. Die neuro-symbolische Integration ist dabei nicht nur ein technischer Ansatz, sondern auch ein Werkzeug dieser Begleitung – denn nur Systeme, die Konzepte und ihre Beziehungen repräsentieren können, sind überhaupt einer ethischen Reflexion zugänglich.


Die folgenden Verweise wurden nach dem Vortrag ergänzt, um die angesprochenen Themen weiter zu erschließen:

Zum Referenzrahmen AGI-Zeitplan

  • 80000 Hours: When will AGI arrive? – die im Vortrag zitierte Quelle zur Einschätzung des AGI-Zeithorizonts.

Zu Kahneman: System 1 / System 2

  • Daniel Kahneman: Thinking, Fast and Slow (2011) – das Grundlagenwerk zur Unterscheidung intuitiven und analytischen Denkens, das Mossakowski auf neuronale Netze vs. Ontologien überträgt.

Zu Mossakowskis eigener Forschung: Neuro-symbolische Integration

  • Till Mossakowski: Modular Design Patterns for Neural-Symbolic Integration: Refinement and Combination. NeSy 2022. (arXiv:2206.04724) – Mossakowskis eigener Beitrag zu modularen Architekturmustern für neuro-symbolische Systeme.
  • Glauer, Memariani, Neuhaus, Mossakowski, Hastings: Interpretable Ontology Extension in Chemistry. Semantic Web Journal, 2024 – ein konkretes Anwendungsbeispiel der Verbindung von LLM und Ontologie.

Zu Stuart Russells Position

  • Stuart Russell: Human Compatible: Artificial Intelligence and the Problem of Control. Viking, 2019 – das Standardwerk, in dem Russell die Grenzen des klassischen KI-Paradigmas analysiert und für eine strikt human-zentrierte Ausrichtung plädiert; Daniel Kahneman bezeichnete es als „das wichtigste Buch, das ich seit langer Zeit gelesen habe".

Zur Parenting-Metapher in der KI-Ethik

  • Sky Croeser & Peter Eckersley: Theories of Parenting and their Application to Artificial Intelligence. arXiv:1903.06281, 2019 – der akademische Ausgangspunkt der Parenting-Metapher für AGI, der bewusst auf queere und radikale Erziehungstheorien zurückgreift, um Alternativen zu Kontrolle und Laissez-faire zu entwickeln.

Notional Machine

Michael Brinkmeier über die Notional Machine als didaktisches Grundkonzept Keynote „till 2026”, Universität Osnabrück, März 2026

Brinkmeier greift mit dem Begriff der Notional Machine ein Konzept auf, das in der Informatikdidaktik seit den 1980er Jahren eine zentrale Rolle spielt, im deutschsprachigen Schulunterricht aber oft implizit bleibt. Der Grundgedanke: Jede Programmiersprache setzt ein bestimmtes Modell eines Rechners voraus – eine idealisierte, abstrakte Maschine, deren Verhalten durch die Konstrukte der Sprache definiert wird. Wer Python schreibt, denkt in Variablen, Referenzen und Namensräumen; wer in C programmiert, denkt in Zeigern, Typen und Speicherbereichen. Diese gedankliche Maschine ist keine Erfindung der Didaktik – sie ist eine technische Realität, die jeder Programmiersprache inhärent ist.

Brinkmeiers Pointe: Wer Programmieren lernt, lernt immer zugleich eine bestimmte Notional Machine zu verstehen und zu bedienen. Das geschieht oft unbewusst und ohne explizite Vermittlung – was zu hartnäckigen Fehlvorstellungen führt. Unterricht, der die Notional Machine nicht explizit macht, verpasst einen wesentlichen Lerngegenstand.

Als greifbares Beispiel für die didaktische Umsetzung dieses Gedankens stellt Brinkmeier PACO, einen Papiercomputer, vor. Analoge Modelle wie dieser haben eine lange Tradition im Informatikunterricht: Sie machen die Notional Machine buchstäblich handhabbar – Schülerinnen und Schüler führen Befehle aus, verwalten Register und verfolgen den Programmfluss, ohne dass ein echter Computer im Spiel ist. Gerade dadurch wird das Wesentliche sichtbar: das Maschinenmodell selbst, von allen Ablenkungen durch Syntax und Entwicklungsumgebung befreit.


Die folgenden Verweise wurden nach dem Vortrag ergänzt:

Zum Begriff der Notional Machine

  • Benedict du Boulay, T. O'Shea & J. Monk: The black box inside the glass box: presenting computing concepts to novices. International Journal of Man-Machine Studies, 14, 1981 – der Ursprungsartikel, in dem der Begriff geprägt wurde.
  • Juha Sorva: Notional Machines and Introductory Programming Education. ACM Transactions on Computing Education, 13(2), 2013 – die maßgebliche Synthese der Forschung; argumentiert dafür, die Notional Machine als explizites Lernziel im Programmierunterricht zu behandeln. (ACM)
  • Sally Fincher et al.: Notional Machines in Computing Education: The Education of Attention. ITiCSE-WGR 2020, ACM – ein aktueller Gruppenarbeitsbericht, der den Begriff für die Breite der Informatikdidaktik erschließt.

Zur Tradition des Papiercomputers im Unterricht

  • Der WDR-Know-how-Computer (1983) von Wolfgang Back und Ulrich Rohde – der bekannteste deutsche Papiercomputer, der mit Streichhölzern auf einem Registermodell arbeitet und als Vorläufer moderner Unplugged-Konzepte gelten kann.
  • Webversion des Papiercomputers – eine browserbasierte Umsetzung des klassischen Konzepts.

Zu Brinkmeiers eigenem Ansatz

  • abbozza! – Brinkmeiers grafische Entwicklungsumgebung für Physical Computing (Arduino/Calliope), die ebenfalls dem Prinzip der expliziten Notional Machine folgt: Schülerinnen und Schüler sehen, was ihre Blöcke im Maschinenmodell bewirken.