Das 19. Treffen der Dialogrunde "Coaching meets AI" drehte sich um das sogenannte Alignment-Problem der künstlichen Intelligenz (KI). Dieses wird als eine der zentralen Herausforderungen in der KI-Forschung angesehen. Es geht darum, sicherzustellen, dass die Ziele und Entscheidungen von KI-Systemen mit menschlichen Werten, Absichten und ethischen Standards übereinstimmen. Wichtige Punkte und Diskussionen des Treffens lassen sich wie folgt zusammenfassen: 1. Definition des Alignment-Problems: KI könnte menschliche Werte missverstehen oder ignorieren, wenn diese ungenau definiert sind. Ein bekanntes Gedankenexperiment, der "Papierclip-Maximizer", illustriert, wie eine KI unter radikaler Zielorientierung schädliche Entscheidungen treffen kann. Menschliche Werte sind situativ, kontextabhängig und nicht vollständig algorithmisierbar. 2. Unterschied zwischen menschlicher und KI-Rationalität: Zweckrationalität: Die Fähigkeit der KI, Ziele effizient zu verfolgen, basiert auf klar definierten Vorgaben und Datenanalysen. Norm- und Wertrationalität: Menschliche Werte sind abstrakt und situativ, was KI fundamental nicht nachvollziehen kann. Werte wie "Menschenwürde" können von Maschinen nicht vollständig erfasst oder interpretiert werden. 3. Coaching und das Alignment-Problem: Auch menschliches Coaching hat ein Alignment-Problem: Erste Ebene: Werte des Coaches und des Coachees können divergieren. Zweite Ebene: Die bewussten Ziele des Coachees könnten nicht mit seinen unbewussten Bedürfnissen übereinstimmen. KI im Coaching (triadisches Coaching) erfordert, dass die Werteprüfung und Zielausrichtung weiterhin vom menschlichen Coach übernommen werden. 4. Lösungen und Herausforderungen: Ansätze wie "Human-in-the-Loop" (triadisches Coaching) betonen die Notwendigkeit menschlicher Kontrolle und Überwachung im KI-Einsatz. Die Transparenz von KI-Systemen muss verbessert werden, um besser nachvollziehen zu können, wie Entscheidungen getroffen werden. Die Diskussion stellte klar, dass Werte nicht vollständig formalisiert werden können und die Verantwortung für die Wertekohärenz beim menschlichen Coach verbleiben muss. 5. Historischer und kultureller Kontext: KI wird als vierte Stufe der Wissensweitergabe (nach Sprache, Schrift und Buchdruck) betrachtet. Sie unterscheidet sich jedoch grundlegend, da sie nicht nur Informationsträger, sondern auch Akteur und Entscheider ist. Werte und Normen wurden historisch durch große Erzählungen weitergegeben. Die Gruppe diskutierte, inwiefern KI in bestehende kulturelle Erzählungen eingebettet ist und wie dies Einfluss auf ihre Entscheidungen haben könnte. 6. Reflexion und Zukunftsperspektiven: Teilnehmer äußerten Interesse, tiefer auf das Alignment-Problem einzugehen und mögliche Zukunftsszenarien für KI und Superintelligenz zu beleuchten. Eine zentrale These lautete, dass KI nie die gesamte menschliche Intelligenz übertreffen wird, da sie auf Zweckrationalität beschränkt ist. Das Treffen endete mit einer Reflexionsrunde, in der die Teilnehmer die Bedeutung des Themas für Coaching und Gesellschaft betonten und weitere Diskussionen über ethische und praktische Aspekte des KI-Einsatzes anregten.