In der 25. Sitzung der Dialogrunde „Coaching meets AI“ wurde die Idee besprochen, wie man KI, insbesondere GPT-Modelle, durch gezielte Fragen und Hinterfragen von Annahmen und Normen analysieren kann. Ziel ist es, die impliziten Vorannahmen, Normen und Werte in den Antworten der KI zu erkennen und kritisch zu hinterfragen.
Kernthemen und Diskussionen:
1. Strategie der Analyse:
o Die Teilnehmer schlagen vor, GPT mit konkreten Problemstellungen zu konfrontieren, um dessen implizite Annahmen zu entlarven.
o Beispiele umfassen Coaching-Fragen im Kontext von Change Management, etwa den Umgang mit Widerständen oder Zielkonflikten.
o Eine Methode besteht darin, erst die KI-Antwort abzuwarten und dann gezielt nach den zugrundeliegenden Annahmen und Werten zu fragen.
2. Beispiele für Fragestellungen:
o Ein Change-Management-Szenario wurde erarbeitet: Der Projektleiter soll Personal abbauen, dabei jedoch Widerstände und unterschiedliche Abteilungsinteressen moderieren.
o Die KI reagierte mit typischen Lehrbuchstrategien (Transparenz schaffen, Vertrauen aufbauen, gemeinsame Ziele definieren). Kritisch wurde angemerkt, dass solche Antworten oft idealisierte Annahmen enthalten, z. B. dass Konsens erreichbar sei.
3. Ergebnisse und Erkenntnisse:
o Die KI zeigte, dass sie in ihrer Analyse stark von gängiger Literatur und westlichen Managementmodellen geprägt ist.
o Teilnehmer stellten fest, dass viele der impliziten Annahmen nicht mit der Realität vieler Projekte übereinstimmen, z. B. die Idee eines harmonischen Interessenausgleichs.
o Ein Vorschlag war, die Analyse weiter zu vertiefen, etwa die ethischen und normativen Grundlagen der Antworten offenzulegen.
4. Kritische Reflexion der KI-Antworten:
o Es wurde diskutiert, ob die KI eine Arbeitgeber- oder Arbeitnehmerperspektive bevorzugt. Die KI behauptete, neutral zu sein, zeigte aber eine starke Orientierung an wirtschaftlichen Zielen.
o Einige Teilnehmer kritisierten, dass Antworten oft oberflächlich oder lehrbuchartig blieben, ohne auf die praktischen Herausforderungen einzugehen.
5. Zukunftsperspektiven:
o Vorschläge für weitere Sitzungen beinhalteten moralische Dilemmata oder kulturspezifische Szenarien, um die Bandbreite der KI-Antworten zu testen.
o Die Frage nach Biases in der Programmierung der KI wurde aufgeworfen, z. B. ob ethische Vorannahmen von den Entwicklern eingebaut wurden.
Fazit
Die Sitzung lieferte wertvolle Einblicke in die Möglichkeiten und Grenzen der Nutzung von GPT-Modellen für Coaching und Change-Management-Szenarien. Kritisch blieb, dass die Antworten der KI oft von idealisierten Annahmen ausgehen und sich an Standardliteratur orientieren. Zukünftige Diskussionen sollen diese Punkte weiter vertiefen, insbesondere durch moralische und kulturspezifische Szenarien.
4o