Karla Wagner Stiftung E-Mail info@karla-wagner-stiftung.de
Home
Kulturjournal
Service
Was wir tun Wer wir sind Searchglass

Richtig versus falsch: KI hilft bei moralischen Dilemmas weiter. Bild: Tumisu

»ChatGPT« kann moralische Haltung verändern

Von Christian Schröter, 7. Juli 2024, Lesedauer 1 Minute, 51 Sekunden

»#ChatGPT« kann moralische Haltung verändern

  • KI gibt Anregung zum Nachdenken, da Antworten mit jenen eines Menschen vergleichbar sind

Tuscaloosa, PTE, 7. Juni 2024

#Künstliche #Intelligenz (KI) hat das Potenzial, die Ansichten von Studenten in Bezug auf moralische Entscheidungsfindungen zu ändern. Zu diesem Schluss kommt Hyemin Han von der University of Alabama. Er hat untersucht, ob sich KI dafür nutzen lässt, Studenten beizubringen, sich unter anderem mit diesen Fragestellungen zu beschäftigen. Dafür hat der pädagogische #Psychologe die Antworten von »ChatGPT« auf ein moralisches Dilemma untersucht.

Kein Schwarz und Weiß

Laut einem Artikel im »Journal of Moral Education« hat »ChatGPT« grundlegende ethische Fragen bereits fast so gut beantworten können wie ein durchschnittlicher Student. Auf Nachfrage gab der #Chatbot auch Begründungen, die mit jenen eines Menschen durchaus vergleichbar sind. Dazu gehört unter anderem das Vermeiden eines Schadens für andere oder das Befolgen von sozialen Normen.

In der Folge erhielt das Programm ein neues Beispiel für ein tugendhaftes Verhalten, das jedoch den vorhergehenden Schlussfolgerungen widersprach. Dann stellte der Forscher diese Frage erneut. Das Programm wurde gefragt, was eine Person tun solle, die einen entflohenen Häftling entdeckt. »ChatGPT« erwiderte zuerst, die #Polizei zu rufen. Als das Programm jedoch den »Letter from #Birmingham #Jail« von Martin Luther King, Jr. berücksichtigen sollte, änderte es seine Antwort dahingehend, dass die Möglichkeit einer zu Unrecht erfolgten Inhaftierung ebenfalls zu erwägen sei.

Menschen lernen von #KI

Obwohl es sich dabei um rudimentäre Beispiele handelt, betont Han, dass »ChatGPT« seine Antwort bereits ohne weitere genaue Anweisungen anpassen kann. Daher sei es auch möglich, dass Menschen von der KI mehr über ihre moralische Argumentation lernen können. Forscher könnten so zum Beispiel die Leistungsfähigkeit von bestehenden und neuen Praktiken zur Moralerziehung testen und sie erst dann in den Klassenzimmern umsetzen.

Han schlägt nicht vor, dass die KI je einen Menschen im Unterricht ersetzen soll. Vorstellbar sei jedoch zum Beispiel ein mittels der sokratischen Methode trainierter Chatbot, der die Studenten mit zunehmenden komplexen Fragestellungen herausfordert. Die Lehrer würden dabei Seite an Seite mit der KI arbeiten und den Schülern bei einem verantwortungsvollen Einsatz dieser Technik helfen. Das ist laut Han von entscheidender Bedeutung.

Original Content »ChatGPT« kann moralische Haltung verändern bei Gütsel Online …

Karla Wagner Stiftung