Dr. Jana Schaich Borg versucht, einer Maschine Moral zu verleihen. Durch ihre Arbeit am Social Science Research Institute der Duke University ist sie zu einer Expertin für Entscheidungsfindung geworden – sie implementiert Blickwinkel der Moralpsychologie, Datenwissenschaft und ihrem Schwerpunkt Neurowissenschaften hinzu. Sie hat erkannt, dass künstliche Intelligenz lediglich eine Linse ist: Die Probleme, die wir mit Algorithmen lösen müssen, sind die Probleme, die wir in der Gesellschaft lösen sollten.

„Mein Labor versucht zu verstehen, was menschliche Verbundenheit ist“

herCAREER: Erzählen Sie mir von Ihrer Forschung. Was sind die Fragen, die Sie beantworten wollen?

Jana Schaich-Borg: Ich bin Neurowissenschaftlerin und arbeite eng mit Datenwissenschaftlern zusammen. Während meiner gesamten Karriere habe ich versucht zu verstehen, wie Menschen soziale Entscheidungen treffen, sowohl bewusst als auch unbewusst. Heute konzentrieren wir uns in meinem Labor auf zwei übergreifende Ziele: Wie können wir Moral in KI-Systeme einbauen, so dass sie mit der Gesellschaft in einer Weise interagieren, die unseren Moralvorstellungen entspricht? Daraus folgt auch die Frage, wie wir als Gesellschaft KI in Übereinstimmung mit unseren Werten nutzen und einsetzen können.

Der andere Teil meiner Forschung ist nicht exakt, aber in gewisser Weise die Kehrseite der Medaille. Was lernen wir von den Menschen – was ist das Besondere an unserem Umgang miteinander? Mein Labor versucht zu verstehen, was menschliche Verbundenheit ist. Denn wir wollen verstehen, wie die Entwicklung der KI-Technologie unsere zwischenmenschlichen Beziehungen beeinträchtigen könnte.

herCAREER: Wie wirkt sich die KI bereits auf unsere Interaktionen aus?

Jana Schaich-Borg: Dieser Bereich ist bisher noch nicht ausreichend untersucht worden. Aber ich bin besorgt, weil Menschen stundenlang mit Chatbots interagieren, anstatt mit Menschen. Wir bewegen uns auf eine Hungersnot der sozialen Interaktion zu.
Aber es gibt auch Ansätze, die vielversprechend sind und bei denen die Interaktion zwischen Mensch und Maschine wirklich hilfreich sein wird. Manche Menschen auf dem autistischen Spektrum, etwa, finden die Interaktion mit KI viel angenehmer. Sie fühlen sich auf eine Art und Weise gehört, wie sie es bei Menschen nicht können. Es gibt auch Hinweise darauf, dass Menschen mit PTBS sich wohler fühlen, wenn sie sich einer künstlichen Intelligenz mitteilen, weil sie sich dann nicht verurteilt fühlen.

herCAREER: Meines Wissens wird ein KI-System immer so voreingenommen sein wie die Daten, mit denen man es füttert. Was bedeutet das für die moralische oder faire Entscheidungsfindung mittels eines solchen Systems?

Jana Schaich-Borg: In jedem KI-System werden wahrscheinlich alle möglichen Verzerrungen eingebaut sein. Aber ich denke, dass man dem technisch entgegenwirken kann, indem man ein anderes Training durchführt und den Algorithmus korrigiert. Das eigentliche Problem ist, dass wir das bisher nicht tun.
Aber es gibt noch eine andere, viel größere Herausforderung: Um eine Voreingenommenheit im System zu beheben, müssen wir definieren, was wir zu beheben versuchen. Es gibt mehr als 20 offizielle Definitionen von Fairness – es wird sehr schwer sein, einen Konsens darüber zu finden, welche dieser Definitionen in ein System eingebaut werden soll. An dieser Stelle wird es also wirklich kompliziert.

herCAREER: Wenn also die Hoffnung besteht, dass wir mit Hilfe von KI bei der Rekrutierung oder vielleicht bei Kreditanträgen Vorurteile gegenüber Frauen oder marginalisierten Geschlechtern ausschalten könnten…

Jana Schaich-Borg: …müssen wir uns fragen: Wie würde Gender-Fairness überhaupt aussehen? Streben wir nach gleichem Zugang? Wollen wir die Diskriminierungen der Vergangenheit ausgleichen und den Frauen einen Vorteil verschaffen? Wie sähe Fairness in dieser Situation aus? Das ist die wahre Arbeit, die wir leisten müssen. Letztendlich ist die KI nur ein Brennglas. Es reicht nicht aus, moralische Arbeit in und an einer KI zu leisten, wir müssen diese Fragen auch in der Gesellschaft stellen.

herCAREER: Wenn wir nicht in der Lage sind, einen Konsens über Fairness, gleichen Zugang, Vielfalt und Integration zu erreichen, wie können wir dann KI sinnvoll regulieren? Ich beziehe mich auf das EU-KI-Gesetz und andere laufende Regulierungen.

Jana Schaich-Borg: Ich denke, es wäre naiv zu glauben, dass eine Regulierung die ethischen Probleme mit KI lösen wird. Der Regulierungsprozess wird immer zu langsam und nie ausreichend sein. Aber ohne Regulierung gibt es keine Chance. Wenn Unternehmen und KI-Entwickler nicht das Gefühl haben, dass sie reguliert und überwacht werden, werden die Dinge meiner Meinung nach aus dem Ruder laufen. Das muss unbedingt ein Teil des Puzzles sein.

herCAREER: Sie sagen also, dass KI ein Licht auf die Probleme der Gesellschaft wirft und dass wir nur dann eine moralische KI entwickeln können, wenn diese Probleme angegangen werden. Was ist der Weg nach vorn?

Jana Schaich-Borg: Wenn wir versuchen, diese Zukunft mit KI zu steuern, müssen wir uns darum kümmern. Wir müssen uns einmischen. Jeder und jede muss sich einbringen. Aber wir müssen versuchen, das Ganze vom Standpunkt unserer eigenen moralischen Entwicklung aus zu betrachten, und nicht als Polizistinnen.

Über die Person

Dr. Jana Schaich Borg ist eine außerordentliche Forschungsprofessorin am Social Science Research Institute der Duke University. Sie nutzt Neurowissenschaften, Computermodellierung und neue Technologien, um zu untersuchen, wie wir soziale Entscheidungen treffen, die andere Menschen beeinflussen oder von ihnen beeinflusst werden. Als Neurowissenschaftlerin analysiert sie die Daten, die sie als Datenwissenschaftlerin sammelt, in interdisziplinären Teams.
Die aktuellen Forschungsprojekte von Dr. Schaich Borg konzentrieren sich auf die Entwicklung moralischer künstlicher Intelligenz und das Verständnis sozialer Bindungen, Empathie und menschlicher Entscheidungsprozesse.
Auf der Grundlage ihrer Forschungsgebiete ist sie an der Entwicklung praktischer Strategien für die ethische Entwicklung künstlicher Intelligenz beteiligt. Sie ist in der Lage, die Implikationen komplexer analytischer Probleme aufzuschlüsseln und sie einem breiten Publikum verständlich zu vermitteln.
Zusammen mit Walter Sinnott-Armstrong und Vincent Conitzer hat sie das Buch „Moral AI – And How We Get There“ geschrieben. In den Kapiteln werden Fragen behandelt wie: Was ist KI? Gibt es eine sichere KI? Kann KI fair sein? Und: Kann KI die menschliche Moral einbeziehen?

Das Interview führte Kristina Appel.