Künstliche Intelligenz hat keine Intuitionen

Schon Dreijährige begreifen, dass Menschen im Gegensatz zu Objekten Absichten und Wünsche haben. Die schließen intuitiv aus Blicken, Körperbewegungen oder Tonfällen auf die Absichten anderer Menschen. Gerd Gigerenzer weiß: „Die Fähigkeit, anderen Menschen Absichten zuzuschreiben, bezeichnet man auch als Theorie des Geistes (Theorie of Mind).“ Sie trägt beispielsweise zum sicheren Fahren im Straßenverkehr bei. Wenn ein Kind an der Bordsteinkante einer vielbefahrenen Straße steht, können menschliche Fahrer in einem Sekundenbruchteil erkennen, ob das Kind die Absicht hat, auf die Straße zu laufen oder nicht. Wenn das Kind einen Ball auf der anderen Straßenseite im Blick hat, könnte das sehr wohl passieren. Blickt das Kind dagegen eine Frau direkt neben sich an, ist das unwahrscheinlich. Das Gottlieb Duttweiler Institut hat Gerd Gigerenzer als einen der hundert einflussreichsten Denker der Welt bezeichnet.

Heuristische Regeln erschließen Absichten

Menschen haben gelernt, mithilfe solcher heuristischen Regeln auf Absichten zu schließen. Künstliche neuronale Netze haben keine dieser Intuitionen. Selbst wenn die Künstliche Intelligenz (KI) mit ihrem Wahrnehmungsmodul ein Kind und eine erwachsene Frau zuverlässig erkennen könnte, bräuchte sie noch zusätzlich ein Modul für intuitive Psychologie. Nur so könnte sie entscheiden, welche Absichten die beiden haben und was sie als Nächstes tun werden.

Gerd Gigerenzer stellt fest: „Allerdings bleibt es ein Rätsel, wie man intuitive Psychologie in einem Computer programmieren soll. Dazu bedürfte es eines wahrhaften Durchbruchs in der Softwaretechnik.“ Wenn es selbstfahrende Autos gäbe, entstünde eine große Zahl moralischer Dilemmata. Man kann sich zum Beispiel vorstellen, dass drei ältere Menschen eine Straße bei Rot überqueren. Ein selbstfahrendes Auto erkennt sie zu spät, um rechtzeitig zu bremsen, und ist im Begriff sie alle zu töten.

Die Mehrheit neigt zu rücksichtsloser Diskriminierung

Das Auto hat nur eine einzige andere Option: Gegen eine Mauer zu fahren und stattdessen die drei Insassen zu töten. Wie sollte der Ingenieur das Navigationsmodul der KI programmieren? Wen soll das Auto töten? Im Jahr 2017 hat die deutsche Ethikkommission zum automatisierten und vernetzten Fahren die weltweit ersten ethischen Regeln für dieses Problem vorgeschlagen. Dazu gehört, dass menschliches Leben Vorrecht vor tierischem hat und das Diskriminierung aufgrund von Alter, Geschlecht oder irgendeinem anderen persönlichen Merkmal verboten ist.

Folglich müsste es dem Auto gleichgültig sein, ob es die Fußgänger oder die Insassen rettet. Gerd Gigerenzer erklärt: „Eine Studie an Millionen Menschen zeigte, dass die meisten Teilnehmer nicht mit diesen ethischen Regeln übereinstimmten. Abgesehen von der Überzeugung, dass man Hunde und Katzen anstelle von Menschen opfern sollte.“ Generell neigte die Mehrheit weltweit zu rücksichtsloser Diskriminierung und war weit davon entfernt, alle Mitmenschen als gleichrangig anzuerkennen. Quelle: „Klick“ von Gerd Gigerenzer

Von Hans Klumbies