Fremde Federn: KI sitzt nicht betrunken am Steuer

Published 03/12/2018 in Inland, Politik

Fremde Federn: KI sitzt nicht betrunken am Steuer
Die Kuratorin Judith Spickermann steht in der Ausstellung „Künstliche Intelligenz und Robotik“ im Heinz Nixdorf MuseumsForum vor einem Serviceroboter. Sein Name: Pepper.

Wenn Deutschland mit Amerika und China mithalten will, muss es in der Entwicklung der Künstlichen Intelligenz Fortschritte machen. Um ethischen Fragen dabei standzuhalten, ist auch die Politik gefragt. Ein Gastbeitrag.

Der Wettbewerb um die Vorherrschaft in Künstlicher Intelligenz auf nationaler Ebene wird meiner Meinung nach der wahrscheinlichste Auslöser des dritten Weltkriegs“, twitterte Tesla-Chef Elon Musk. Dagegen ist Facebook-Chef Mark Zuckerberg der Überzeugung: „Wer gegen Künstliche Intelligenz argumentiert, argumentiert gegen sicherere Autos und gegen bessere Diagnosen für Kranke. Ich sehe einfach nicht, wie jemand guten Gewissens das tun kann.“ Diese Äußerungen führen die diskursive Spannbreite und das Konfliktpotential im Umgang mit der Künstlichen Intelligenz (KI) vor Augen.

Jedenfalls müssen wir dafür sorgen, „dass KI-Systeme ethische Leitplanken berücksichtigen“, so Wolfgang Wahlster, Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz. Dies belegt allein das Szenario des autonomen Fahrzeugs, das auf eine Notsituation zusteuert und entscheiden muss, ob es Passanten überfährt oder bei einem Ausweichmanöver das Leben der Insassen riskiert. Mit der autonomen Mobilität wird eine Spielart der KI schon in naher Zukunft Realität werden. Damit geht die Erwartung einher, dass Autofahren nicht nur günstiger, klimafreundlicher und effizienter wird, sondern auch sicherer. Denn es ist nicht zu erwarten, dass KI betrunken am Steuer sitzt, bei einer langen Nachtfahrt einschläft oder während des Fahrens textet. Dennoch wird auch die autonome Mobilität nicht frei von Risikosituationen sein. Wenn in bestimmten Gefahrensituationen eine Schädigung von Menschen unvermeidbar ist, muss das System „entscheiden“, wer geschädigt wird und wer nicht. Der Rechtswissenschaftler Mario Martini, Mitglied der Datenethikkommission der Bundesregierung, wies darauf hin, dass der Mensch damit einen Teil seiner „ethischen Steuerungsmacht“ an den Algorithmus abtritt. Daher benötige dieser einen Wertekompass für Entscheidungsregeln. Verantwortung dafür trägt immer der Mensch, nie die Maschine. Es kommt also darauf an, dass Algorithmen so gestaltet sind, dass sie Ethik und Recht widerspiegeln.

Print article

Kommentieren

Bitte Pflichtfelder ausfüllen