Robotik
Zitat: | «Robotik im Recht: Prof. Dr. Dr. Eric Hilgendorf[wp]
Letztlich lief der Vortrag auch nur wieder auf das Entscheidungsdilemma hinaus: Soll die Software im Auto die wenigen zugunsten der vielen opfern? Es gebe den Weichenstellerfall: Ein Zug rollt führerlos und wird gleich drei Menschen töten. Der Weichensteller könnte aber eine Weiche umstellen, und so dafür sorgen, dass nur ein Mensch auf einem anderen Gleis stirbt. Darf, soll, kann, muss er die Weiche umstellen? Sie meinen, er darf nicht.
Übrigens sagte er, dass es das Problem schon lange gäbe, schon die alten Griechen hätten es gekannt, als das Plankenproblem des Karneades[wp]. Im Dritten Reich sei das Problem sogar konkret aufgetreten, weil die Nazis Geisteskranke getötet haben und deshalb von den Leitern von Anstalten für Geisteskranke forderten, Geisteskranke zur Tötung herauszugeben. Haben die Direktoren dabei nicht mitgespielt, wurden sie selbst getötet und dann die Kranken, damit haben sie also nichts erreicht. Die Frage sei deshalb gewesen, ob die Direktoren einige der Kranken "opfern" durften, damit die Nazis zufrieden waren, wieder gegangen sind, und andere das damit überleben konnten. Die Juristen meinten, nein, diese Kooperation sei nicht legal gewesen. Was für mich aber heißt: Es ist eben kein Robotik-Problem. Weil es das vor den Robotern schon gab. Und ich bin der Meinung, dass wenn man schon als Professor für Robotik-Recht auftritt, man das auch klar trennen können sollte. Sie tun immer so, als würden die Juristen und Philosophen usw. Probleme der Robotik aufzeigen. Dabei ist es genau umgekehrt: Die Robotik/Informatik zeigt Probleme der Juristen, Ethik[wp], Philosophen auf, die nicht sagen können, was sie haben wollen, weil erst die Informatik sie zwingt, mal konkret und präzise zu sagen, was sie wollen. Bisher haben die sich immer außenrumgeschwafelt.» - Hadmut Danisch[1] |
Einzelnachweise
- ↑ Hadmut Danisch: Algorithmen ist das neue Atomkraft, Ansichten eines Informatikers am 29. Oktober 2016