Gibt es neben KI, künstlicher Intelligenz, auch KE, künstliche Ethik? Ist es ethisch, wenn ein "Militärroboter" (9000 derzeit im Einsatz, allerdings mit wenig KI und noch weniger KE) keine "Kriegsverbrechen" begeht oder erst, wenn er Krieg als Verbrechen erkennt und die Waffen (respektive sich selbst) niederlegt?
Arkin gibt offen zu, dass die Vorstellung vom ethisch korrekten Roboter momentan noch nicht realistisch ist: Zuverlässig zwischen Kriegsteilnehmern und Zivilisten zu unterscheiden ist derzeit technisch noch nicht möglich. Und das ist bei weitem nicht das einzige moralische Dilemma: Wie soll ein Roboter die Grenze ziehen zwischen einem Kämpfer als legitimem Ziel und einem soeben Verwundeten, der dadurch den Status eines Kriegsgefangenen und Anrecht auf ärztliche Versorgung hat? Wie ist ein Steine werfender Teenager zu behandeln, der vielleicht niemanden umbringen wollte, es aber tun könnte? Sollte ein Roboter trotz eingebauter Ethik-Software fälschlicherweise jemanden töten, wer würde dafür die Verantwortung übernehmen? Der Programmierer, der Einsatzleiter oder der Befehlshaber der Armee? Lässt sich noch von gerechter Kriegsführung sprechen, wenn nicht klar ist, wer die Verantwortung für den Tod Unschuldiger trägt?
Kaum Protest
Im Irak bleibt der Tod von Zivilisten beim Einsatz von unbemannten Predator-Drohnen ungeahndet - was auch mit dem Prinzip des Doppel-Effekts des US-Militärs vereinbar ist: Der Tod von Unbeteiligten ist straffrei, solange er unbeabsichtigt ist, selbst wenn dieser Kollateralschaden absehbar war. Bisher protestieren dagegen nur Menschenrechtsgruppen, von der Öffentlichkeit weitgehend unbemerkt. Doch das könnte sich ändern, sobald Bilder von schießenden Killerrobotern in den Abendnachrichten zu sehen sind. Optimisten hoffen sogar, mit dieser Technologie Kriege zu verhindern, da Staaten ohne Kampfroboter im Nachteil und damit eher auf den Verhandlungsweg angewiesen sind. Oder werden Länder ohne Zögern ihre Roboterarmeen losschicken, da mangels eigener Verluste kaum Protest an der Heimatfront zu erwarten ist?
Auch wenn die ethischen Probleme keineswegs gelöst sind, die Entwicklung robotischer Waffensysteme mit Automatik-Modus läuft auf Hochtouren. Selbst vermeintlich unmilitärische Forschungsprojekte lassen sich leicht umfunktionieren. Professor Durrant-Whyte macht sich da keine Illusionen: "Jemand entwickelt eine Methode zur Objekterkennung, und jemand anderes macht ein elektronisches Zielsystem daraus. Dagegen lässt sich nicht viel tun. Das muss man als Gesellschaft entweder akzeptieren oder Forschung ganz aufgeben." Angesichts so vieler Grauzonen wächst bei vielen Robotik-Wissenschaftlern das Bedürfnis, sich Gedanken zu machen, in welche Richtung sich ihr Fach weiterentwickelt. Das "European Robotics Network" (Euron) hat 2006 mit der "Roboethics Roadmap" eine erste Annäherung an dieses Thema unternommen: Der Report beschreibt Problembereiche, zählt mögliche Entwicklungen auf und gibt einige, wenn auch recht knapp gehaltene Empfehlungen. Mit konkreten Richtlinien ist noch lange nicht zu rechnen - zu neu ist dieses Forschungsfeld. Immerhin soll das auf zehn Jahre ausgelegte Projekt dabei helfen, ethische Vorgaben bereits in den Entwicklungsprozess mit einfließen zu lassen - solange der Geist noch in der Flasche steckt.
Möglichkeiten und Verantwortung
Das Thema Militärroboter ist allerdings nur eines von vielen. Immerhin sind sich die Forscher um den italienischen Roboethik-Pionier Gianmarco Verrugio einig, dass Diskussionen über die Rechte von menschenähnlichen Robotern momentan noch zu vernachlässigen sind. Auch die EU hat erkannt, dass die Robotik als eines der wichtigsten Technologiefelder des 21. Jahrhunderts nicht nur neue Möglichkeiten, sondern auch neue Verantwortung mit sich bringt. Mit "Ethicbots" fördert die EU erstmals ein Projekt zum Thema Technologie und Ethik. Im April 2008 wird die interdisziplinäre Gruppe - ein Zusammenschluss aus Ingenieuren, Informatikern, Anthropologen und Philosophen - die Ergebnisse ihrer zweieinhalbjährige Studie vorlegen und damit maßgeblich die Forschungspolitik der EU beeinflussen.
Aber nicht nur die Europäer sind mittlerweile aktiv geworden. So haben die beiden Länder mit der weltweit größten Roboterbegeisterung ihre eigenen Ansätze geliefert: Japan sieht das Thema eher praktisch und stellte im April 2007 eine Reihe von Sicherheits-Empfehlungen für den Betrieb von Robotern vor. Unter anderem soll eine zentrale Datenbank geschaffen werden, um Schäden und Verletzungen zu dokumentieren. Kurz zuvor hatte Südkorea angekündigt, ebenfalls an einer Ethik-Charta zu arbeiten, die bis zum Ende des vergangenen Jahres fertig sein sollte und bis jetzt noch auf sich warten lässt. Vor allem Südkoreas Bemühungen wurden von Robotikwissenschaftlern eher kritisch aufgenommen. Denn das dortige Gremium, bestehend aus Zukunftsforschern und einem Science-Fiction-Autor, nannte die Robotik-Gesetze von Isaac Asimov (siehe Kasten) als eine ihrer Grundlagen.
Bruch der Gesetze
Zwar klingen die Gesetze des Science-Fiction-Schriftstellers auf den ersten Blick einfach und einleuchtend, doch in der Realität erweisen sie sich häufig als unbrauchbar - selbst Asimov musste sie in seinen Geschichten mehrfach brechen. Dass Roboter überhaupt jemals über die nötige Intelligenz verfügen, um mit den ethischen Problemen der realen Welt fertig zu werden, sei sehr fraglich, schreibt Bruce McLaren, der an der Pittsburgher Carnegie Mellon Universität künstliche Intelligenz erforscht. Doch dieses Manko werde Militärstrategen nicht davon abhalten, so bald wie möglich autonome Roboter einzusetzen, warnt Noel Sharkey, Professor für künstliche Intelligenz und Robotik an der Universität von Sheffield. Politiker und Militärs hätten oft keine klare Vorstellung von den Möglichkeiten und Grenzen künstlicher Intelligenz.
Somit stünden Wissenschaftler in der Pflicht, auf der Jagd nach Regierungsgeldern keine falschen Begehrlichkeiten zu wecken. Sharkey hofft dagegen auf neue internationale Abkommen - am besten wäre seiner Meinung nach ein totales Verbot autonomer Killerroboter: "Roboter sind nichts weiter als Maschinen, die stumpfsinnig einprogrammierte Befehle ausführen. Ihre kognitiven Fähigkeiten sind so eingeschränkt, dass man sie nicht einmal dumm nennen kann. Sollten wir ihnen wirklich Entscheidungen über Leben und Tod anvertrauen?"
Artikel vom 11. März 2008
11. März 2008
http://www.stern.de/computer-technik/computer/613778.html
[/quote]
Achim
Arkin gibt offen zu, dass die Vorstellung vom ethisch korrekten Roboter momentan noch nicht realistisch ist: Zuverlässig zwischen Kriegsteilnehmern und Zivilisten zu unterscheiden ist derzeit technisch noch nicht möglich. Und das ist bei weitem nicht das einzige moralische Dilemma: Wie soll ein Roboter die Grenze ziehen zwischen einem Kämpfer als legitimem Ziel und einem soeben Verwundeten, der dadurch den Status eines Kriegsgefangenen und Anrecht auf ärztliche Versorgung hat? Wie ist ein Steine werfender Teenager zu behandeln, der vielleicht niemanden umbringen wollte, es aber tun könnte? Sollte ein Roboter trotz eingebauter Ethik-Software fälschlicherweise jemanden töten, wer würde dafür die Verantwortung übernehmen? Der Programmierer, der Einsatzleiter oder der Befehlshaber der Armee? Lässt sich noch von gerechter Kriegsführung sprechen, wenn nicht klar ist, wer die Verantwortung für den Tod Unschuldiger trägt?
Kaum Protest
Im Irak bleibt der Tod von Zivilisten beim Einsatz von unbemannten Predator-Drohnen ungeahndet - was auch mit dem Prinzip des Doppel-Effekts des US-Militärs vereinbar ist: Der Tod von Unbeteiligten ist straffrei, solange er unbeabsichtigt ist, selbst wenn dieser Kollateralschaden absehbar war. Bisher protestieren dagegen nur Menschenrechtsgruppen, von der Öffentlichkeit weitgehend unbemerkt. Doch das könnte sich ändern, sobald Bilder von schießenden Killerrobotern in den Abendnachrichten zu sehen sind. Optimisten hoffen sogar, mit dieser Technologie Kriege zu verhindern, da Staaten ohne Kampfroboter im Nachteil und damit eher auf den Verhandlungsweg angewiesen sind. Oder werden Länder ohne Zögern ihre Roboterarmeen losschicken, da mangels eigener Verluste kaum Protest an der Heimatfront zu erwarten ist?
Auch wenn die ethischen Probleme keineswegs gelöst sind, die Entwicklung robotischer Waffensysteme mit Automatik-Modus läuft auf Hochtouren. Selbst vermeintlich unmilitärische Forschungsprojekte lassen sich leicht umfunktionieren. Professor Durrant-Whyte macht sich da keine Illusionen: "Jemand entwickelt eine Methode zur Objekterkennung, und jemand anderes macht ein elektronisches Zielsystem daraus. Dagegen lässt sich nicht viel tun. Das muss man als Gesellschaft entweder akzeptieren oder Forschung ganz aufgeben." Angesichts so vieler Grauzonen wächst bei vielen Robotik-Wissenschaftlern das Bedürfnis, sich Gedanken zu machen, in welche Richtung sich ihr Fach weiterentwickelt. Das "European Robotics Network" (Euron) hat 2006 mit der "Roboethics Roadmap" eine erste Annäherung an dieses Thema unternommen: Der Report beschreibt Problembereiche, zählt mögliche Entwicklungen auf und gibt einige, wenn auch recht knapp gehaltene Empfehlungen. Mit konkreten Richtlinien ist noch lange nicht zu rechnen - zu neu ist dieses Forschungsfeld. Immerhin soll das auf zehn Jahre ausgelegte Projekt dabei helfen, ethische Vorgaben bereits in den Entwicklungsprozess mit einfließen zu lassen - solange der Geist noch in der Flasche steckt.
Möglichkeiten und Verantwortung
Das Thema Militärroboter ist allerdings nur eines von vielen. Immerhin sind sich die Forscher um den italienischen Roboethik-Pionier Gianmarco Verrugio einig, dass Diskussionen über die Rechte von menschenähnlichen Robotern momentan noch zu vernachlässigen sind. Auch die EU hat erkannt, dass die Robotik als eines der wichtigsten Technologiefelder des 21. Jahrhunderts nicht nur neue Möglichkeiten, sondern auch neue Verantwortung mit sich bringt. Mit "Ethicbots" fördert die EU erstmals ein Projekt zum Thema Technologie und Ethik. Im April 2008 wird die interdisziplinäre Gruppe - ein Zusammenschluss aus Ingenieuren, Informatikern, Anthropologen und Philosophen - die Ergebnisse ihrer zweieinhalbjährige Studie vorlegen und damit maßgeblich die Forschungspolitik der EU beeinflussen.
Aber nicht nur die Europäer sind mittlerweile aktiv geworden. So haben die beiden Länder mit der weltweit größten Roboterbegeisterung ihre eigenen Ansätze geliefert: Japan sieht das Thema eher praktisch und stellte im April 2007 eine Reihe von Sicherheits-Empfehlungen für den Betrieb von Robotern vor. Unter anderem soll eine zentrale Datenbank geschaffen werden, um Schäden und Verletzungen zu dokumentieren. Kurz zuvor hatte Südkorea angekündigt, ebenfalls an einer Ethik-Charta zu arbeiten, die bis zum Ende des vergangenen Jahres fertig sein sollte und bis jetzt noch auf sich warten lässt. Vor allem Südkoreas Bemühungen wurden von Robotikwissenschaftlern eher kritisch aufgenommen. Denn das dortige Gremium, bestehend aus Zukunftsforschern und einem Science-Fiction-Autor, nannte die Robotik-Gesetze von Isaac Asimov (siehe Kasten) als eine ihrer Grundlagen.
Bruch der Gesetze
Zwar klingen die Gesetze des Science-Fiction-Schriftstellers auf den ersten Blick einfach und einleuchtend, doch in der Realität erweisen sie sich häufig als unbrauchbar - selbst Asimov musste sie in seinen Geschichten mehrfach brechen. Dass Roboter überhaupt jemals über die nötige Intelligenz verfügen, um mit den ethischen Problemen der realen Welt fertig zu werden, sei sehr fraglich, schreibt Bruce McLaren, der an der Pittsburgher Carnegie Mellon Universität künstliche Intelligenz erforscht. Doch dieses Manko werde Militärstrategen nicht davon abhalten, so bald wie möglich autonome Roboter einzusetzen, warnt Noel Sharkey, Professor für künstliche Intelligenz und Robotik an der Universität von Sheffield. Politiker und Militärs hätten oft keine klare Vorstellung von den Möglichkeiten und Grenzen künstlicher Intelligenz.
Somit stünden Wissenschaftler in der Pflicht, auf der Jagd nach Regierungsgeldern keine falschen Begehrlichkeiten zu wecken. Sharkey hofft dagegen auf neue internationale Abkommen - am besten wäre seiner Meinung nach ein totales Verbot autonomer Killerroboter: "Roboter sind nichts weiter als Maschinen, die stumpfsinnig einprogrammierte Befehle ausführen. Ihre kognitiven Fähigkeiten sind so eingeschränkt, dass man sie nicht einmal dumm nennen kann. Sollten wir ihnen wirklich Entscheidungen über Leben und Tod anvertrauen?"
Artikel vom 11. März 2008
11. März 2008
http://www.stern.de/computer-technik/computer/613778.html
[/quote]
Achim