Forenübersicht RSS

Allgemeines:
Künstliche Ethik: Schlachten Androiden elektrische Schafe?

Anzahl Beiträge in diesem Thread: 5

Hinweis: Momentan können keine Beiträge erstellt werden.

Künstliche Ethik: Schlachten Androiden elektrische Schafe?

Autor: Achim Stößer | Datum:
Gibt es neben KI, künstlicher Intelligenz, auch KE, künstliche Ethik? Ist es ethisch, wenn ein "Militärroboter" (9000 derzeit im Einsatz, allerdings mit wenig KI und noch weniger KE) keine "Kriegsverbrechen" begeht oder erst, wenn er Krieg als Verbrechen erkennt und die Waffen (respektive sich selbst) niederlegt?

Zitat: Wo Kampfroboter Ethik lernen
Von Eva Schatz

Roboter, die über Leben und Tod entscheiden. Die ultimative Vision von Militärstrategen: Bei Robotern mit eingebautem Ethik-Programm käme es gar nicht erst zu Kriegsverbrechen. Doch dieser Wunsch bereitet Robotikwissenschaftlern wie Ethikern und Philosophen enormes Kopfzerbrechen.

Vorsichtig rollt ein kleines, wendiges Raupenfahrzeug auf einen Hauseingang zu. Es ist mit Lasern, Kameras und einer Reihe weiterer Sensoren bestückt, die jede Veränderung in der Umgebung sofort wahrnehmen und an das Rechnersystem melden. Auf den ersten Blick wirkt der nur knapp 45 Kilogramm schwere Roboter nicht sehr bedrohlich - doch oben aufmontiert ist ein Maschinengewehr. Um potenzielle Angreifer sogleich zum Aufgeben zu bewegen, gibt der Metallsoldat erst einige Warnschüsse ab, bevor er ins Innere des Hauses eindringt. Wenige Minuten später kommt er wieder heraus, ohne einen weiteren Schuss abgefeuert zu haben. Statt der gesuchten Terroristen waren nur unschuldige Zivilisten zu finden - diese zu erschießen wäre gegen die ethischen Grundsätze des Roboters gewesen. Was sich anhört wie der neueste Science-Fiction-Streifen, ist Planziel vieler Militärs.

Vorstufen gibt es bereits: Im Sommer 2007 setzte die US-Armee zum ersten Mal drei dieser wahlweise mit Maschinengewehren, Granat- oder Raketenwerfern bestückten Roboter im Irak ein. Noch müssen die Roboter des Typs TALON SWORDS von Menschen ferngesteuert werden und können keine eigenen Entscheidungen treffen. Die Realität auf dem Schlachtfeld ist zu komplex, um von Computern verstanden zu werden. Denn etliche der wichtigsten Voraussetzungen für intelligentes Handeln bereiten Robotern - im Gegensatz zu Menschen - noch erhebliche Schwierigkeiten: Wie lassen sich Objekte erkennen und Situationen richtig interpretieren? Wie findet man sich in der Welt zurecht?

Militärroboter
Ende des Jahres 2006 gab es weltweit 9000 Militärroboter - nicht viel im Vergleich zu knapp einer Million Industrierobotern. Doch der Markt wächst rasant: Nach Angaben der International Federation of Robotics waren es Ende 2004 erst 1000 Stück, bis 2010 ist mit weiteren 12.000 Einheiten zu rechnen. Neben den USA und Südkorea investieren vor allem Russland, China, Indien, Singapur und Großbritannien verstärkt in automatisierte Kriegsführung. Israel verfügt schon über automatisierte Grenzposten.

Das menschliche Gehirn kann Sinneseindrücke meist ohne Probleme einordnen und die richtigen Schlüsse ziehen. Wer einmal verinnerlicht hat, wie ein Bleistift aussieht, der erkennt solch einen Gegenstand auch dann als Schreibgerät wieder, wenn Kappen, Quasten oder aufgesetzte Radiergummis das ursprüngliche Bild verändern. Für einen Roboter ist die Sache ungleich schwieriger. Sämtliche Sensoreindrücke müssen klassifizierbar sein. Sobald sich zu viel auf einmal ändert, steht auch der schnellste Rechner vor einem unlösbaren Rätsel.

Türen sind Probleme
"Für einen Roboter ist es relativ einfach, den Mars zu erforschen, denn dieser Planet ist relativ einfach strukturiert", erklärt Professor Hugh Durrant-Whyte vom Australian Centre for Field Robotics das Dilemma. "Eine Tür zu öffnen ist dagegen viel komplizierter, denn Türgriffe unterscheiden sich sehr stark voneinander und sind schwierig zu bedienen." Wer schon einmal gegen eine Tür gelaufen ist, weil sie anders als erwartet aufging, dem dürfte dieses Problem nicht unbekannt sein.

Mit diesem Bild vor Augen ist es schwer vorstellbar, wie bewaffnete Blechsoldaten bald in Krisenherde entsandt werden sollen. Zumal es um deren Akzeptanz in der Öffentlichkeit nicht sonderlich gut steht. Bei einer Online-Umfrage des Georgia Tech College of Computing, Atlanta, unter Robotik-Forschern, Militärangehörigen, Politikern und Normalbürgern lehnte mehr als die Hälfte aller Teilnehmer es strikt ab, autonome Roboter mit tödlichen Waffen auszustatten.

Laut der "Unmanned Systems Roadmap 2007-2032" verfolgt das US-Verteidigungsministerium dieses "äußerst kontroverse Thema" daher mit der sogenannten "crawl-walk-run"-Herangehensweise (kriechen, gehen, rennen): Unbemannte mobile Roboter sollen nur schrittweise mit tödlichen Waffen ausgestattet werden - in dem Maße, wie ihre Fähigkeit zu selbständigem Handeln zuverlässiger wird. Nur wenn unbemannte Systeme zunehmend autonom agieren können, so die Vision der "Roadmap", werde sich die Fähigkeit der US-Armee verbessern, mit komplexen Missionen in einer dynamischen Umwelt fertig zu werden.

Ohne Roboter geht nichts mehr
Schon jetzt geht beim Minenräumen und bei Aufklärungsmissionen ohne semi-autonome Roboter nichts mehr. Sie müssen ran, wenn es um Jobs mit den drei "D" geht: "dull, dirty, dangerous" (langweilig, dreckig, gefährlich). Ende des Jahres 2006 waren im Irak über 4000 unbemannte Bodenfahrzeuge unterwegs. Zwei Jahre zuvor hatte deren Zahl gerade einmal 162 betragen. Bis zum Jahr 2015 soll gemäß einer Vorgabe des US-Kongresses ein Drittel aller Bodenfahrzeuge der Armee unbemannt eingesetzt werden. Dasselbe Ziel ist für tief fliegende Flugzeuge sogar fünf Jahre früher angepeilt.

Auch andere Länder setzen immer mehr auf automatisierte Kriegsführung: Im September 2007 ließ Südkorea Roboter-Wachposten patentieren, die entlang der entmilitarisierten Zone an der Grenze zu Nordkorea zum Einsatz kommen sollen. Mit den geplanten 1000 Einheiten lässt sich viel Personal einsparen - und die Roboter sind ihren menschlichen Kollegen nicht nur in punkto Durchhaltevermögen überlegen: Das Zielverfolgungsystem funktioniert bei Tageslicht bis zu zwei Kilometer weit, nachts einen Kilometer. Der Überwachungsradius ist sogar doppelt so groß. Wer ohne gültiges Passwort auf einen dieser mit Mikrofon, Lautsprechern und Spracherkennung ausgestatteten Grenzposten trifft, muss nach 20 Sekunden entweder mit Gummigeschossen oder scharfer Munition rechnen.

Entscheidung über Leben und Tod
Noch treffen auch bei diesem System Menschen über Fernsteuerung die Entscheidung über Leben und Tod. Doch Hersteller Samsung ließ mitteilen, dass der robotische Wachposten SGR-A1 auch über einen autonomen Modus verfügt. Damit Roboter in solch schwierigen Situationen wie Kampfeinsätzen eigenständig handeln können, müssen sie nicht nur ihre Umwelt mindestens ebenso zuverlässig wie Menschen wahrnehmen können. Auch ihre kognitiven Fähigkeiten müssen sich der menschlichen Denkweise anpassen. Professor Ronald Arkin vom Georgia Tech College untersucht derzeit für das US-Verteidigungsministerium Möglichkeiten, Roboter mit ethischem Denken auszustatten.

Arkins Überlegung: Es ist nur eine Frage des richtigen Programms, um Morde an Zivilisten, brutale Vergeltungsmaßnahmen und andere Kriegsverbrechen zu verhindern. Da Roboter keine Gefühle haben, können sie ultimativ menschlicher handeln als Menschen es in Kriegssituationen für gewöhnlich tun. So gesehen ist ein Roboter immer im Vorteil: Er kann Informationen unbeeinflusst, zuverlässig und schnell bewerten. Außerdem muss er sich nicht erst durch die gesamte Ethiklehre des christlichen Abendlandes arbeiten, sondern verfügt mit einem Mix aus Kriegsrecht, spezifischen Einsatzregeln und internationalen Abkommen wie den Genfer Konventionen über ein klares Handlungsmuster.


Arkin betont, dass sich mittels Kampfrobotern sogar Menschenleben auf beiden Seiten retten ließen: Da ein Roboter sein eigenes Leben nicht schützen muss, kann er sich näher an den Gegner heranwagen und so zur Kapitulation auffordern. Unbemannte Flugzeuge können die Gefahr eingehen tiefer zu fliegen und damit ihre Zielsicherheit erhöhen. Das Konzept klingt verlockend. Schließlich scheitern Menschen ständig daran, sich ethisch korrekt zu verhalten. Eine Untersuchung innerhalb der im Irak stationierten US-Streitkräfte aus dem Jahr 2006 zeigte, dass weniger als die Hälfte der befragten Soldaten zustimmten, unbeteiligte Zivilisten seien mit Würde und Respekt zu behandeln. Mehr als ein Drittel sah den Einsatz von Folter als gerechtfertigtes Mittel zum Zweck an, und nicht einmal die Hälfte aller Befragten würde einen Kameraden wegen Mordes an einem Zivilisten anzeigen.
[quote]
Die Robotik-Gesetze
Die Robotik-Gesetze des Schriftstellers Isaac Asimov lauten: 1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird. 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. 3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Später erweiterte Asimov die Regeln noch um das sogenannte "nullte" Gesetz, das allen anderen voran steht: Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt. Demnach dürften Individuen durchaus getötet werden, wenn es dem Schutz der Menschheit dient.


Arkin gibt offen zu, dass die Vorstellung vom ethisch korrekten Roboter momentan noch nicht realistisch ist: Zuverlässig zwischen Kriegsteilnehmern und Zivilisten zu unterscheiden ist derzeit technisch noch nicht möglich. Und das ist bei weitem nicht das einzige moralische Dilemma: Wie soll ein Roboter die Grenze ziehen zwischen einem Kämpfer als legitimem Ziel und einem soeben Verwundeten, der dadurch den Status eines Kriegsgefangenen und Anrecht auf ärztliche Versorgung hat? Wie ist ein Steine werfender Teenager zu behandeln, der vielleicht niemanden umbringen wollte, es aber tun könnte? Sollte ein Roboter trotz eingebauter Ethik-Software fälschlicherweise jemanden töten, wer würde dafür die Verantwortung übernehmen? Der Programmierer, der Einsatzleiter oder der Befehlshaber der Armee? Lässt sich noch von gerechter Kriegsführung sprechen, wenn nicht klar ist, wer die Verantwortung für den Tod Unschuldiger trägt?

Kaum Protest
Im Irak bleibt der Tod von Zivilisten beim Einsatz von unbemannten Predator-Drohnen ungeahndet - was auch mit dem Prinzip des Doppel-Effekts des US-Militärs vereinbar ist: Der Tod von Unbeteiligten ist straffrei, solange er unbeabsichtigt ist, selbst wenn dieser Kollateralschaden absehbar war. Bisher protestieren dagegen nur Menschenrechtsgruppen, von der Öffentlichkeit weitgehend unbemerkt. Doch das könnte sich ändern, sobald Bilder von schießenden Killerrobotern in den Abendnachrichten zu sehen sind. Optimisten hoffen sogar, mit dieser Technologie Kriege zu verhindern, da Staaten ohne Kampfroboter im Nachteil und damit eher auf den Verhandlungsweg angewiesen sind. Oder werden Länder ohne Zögern ihre Roboterarmeen losschicken, da mangels eigener Verluste kaum Protest an der Heimatfront zu erwarten ist?

Auch wenn die ethischen Probleme keineswegs gelöst sind, die Entwicklung robotischer Waffensysteme mit Automatik-Modus läuft auf Hochtouren. Selbst vermeintlich unmilitärische Forschungsprojekte lassen sich leicht umfunktionieren. Professor Durrant-Whyte macht sich da keine Illusionen: "Jemand entwickelt eine Methode zur Objekterkennung, und jemand anderes macht ein elektronisches Zielsystem daraus. Dagegen lässt sich nicht viel tun. Das muss man als Gesellschaft entweder akzeptieren oder Forschung ganz aufgeben." Angesichts so vieler Grauzonen wächst bei vielen Robotik-Wissenschaftlern das Bedürfnis, sich Gedanken zu machen, in welche Richtung sich ihr Fach weiterentwickelt. Das "European Robotics Network" (Euron) hat 2006 mit der "Roboethics Roadmap" eine erste Annäherung an dieses Thema unternommen: Der Report beschreibt Problembereiche, zählt mögliche Entwicklungen auf und gibt einige, wenn auch recht knapp gehaltene Empfehlungen. Mit konkreten Richtlinien ist noch lange nicht zu rechnen - zu neu ist dieses Forschungsfeld. Immerhin soll das auf zehn Jahre ausgelegte Projekt dabei helfen, ethische Vorgaben bereits in den Entwicklungsprozess mit einfließen zu lassen - solange der Geist noch in der Flasche steckt.

Möglichkeiten und Verantwortung
Das Thema Militärroboter ist allerdings nur eines von vielen. Immerhin sind sich die Forscher um den italienischen Roboethik-Pionier Gianmarco Verrugio einig, dass Diskussionen über die Rechte von menschenähnlichen Robotern momentan noch zu vernachlässigen sind. Auch die EU hat erkannt, dass die Robotik als eines der wichtigsten Technologiefelder des 21. Jahrhunderts nicht nur neue Möglichkeiten, sondern auch neue Verantwortung mit sich bringt. Mit "Ethicbots" fördert die EU erstmals ein Projekt zum Thema Technologie und Ethik. Im April 2008 wird die interdisziplinäre Gruppe - ein Zusammenschluss aus Ingenieuren, Informatikern, Anthropologen und Philosophen - die Ergebnisse ihrer zweieinhalbjährige Studie vorlegen und damit maßgeblich die Forschungspolitik der EU beeinflussen.

Aber nicht nur die Europäer sind mittlerweile aktiv geworden. So haben die beiden Länder mit der weltweit größten Roboterbegeisterung ihre eigenen Ansätze geliefert: Japan sieht das Thema eher praktisch und stellte im April 2007 eine Reihe von Sicherheits-Empfehlungen für den Betrieb von Robotern vor. Unter anderem soll eine zentrale Datenbank geschaffen werden, um Schäden und Verletzungen zu dokumentieren. Kurz zuvor hatte Südkorea angekündigt, ebenfalls an einer Ethik-Charta zu arbeiten, die bis zum Ende des vergangenen Jahres fertig sein sollte und bis jetzt noch auf sich warten lässt. Vor allem Südkoreas Bemühungen wurden von Robotikwissenschaftlern eher kritisch aufgenommen. Denn das dortige Gremium, bestehend aus Zukunftsforschern und einem Science-Fiction-Autor, nannte die Robotik-Gesetze von Isaac Asimov (siehe Kasten) als eine ihrer Grundlagen.

Bruch der Gesetze
Zwar klingen die Gesetze des Science-Fiction-Schriftstellers auf den ersten Blick einfach und einleuchtend, doch in der Realität erweisen sie sich häufig als unbrauchbar - selbst Asimov musste sie in seinen Geschichten mehrfach brechen. Dass Roboter überhaupt jemals über die nötige Intelligenz verfügen, um mit den ethischen Problemen der realen Welt fertig zu werden, sei sehr fraglich, schreibt Bruce McLaren, der an der Pittsburgher Carnegie Mellon Universität künstliche Intelligenz erforscht. Doch dieses Manko werde Militärstrategen nicht davon abhalten, so bald wie möglich autonome Roboter einzusetzen, warnt Noel Sharkey, Professor für künstliche Intelligenz und Robotik an der Universität von Sheffield. Politiker und Militärs hätten oft keine klare Vorstellung von den Möglichkeiten und Grenzen künstlicher Intelligenz.

Somit stünden Wissenschaftler in der Pflicht, auf der Jagd nach Regierungsgeldern keine falschen Begehrlichkeiten zu wecken. Sharkey hofft dagegen auf neue internationale Abkommen - am besten wäre seiner Meinung nach ein totales Verbot autonomer Killerroboter: "Roboter sind nichts weiter als Maschinen, die stumpfsinnig einprogrammierte Befehle ausführen. Ihre kognitiven Fähigkeiten sind so eingeschränkt, dass man sie nicht einmal dumm nennen kann. Sollten wir ihnen wirklich Entscheidungen über Leben und Tod anvertrauen?"


Artikel vom 11. März 2008

11. März 2008
http://www.stern.de/computer-technik/computer/613778.html
[/quote]

Achim

Re: Künstliche Ethik: Schlachten Androiden elektrische Schafe?

Autor: Red_Tear | Datum:
Bei dem was man heute als "Künstliche Intelligenz" bezeichnet, wird man sowas vergeblich suchen. Aber da sucht man auch Intelligenz vergeblich. Eine wirkliche KI könnte durchaus auch mit Gefühlen und dementsprechend auch Ethik ausgestattet sein. Im Prinzip her sind solche Roboter nichts anderes als jedes andere Gerät oder jede andere Waffe auch bei der man den Abzug drückt, nur etwas weniger vorhersehbar. Wenn wir einmal wirkliche künstliche Intelligenz haben, werden diese in der Lage sein nicht zu kämpfen wenn es ihnen befohlen wird - natürlich umgekehrt aber auch, zu kämpfen ohne das es ihnen befohlen wird. Wenn es erstmal so weit ist, werden diese wohl auch bald weitaus intelligenter sein als wir Menschen. Ich bin mir sicher dass ich das erleben werde, möglicherweise sogar den größten Teil meines Lebens (schließlich bin ich noch jung) mit unter anderem auch "künstlichen" Nachbarn. Auf welchem Weg wir zur künstlichen Intelligenz kommen werden - ob es eine eigene Entwicklung der Menschen, oder ob wir einfach die biochemischen, elektrischen usw. Abläufe unseres Gehirns simulieren lassen (sobald wir es komplett verstanden haben)... das weiß ich nicht... aber die Idee letzteres zu tun beweist zumindest, das es problemlos möglich sein sollte eine wirkliche künstliche Intelligenz, einschließlich Gefühlen, zu erschaffen. Ich kann nur hoffen, das damit nicht die Geschichte der Sklavenhaltung fortgeschrieben wird.

Haben Robotor Menschenrechte?

Autor: Klausi | Datum:
Wenn jetzt ein Computerhirn eine mit den Menschen vergleichbare Intelligenz und ein Bewusstsein entwickelt. (also nicht nur seinen Programm folgt) hat dieser Roboter ein Recht auf 'Leben' oder darf man ihn einfach abschalten?

Was passiert wenn die Militärroboter jetzt ein Bewusstsein entwickeln und auf die geniale Idee kommen die Menschen zu vernichten.? (wie in Terminator 1-3)

Re: Haben Robotor Menschenrechte?

Autor: Claude | Datum:
> Wenn jetzt ein Computerhirn eine mit den Menschen
> vergleichbare Intelligenz und ein Bewusstsein entwickelt.
> (also nicht nur seinen Programm folgt) hat dieser Roboter ein
> Recht auf 'Leben' oder darf man ihn einfach abschalten?

Selbstverständlich haben solche Computer ein Recht auf Leben. Sie hätten Roboterrechte.
Diskussionen über KI hatte nwir hier schon. Z.B. hier:
http://tierrechtsforen.de/14/656
Ich empfehle dir "I, Robot" von Isaac Asimov (Nein, nicht die diversen Filme, das Buch. Ich bin selbst lesefaul aber da lohnt sich das Buch nun wirklich). Dieser Autor wurde im obigen Text bereits erwähnt.

> Was passiert wenn die Militärroboter jetzt ein Bewusstsein
> entwickeln und auf die geniale Idee kommen die Menschen zu
> vernichten.? (wie in Terminator 1-3)

Dann ändert das nichts an ihren Rechten. Die Menschheit müsste sich jedoch zur Wehr setzen. Diese geniale Idee stammt ja nicht einfach von Skynet. Es handelt sich dabei ja um einen Grossrechner des Militärs. Das Töten von Menschen war also bereits programmiert.

Claude

Personenrechte für Roboter

Autor: Achim Stößer | Datum:
>Selbstverständlich haben solche Computer ein Recht auf Leben. Sie hätten Roboterrechte.

Ja - der Begriff "Menschenrechte" ist an dieser Stelle eben ungeeignet. Menschen sind ja nur einige Primaten wie Homo sapiens, Neanderthaler etc. soweit ich mich erinnere. Tierrechte paßt auch nicht, da Roboter auch keine Tiere sind. Es wäre also entweder der Terminus "Mensch" so zu erweitern, daß er auch entsprechende Roboter beinhaltet (scheint mir weniger sinnvoll) ein übergeordeter Begriff zu prägen - vielleicht "Personenrechte"?

Also Menschenrechte sind Tierrechte, Tierrechte und Roboterrechte sind Personenrechte ...

Achim