Foren√ľbersicht RSS

Allgemeines:
K√ľnstliche Ethik: Schlachten Androiden elektrische Schafe?

Anzahl Beiträge in diesem Thread: 5

Hinweis: Momentan können keine Beiträge erstellt werden.

K√ľnstliche Ethik: Schlachten Androiden elektrische Schafe?

Autor: Achim Stößer | Datum:
Gibt es neben KI, k√ľnstlicher Intelligenz, auch KE, k√ľnstliche Ethik? Ist es ethisch, wenn ein "Milit√§rroboter" (9000 derzeit im Einsatz, allerdings mit wenig KI und noch weniger KE) keine "Kriegsverbrechen" begeht oder erst, wenn er Krieg als Verbrechen erkennt und die Waffen (respektive sich selbst) niederlegt?

Zitat: Wo Kampfroboter Ethik lernen
Von Eva Schatz

Roboter, die √ľber Leben und Tod entscheiden. Die ultimative Vision von Milit√§rstrategen: Bei Robotern mit eingebautem Ethik-Programm k√§me es gar nicht erst zu Kriegsverbrechen. Doch dieser Wunsch bereitet Robotikwissenschaftlern wie Ethikern und Philosophen enormes Kopfzerbrechen.

Vorsichtig rollt ein kleines, wendiges Raupenfahrzeug auf einen Hauseingang zu. Es ist mit Lasern, Kameras und einer Reihe weiterer Sensoren best√ľckt, die jede Ver√§nderung in der Umgebung sofort wahrnehmen und an das Rechnersystem melden. Auf den ersten Blick wirkt der nur knapp 45 Kilogramm schwere Roboter nicht sehr bedrohlich - doch oben aufmontiert ist ein Maschinengewehr. Um potenzielle Angreifer sogleich zum Aufgeben zu bewegen, gibt der Metallsoldat erst einige Warnsch√ľsse ab, bevor er ins Innere des Hauses eindringt. Wenige Minuten sp√§ter kommt er wieder heraus, ohne einen weiteren Schuss abgefeuert zu haben. Statt der gesuchten Terroristen waren nur unschuldige Zivilisten zu finden - diese zu erschie√üen w√§re gegen die ethischen Grunds√§tze des Roboters gewesen. Was sich anh√∂rt wie der neueste Science-Fiction-Streifen, ist Planziel vieler Milit√§rs.

Vorstufen gibt es bereits: Im Sommer 2007 setzte die US-Armee zum ersten Mal drei dieser wahlweise mit Maschinengewehren, Granat- oder Raketenwerfern best√ľckten Roboter im Irak ein. Noch m√ľssen die Roboter des Typs TALON SWORDS von Menschen ferngesteuert werden und k√∂nnen keine eigenen Entscheidungen treffen. Die Realit√§t auf dem Schlachtfeld ist zu komplex, um von Computern verstanden zu werden. Denn etliche der wichtigsten Voraussetzungen f√ľr intelligentes Handeln bereiten Robotern - im Gegensatz zu Menschen - noch erhebliche Schwierigkeiten: Wie lassen sich Objekte erkennen und Situationen richtig interpretieren? Wie findet man sich in der Welt zurecht?

Militärroboter
Ende des Jahres 2006 gab es weltweit 9000 Milit√§rroboter - nicht viel im Vergleich zu knapp einer Million Industrierobotern. Doch der Markt w√§chst rasant: Nach Angaben der International Federation of Robotics waren es Ende 2004 erst 1000 St√ľck, bis 2010 ist mit weiteren 12.000 Einheiten zu rechnen. Neben den USA und S√ľdkorea investieren vor allem Russland, China, Indien, Singapur und Gro√übritannien verst√§rkt in automatisierte Kriegsf√ľhrung. Israel verf√ľgt schon √ľber automatisierte Grenzposten.

Das menschliche Gehirn kann Sinneseindr√ľcke meist ohne Probleme einordnen und die richtigen Schl√ľsse ziehen. Wer einmal verinnerlicht hat, wie ein Bleistift aussieht, der erkennt solch einen Gegenstand auch dann als Schreibger√§t wieder, wenn Kappen, Quasten oder aufgesetzte Radiergummis das urspr√ľngliche Bild ver√§ndern. F√ľr einen Roboter ist die Sache ungleich schwieriger. S√§mtliche Sensoreindr√ľcke m√ľssen klassifizierbar sein. Sobald sich zu viel auf einmal √§ndert, steht auch der schnellste Rechner vor einem unl√∂sbaren R√§tsel.

T√ľren sind Probleme
"F√ľr einen Roboter ist es relativ einfach, den Mars zu erforschen, denn dieser Planet ist relativ einfach strukturiert", erkl√§rt Professor Hugh Durrant-Whyte vom Australian Centre for Field Robotics das Dilemma. "Eine T√ľr zu √∂ffnen ist dagegen viel komplizierter, denn T√ľrgriffe unterscheiden sich sehr stark voneinander und sind schwierig zu bedienen." Wer schon einmal gegen eine T√ľr gelaufen ist, weil sie anders als erwartet aufging, dem d√ľrfte dieses Problem nicht unbekannt sein.

Mit diesem Bild vor Augen ist es schwer vorstellbar, wie bewaffnete Blechsoldaten bald in Krisenherde entsandt werden sollen. Zumal es um deren Akzeptanz in der √Ėffentlichkeit nicht sonderlich gut steht. Bei einer Online-Umfrage des Georgia Tech College of Computing, Atlanta, unter Robotik-Forschern, Milit√§rangeh√∂rigen, Politikern und Normalb√ľrgern lehnte mehr als die H√§lfte aller Teilnehmer es strikt ab, autonome Roboter mit t√∂dlichen Waffen auszustatten.

Laut der "Unmanned Systems Roadmap 2007-2032" verfolgt das US-Verteidigungsministerium dieses "äußerst kontroverse Thema" daher mit der sogenannten "crawl-walk-run"-Herangehensweise (kriechen, gehen, rennen): Unbemannte mobile Roboter sollen nur schrittweise mit tödlichen Waffen ausgestattet werden - in dem Maße, wie ihre Fähigkeit zu selbständigem Handeln zuverlässiger wird. Nur wenn unbemannte Systeme zunehmend autonom agieren können, so die Vision der "Roadmap", werde sich die Fähigkeit der US-Armee verbessern, mit komplexen Missionen in einer dynamischen Umwelt fertig zu werden.

Ohne Roboter geht nichts mehr
Schon jetzt geht beim Minenr√§umen und bei Aufkl√§rungsmissionen ohne semi-autonome Roboter nichts mehr. Sie m√ľssen ran, wenn es um Jobs mit den drei "D" geht: "dull, dirty, dangerous" (langweilig, dreckig, gef√§hrlich). Ende des Jahres 2006 waren im Irak √ľber 4000 unbemannte Bodenfahrzeuge unterwegs. Zwei Jahre zuvor hatte deren Zahl gerade einmal 162 betragen. Bis zum Jahr 2015 soll gem√§√ü einer Vorgabe des US-Kongresses ein Drittel aller Bodenfahrzeuge der Armee unbemannt eingesetzt werden. Dasselbe Ziel ist f√ľr tief fliegende Flugzeuge sogar f√ľnf Jahre fr√ľher angepeilt.

Auch andere L√§nder setzen immer mehr auf automatisierte Kriegsf√ľhrung: Im September 2007 lie√ü S√ľdkorea Roboter-Wachposten patentieren, die entlang der entmilitarisierten Zone an der Grenze zu Nordkorea zum Einsatz kommen sollen. Mit den geplanten 1000 Einheiten l√§sst sich viel Personal einsparen - und die Roboter sind ihren menschlichen Kollegen nicht nur in punkto Durchhalteverm√∂gen √ľberlegen: Das Zielverfolgungsystem funktioniert bei Tageslicht bis zu zwei Kilometer weit, nachts einen Kilometer. Der √úberwachungsradius ist sogar doppelt so gro√ü. Wer ohne g√ľltiges Passwort auf einen dieser mit Mikrofon, Lautsprechern und Spracherkennung ausgestatteten Grenzposten trifft, muss nach 20 Sekunden entweder mit Gummigeschossen oder scharfer Munition rechnen.

Entscheidung √ľber Leben und Tod
Noch treffen auch bei diesem System Menschen √ľber Fernsteuerung die Entscheidung √ľber Leben und Tod. Doch Hersteller Samsung lie√ü mitteilen, dass der robotische Wachposten SGR-A1 auch √ľber einen autonomen Modus verf√ľgt. Damit Roboter in solch schwierigen Situationen wie Kampfeins√§tzen eigenst√§ndig handeln k√∂nnen, m√ľssen sie nicht nur ihre Umwelt mindestens ebenso zuverl√§ssig wie Menschen wahrnehmen k√∂nnen. Auch ihre kognitiven F√§higkeiten m√ľssen sich der menschlichen Denkweise anpassen. Professor Ronald Arkin vom Georgia Tech College untersucht derzeit f√ľr das US-Verteidigungsministerium M√∂glichkeiten, Roboter mit ethischem Denken auszustatten.

Arkins √úberlegung: Es ist nur eine Frage des richtigen Programms, um Morde an Zivilisten, brutale Vergeltungsma√ünahmen und andere Kriegsverbrechen zu verhindern. Da Roboter keine Gef√ľhle haben, k√∂nnen sie ultimativ menschlicher handeln als Menschen es in Kriegssituationen f√ľr gew√∂hnlich tun. So gesehen ist ein Roboter immer im Vorteil: Er kann Informationen unbeeinflusst, zuverl√§ssig und schnell bewerten. Au√üerdem muss er sich nicht erst durch die gesamte Ethiklehre des christlichen Abendlandes arbeiten, sondern verf√ľgt mit einem Mix aus Kriegsrecht, spezifischen Einsatzregeln und internationalen Abkommen wie den Genfer Konventionen √ľber ein klares Handlungsmuster.


Arkin betont, dass sich mittels Kampfrobotern sogar Menschenleben auf beiden Seiten retten lie√üen: Da ein Roboter sein eigenes Leben nicht sch√ľtzen muss, kann er sich n√§her an den Gegner heranwagen und so zur Kapitulation auffordern. Unbemannte Flugzeuge k√∂nnen die Gefahr eingehen tiefer zu fliegen und damit ihre Zielsicherheit erh√∂hen. Das Konzept klingt verlockend. Schlie√ülich scheitern Menschen st√§ndig daran, sich ethisch korrekt zu verhalten. Eine Untersuchung innerhalb der im Irak stationierten US-Streitkr√§fte aus dem Jahr 2006 zeigte, dass weniger als die H√§lfte der befragten Soldaten zustimmten, unbeteiligte Zivilisten seien mit W√ľrde und Respekt zu behandeln. Mehr als ein Drittel sah den Einsatz von Folter als gerechtfertigtes Mittel zum Zweck an, und nicht einmal die H√§lfte aller Befragten w√ľrde einen Kameraden wegen Mordes an einem Zivilisten anzeigen.
[quote]
Die Robotik-Gesetze
Die Robotik-Gesetze des Schriftstellers Isaac Asimov lauten: 1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Unt√§tigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugef√ľgt wird. 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl w√ľrde mit Regel eins kollidieren. 3. Ein Roboter muss seine Existenz besch√ľtzen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. Sp√§ter erweiterte Asimov die Regeln noch um das sogenannte "nullte" Gesetz, das allen anderen voran steht: Ein Roboter darf die Menschheit nicht verletzen oder durch Passivit√§t zulassen, dass die Menschheit zu Schaden kommt. Demnach d√ľrften Individuen durchaus get√∂tet werden, wenn es dem Schutz der Menschheit dient.


Arkin gibt offen zu, dass die Vorstellung vom ethisch korrekten Roboter momentan noch nicht realistisch ist: Zuverl√§ssig zwischen Kriegsteilnehmern und Zivilisten zu unterscheiden ist derzeit technisch noch nicht m√∂glich. Und das ist bei weitem nicht das einzige moralische Dilemma: Wie soll ein Roboter die Grenze ziehen zwischen einem K√§mpfer als legitimem Ziel und einem soeben Verwundeten, der dadurch den Status eines Kriegsgefangenen und Anrecht auf √§rztliche Versorgung hat? Wie ist ein Steine werfender Teenager zu behandeln, der vielleicht niemanden umbringen wollte, es aber tun k√∂nnte? Sollte ein Roboter trotz eingebauter Ethik-Software f√§lschlicherweise jemanden t√∂ten, wer w√ľrde daf√ľr die Verantwortung √ľbernehmen? Der Programmierer, der Einsatzleiter oder der Befehlshaber der Armee? L√§sst sich noch von gerechter Kriegsf√ľhrung sprechen, wenn nicht klar ist, wer die Verantwortung f√ľr den Tod Unschuldiger tr√§gt?

Kaum Protest
Im Irak bleibt der Tod von Zivilisten beim Einsatz von unbemannten Predator-Drohnen ungeahndet - was auch mit dem Prinzip des Doppel-Effekts des US-Milit√§rs vereinbar ist: Der Tod von Unbeteiligten ist straffrei, solange er unbeabsichtigt ist, selbst wenn dieser Kollateralschaden absehbar war. Bisher protestieren dagegen nur Menschenrechtsgruppen, von der √Ėffentlichkeit weitgehend unbemerkt. Doch das k√∂nnte sich √§ndern, sobald Bilder von schie√üenden Killerrobotern in den Abendnachrichten zu sehen sind. Optimisten hoffen sogar, mit dieser Technologie Kriege zu verhindern, da Staaten ohne Kampfroboter im Nachteil und damit eher auf den Verhandlungsweg angewiesen sind. Oder werden L√§nder ohne Z√∂gern ihre Roboterarmeen losschicken, da mangels eigener Verluste kaum Protest an der Heimatfront zu erwarten ist?

Auch wenn die ethischen Probleme keineswegs gel√∂st sind, die Entwicklung robotischer Waffensysteme mit Automatik-Modus l√§uft auf Hochtouren. Selbst vermeintlich unmilit√§rische Forschungsprojekte lassen sich leicht umfunktionieren. Professor Durrant-Whyte macht sich da keine Illusionen: "Jemand entwickelt eine Methode zur Objekterkennung, und jemand anderes macht ein elektronisches Zielsystem daraus. Dagegen l√§sst sich nicht viel tun. Das muss man als Gesellschaft entweder akzeptieren oder Forschung ganz aufgeben." Angesichts so vieler Grauzonen w√§chst bei vielen Robotik-Wissenschaftlern das Bed√ľrfnis, sich Gedanken zu machen, in welche Richtung sich ihr Fach weiterentwickelt. Das "European Robotics Network" (Euron) hat 2006 mit der "Roboethics Roadmap" eine erste Ann√§herung an dieses Thema unternommen: Der Report beschreibt Problembereiche, z√§hlt m√∂gliche Entwicklungen auf und gibt einige, wenn auch recht knapp gehaltene Empfehlungen. Mit konkreten Richtlinien ist noch lange nicht zu rechnen - zu neu ist dieses Forschungsfeld. Immerhin soll das auf zehn Jahre ausgelegte Projekt dabei helfen, ethische Vorgaben bereits in den Entwicklungsprozess mit einflie√üen zu lassen - solange der Geist noch in der Flasche steckt.

Möglichkeiten und Verantwortung
Das Thema Milit√§rroboter ist allerdings nur eines von vielen. Immerhin sind sich die Forscher um den italienischen Roboethik-Pionier Gianmarco Verrugio einig, dass Diskussionen √ľber die Rechte von menschen√§hnlichen Robotern momentan noch zu vernachl√§ssigen sind. Auch die EU hat erkannt, dass die Robotik als eines der wichtigsten Technologiefelder des 21. Jahrhunderts nicht nur neue M√∂glichkeiten, sondern auch neue Verantwortung mit sich bringt. Mit "Ethicbots" f√∂rdert die EU erstmals ein Projekt zum Thema Technologie und Ethik. Im April 2008 wird die interdisziplin√§re Gruppe - ein Zusammenschluss aus Ingenieuren, Informatikern, Anthropologen und Philosophen - die Ergebnisse ihrer zweieinhalbj√§hrige Studie vorlegen und damit ma√ügeblich die Forschungspolitik der EU beeinflussen.

Aber nicht nur die Europ√§er sind mittlerweile aktiv geworden. So haben die beiden L√§nder mit der weltweit gr√∂√üten Roboterbegeisterung ihre eigenen Ans√§tze geliefert: Japan sieht das Thema eher praktisch und stellte im April 2007 eine Reihe von Sicherheits-Empfehlungen f√ľr den Betrieb von Robotern vor. Unter anderem soll eine zentrale Datenbank geschaffen werden, um Sch√§den und Verletzungen zu dokumentieren. Kurz zuvor hatte S√ľdkorea angek√ľndigt, ebenfalls an einer Ethik-Charta zu arbeiten, die bis zum Ende des vergangenen Jahres fertig sein sollte und bis jetzt noch auf sich warten l√§sst. Vor allem S√ľdkoreas Bem√ľhungen wurden von Robotikwissenschaftlern eher kritisch aufgenommen. Denn das dortige Gremium, bestehend aus Zukunftsforschern und einem Science-Fiction-Autor, nannte die Robotik-Gesetze von Isaac Asimov (siehe Kasten) als eine ihrer Grundlagen.

Bruch der Gesetze
Zwar klingen die Gesetze des Science-Fiction-Schriftstellers auf den ersten Blick einfach und einleuchtend, doch in der Realit√§t erweisen sie sich h√§ufig als unbrauchbar - selbst Asimov musste sie in seinen Geschichten mehrfach brechen. Dass Roboter √ľberhaupt jemals √ľber die n√∂tige Intelligenz verf√ľgen, um mit den ethischen Problemen der realen Welt fertig zu werden, sei sehr fraglich, schreibt Bruce McLaren, der an der Pittsburgher Carnegie Mellon Universit√§t k√ľnstliche Intelligenz erforscht. Doch dieses Manko werde Milit√§rstrategen nicht davon abhalten, so bald wie m√∂glich autonome Roboter einzusetzen, warnt Noel Sharkey, Professor f√ľr k√ľnstliche Intelligenz und Robotik an der Universit√§t von Sheffield. Politiker und Milit√§rs h√§tten oft keine klare Vorstellung von den M√∂glichkeiten und Grenzen k√ľnstlicher Intelligenz.

Somit st√ľnden Wissenschaftler in der Pflicht, auf der Jagd nach Regierungsgeldern keine falschen Begehrlichkeiten zu wecken. Sharkey hofft dagegen auf neue internationale Abkommen - am besten w√§re seiner Meinung nach ein totales Verbot autonomer Killerroboter: "Roboter sind nichts weiter als Maschinen, die stumpfsinnig einprogrammierte Befehle ausf√ľhren. Ihre kognitiven F√§higkeiten sind so eingeschr√§nkt, dass man sie nicht einmal dumm nennen kann. Sollten wir ihnen wirklich Entscheidungen √ľber Leben und Tod anvertrauen?"


Artikel vom 11. März 2008

11. März 2008
http://www.stern.de/computer-technik/computer/613778.html
[/quote]

Achim

Re: K√ľnstliche Ethik: Schlachten Androiden elektrische Schafe?

Autor: Red_Tear | Datum:
Bei dem was man heute als "K√ľnstliche Intelligenz" bezeichnet, wird man sowas vergeblich suchen. Aber da sucht man auch Intelligenz vergeblich. Eine wirkliche KI k√∂nnte durchaus auch mit Gef√ľhlen und dementsprechend auch Ethik ausgestattet sein. Im Prinzip her sind solche Roboter nichts anderes als jedes andere Ger√§t oder jede andere Waffe auch bei der man den Abzug dr√ľckt, nur etwas weniger vorhersehbar. Wenn wir einmal wirkliche k√ľnstliche Intelligenz haben, werden diese in der Lage sein nicht zu k√§mpfen wenn es ihnen befohlen wird - nat√ľrlich umgekehrt aber auch, zu k√§mpfen ohne das es ihnen befohlen wird. Wenn es erstmal so weit ist, werden diese wohl auch bald weitaus intelligenter sein als wir Menschen. Ich bin mir sicher dass ich das erleben werde, m√∂glicherweise sogar den gr√∂√üten Teil meines Lebens (schlie√ülich bin ich noch jung) mit unter anderem auch "k√ľnstlichen" Nachbarn. Auf welchem Weg wir zur k√ľnstlichen Intelligenz kommen werden - ob es eine eigene Entwicklung der Menschen, oder ob wir einfach die biochemischen, elektrischen usw. Abl√§ufe unseres Gehirns simulieren lassen (sobald wir es komplett verstanden haben)... das wei√ü ich nicht... aber die Idee letzteres zu tun beweist zumindest, das es problemlos m√∂glich sein sollte eine wirkliche k√ľnstliche Intelligenz, einschlie√ülich Gef√ľhlen, zu erschaffen. Ich kann nur hoffen, das damit nicht die Geschichte der Sklavenhaltung fortgeschrieben wird.

Haben Robotor Menschenrechte?

Autor: Klausi | Datum:
Wenn jetzt ein Computerhirn eine mit den Menschen vergleichbare Intelligenz und ein Bewusstsein entwickelt. (also nicht nur seinen Programm folgt) hat dieser Roboter ein Recht auf 'Leben' oder darf man ihn einfach abschalten?

Was passiert wenn die Militärroboter jetzt ein Bewusstsein entwickeln und auf die geniale Idee kommen die Menschen zu vernichten.? (wie in Terminator 1-3)

Re: Haben Robotor Menschenrechte?

Autor: Claude | Datum:
> Wenn jetzt ein Computerhirn eine mit den Menschen
> vergleichbare Intelligenz und ein Bewusstsein entwickelt.
> (also nicht nur seinen Programm folgt) hat dieser Roboter ein
> Recht auf 'Leben' oder darf man ihn einfach abschalten?

Selbstverständlich haben solche Computer ein Recht auf Leben. Sie hätten Roboterrechte.
Diskussionen √ľber KI hatte nwir hier schon. Z.B. hier:
http://tierrechtsforen.de/14/656
Ich empfehle dir "I, Robot" von Isaac Asimov (Nein, nicht die diversen Filme, das Buch. Ich bin selbst lesefaul aber da lohnt sich das Buch nun wirklich). Dieser Autor wurde im obigen Text bereits erwähnt.

> Was passiert wenn die Militärroboter jetzt ein Bewusstsein
> entwickeln und auf die geniale Idee kommen die Menschen zu
> vernichten.? (wie in Terminator 1-3)

Dann √§ndert das nichts an ihren Rechten. Die Menschheit m√ľsste sich jedoch zur Wehr setzen. Diese geniale Idee stammt ja nicht einfach von Skynet. Es handelt sich dabei ja um einen Grossrechner des Milit√§rs. Das T√∂ten von Menschen war also bereits programmiert.

Claude

Personenrechte f√ľr Roboter

Autor: Achim Stößer | Datum:
>Selbstverständlich haben solche Computer ein Recht auf Leben. Sie hätten Roboterrechte.

Ja - der Begriff "Menschenrechte" ist an dieser Stelle eben ungeeignet. Menschen sind ja nur einige Primaten wie Homo sapiens, Neanderthaler etc. soweit ich mich erinnere. Tierrechte pa√üt auch nicht, da Roboter auch keine Tiere sind. Es w√§re also entweder der Terminus "Mensch" so zu erweitern, da√ü er auch entsprechende Roboter beinhaltet (scheint mir weniger sinnvoll) ein √ľbergeordeter Begriff zu pr√§gen - vielleicht "Personenrechte"?

Also Menschenrechte sind Tierrechte, Tierrechte und Roboterrechte sind Personenrechte ...

Achim