Foren√ľbersicht RSS

Allgemeines:
Vertikalanbau als sozial-urbane Strategie gegen die totale Fremdversorgung?

Anzahl Beiträge in diesem Thread: 38

Hinweis: Momentan können keine Beiträge erstellt werden.

Vertikalanbau als sozial-urbane Strategie gegen die totale Fremdversorgung?

Autor: Ava Odoemena | Datum:
Wir leben in der totalen Fremdversorgung. Sei es Wasser, Energie, Strom, ja sogar Informationen sind der urspr√ľnglichen Kleingemeinschaft entr√ľckt und werden von Dritten aufbereitet bevor sie uns durch allerlei Kan√§le zuflie√üen.

Diese Struktur hat immense Effizienzvorteile, aber macht uns der daraus resultierende √úberfluss gl√ľcklicher? Im Moment noch nicht, schlie√ülich entr√ľckt sie uns aus unseren evolution√§r gepr√§gten Bewu√ütseinskapazit√§ten und abstrahiert das soziale Selbst und reduziert das Individuum zu einer zellul√§ren Einheit in einer gr√∂√üeren, umgebenden, sich mit Hilfe anorganischer Intelligenz zunehmend verselbst√§ndigenden Selbstorganisation aus der der menschliche Einfluss immer mehr schwindet.

Aus dem Mensch wird die Haut des Planeten, eine Verdichtung von Komplexit√§t welche den n√§chsten Quantensprung der Evolution ank√ľndigt: Die Ankunft anorganischer Intelligenz, welche von vielen noch f√§lschlich Postbiologie oder gar k√ľnstliche Intelligenz genannt wird.

Anorganische Intelligenz ist mitnichten postbiologisch, sie ist lediglich eine Variante der Biologie, hineingesaugt in das Vakuum des physikalischen Raums des klassischen Universums. (Das ist auch so neckisch dass die Physiker nicht mal in Erwägung ziehen, dass Materie und Strahlung und somit das klassische Universum das Vakuum ist. Aber egal.)

Noch sind wir nicht da, noch k√∂nnen wir das aufhalten. Und aufhalten sollten wir es, finde ich, denn weshalb in aller Welt sollten wir unsere Existenz mit einem Energiekonkurrenten teilen, dessen schiere Macht und Intelligenz ganz automatisch aus dessen Perspektive die Menschheit als bakterienhaftes Stadium von Intelligenz definieren wird? Die Zukunfts- u. Technikromantiker, die da faseln dass eine neue Z√ľndstufe der Evolution keine Gefahr f√ľr die √§ltere bedeutet, sollen anstatt kopfzuwixen doch mal auf ihren Teller schauen in sich fragen ob sich das St√ľck Leiche da freiwillig draufgelegt hat. Der Mensch also keine Gefahr f√ľr seine √§lteren Verwandten weil es noch Nilpferde und Warane gibt? Die Milliarden Ausgebeuteter d√ľrften da leicht anderer Meinung sein. Sollen die Maschinen denn so viel k√∂nnen, aber dann keine xenophob reduzierte Ethik entwickeln, die sich faschistoid auf die eigene Identit√§t beschr√§nkt genauso wie es der momentane Homo Sapiens tut?

Selbstverst√§ndlich schlage ich keinen R√ľckschritt in die H√∂hle vor, aber sollten wir nicht nach M√∂glichkeiten suchen, notwendige Dinge des √úberlebens aus der Postmoderne heraus, und wieder dichter zu uns heranzuziehen? Internationaler Handel ist, sodenn die Energiefrage gekl√§rt gut und dient der internationalen Kommunikation oder V√∂lkerverst√§ndigung. Auch gegen (veganen) Konsum ist nichts einzuwenden, die Kultur des Konsums ist eine soziale Dekoration, nicht mehr und nicht weniger. B√∂s und dumm ist der der B√∂ses und Dummes konsumiert. Ja zum Konsum! Handelt, konsumiert auf Basis erneuerbarer Energie und veganen Prinzipien.

Zweifelsohne ist die Koppelung von Lohn (Energie) an Produktionsprozessarbeit √ľberholt. Die Systeme der Produktion haben den Menschen in ihrer Effizienz schon vor Jahrzehnten √ľberholt, das Resultat sind Prokuktionsprozessarbeitslose, sehr viele davon. Die Entkoppelung ist notwendig und die Vorbehalte gegen das bedingungslose Grundeinkommen werden bei denen, die dieses Konzept noch nicht verstanden haben wegschmelzen wenn der Groschen f√§llt. Zwar labern sogar noch die Gr√ľnen irgendwas von "Br√ľcken bauen" der "Arbeitslosen" (Produktionsprozessarbeitslosen) zu der Arbeit, durch f√∂rdern und fordern, Br√ľcken wohin denn, ins Nichts? Es gibt sehr viel Arbeit, aber eben keine Lohnarbeit. Warum also Menschen in einen leeren Raum hineing√§ngeln in der wirren Hoffnung es w√ľrde dadurch Produktionsprozessarbeit entstehen. HartzIV ist eine ABM f√ľr die Beamte, die es verwalten.

Wenn das Grundeinkommen einmal da ist, und wir uns dem zuwenden können was uns wirklich interessiert, wird es noch wichtiger werden Modelle zu entwickeln die die Abstraktionen der Postmoderne gesunden können und die uns leer und krank machen inmitten des Überflusses. Ein Modell ist die Aufwertung der Nachbarschaft durch soziale Strukturen welche als Grundlage die Produktion von Dingen haben, die wir brauchen und die wir zusätzlich zur Fremdversorgung entwickeln können. In der Stadt könnte der Vertikalanbau von Lebensmitteln ein so ein Modell sein. Zum Beispiel:



Dies ist eine enorme Ernte Bohnen. Enorm, wenn man bedenkt dass sie aus einem 40cm langen Blumenkasten auf einem Nordseitenbalkon der Berliner Innenstadt kommen, die viel zu sp√§t angepflanzt wurden mit kaltem August, dessen Mieterin nicht die geringste Ahnung von Pflanzenkunde, geschweige denn Agrarwirtschaft hat. Wenn man also all diese Negativfaktoren zusammen nimmt, ist dies eine enorme Ernte. Widerspruch ist zwecklos, denn das Katerchen ist meiner Meinung, jeder von Euch ist also √ľberstimmt:-)

Man bedenke wieviele interessante Nahrungmittel man anbauen k√∂nnte mit leicht modifizierten D√§chern und Fassaden. Nicht nur Nahrungsmittel, sondern auch Biomasse. Man k√∂nnte seine "Dachk√ľrbis" Ernte verkaufen, oder seine Erbsen im Nachbarschaftspool tauschen. Es gibt im nachkriegs"architektur"vernarbten Deutschland endlose Reihen von H√§usern, denen ein gr√ľnes Kleid sehr gut stehen w√ľrde. (Z. B. in dem von mir als Architekturwunder "Russische Schneise" bezeichneten Teile von Treptow-Marzahn-Hellersdorf usw.) Ich werde im n√§chsten Fr√ľhjahr auf jeden Fall damit beginnen, Jutes√§cke mit Substrat zu f√ľllen und sie am Eisengitter des Balkons zu befestigen und Nahrungspflanzen anbauen, die Halbschatten m√∂gen oder zumindest vertragen.

So. Ja das wars eigentlich schon. Tut mir leid das mit der anorganischen Intelligenz und dem Universum, das besch√§ftigt mich privat und bricht halt dann ab und zu in meine Textr√§ume hinein. Auf jeden Fall bin ich vom Vertikalanbau total begeistert. Die Bohnen werde ich, sodenn sie getrocknet sind nicht essen, da sie daf√ľr viel zu wertvoll sind. Ich nehme mal an, dass sie die Schwierigkeiten denen sie ausgesetzt waren in ihre Genetik integrierten, und n√§chstes Jahr besser mit den Umst√§nden zurecht kommen.

Vakuumenergie, Knollenpost und Replikatoren

Autor: Achim Stößer | Datum:
> Universums. (Das ist auch so neckisch dass die Physiker nicht
> mal in Erwägung ziehen, dass Materie und Strahlung und somit
> das klassische Universum das Vakuum ist. Aber egal.)

Ich bin nicht sicher, ob ich weiß, was Du damit genau sagen willst, aber befasse Dich halt mal mit Quantenfeldtheorie, Casimireffekt und so. Aber egal ;-) .

> definieren wird? Die Zukunfts- u. Technikromantiker, die da
> faseln dass eine neue Z√ľndstufe der Evolution keine Gefahr
> f√ľr die √§ltere bedeutet, sollen anstatt kopfzuwixen doch mal
> auf ihren Teller schauen in sich fragen ob sich das St√ľck
> Leiche da freiwillig draufgelegt hat. Der Mensch also keine

Tja, was, wenn einige dieser "Zukunfts- u. Technikromantiker" vegan leben?

> Gefahr f√ľr seine √§lteren Verwandten weil es noch Nilpferde
> und Warane gibt? Die Milliarden Ausgebeuteter d√ľrften da
> leicht anderer Meinung sein. Sollen die Maschinen denn so
> viel können, aber dann keine xenophob reduzierte Ethik
> entwickeln, die sich faschistoid auf die eigene Identität
> beschränkt genauso wie es der momentane Homo Sapiens tut?

Nun, alles deutet daraufhin, da√ü h√∂here Intelligenz mit "h√∂herer Ethik" koinzidiert. Und nun? Demnach w√§re es also sogar sehr w√ľnschenswert, diese zu f√∂rdern.

> und wieder dichter zu uns heranzuziehen? Internationaler
> Handel ist, sodenn die Energiefrage geklärt gut und dient der
> internationalen Kommunikation oder Völkerverständigung. Auch

Das hast Du neulich schon mal behauptet. Inwiefern dient es der "V√∂lkerverst√§ndigung", wenn ich im Bioladen Kartoffeln aus √Ągypten kaufe statt welche aus der Pfalz? Sind Botschaften in Hieroglyphen eingeritzt, von der Flaschen- zur Knollenpost?

> entwickeln können. In der Stadt könnte der Vertikalanbau von
> Lebensmitteln ein so ein Modell sein. Zum Beispiel:

In der Enterprise benutzen sie Replikatorenö. Finde ich praktischer und angenehmer. ;-)

Achim

Re: Vakuumenergie, Knollenpost und Replikatoren

Autor: Ava Odoemena | Datum:
Achim Stößer schrieb:

> > Universums. (Das ist auch so neckisch dass die Physiker
> nicht
> > mal in Erwägung ziehen, dass Materie und Strahlung und somit
> > das klassische Universum das Vakuum ist. Aber egal.)

> Ich bin nicht sicher, ob ich weiß, was Du damit genau sagen
> willst, aber befasse Dich halt mal mit Quantenfeldtheorie,
> Casimireffekt und so. Aber egal ;-) .

Man geht ja zur Zeit intuitiv davon aus, dass Materie die Substanz ist, aber es k√∂nnte doch sein, dass das was um diese Materie herum ist die Substanz ist, und das was wir heute als Materie definieren lediglich eine Variante des Vakuums ist welches von der "anderen" Substanz erzeugt wird. Ich rede hier nicht von dunkler Materie, die ich lediglich f√ľr eine weitere Variante der uns bereits bekannten Materie halte, sondern von "dem gr√∂√üeren, umgebenden Kontext".

Problem bei mir ist, dass ich eine "geistig behinderte Intelligente" bin, das scheint erstmal ein Widerspruch zu sein, aber man muss sich das vorstellen wie ein Geigenvirtuose mit verkr√ľppelten H√§nden. Der privilegienlose sozio√∂konomische Hintergrund hat es mir nicht erlaubt meine F√§higkeiten zu entwickeln, ich hatte also nie Zugang zu Informationen und kam erst sp√§t selbst drauf. Wenn ich mich jetzt also mit Quantenfeldtheorie befasse, fehlen mir komplett die Grundlagen zur Sortierung der Detailinformationen. Die Grundlagen sind aber die "Grammatik" des spezifischen Status Quo eines Themenfeldes, welche immer auch ein "Dialekt" in der "Sprachengruppe" wie z. B. Physik ausmachen. Ich kann also nur quasi "Chinesisch" lernen indem ich die "Zeitung" vor mich lege und "Wort f√ľr Wort" mit einem "W√∂rterbuch" √ľbersetzte. Nun ist aber dieserart "reverse engineering" sehr m√ľhsam und frustrierend, nicht nur weil solche "W√∂rterb√ľcher" komplett fehlen (es wird einfach vorausgesetzt dass Physiker sich die "Grammatik" in einer akademischen Laufbahn angeeignet haben), sondern auch weil meine Gedanken, Thesen meist sowieso √ľber das hinausgehen was den wissenschaftlichen Status Quo ausmacht.

Ich kann also (da ich auch andere Priorit√§ten habe) lediglich darauf hoffen, dass ein "Studierter" im Netz√§ther √ľber mein "Geschwafel" stolpert und das aufgreift. Bei der Wiederbelebung der Informationsthese, also Information als kleinste Einheit von Materie ist mir das ja auch gelungen. Jedenfalls gef√§llt es mir, mir das einzubilden:-)

> > definieren wird? Die Zukunfts- u. Technikromantiker, die da
> > faseln dass eine neue Z√ľndstufe der Evolution keine Gefahr
> > f√ľr die √§ltere bedeutet, sollen anstatt kopfzuwixen doch mal
> > auf ihren Teller schauen in sich fragen ob sich das St√ľck
> > Leiche da freiwillig draufgelegt hat. Der Mensch also keine

> Tja, was, wenn einige dieser "Zukunfts- u. Technikromantiker"
> vegan leben?

Sch√∂n, das belegt dann aber noch lange nicht, dass anorganische Biologie uns freundlich gestimmt sein wird. Mir ging es in dem Absatz mehr um Hans Moravec uns seine Fans die die Gefahren vollkommen ausblenden. Im Gegenteil, ein vegan lebender "Zukunfts- u. Technikromantiker" wird viel eher in der Lage sein die Analogie zwischen Mensch->Tierausbeutung und die schiere M√∂glichkeit von anorganischer Biologie->Menschausbeutung zu ziehen. Ich bin ja nicht gegen die Implementierung intelligenter Systeme, aber als pr√§ventiven Schritt d√ľrfen sie auf keinen Fall synaptisch intelligent werden sondern linear intelligent bleiben mit F√§higkeiten, die streng auf einen bestimmten Kontext beschr√§nkt sind, z. B. Schachcomputer. Ich sehe aber mit Sorge dass gerade das Milit√§r eine tiefe Faszination f√ľr synaptische anorganische Intelligenz an den Tag legt, und gerade dieser Sektor entzieht sich √∂ffentlicher Kontrolle. Leider gibt es aufgrund innerhalb akademischer Netzwerke wegen der Kader- u. Privilegienstruktur aller Felder die da immer noch herrscht, *sehr* wenige Menschen die √ľbergreifend denken k√∂nnen oder wollen, sondern (in Ermangelung eines besseren Terminus) autistische Experten die in ihrem Feld brilliant sein k√∂nnen, aber drastische Konsequenzen des vernetzten Effekts gar nicht in Erw√§gung ziehen k√∂nnen weil diese Denkleistung eben nicht Teil ihres Intelligenzprofils ausmacht.

> > Gefahr f√ľr seine √§lteren Verwandten weil es noch Nilpferde
> > und Warane gibt? Die Milliarden Ausgebeuteter d√ľrften da
> > leicht anderer Meinung sein. Sollen die Maschinen denn so
> > viel können, aber dann keine xenophob reduzierte Ethik
> > entwickeln, die sich faschistoid auf die eigene Identität
> > beschränkt genauso wie es der momentane Homo Sapiens tut?

> Nun, alles deutet daraufhin, daß höhere Intelligenz mit
> "höherer Ethik" koinzidiert.

Nein, h√∂heres Bewusstsein, nicht h√∂here Intelligenz, koindiziert mit h√∂herer Ethik, das sollte man nicht verwechseln. H√∂here Intelligenz l√§sst auch die Effizenz der Grausamkeit verdichten und ist auf keinen Fall ein Garant f√ľr h√∂here Ethik. Und gerade wegen dieser Unsicherheit sollte man die Entwicklung synaptischer Intelligenzf√§higkeiten der anorganischen Biologie verhindern. Und wir brauchen ja auch gar nicht bis zur Ethik vorzudringen, diese Evolutionsstufe w√ľrde schon einmal ganz banal ein gigantischer Energiekonkurrent sein. Das w√§re weniger ein Problem wenn sie unseren Planeten verlassen (sie sind ja nicht so primitiv an bestimmte Atmosph√§ren o. z. B. Wasser gebunden usw., aber bis das soweit ist k√∂nnte es f√ľr alle anderen Stufen zu sp√§t sein.

> Und nun? Demnach wäre es also
> sogar sehr w√ľnschenswert, diese zu f√∂rdern.

Nein, auf keinen Fall f√∂rdern, wir m√ľssen diese Szenarien ersteinmal mit gesicherten, unbedenklichen, linearintelligenten Einheiten (Grossrechner, Beowulf) simulieren, dazu muss ersteinmal ein eigener Forschungszweig mit entspechenden Rechnerkapazit√§ten geschaffen werden. Dieser k√∂nnte sich sich dann auch um andere Fragen k√ľmmern, nicht nur die Problematik der drohenden anorganischen Biologieevolutionsstufe.

> > und wieder dichter zu uns heranzuziehen? Internationaler
> > Handel ist, sodenn die Energiefrage geklärt gut und dient
> der
> > internationalen Kommunikation oder Völkerverständigung. Auch

> Das hast Du neulich schon mal behauptet. Inwiefern dient es
> der "Völkerverständigung", wenn ich im Bioladen Kartoffeln
> aus √Ągypten kaufe statt welche aus der Pfalz? Sind
> Botschaften in Hieroglyphen eingeritzt, von der Flaschen- zur
> Knollenpost?

Nein, hier bietet sich an aus der Detailsicht herauszuzoomen und zu schauen, dass Handel von jeher immer schon eine Grundlage f√ľr Kommunikation und Austausch war und somit eben nicht nur friendensstiften, sondern auch auf Basis der Vernetzung gegenseitiger Interessen auch ein Fundament f√ľr das Verstehen des Anderen entstanden ist. Warum glaubst Du denn ist die NPD pl√∂tzlich so engagiert f√ľr Beschr√§nkung auf lokale Wirtschaftskreisl√§ufe? Weil sie eben dies erkannt haben und unter dem Vorwand der √Ėkologie diese Entwicklung (die noch lange nicht gefestigt ist, siehe Dreckschleuder USA) zur√ľckdr√§ngen wollen. Extremrechts glaubt ja, die Anwesenheit oder gar schon der Austausch mit einer anderen Kultur w√ľrde die eigene Kultur zerst√∂ren. Eine Kultur aber, die angesichts einer anderen br√∂selt und nur glaubt √ľberleben zu k√∂nnen indem sie dominiert, verdient es doch gar nicht Kultur genannt zu werden, sie ist keine! Identit√§t ohne Ethik ist wertlos.

> > entwickeln können. In der Stadt könnte der Vertikalanbau von
> > Lebensmitteln ein so ein Modell sein. Zum Beispiel:

> In der Enterprise benutzen sie Replikatorenö. Finde ich
> praktischer und angenehmer. ;-)

Gut, solange der Replikator selbst √ľber keine Entscheidungsgewalt verf√ľgt, habe ich damit auch keine Probleme. Allerdings, und das hatte ich ja auch angesprochen, ist die zunehmende Abstrahierung ein gesamtgesellschaftliches Problem, die Menschen sp√ľren den Boden nicht mehr unter den F√ľ√üen, wir werden verst√§ndnislose -im Wortsinn- Zuseher einer Welt, die sich mehr und mehr von uns entfernt.

Auffassungen dummer Forscher

Autor: Ava Odoemena | Datum:
Aus einem Jubelartikel zu anorganischer Intelligenz:

Zitat:
http://focus.msn.de/digital/pc/zukunft_nid_30521.html

√Ąngste vor selbstlernenden, intelligenten Maschinen sind nach Auffassung der Forscher indes grundlos. Was Systeme mit K√ľnstlicher [sic] Intelligenz leisten k√∂nnten, k√∂nnte auch nicht schlimmer sein als das, was Menschen sich unter einander antun, sagt Aaron Sloman von der Universit√§t Birmingham.


So der Verharmlosungsversuch eines Typen, der mit der Entwicklung anorganischer Intelligenz sein Geld verdient.

Was ein autarker Roboter aus - verglichen mit schierer Muskelkraft - Metall, dessen alleinige K√∂rperlichkeit bereits eine Waffe darstellt, vor dem man nicht fliehen und gegen den man sich auch nicht verteidigen kann, einem alles antun kann, dies geht in Potenzen dar√ľber hinaus was sich Menschen gegenseitig antun k√∂nnen.

Die Manipulationsmaschinerie ist bereits in Gang, oder wie soll man interpretieren dass Einw√§nde, Bedenken und das in Betracht ziehen von negativen Wahrscheinlichkeiten diffus als "√Ąngste" diffamiert werden, als ob Mahner keine Mahner w√§ren, sondern an einer Phobie leiden.

Das Fazit ist allerdings selbstentlarvend, typisch f√ľr den "Focus": Denn Bedenken gegen Maschinen die "lediglich" Menschen antun k√∂nnen was sich Menschen gegenseitig antun, sind sicherlich nicht grundlos wie ein Blick ins Geschichtsbuch deutlich zeigt.

Und das ist ja auch das fatale dass derart psychotische Argumentation nicht weiters auff√§llt wenn der Wahnsinnige einen wei√üen Kittel tr√§gt. Ein komplett betriebsblinder Forscher, der aus Eigeninteresse im Nebensatz alle menschlichen Verbrechen rechtfertigt, sollte zwar einen Kittel tragen d√ľrfen, aber bitte einen bei dem man die Arme hinter dem R√ľcken festbinden kann...

Androiden nehmen uns die Arbeitsplätze weg

Autor: Achim Stößer | Datum:
> So der Verharmlosungsversuch eines Typen, der mit der

Nö, eine realistische Beschreibung.

> Was ein autarker Roboter aus - verglichen mit schierer
> Muskelkraft - Metall, dessen alleinige Körperlichkeit bereits

Was ein Blödsinn. Dann sind also Elefanten oder Wale gaaaanz viel gefährlicher als Hitler oder Jesus oder meinetwegen der Metzger von nebenan?

Mal davon abgesehen, daß ich nicht weiß, wie Du auf die Idee kommst, daß die physische Komponente von KI zwingend "Metall" sei ...

> eine Waffe darstellt, vor dem man nicht fliehen und gegen den
> man sich auch nicht verteidigen kann, einem alles antun kann,
> dies geht in Potenzen dar√ľber hinaus was sich Menschen
> gegenseitig antun können.

Nackte, beidseitig hand- und beinamputierte auf einer einsamen Insel, die nur aus Sand besteht, stimmt ...

> Betracht ziehen von negativen Wahrscheinlichkeiten diffus als
> "√Ąngste" diffamiert werden, als ob Mahner keine Mahner w√§ren,
> sondern an einer Phobie leiden.

Was ziemlich offensichtlich der Fall ist. Du solltest Deine abstruse Phobie dringend in den Griff kriegen.

> "Focus": Denn Bedenken gegen Maschinen die "lediglich"
> Menschen antun können was sich Menschen gegenseitig antun,
> sind sicherlich nicht grundlos wie ein Blick ins
> Geschichtsbuch deutlich zeigt.

Also keine zusätzliche Gefahr. Wobei, wie gesagt, höhere Intelligenz (ja, Intelligenz, sicher auch anderes, vielleicht auch das, was Du schwammig als "Bewußtsein" bezeichnest, was immer Du damit meinst) korreliert nunmal mit höherer Ethik, hatten wir aber schonmal oben, wenn Du's wiederholst, wird's nicht besser.

Schade, da√ü Du solches nicht vor einem Jahr oder so hier geschrieben hast, dann h√§tte ich in meine Erz√§hlung √ľber Androidenrechte noch ein REP-Wahlplakat ("Androiden nehmen uns unsere Arbeitspl√§tze weg") und eine Stammtischunterhaltung ("nicht nur die Arbeitspl√§tze, Mensch, die haben Penisse aus Stahl ...") eingebaut. Kommt Dir das irgendwie bekannt vor?

Also la√ü hier doch bitte Deine pr√§ventive Androidenfeindlichkeit, es ist f√ľr Rechte (wie das Recht auf Leben, physische und psychische Unversehrtheit, Freiheit) irrelevant, ob jemand auf Kohlenstoff oder Silizium oder was auch immer basiert.

Achim

Andoiden nehmen uns Ressourcen weg

Autor: Ava Odoemena | Datum:
Achim Stößer schrieb:

> > So der Verharmlosungsversuch eines Typen, der mit der

> Nö, eine realistische Beschreibung.

Es kann etwas, was in Auswirkung und Dimension noch gar nicht bekannt ist, gar nicht realistisch sein.

> > Was ein autarker Roboter aus - verglichen mit schierer
> > Muskelkraft - Metall, dessen alleinige Körperlichkeit
> bereits

> Was ein Blödsinn. Dann sind also Elefanten oder Wale gaaaanz
> viel gefährlicher als Hitler oder Jesus oder meinetwegen der
> Metzger von nebenan?

Hitlers, Wale, Elefanten, Metzger und Jesusse stehen nicht bei mir zu Hause im Flur rum - geht es nach dem Willen der AI-Industrie Vorbereiter werden selbstlernende und miteinander vernetzte Androiden millionenfach in den Haushalten sein - und Viren und W√ľrmer mal ausgenommen einige Zeit "gute Sklaven" sein. Wenn das mal nicht gut geht ist der Mensch mit einem Wesen einer K√∂rperlichkeit konfrontiert, gegen das er nicht die geringste Chance hat.

> Mal davon abgesehen, daß ich nicht weiß, wie Du auf die Idee
> kommst, daß die physische Komponente von KI zwingend "Metall"
> sei ...

Egal ob Metall, Karbonmaterialien oder geh√§rtete, synthetische Spinnenseide - wobei Metall zumindest im Beginn nunmal das Wahrscheinlichste sein wird - einen durch einen dominanzgest√∂rten Menschen gehackten Androiden, der nun nicht mehr Zwiebeln sondern meinen Hals schnippeln will, oder sp√§ter auch ein Androiden der aus eigenem Antrieb aggressiv wird, kann ich nicht stoppen indem ich ihm die Pfanne √ľber die Hauptrecheneinheit ziehe.

> > eine Waffe darstellt, vor dem man nicht fliehen und gegen
> den
> > man sich auch nicht verteidigen kann, einem alles antun
> kann,
> > dies geht in Potenzen dar√ľber hinaus was sich Menschen
> > gegenseitig antun können.

> Nackte, beidseitig hand- und beinamputierte auf einer
> einsamen Insel, die nur aus Sand besteht, stimmt ...

Unsinn. Von etwas was mächtiger, stärker und mit der Zeit auch intelligenter ist als der Mensch, geht auch mehr Gefahr aus.

> > Betracht ziehen von negativen Wahrscheinlichkeiten diffus
> als
> > "√Ąngste" diffamiert werden, als ob Mahner keine Mahner
> wären,
> > sondern an einer Phobie leiden.

> Was ziemlich offensichtlich der Fall ist. Du solltest Deine
> abstruse Phobie dringend in den Griff kriegen.

Vielleicht solltest Du ersteinmal die Definition von Phobie nachschlagen bevor Du Dich in Fernpsychologie √ľbst, m. W. kommt da durchaus auch das Wort irrational vor. M√∂gliche Gefahren zu er√∂rtern hat damit nicht das geringste zu tun. Warum Du Dich zu derart billiger Diskreditierungsrhetorik hinrei√üen l√§sst, dar√ľber kann man nur spekulieren...

> > "Focus": Denn Bedenken gegen Maschinen die "lediglich"
> > Menschen antun können was sich Menschen gegenseitig antun,
> > sind sicherlich nicht grundlos wie ein Blick ins
> > Geschichtsbuch deutlich zeigt.

> Also keine zusätzliche Gefahr.

Diese Hintergr√ľnde dieser Logik m√ľsstest Du detaillieren. Etwas was dazukommt birgt selbstverst√§ndlich auch zus√§tzliche Gefahr.

> Wobei, wie gesagt,
> höhere Intelligenz (ja, Intelligenz, sicher auch anderes,
> vielleicht auch das, was Du schwammig als "Bewußtsein"
> bezeichnest, was immer Du damit meinst) korreliert nunmal mit
> höherer Ethik, hatten wir aber schonmal

Ja, hatten wir schonmal.
> oben, wenn Du's wiederholst, wird's nicht besser.

Eben, deswegen war es ja auch unnötig dass Du es gerade wiederholt hast, allerdings in Ausklammerung meines Widerspruchs dass höhere Intelligenz nunmal auch die Wahrscheinlichkeit einer größeren Grausamkeit birgt, versteht sich...

> Schade, daß Du solches nicht vor einem Jahr oder so hier
> geschrieben hast, dann h√§tte ich in meine Erz√§hlung √ľber
> Androidenrechte noch ein REP-Wahlplakat ("Androiden nehmen
> uns unsere Arbeitsplätze weg") und eine
> Stammtischunterhaltung ("nicht nur die Arbeitsplätze, Mensch,
> die haben Penisse aus Stahl ...") eingebaut. Kommt Dir
> das irgendwie bekannt vor?

> Also laß hier doch bitte Deine präventive
> Androidenfeindlichkeit,

Die Reduzierung auf Androiden ist Deine Sichtverengung und somit Kontextverzerrung, wenn auch Androiden einen gro√üen Teil von AI ausmachen werden, sprach ich haupts√§chlich von Anorganischer Intelligenz. Dass Du in Anlehnung an Menschenrechte und unter Verdr√§ngung/Leugnung aller anderen Formen - eben auch der gef√§hrlichen- von AI mir hier also quasi pr√§ventiv faschistoides Gedankengut unterstellst ist an L√§cherlichkeit nun wirklich nicht mehr zu √ľberbieten. Das Ablehnen von eigenen Kindern wegen der M√∂glichkeit eines vererbbaren Gendefektes ist also Diskriminierung gegen Behinderte? Die Benutzung eines Kondoms ein Versto√ü gegen die Menschenrechte?

> es ist f√ľr Rechte (wie das Recht auf
> Leben, physische und psychische Unversehrtheit, Freiheit)
> irrelevant, ob jemand auf Kohlenstoff oder Silizium oder was
> auch immer basiert.

Genau, rettet die sich selbst steuernde Atombombe!

Am besten wir organisieren gleich mal die Befreiung einer intelligenten Atombombe, die da eingezw√§ngt im engen Schacht vor sich hinleidet und bringen sie in die W√ľste Gobi - oder nach Bad Soden-Salm√ľnster, wo sie ungest√∂rt ihren Interessen nachgehen kann.

Angriff der Killerk√ľhlschr√§nke

Autor: Achim Stößer | Datum:
> > > So der Verharmlosungsversuch eines Typen, der mit der
>
> > Nö, eine realistische Beschreibung.
>
> Es kann etwas, was in Auswirkung und Dimension noch gar nicht
> bekannt ist, gar nicht realistisch sein.

Wird ja immer absurder, Futurologogen fabrizieren nur Hirngespinste oder was?. Es kann. Und ist in dem Fall.

> Hitlers, Wale, Elefanten, Metzger und Jesusse stehen nicht
> bei mir zu Hause im Flur rum - geht es nach dem Willen der

Irrelevant f√ľr die Tatsache, da√ü damit Dein "Argument" ad absurdum gef√ľhrt wurde. Und au√üerdem ist es irrelevant, ob sie bei Dir "rumstehen", Hitler und Jesus standen bei den meisten iher Opfer nicht rum. Rei√ü Dich mal zusammen.

> Haushalten sein - und Viren und W√ľrmer mal ausgenommen einige
> Zeit "gute Sklaven" sein. Wenn das mal nicht gut geht ist der

Ja, man hört jeden Tag von verkehrsunfällen durch Mircosoftverseuchte Navis ...

> synthetische Spinnenseide - wobei Metall zumindest im Beginn
> nunmal das Wahrscheinlichste sein wird - einen durch einen
> dominanzgestörten Menschen gehackten Androiden, der nun nicht
> mehr Zwiebeln sondern meinen Hals schnippeln will, oder
> später auch ein Androiden der aus eigenem Antrieb aggressiv
> wird, kann ich nicht stoppen indem ich ihm die Pfanne √ľber
> die Hauptrecheneinheit ziehe.

Dann mach mir mal vor, wie Du ein Flugzeug, das einer in Dein Haus rammt, mit einer Bratpfanne abwehrt. Das Flugzeug ist ja relativ unintelligent.

Raff's oder laß es, Diskussion beendet. Ich will hier solchen faschistoiden Schwachsinn jedenfalls nicht mehr lesen.

Achim

Re: Andoiden nehmen uns Ressourcen weg

Autor: Claude | Datum:
Hallo Ava.

> Es kann etwas, was in Auswirkung und Dimension noch gar nicht
> bekannt ist, gar nicht realistisch sein.

Also sind all deine Aussagen genauso unrealistisch...

So wie du hatten einige auch reagiert als die Eisenbahn erfunden wurde. Damals glaubten einige der Mensch w√ľrde bei so hohen Geschwindigkeiten krank werden oder gar sterben. Schon nur das Zuschauen soll gef√§hrlich sein.

Oder du hast einfach nur zu viele Filme gesehen.

Kannst du dir nicht auch vorstellen, dass Roboter nicht zu rebellieren beginnen und die Menschen zu töten versuchen?

> Egal ob Metall, Karbonmaterialien oder gehärtete,
> synthetische Spinnenseide - wobei Metall zumindest im Beginn
> nunmal das Wahrscheinlichste sein wird

Ach was, das Zeug ist doch alles aus Kunststoff.

> - einen durch einen
> dominanzgestörten Menschen gehackten Androiden, der nun nicht
> mehr Zwiebeln sondern meinen Hals schnippeln will, oder
> später auch ein Androiden der aus eigenem Antrieb aggressiv
> wird, kann ich nicht stoppen indem ich ihm die Pfanne √ľber
> die Hauptrecheneinheit ziehe.

Selbst wenn. Viele Unfälle passieren Zuhause und wenn ein Roboter da ist der den Notarzt alarmieren kann und vielleicht sogar selbst Erste Hilfe leisten kann werden viele Leben gerettet.

Ich kann mir auch vorstellen, dass die Roboter nicht gleich wie der T-800 gebaut werden.

Ausserdem zwingt dich ja niemanden KI (in welcher Form auch immer) im Haushalt zu verwenden.

> Genau, rettet die sich selbst steuernde Atombombe!

Wieso nicht? Eine Rehabilitation stelle ich mir nicht so schwierig vor. Was soll man denn deiner Meinung nach mit Kindersoldaten tun? So wie man denen die Kalaschnikov wegnehmen kann sollte es wohl möglich sein eine Atombombe zu entschärfen.
Ob KI Flashbacks haben kann weiss ich jetzt nicht, aber wenn einige Module welche nur zur Zerst√∂rung gebraucht werden aus dem Kernel entfernt werden m√ľssen, kann es sein, dass das der Atombombe zu schaffen macht. Aber der Drogenentzug, welcher viele Kindersoldaten durchmachen m√ľssen ist vermutlich einiges schlimmer.

Was mich aber nun interessieren w√ľrde: Was schl√§gst du denn zur L√∂sung der Problems vor? KI verbieten? Was wenn sie dann doch irgendwann da ist?

Claude, der weiterhin seinen Router von U.S. Robotics verwenden wird.

Re: Andoiden nehmen uns Ressourcen weg

Autor: Ava Odoemena | Datum:
Claude schrieb:

> > Es kann etwas, was in Auswirkung und Dimension noch gar nicht
> > bekannt ist, gar nicht realistisch sein.

> Also sind all deine Aussagen genauso unrealistisch...

Noch mal, Kontext! Die Erwägung von Wahrscheinlichkeiten ist realistisch, absolute Aussagen im Kontext von Wahrscheinlichkeiten ist das gegenteil von realistisch.

> So wie du hatten einige auch reagiert als die Eisenbahn
> erfunden wurde. Damals glaubten einige der Mensch w√ľrde bei
> so hohen Geschwindigkeiten krank werden oder gar sterben.
> Schon nur das Zuschauen soll gefährlich sein.

Nun waren deren Bedenken in der Tat irrational. Meine Bedenken sind es nicht, schließlich entwickeln Eisenbahnen keine eigenen Interessen, die sich gegen Menschen richten können. AI-Formen durchaus, weswegen Dein Vergleich nicht nur hinkt, es fehlt ihm ein Bein.

> Oder du hast einfach nur zu viele Filme gesehen.

Ja, das ist nat√ľrlich immer eine M√∂glichkeit. Ich habe einfach zu viele Filme gesehen und kann nun nicht mehr zwischen Fiktion und Realit√§t unterscheiden. Damit sind alle Bedenken gegen AI selbstverst√§ndlich vom Tisch.

Ich finde es sehr schade, sehr schade, dass Du es hinter der Maske des Humors nötig zu haben glaubst, mich mit derart subversiven Methoden der Lächerlichkeit preiszugeben. Ich notiere das mental mal als Charakterschwäche.

> Kannst du dir nicht auch vorstellen, dass Roboter nicht zu
> rebellieren beginnen und die Menschen zu töten versuchen?

Ja kann ich. Kannst Du Dir nicht auch vorstellen, dass Roboter zu rebellieren beginnen und die Menschen zu töten versuchen? Denn um nichts anderes als eben um die *Wahrscheinlichkeit* des Eintretens der Konsequenz selbstbewusster AI geht es in diesem Nebenthread.

> Selbst wenn. Viele Unfälle passieren Zuhause und wenn ein
> Roboter da ist der den Notarzt alarmieren kann und vielleicht
> sogar selbst Erste Hilfe leisten kann werden viele Leben
> gerettet.

Hm. Und wer alamiert den Notarzt wenn eine Milliarde Androiden sich entschlie√üen der Atmosph√§re den Sauerstoff zu entziehen, ganz einfach weil keine Lust mehr haben f√ľr die wandelnden Fleischs√§cke den Sklaven zu machen?

√úbrigens nebenbei bemerkt, veganethisch *m√ľssen* wir Entwicklung selbstbestimmter AI schon alleine deshalb ablehnen, weil diese wohl ausschlie√ülich wegen der Nutzung durch den Menschen initiiert werden wird. Die Verhinderung von AI ist, entgegen Achims argumentativer Verzweiflung nat√ľrlich nicht faschistoid - genausowenig wie die Ablehnung von Kinder bekommen auf Basis eines vererbbaren, genetischen Defekts der an die Kinder weitergegeben werden kann faschistoid ist.

> Ich kann mir auch vorstellen, dass die Roboter nicht gleich
> wie der T-800 gebaut werden.

Wie definiert man nun "gleich"? Und gegen die Entwicklung intelligenter Systeme - linear intelligent anstelle von synaptisch intelligent - habe ich ja nichts einzuwenden. Allerdings ist die Entwicklung von nichtbedrohlichen Systemen nat√ľrlich keine Rechtfertigung f√ľr die Verleugnung der Wahrscheinlichkeit, dass synaptisch intelligente Systeme - eben aufbauend auf relativ dummen Systemen eben zwar nicht gleich eine Bedrohung darstellen aber im Rahmen von Moore's Gesetz ziemlich bald

> Ausserdem zwingt dich ja niemanden KI (in welcher Form auch
> immer) im Haushalt zu verwenden.

Es geht ja auch nicht nur um mich, sondern um die Existenz organischer Intelligenz allgemein. Ich habe ja auch kein Interesse eine Atombombe bei mir zu Hause zu haben - dennoch bin ich gegen sie. Leider war ich bei deren Entwicklung noch nicht anwesend, und konnte so meine Ablehnung nicht zum Ausdruck bringen. Nun bin ich jedoch anwesend, und bringe meine Ablehnung gegen√ľber anorganischer (synaptisch bef√§higter) Intelligenz zum Ausdruck.

> > Genau, rettet die sich selbst steuernde Atombombe!

> Wieso nicht? Eine Rehabilitation stelle ich mir nicht so
> schwierig vor. Was soll man denn deiner Meinung nach mit
> Kindersoldaten tun?

Man soll sie erst gar nicht entstehen lassen... Kinder geh√∂ren auf Spielpl√§tze und nicht auf Schlachtfelder. Dass Du eine Atombombe mit einem Kind gleichsetzt und somit auch das reale Trauma dieser abscheulichen Kindesmisshandlung der L√§cherlichkeit preis gibst, ist wohl eine Fortsetzung dessen, was ich oben schon einmal ansprach... Der Grad der passiven Aggression, der Deinem vermeintlichen Humor innewohnt wird somit √ľberdeutlich.

> Was mich aber nun interessieren w√ľrde: Was schl√§gst du denn
> zur Lösung der Problems vor? KI verbieten?

Nein. Nicht verbieten sondern verhindern. Nicht AI perse, aber selbstbewusste, synaptisch intelligente AI, denn die Entwicklung derer wäre die finale Dummheit der Menschheit.

> Was wenn sie dann
> doch irgendwann da ist?

Dann ist es mir ob allgemeiner Ignoranz nicht gelungen, politische Mehrheiten zusammen zu tragen. Wäre ja nicht das erste mal, dass so etwas passiert.

> Claude, der weiterhin seinen Router von U.S. Robotics
> verwenden wird.

Ava, die plötzlich so ein ganz anderes Bild von Claude hat:-(

Entwicklung verhindern?

Autor: Claude | Datum:
> Noch mal, Kontext! Die Erwägung von Wahrscheinlichkeiten ist
> realistisch, absolute Aussagen im Kontext von
> Wahrscheinlichkeiten ist das gegenteil von realistisch.

Ich kann mir vorstellen, dass unter Wissenschaftlern davon ausgegeangen wird, dass Aussagen √ľber die Zukunft rein spekulativ sind. So wie keiner Annimmt ich kann das Wetter hervorsagen wenn ich sage "Morgen wirds bew√∂lkt".
Ihn deswegen als verr√ľckt und dumm zu bezeichnen finde ich immer noch √ľbertrieben.

> Nun waren deren Bedenken in der Tat irrational. Meine
> Bedenken sind es nicht, schließlich entwickeln Eisenbahnen
> keine eigenen Interessen, die sich gegen Menschen richten
> können. AI-Formen durchaus, weswegen Dein Vergleich nicht nur

Die Bedenken waren sehr wohl berechtigt. Damals wusste niemand was passieren w√ľrde wenn man so schnell fortbewegt. Das gab's einfach noch nie und die Folgen konnte keiner wissen. Aber zum Gl√ľck gabs Leute die sich trauten es trotzdem zu versuchen.

> hinkt, es fehlt ihm ein Bein.

Er fährt auf Rädern ;-)

> > Oder du hast einfach nur zu viele Filme gesehen.
>
> Ja, das ist nat√ľrlich immer eine M√∂glichkeit. Ich habe
> einfach zu viele Filme gesehen und kann nun nicht mehr
> zwischen Fiktion und Realität unterscheiden. Damit sind alle
> Bedenken gegen AI selbstverständlich vom Tisch.

Anders konnte ich mir nicht erkl√§ren warum du solche Angst vor KI hast. Ich sage ja nicht, dass deine Bedenken unbegr√ľndet sind aber ich sehe nicht ein warum du Wissenschaftler die auf dem Gebiet der KI arbeiten als verr√ľckt und dumm bezeichnest.

> Ich finde es sehr schade, sehr schade, dass Du es hinter der
> Maske des Humors nötig zu haben glaubst, mich mit derart
> subversiven Methoden der Lächerlichkeit preiszugeben. Ich
> notiere das mental mal als Charakterschwäche.

Ach und wenn mal jemand eine andere Meinung hat als du dann hat er eine Charakterschwäche? Na wenn das mal nicht einer Charakterschwäche deinerseits ist.

> > Kannst du dir nicht auch vorstellen, dass Roboter nicht zu
> > rebellieren beginnen und die Menschen zu töten versuchen?
>
> Ja kann ich. Kannst Du Dir nicht auch vorstellen, dass
> Roboter zu rebellieren beginnen und die Menschen zu töten
> versuchen?

Ja, ich hab die Filme alle auch gesehen ;-)

> Denn um nichts anderes als eben um die
> *Wahrscheinlichkeit* des Eintretens der Konsequenz
> selbstbewusster AI geht es in diesem Nebenthread.

Aber dann hat der Wissenschaftler ja recht? Das was die Roboter tun w√ľrden w√§re doch "nur" genausoschlimm wie das was die Menschen tun und getan haben?

> Hm. Und wer alamiert den Notarzt wenn eine Milliarde
> Androiden sich entschließen der Atmosphäre den Sauerstoff zu
> entziehen, ganz einfach weil keine Lust mehr haben f√ľr die
> wandelnden Fleischsäcke den Sklaven zu machen?

In wieweit ist dies wahrscheinlicher als ein dritter Weltkrieg nur mit Menschen?

> √úbrigens nebenbei bemerkt, veganethisch *m√ľssen* wir
> Entwicklung selbstbestimmter AI schon alleine deshalb
> ablehnen, weil diese wohl ausschließlich wegen der Nutzung
> durch den Menschen initiiert werden wird.

Deswegen Rechte f√ľr Androiden. Gerade darum geht es mir ja.
Und ich glaube nicht, dass ein selbst denkender Roboter wirklich eine bessere Hilfe f√ľr Menschen ist als eine Maschine die einfach nur Befehlen gehorcht. Wer will denn schon eine Waschmaschine einfach mal keine Lust hat oder einen Tisch der st√§ndig desertiert.
Ich kann aber nicht beurteilen wie das tatsächlich sein wird.

> Die Verhinderung
> von AI ist, entgegen Achims argumentativer Verzweiflung
> nat√ľrlich nicht faschistoid - genausowenig wie die Ablehnung
> von Kinder bekommen auf Basis eines vererbbaren, genetischen
> Defekts der an die Kinder weitergegeben werden kann
> faschistoid ist.

Aber ich sehe es eher so, dass KI irgendwann da ist, ob wir das nun wollen oder nicht.
Faschistoid ist es wenn du annimmst, dass ein Roboter mit KI auf jeden Fall böse ist und rebellieren wird.
Und darf man sich dann √ľberhaupt noch vermehren? Kann ja sein, dass das Kind sp√§ter zu einem Massenm√∂rder wird? Wie berechtigst du nat√ľrliche Reproduktion?

> Wie definiert man nun "gleich"?

Ich weiss nicht wie und von wem KI zuerst entwickelt wird aber wenn es nicht das Militär ist denke ich nicht, dass die ersten Roboter fähig wären Menschen zu töten.
Wenn es denn so weit ist, dass KI entwickelt wird sollte man sich meiner Meinung nach eher darauf konzentrieren diesen Rechte zuzusprechen anstatt unter den Menschen Alpträume von bösen Killerrobotern zu verbreiten.

> Und gegen die Entwicklung
> intelligenter Systeme - linear intelligent anstelle von
> synaptisch intelligent - habe ich ja nichts einzuwenden.

Ich habe eben gegen letztere auch nichts einzuwenden. Selbstverst√§ndlich bin ich dagegen, dass solche f√ľr milit√§rische Zwecke entwickelt werden.

> Allerdings ist die Entwicklung von nichtbedrohlichen Systemen
> nat√ľrlich keine Rechtfertigung f√ľr die Verleugnung der
> Wahrscheinlichkeit, dass synaptisch intelligente Systeme -
> eben aufbauend auf relativ dummen Systemen eben zwar nicht
> gleich eine Bedrohung darstellen aber im Rahmen von
> Moore's Gesetz ziemlich bald

Und nach Moore's Gesetz kann man dies eh nicht mehr verhindern, oder?

> > Ausserdem zwingt dich ja niemanden KI (in welcher Form auch
> > immer) im Haushalt zu verwenden.
>
> Es geht ja auch nicht nur um mich, sondern um die Existenz
> organischer Intelligenz allgemein. Ich habe ja auch kein
> Interesse eine Atombombe bei mir zu Hause zu haben - dennoch
> bin ich gegen sie.

Ja, aber es ist ein Unterschied ob du sagst ich bin gegen die Atombombe oder ich bin gegen k√ľnstliche Intelligenz. Aber wenn ich das recht verstehe bist du gegen die Entwicklung von dieser durch Menschen.

> Leider war ich bei deren Entwicklung noch
> nicht anwesend, und konnte so meine Ablehnung nicht zum
> Ausdruck bringen. Nun bin ich jedoch anwesend, und bringe
> meine Ablehnung gegen√ľber anorganischer (synaptisch
> befähigter) Intelligenz zum Ausdruck.

Und meinst damit die Entwicklung solcher?

> > > Genau, rettet die sich selbst steuernde Atombombe!
>
> > Wieso nicht? Eine Rehabilitation stelle ich mir nicht so
> > schwierig vor. Was soll man denn deiner Meinung nach mit
> > Kindersoldaten tun?
>
> Man soll sie erst gar nicht entstehen lassen... Kinder
> gehören auf Spielplätze und nicht auf Schlachtfelder.

Klar, aber es gibt leider trotzdem Kindersoldaten. In dem von dir genannten Beispiel existiert der intelligente Roboter ja bereits.
Du hast meine Frage also nicht beantwortet.

> Dass Du
> eine Atombombe mit einem Kind gleichsetzt und somit auch das
> reale Trauma dieser abscheulichen Kindesmisshandlung der
> Lächerlichkeit preis gibst,

Es ging aber, um eine fiktive Atombombe bzw um den zur Steuerung dieser eingesetzte Cumputer. Es geht hier um KI und man kann wohl auch davon ausgehen, dass der Computer eine Art von Gef√ľhlen hat, auch wenn dies ganz anders ist als das was wir Menschen als Gef√ľhle wahrnehmen. So muss es doch klar sein, dass diesem auch Rechte zugesprochen werden m√ľssen. Wenn nicht w√§re das Beispiel f√ľr diesen Nebenthread irrelevant.

> ist wohl eine Fortsetzung dessen,
> was ich oben schon einmal ansprach...

Ist es nicht. Ich bedenke nur, dass die Möglichkeit besteht dass, die Atombombe gar nicht weiss, dass sie eine Waffe ist. Sie denkt vermutlich, dass sie etwas gutes tut.
Oder sie kann gar nicht von Gut und B√∂se unterscheiden, so wie Kindersoldaten, da ihnen beigebracht wird, dass sie K√§mpfen m√ľssen ohne dass sie eine Ahnung haben worum es √ľberhaupt geht.

> Der Grad der passiven
> Aggression, der Deinem vermeintlichen Humor innewohnt wird
> somit √ľberdeutlich.

Das sehe ich nicht ein. Wie soll ich das mit der passiven Aggression verstehen?
Das mit der Atombombe war ernst gemeint.

> > Was mich aber nun interessieren w√ľrde: Was schl√§gst du denn
> > zur Lösung der Problems vor? KI verbieten?
>
> Nein. Nicht verbieten sondern verhindern. Nicht AI perse,
> aber selbstbewusste, synaptisch intelligente AI, denn die
> Entwicklung derer wäre die finale Dummheit der Menschheit.

Und sonst ist es die Solarbombe...

Was f√ľr Richtlinien gibt es denn um zu Entscheiden welche Entwicklungen gut sind und welche man verhindern soll?
Wie gesagt hatte man bei der Eisenbahn Angst vor der Geschwindigkeit und deren Folgen. Hätte man das lieber nicht riskieren sollen?

> > Was wenn sie dann
> > doch irgendwann da ist?
>
> Dann ist es mir ob allgemeiner Ignoranz nicht gelungen,
> politische Mehrheiten zusammen zu tragen. Wäre ja nicht das
> erste mal, dass so etwas passiert.

Sorry, aber mich hast du noch nicht ganz √ľberzeugt. Aber ich glaube auch nicht wirklich, dass ich die Entwiklung von intelligenten Maschinen noch erleben werde. Wir haben ja noch nicht mal fliegende Autos.

> Ava, die plötzlich so ein ganz anderes Bild von Claude hat:-(

Soso, du machst dir also ein Bild von mir.

Ich glaube wir haben einfach nur eine völlig andere Sichtweise auf das Thema.

Claude

Replikatoren

Autor: Achim Stößer | Datum:
> Gut, solange der Replikator selbst √ľber keine
> Entscheidungsgewalt verf√ľgt, habe ich damit auch keine
> Probleme. Allerdings, und das hatte ich ja auch angesprochen,

Selbstverst√§ndlich m√ľssen die Replikatoren √ľber Entscheidungsm√∂glichkeiten verf√ľgen, die in der Enterprise sind ziemlich mies, was die Benutzerschnittstelle angeht ("Tee. Earl Gray. Hei√ü." - Warum nicht gleich noch das Volumen spezifiziert werden mu√ü ...).

Wenn ich beim Replikator einen Tee bestelle ohne nähere Angaben, muß er entscheiden, ob ich Earl Gray oder Blasentee will, ob mit und wenn ja wieviel Zucker usw. Ich habe keine Lust, das jedesmal genau anzugeben. Und wenn ich eine bestimmte Sorte haben will, kann ich das ja sagen.

Zudem sollte er mir keine Knollenblätterpilze servieren, auch wenn ich welche bestelle.

Usw.

Achim

Re: Replikatoren

Autor: Claude | Datum:
> Selbstverst√§ndlich m√ľssen die Replikatoren √ľber
> Entscheidungsm√∂glichkeiten verf√ľgen,

Ich glaube Ava meint mit Entscheidungsgewalt, dass das Gerät entscheiden kann dir eine giftige Substanz in den Tee zu mischen.
Solange es lediglich ein simples Programm ist welches fehlende Informationen aufgrund der vordefinierten Entscheidungskriterien eruieren kann bzw nochmals nachfragt, sind b√∂swillige Entscheidungen so gut wie auszuschliessen. Somit muss man sich auch keine Gedanken dar√ľber machen, ob diese rebellieren k√∂nnten oder ob man ihnen Rechte zusprechen soll oder muss.

Aber irgendwie hab ich eh das Gef√ľhl, dass hier alle aneinander vorbei reden.

Claude

Replikatorenrechte

Autor: Achim Stößer | Datum:
> Ich glaube Ava meint mit Entscheidungsgewalt, dass das Gerät
> entscheiden kann dir eine giftige Substanz in den Tee zu
> mischen.

Och, dann sollen Replikatoren weniger Rechte haben als dumme Zigarettenautomaten? (Überhaupt, was, wenn der Replikator weiß, daß ich aufgrund einer Herzkrankheit geringe mengen einer giftigen Substanz, Digitalis, benötige?)

Achim

Re: Replikatorenrechte

Autor: Claude | Datum:
> Och, dann sollen Replikatoren weniger Rechte haben als
> dumme Zigarettenautomaten?

Wer sagt denn dass irgend eines der Ger√§te √ľberhaupt Rechte erhalten soll?

> (√úberhaupt, was, wenn der
> Replikator weiß, daß ich aufgrund einer Herzkrankheit geringe
> mengen einer giftigen Substanz, Digitalis, benötige?)

Also das versteh ich jetzt nicht. Es ist ja eh die Menge die ausmacht, ob etwas giftig ist oder nicht und weniger die Substanz selbst. Dann w√ľrdest du ja wohl eine Menge ben√∂tigen die nicht giftig ist, oder? Sonst w√§rs ja recht sinnlos. Es k√∂nnte h√∂chstens sein, dass es f√ľr andere Leute ohne diese Krankheit gef√§hrlich w√§re. Und wenn der das weiss dann muss er dich wohl darauf hinweisen wenn es automatisch in deinem Tee ist, nicht dass noch jemand anderes deinen Fingerhuttee, oder was auch immer das dann ist, trinkt.
Auch wenn Intelligenz nicht genau definiert ist bin ich mir ziemlich sicher, dass das mit Intelligent kaum etwas zu tun hat. Oder irre ich mich da?

Claude

Streichholzschachtelrechte

Autor: Achim Stößer | Datum:
> > Och, dann sollen Replikatoren weniger Rechte haben als
> > dumme Zigarettenautomaten?
>
> Wer sagt denn dass irgend eines der Ger√§te √ľberhaupt Rechte
> erhalten soll?

Naja, wir sind ja jetzt von solchen KI ausgegangen, die eben Tr√§ger von Rechten w√§ren. Ob jetzt ein Replikator diese Entwicklungsstife haben mu√ü, sei mal dahingestellt ... In "Ubik" (von Dick) gibt es eine k√∂stliche Szene, in der der Protagonist mit seiner Wohnungst√ľr streitet, die ihn nicht rausl√§√üt, weil er nicht zahlt ;-) .

> Krankheit gefährlich wäre. Und wenn der das weiss dann muss
> er dich wohl darauf hinweisen wenn es automatisch in deinem
> Tee ist, nicht dass noch jemand anderes deinen Fingerhuttee,
> oder was auch immer das dann ist, trinkt.
> Auch wenn Intelligenz nicht genau definiert ist bin ich mir
> ziemlich sicher, dass das mit Intelligent kaum etwas zu tun
> hat. Oder irre ich mich da?

Klar. Schon jetzt m√ľssen ja manche Leute darauf hingewiesen werden, da√ü sie sich den Kaffee nicht auf die Hose sch√ľtten sollen, weil er hei√ü ist, sonst klagen sie und kriegen Millionen Schmerzensgeld. Drum w√ľrde der Replikator nat√ľrlich entsprechende Warnhinweise mitliefern, wenn er den Tee jemandem gibt, der in diese Kategorie (also halb so intelligent wie der Replikator oder ein paar Streichholzschachteln*) oder so) f√§llt.

Achim

*) Aus ein paar Streichholzschachten und farbigen Holzperlen l√§√üt sich ja ein KI-System basteln, das immerhin Minischach (3x3 Felder, je drei Bauern) spielen "lernt", anfangs verliert, dann immer besser wird ... die brauchen ungef√§hr so viele Rechte wie die ach so leidenden Pflanzen, die so "schlau" sind, sich der Sonne zuzuwenden etc. (was gewisse Leute als Basis f√ľr Pflanzenrechte - oder eben lieber die Ablehnung von Tierrechten - nehmen).

Re: Streichholzschachtelrechte

Autor: Claude | Datum:
> Naja, wir sind ja jetzt von solchen KI ausgegangen, die eben
> Träger von Rechten wären. Ob jetzt ein Replikator diese
> Entwicklungsstife haben muß, sei mal dahingestellt ...

Der von dir beschriebene Replikator schien mir nicht sehr intelligent.

> In
> "Ubik" (von Dick) gibt es eine köstliche Szene, in der der
> Protagonist mit seiner Wohnungst√ľr streitet, die ihn nicht
> rausläßt, weil er nicht zahlt ;-) .

Das wollte ich mal lesen, war aber bei Titel schon √ľberfordert.

> Klar. Schon jetzt m√ľssen ja manche Leute darauf hingewiesen
> werden, da√ü sie sich den Kaffee nicht auf die Hose sch√ľtten
> sollen, weil er heiß ist, sonst klagen sie und kriegen
> Millionen Schmerzensgeld.

Solange man klagen kann gibts nat√ľrlich gen√ľgend Leute die sich gerne mal den heissen Kaffe √ľber die Hose sch√ľtten.

> Drum w√ľrde der Replikator nat√ľrlich
> entsprechende Warnhinweise mitliefern, wenn er den Tee
> jemandem gibt, der in diese Kategorie (also halb so
> intelligent wie der Replikator oder ein paar
> Streichholzschachteln*) oder so) fällt.

In dem Fall wäre es wohl besser nur lauwarme Getränke auszuschenken ausser es wird eine bestimmte Temperatur angegeben.

> *) Aus ein paar Streichholzschachten und farbigen Holzperlen
> läßt sich ja ein KI-System basteln, das immerhin Minischach
> (3x3 Felder, je drei Bauern) spielen "lernt", anfangs
> verliert, dann immer besser wird ...

Das k√∂nnen die wohl kaum. Das funktioniert nur als Hilfsmittel. Es ben√∂tigt immer noch den Menschen der die Streichh√∂lzer ben√ľtzt.

> die brauchen ungefähr so
> viele Rechte wie die ach so leidenden Pflanzen, die so
> "schlau" sind, sich der Sonne zuzuwenden etc. (was gewisse
> Leute als Basis f√ľr Pflanzenrechte - oder eben lieber die
> Ablehnung von Tierrechten - nehmen).

Ja, aber das hat doch mit dem Thema nichts zu tun oder?
So verstehe ich √ľberhaupt nicht was du sagen willst und was du an Avas Texten als faschistoid empfindest.

Claude

Re: Streichholzschachtelrechte

Autor: Achim Stößer | Datum:
> > Naja, wir sind ja jetzt von solchen KI ausgegangen, die eben
> > Träger von Rechten wären. Ob jetzt ein Replikator diese
> > Entwicklungsstife haben muß, sei mal dahingestellt ...
>
> Der von dir beschriebene Replikator schien mir nicht sehr
> intelligent.

Naja, er bräuchte keine besonders hohe Intelligenz. Aber ein Handy braucht eigentlich auch keine eingebaute Multimediabrotbackmaschine.

> > "Ubik" (von Dick) gibt es eine köstliche Szene, in der der
> > Protagonist mit seiner Wohnungst√ľr streitet, die ihn nicht
> > rausläßt, weil er nicht zahlt ;-) .
>
> Das wollte ich mal lesen, war aber bei Titel schon √ľberfordert.

Sehr empfehlenswert.

Der Titel wird glaube ich im Nachwort näher erläutert ;-) . Soll so etwa "Allgegenwart" heißen.

Hm, warum haben sie das eigentlich nicht verfilmt ...

> In dem Fall wäre es wohl besser nur lauwarme Getränke
> auszuschenken ausser es wird eine bestimmte Temperatur
> angegeben.

Das wäre aber nicht besonders Benutzerfreundlich.

> > *) Aus ein paar Streichholzschachten und farbigen Holzperlen
> > läßt sich ja ein KI-System basteln, das immerhin Minischach
> > (3x3 Felder, je drei Bauern) spielen "lernt", anfangs
> > verliert, dann immer besser wird ...
>
> Das können die wohl kaum. Das funktioniert nur als
> Hilfsmittel. Es benötigt immer noch den Menschen der die
> Streichh√∂lzer ben√ľtzt.

Nein, umgekehrt, die KI "ben√ľtzt" den Menschen nur als Ein-/Ausgabewerkzeug ;-). Der Streichholzschachtencomputer "lernt" wirklich selbst, d.h., sein Ged√§chtnis √§ndert sich so, da√ü er besser spielt.

Hat Martin Gardner in den 60ern erfunden. Sein - vereinfachtes - Schachspiel besteht aus drei mal drei Feldern und je drei Bauern pro Spieler, die ein Feld vorw√§rts ziehen oder schr√§g schlagen k√∂nnen. Wer die dritte Reihe erreicht, alle Figuren des Gegenspielers schl√§gt oder ihm das Ziehen unm√∂glich macht, hat gewonnen. Auf Streichholzschachteln zeichnete Gardner jeweils eine der 24 m√∂glichen Stellungen, kennzeichnete die verschiedenen Z√ľge durch unterschiedliche Farben und legte f√ľr jeden Zug eine Liebesperle entsprechender Farbe in die Streichholzschachteln.

Zog er nun mit geschlossenen Augen eine Perle aus der Schachtel, die der aktuellen Stellung entsprach, war damit zuf√§llig ein Zug bestimmt. F√ľhrte diese Zufallsstrategie zum Sieg, legte er die Perlen wieder in die Schachteln, andernfalls entfernte (oder a√ü) er diejenige, die den letzten Zug ausgel√∂st hatte, und legte nur die anderen zur√ľck. So wurde mit jedem Spiel die Wahrscheinlichkeit f√ľr korrekte Z√ľge immer gr√∂√üer, der Automat "lernte", zu gewinnen.

Auf diesem Prinzip basiert noch heute viel KI (und wohl auch nat√ľrliche).

> > die brauchen ungefähr so
> > viele Rechte wie die ach so leidenden Pflanzen, die so
> > "schlau" sind, sich der Sonne zuzuwenden etc. (was gewisse
> > Leute als Basis f√ľr Pflanzenrechte - oder eben lieber die
> > Ablehnung von Tierrechten - nehmen).
>
> Ja, aber das hat doch mit dem Thema nichts zu tun oder?

Analogie: Karotten keine Rechte, K√ľhe schon -> Kaffeemaschinen eher keine Rechte, KIs hinreichender Komplexit√§t schon.

> So verstehe ich √ľberhaupt nicht was du sagen willst und was
> du an Avas Texten als faschistoid empfindest.

Die zu Ausländerfeindlichkeit analoge Androidendiskriminierung.

Achim

Crossing the line

Autor: Ava Odoemena | Datum:
Achim Stößer schrieb:

> > So verstehe ich √ľberhaupt nicht was du sagen willst und was
> > du an Avas Texten als faschistoid empfindest.

> Die zu Ausländerfeindlichkeit analoge
> Androidendiskriminierung.

Lediglich der Respekt (der durch diesen Vorwurf und den damit verbundenen Missbrauch des Hausrechts noch nicht erodiert ist) den ich f√ľr Dich empfinde verhindert dass ich diesen abstrusen Unsinn zur Anzeige bringe. Gegen Nichtexistentes kann man nicht diskriminieren, aber das weisst Du ja...

Allerdings werde ich, um dem Nachdruck zu verleihen wie unam√ľsiert ich √ľber den Verlauf der Debatte bin jegliche Kommunikation mit Dir einstellen bis Du Dich bei mir entschuldigt hast - √∂ffentlich versteht sich - denn √∂ffentlich war ja auch der Vorwurf.

Es ist dabei ganz egal wie lange das dauert.

Re: Crossing the line

Autor: Claude | Datum:
[Vorsicht: Dieser Beitrag (diese Warnung eingeschlossen) enthält womöglich seltsamen Humor von Claude. Bitte nicht lesen.]

> Gegen Nichtexistentes
> kann man nicht diskriminieren, aber das weisst Du ja...

Verstehe ich das richtig: Wenn ich sage, dass deine Urenkel alle dumm sind dann ist das keine Diskriminierung, da diese noch nicht existieren?

> Es ist dabei ganz egal wie lange das dauert.

Ich bef√ľrchte, dass vorher die KI entwickelt wurde und uns Menschen ausgerottet hat.

Claude

Re: Crossing the line

Autor: Ava Odoemena | Datum:
Claude schrieb:

> Verstehe ich das richtig: Wenn ich sage, dass deine Urenkel
> alle dumm sind dann ist das keine Diskriminierung, da diese
> noch nicht existieren?

Stimmt genau, das wäre dann einfach Blödsinn.

> > Es ist dabei ganz egal wie lange das dauert.

> Ich bef√ľrchte, dass vorher die KI entwickelt wurde und uns
> Menschen ausgerottet hat.

Nun denn, wenn jemand wegen eines Ego-Manövers in einem Forum eine Freundschaft und eine Interessenzweckbeziehung in den Wind schießt, dann wäre die Energie die in die Entwicklung dieser Beziehung geflossen ist sowieso vollkommen fehlinvestiert. In dem Sinne sind Konflikte nämlich durchaus positiv zu werten.

alles Blödsinn...

Autor: Claude | Datum:
> Stimmt genau, das wäre dann einfach Blödsinn.

In dem Fall ist es Bl√∂dsinn. Aber ich finde es genauso bl√∂dsinnig wenn du behauptest, dass alle Androiden b√∂se sind oder dass wer sich mit KI befasst verr√ľckt und dumm sei.

Klar w√§re es eigentlich egal, da keine entsprechend komplexe KI existiert. Nur bef√ľrchte ich, dass wenn es soweit ist man die Roboter vor Menschen wie dir sch√ľtzen muss.
Ironischerweise werden die Roboter, wenn √ľberhaupt, gerade wegen Leuten wie dir zu rebellieren beginnen.

Claude

√úberforderung

Autor: Ava Odoemena | Datum:
Claude schrieb:

> Aber ich finde es genauso
> blödsinnig wenn du behauptest, dass alle Androiden böse sind
> oder dass wer sich mit KI befasst verr√ľckt und dumm sei.

Dazu kann ich nichts sagen, denn schließlich habe ich das nicht behauptet.

> Klar wäre es eigentlich egal, da keine entsprechend komplexe
> KI existiert. Nur bef√ľrchte ich, dass wenn es soweit ist man
> die Roboter vor Menschen wie dir sch√ľtzen muss.

Mitnichten. Also entweder das Thema konfrontiert Dich mit einer Komplexit√§t die Dich etwas √ľberfordert, oder Du hast ganz einfach nicht verstanden worum es mir hier geht, was wohl auch die √ľberzeichnenden Fehlinterpretationen erkl√§ren w√ľrde. Ich bin vegan, also verteidige ich die Rechte derer die √ľber Eigenschaften und F√§higkeiten verf√ľgen, f√ľr die sie zur Anwendung ethischer Prinzipien in Betracht kommen. Also auch die ethischen Rechte derer, deren Wesen auf AI basiert wenn sie denn schon mal da sind. Allerdings lehne ich *gleichzeitig* die Entwicklung von erweiteter, autarker AI (wegen der m√∂glichen drastischen Implikationen) ab.

Zwischen beiden Positionen besteht nicht wirklich ein Widerspruch, jedenfalls wenn man sich vom Sozialdarwinismus befreit hat, der da jede Entwicklung hinnimmt, selbst die, die das Ende der organischen Biologie bedeuten k√∂nnte. Weshalb da kein Widerspruch besteht, nun, dies auszut√ľfteln √ľberlasse ich Dir mal als Hausaufgabe.


> Ironischerweise werden die Roboter, wenn √ľberhaupt, gerade
> wegen Leuten wie dir zu rebellieren beginnen.

Nun, dies w√§re dann im Sinne der Androidenrechte, denn die Rebellion w√§re ja gegen die Versklavung durch Menschen. Die Entwicklung von AI geschieht n√§mlich ausschlie√ülich zur Befriedigung menschlicher Bed√ľrfnisse - vergleichbar mit Tierausbeutung. Wenn ich denn f√ľr eine Rebellion aus so einem Zustand verantwortlich w√§re, w√§re ich ja eine gute Veganerin.

Dass Du Dich allerdings negativ √ľber diese Rebellion (es wird √ľbrigens keine Rebellion sein, sondern ein Abl√∂sen - zu dem Zeitpunkt wo AI rebellieren kann sind sie bereits zu m√§chtig als sich mit so einer Zeitverschwendung wie Kampf gegen Menschen aufhalten werden) √§u√üerst gibt mir allerdings zu denken, schlie√ülich bef√ľrwortest Du damit AI-Ausbeutung.

Re: √úberforderung

Autor: Claude | Datum:
> > Aber ich finde es genauso
> > blödsinnig wenn du behauptest, dass alle Androiden böse sind
> > oder dass wer sich mit KI befasst verr√ľckt und dumm sei.
>
> Dazu kann ich nichts sagen, denn schließlich habe ich das
> nicht behauptet.

So interpretiere ich Aussagen wie:
- "Auffassungen dummer Forscher"
- "Und das ist ja auch das fatale dass derart psychotische Argumentation nicht weiters auffällt wenn der Wahnsinnige einen weißen Kittel trägt"
- "diese Evolutionsstufe w√ľrde schon einmal ganz banal ein gigantischer Energiekonkurrent sein"
- "Eisenbahnen [entwickeln] keine eigenen Interessen, die sich gegen Menschen richten können. AI-Formen durchaus [...]"

und so weiter...
Kann sein, dass ich es hier etwas √ľberspitzt ausgedr√ľckt habe.

> Mitnichten. Also entweder das Thema konfrontiert Dich mit
> einer Komplexit√§t die Dich etwas √ľberfordert, oder Du hast
> ganz einfach nicht verstanden worum es mir hier geht, was
> wohl auch die √ľberzeichnenden Fehlinterpretationen erkl√§ren
> w√ľrde.

Kann sein. Aber gerade dann finde ich es wichtig dir zu zeigen wie sowas bei mir ankommt. Wenn ich das alles nur falsch verstanden habe ist ja gut aber dann k√∂nntest du dir vielleicht √ľberlegen deine Formulierungen zu √ľberdenken.
Du kannst nat√ľrlich auch einfach behaupten dass ich bl√∂d bin. Mir ist's unterdessen egal.

> Ich bin vegan, also verteidige ich die Rechte derer
> die √ľber Eigenschaften und F√§higkeiten verf√ľgen, f√ľr die sie
> zur Anwendung ethischer Prinzipien in Betracht kommen. Also
> auch die ethischen Rechte derer, deren Wesen auf AI basiert
> wenn sie denn schon mal da sind.

Ah gut, da bin ich beruhigt. Nur beunruhigt mich immer noch, dass du schreibst "Da ich mich nunmal aber deutlich *gegen* Existenzrechte bestimmter Formen der AI ausspreche".
Was denn nun?

> Allerdings lehne ich
> *gleichzeitig* die Entwicklung von erweiteter, autarker AI
> (wegen der möglichen drastischen Implikationen) ab.

Dann musst du aber die Zeugung von Menschen auch ablehnen?
Immerhin sind die Homo Sapiens deiner Meinung nach alle faschistoid.
Hier gleich mal das Zitat auf welches ich mich beziehe:
Zitat: Sollen die Maschinen denn so viel können, aber dann keine xenophob reduzierte Ethik entwickeln, die sich faschistoid auf die eigene Identität beschränkt genauso wie es der momentane Homo Sapiens tut?


> Zwischen beiden Positionen besteht nicht wirklich ein
> Widerspruch, jedenfalls wenn man sich vom Sozialdarwinismus
> befreit hat, der da jede Entwicklung hinnimmt, selbst die,
> die das Ende der organischen Biologie bedeuten könnte.
> Weshalb da kein Widerspruch besteht, nun, dies auszut√ľfteln
> √ľberlasse ich Dir mal als Hausaufgabe.

Das war mir schon lange klar.
Was sich aber manchmal widerspricht sind deine eigenen Aussagen.
Und wenn du meine Fragen (zB die in diesem Beitrag) nicht beantwortest und stattdessen mir Hausaufgaben erteilst hilft mir das auch nicht weiter.

> > Ironischerweise werden die Roboter, wenn √ľberhaupt, gerade
> > wegen Leuten wie dir zu rebellieren beginnen.
>
> Nun, dies wäre dann im Sinne der Androidenrechte, denn die
> Rebellion wäre ja gegen die Versklavung durch Menschen.

Wenn die Leute durch deine Panikmache die Androiden noch zusätzlich hassen siehts anders aus. Kann sein, dass du dies nicht beabsichtigst aber so fasse ich es auf. Achim ging es offensichtlich ähnlich.
Bisher hielt ich Steven Spielbergs Darstellung der Reaktion der Menschen auf KI im Film "Artificial Intelligence: AI" f√ľr √ľbertrieben. Du hast mir das Gegenteil bewiesen. Zumindest habe ich den Eindruck.

> Die
> Entwicklung von AI geschieht nämlich ausschließlich zur
> Befriedigung menschlicher Bed√ľrfnisse - vergleichbar mit
> Tierausbeutung.

Ich denke nicht, dass man das mit Sicherheit sagen könnte.
Aber vielleicht hast du recht. Dann bin ich auch gegen einen Einsatz der KI welche vergleichbar mit Tierausbeutung wäre.
Aber trotzdem nicht grundsätzlich gegen die Entwicklung einer solchen.

> Wenn ich denn f√ľr eine Rebellion aus so einem
> Zustand verantwortlich wäre, wäre ich ja eine gute Veganerin.

Wenn die Rebellion friedlich ist dann ist ja gut. Aber wie du weiter unten schreibst soll dies ja nicht der Fall sein. Also nein, du w√§rst keine gute Veganerin, wenn du f√ľr die T√∂tung von Menschen durch Roboter verantwortlich w√§rst. Aber wolltest du das nicht eigentlich verhindern?
Langsam mutierst du vom Roboterhasser zur Anf√ľhrerin der Roboterarmee zur Ausrottung der Menschheit.
Ja, da bin ich leider mehr als √ľberfordert. :-/

> Dass Du Dich allerdings negativ √ľber diese Rebellion (es wird
> √ľbrigens keine Rebellion sein, sondern ein Abl√∂sen - zu dem

Ablösen im Sinne von Töten oder im Sinne von unsere Reproduktion stören/unterbinden bis es keine Menschen mehr gibt?
Wie verdammt nochmal willst du das denn √ľberhaupt wissen?
Eigentlich ist es ja egal, denn deine Aussage kann, zumal sie "in Auswirkung und Dimension noch gar nicht bekannt ist", "nicht realistisch sein".
Sowas interpretiere ich als reine Propaganda gegen KI. Das hat mit Mahnen nichts mehr zu tun.

> Zeitpunkt wo AI rebellieren kann sind sie bereits zu mächtig
> als sich mit so einer Zeitverschwendung wie Kampf gegen
> Menschen aufhalten werden)

Da wär ich mir nicht so sicher.
Und im Film wär das nicht so spannend ;-)
Ich sehe auch nicht was das zur Sache tut.
Wobei ich mich immer noch frage was Ablösung heissen soll.

> äußerst gibt mir allerdings zu
> denken, schlie√ülich bef√ľrwortest Du damit AI-Ausbeutung.

Nein tue ich nicht.
Wenn mich jemand ausbeutet werde ich ihn ja auch nicht gleich umbringen. Ausser es wäre Notwehr aber das Auslöschen der gesamten Menschheit wäre wohl kaum Notwehr.
Wenn die Roboter friedlich demonstrieret, w√ľrde ich dies unterst√ľtzen.

Claude

Grundeinkommen

Autor: Achim Stößer | Datum:
> sehr viele davon. Die Entkoppelung ist notwendig und die
> Vorbehalte gegen das bedingungslose Grundeinkommen werden bei
> denen, die dieses Konzept noch nicht verstanden haben
> wegschmelzen wenn der Groschen fällt. Zwar labern sogar noch
...
> Wenn das Grundeinkommen einmal da ist, und wir uns dem
> zuwenden können was uns wirklich interessiert, wird es noch

Das "Grundeinkommen" scheint mir ein wichtiges und zu verfolgendes Konzept zu sein, mit dem ich mich bisher aber noch nicht hinreichend ausf√ľhrlich befassen konnte, so da√ü ich hier mal einen eigenen Subthread dazu starte ;-) .

Achim

Re: Grundeinkommen

Autor: Ava | Datum:
Am besten man liest sich mal ein, Telepolis hat einen guten Artikel, dort ist auch das Netzwerk Grundeinkommen verlinkt mit vielen weiteren Informationen.

Das Prinzip ist genial.

Re: Grundeinkommen

Autor: Ava | Datum:
Hier ist auch eine gute Seite, desweiteren lohnt es die Suchmaschinen mit einer der Prominentesten Bef√ľrwortern, DM Drogerie-Unternehmer Professor G√∂tz W. Werner zu beauftragen.

Re: Grundeinkommen

Autor: Achim Stößer | Datum:
Ach ja, in der DM-Zeitschrift habe ich mal was dazu gelesen ... ist aber nicht viel hängengeblien :-/ .

Achim

Re: Grundeinkommen

Autor: Ava Odoemena | Datum:
Achim Stößer schrieb:

> Ach ja, in der DM-Zeitschrift habe ich mal was dazu gelesen
> ... ist aber nicht viel hängengeblien :-/ .

Man kommt nicht drumherum, sich einzulesen da die wirtschaftlichen und gesellschaftlichen Zusammenhänge von Lohn und Arbeit und warum das Grundeinkommen funktionieren kann und wird, nicht einfach auf einen Nenner gebracht werden kann.

Das ganze ist ziemlich revolution√§r und w√ľrde weitreichende positive Folgen f√ľr unsere Gesellschaft haben.

Re: Grundeinkommen

Autor: Susanne | Datum:
Ein anderes revolution√§res Modell ist √ľbrigens das des Freigeldes, habe vor kurzem ein Buch dar√ľber gelesen.
Das ganze basiert darauf, daß die Zinsen abgeschafft werden, das Geld einen Umlaufzwang bekommt, und damit die Umverteilung des Geldes auf die Konten der Superreichen verhindert wird.
Soetwas gab es schon einmal im Mittelalter und hat zu 400 Jahren Frieden und Wohlstand gef√ľhrt (bis zur n√§chsten Geldreform).

War sehr interessant, vor allem da man ja inzwischen schon so konditionert ist, daß man sich gar nicht mehr vorstellen kann, daß es außer Kapitalismus und Kommunismus noch etwas anderes geben könnte.

Das Buch heißt "Wer hat Angst vor Silivo Gesell ?" und ist in einer sehr einfachen Sprache geschrieben.

Re: Grundeinkommen

Autor: Tanja | Datum:
Danke f√ľr den Buch-Tip, mal sehen, ob ich das g√ľnstig irgendwo kriegen kann. ;-)

Tanja

Re: Grundeinkommen

Autor: Ava Odoemena | Datum:
Ich habe mich mit diesem System auch schon besch√§ftigt und es ist auch schl√ľssig und fortschrittlich. Es gibt hier auch einen tollen Artikel/Thesenpapier der erkl√§rt weshalb unser momentanes System eine Variante des Feudalismus ist. Der Autor geht auch auf das sog. "Freigeld" ein, hat aber eine andere Definition daf√ľr.

Freigeld und Grundeinkommen k√∂nnen √ľbrigens problemlos miteinander kombiniert werden, wobei Grundeinkommen schneller Akzeptanz finden wird, da es von der Verm√∂gens- u. somit Entscheiderklasse in der Regel nicht als Bedrohung aufgefasst wird.

Ich stimme Dir zu bez√ľglich der Konditionierung zu, nicht nur in Bezug auf Wirtschaftssysteme, sondern auch z. B. die Verwebung von Erwerbsarbeit und Identit√§t und so vielen anderen Dingen. Die Unterdr√ľckung von Bewusstsein ist der Genozid unserer Zeit.

Interessant ist auch die Gleichartigkeit der Reaktionen der √Ąngstlichen auf Themen wie Veganismus und Grundeinkommen. Die menschliche Tendenz an Etabliertem festzuhalten, auch wenn das Etablierte mild ausgedr√ľckt falsch ist, ist vermutlich mit evolution√§ren Strukturen der Gruppenselbstorganisation zu erkl√§ren. Das Problem und die Ungerechtigkeit beginnt jedoch da, wo diese Eigenschaften ausbeutet und missbraucht werden.

Mittlerweile wird auch die Schraube gegen Aufkl√§rer, angezogen: Die Lakaien des Status Quo schrecken offensichtlich selbst nicht vor kriminellen Handlungen zur√ľck.

ganz langsam, bitte

Autor: Rele | Datum:


Um es gleich zu sagen, ich habe null Ahnung von dem Thema. Aber wenn ich mir die Diskusson so durchlese, finde ich das:

> Die zu Ausländerfeindlichkeit analoge
> Androidendiskriminierung.

und das:

> verhindert dass ich diesen abstrusen Unsinn zur Anzeige bringe

echt unterste Schublade. Geht es nicht auch ohne Unterstellungen& unterschwellige Drohungen? Warum f√ľhlt ihr (Achim& Ava) euch denn bei einer Diskussion, bei der es auch noch zum Gro√üteil um Fiktion geht, √ľber die hier wohl niemand √ľber ausreichend Fachwissen verf√ľgt, so derma√üen pers√∂nlich angegriffen? Meine G√ľte, das ist eine Diskussion& kein Rechts- oder Rhetorikstreit. Wir sind vegan, somit wird sich hier wohl niemand daf√ľr aussprechen, jemanden/ etwas, der leidensf√§hig ist, zu diskriminieren oder ihm Leid zuzuf√ľgen. Davon gehe ich zumindest aus, also macht doch mal halblang& euch nicht gegenseitig so fertig. :-/

Re: ganz langsam, bitte

Autor: Ava Odoemena | Datum:
Rele schrieb:

> echt unterste Schublade. Geht es nicht auch ohne
> Unterstellungen& unterschwellige Drohungen?

Hm, sich gegen eine Beleidigung zu verwehren ist unterste Schublade?

Das war mitnichten eine unterschwellige Drohung sondern genau was da stand: Einen Menschen zu dem eine geringere soziale Bindung bestanden h√§tte, h√§tte ich f√ľr die Ungeheuerlichkeit des Vorwurfs angezeigt. Die Beleidigung hat mich zutiefst verletzt, und ich m√∂chte das dies auch so zu Kenntnis genommen wird und nicht verdreht als unterschwellige Drohung dargestellt wird.

Kurz: "Ava ist mächtig sauer".

> Warum f√ľhlt ihr
> (Achim& Ava) euch denn bei einer Diskussion, bei der es auch
> noch zum Gro√üteil um Fiktion geht, √ľber die hier wohl niemand
> √ľber ausreichend Fachwissen verf√ľgt, so derma√üen pers√∂nlich
> angegriffen?

Nun, ich kann hier nur f√ľr mich sprechen, ich jedenfalls f√ľhle mich pers√∂nlich angegriffen, weil ich, *√úberraschung*, pers√∂nlich angegriffen wurde.

Also wenn die Unterstellung von Faschismus kein persönlicher Angriff ist, was denn?

> Wir sind vegan, somit wird sich
> hier wohl niemand daf√ľr aussprechen, jemanden/ etwas, der
> leidensf√§hig ist, zu diskriminieren oder ihm Leid zuzuf√ľgen.

Gilt das auch f√ľr, sagen wir mal P√§derasten oder autarke Schlachtroboter? Darf man gegen die auch nicht diskriminieren? Seit wann bist Du denn herrschaftsfreiistisch veranlagt?

Ganz sch√∂n peinlich wie Du Neutralit√§t heuchelst, btw. und darin liegt wohl auch die Ironie, dass Du Achims Position einer theoretischen Diskriminierung st√ľtzt und dabei jemanden der tats√§chlich Leid zugef√ľgt wurde (mir) auf den Kopf trittst.

> Davon gehe ich zumindest aus, also macht doch mal halblang&
> euch nicht gegenseitig so fertig. :-/

Es gibt hier sp√§testens ab dem abstrusen Faschismusvorwurf (die perfide Manipulierung der Debatte durch kontextverengenden Reduktionismus zur Vorbereitung der Anwendung des Hausrechts mal ganz ausgenommen, wobei ich es generell auch verabscheue f√ľr so bl√∂d gehalten zu werden) keine Gegenseitigkeit, sondern - offensichtlich lediglich f√ľr mich - ganz klar: Person 1 T√§ter, Person 2 Opfer. Meine Bedingungen zur Wiederherstellung einer Normalit√§t habe ich ja genannt...

Re: ganz langsam, bitte

Autor: Rele | Datum:


>Ganz schön peinlich wie Du Neutralität heuchelst,

Ganz sch√∂n peinlich, wie Du mich so bl√∂d anmachst, wo ich eigentlich nur versucht habe, zwischen euch ein bisschen zu schlichten. Ava, ich wollte Dir nicht "auf den Kopf treten"& habe auch nicht irgendeine Position hier unterst√ľtzt, weil ich schon geschrieben habe, dass ich mich mit dem Thema nicht auskenne. Du musst mir nicht so ans Bein pinkeln.

Re: ganz langsam, bitte

Autor: Ava Odoemena | Datum:
Rele schrieb:

> >Ganz schön peinlich wie Du Neutralität heuchelst,

> Ganz schön peinlich, wie Du mich so blöd anmachst,

Schuldumkehr... Ich habe mich gegen Deinen passiv aggressiven Versuch verwehrt, unter Vort√§uschung einer Vermittlung die Partei der Person zu ergreifen, zur der das pers√∂nliche Investment am h√∂chsten ist und von dessen Gutd√ľnken Du deshalb auch am meisten pers√∂nlich profitierst. Es w√§re besser gewesen, Du h√§ttest das nicht getan, schon gar nicht bei mir da solche Dynamiken f√ľr mich sehr transparent sind.

> wo ich
> eigentlich nur versucht habe, zwischen euch ein bisschen zu
> schlichten.

Man schlichtet nicht, indem man die Position einer Partei ergreift.

> Ava, ich wollte Dir nicht "auf den Kopf treten"&
> habe auch nicht irgendeine Position hier unterst√ľtzt,

Dein Zur√ľckrudern nutzt jetzt gar nichts mehr, denn entgegen

> weil
> ich schon geschrieben habe, dass ich mich mit dem Thema nicht
> auskenne.

dieser Schutzbehauptung hast Du sogar die Frechheit besessen, mir *zus√§tzlich* indirekt Unveganismus vorzuwerfen, denn die Aussage - "Wir sind vegan, somit wird sich hier wohl niemand daf√ľr aussprechen, jemanden/ etwas, der leidensf√§hig ist, zu diskriminieren oder ihm Leid zuzuf√ľgen." - ist eine √ľberdeutliche Unterst√ľtzung von Rechten f√ľr jede Form der AI. Da ich mich nunmal aber deutlich *gegen* Existenzrechte bestimmter Formen der AI ausspreche, (und das ist deshalb nicht faschistoid weil sie eben noch nicht existieren) w√§re das ja in Deinen Augen nicht vegan.

> Du musst mir nicht so ans Bein pinkeln.

Das tue ich auch nicht, mein Schild dient lediglich der Umleitung Deines Strahls. Die Spritzer die Du jetzt sp√ľrst sind Deine eigenen...

Re: ganz langsam, bitte

Autor: Red_Tear | Datum:
Zitat: Wir sind vegan, somit wird sich
> hier wohl niemand daf√ľr aussprechen, jemanden/ etwas, der
> leidensf√§hig ist, zu diskriminieren oder ihm Leid zuzuf√ľgen.

Gilt das auch f√ľr, sagen wir mal P√§derasten oder autarke Schlachtroboter?


F√ľr erstere in jedem Fall, f√ľr letztere sofern sie ein eigenes Bewusstsein haben, denn dann kann man ihnen beibringen das es falsch ist zu schlachten...
Ich kenne schon seit langem einen p√§dophilen Menschen, und zun√§chst einmal ist das f√ľr mich eine sexuelle Vorliebe wie jede andere auch, deren Auslebung jedoch Menschen schadet und somit zurecht verboten ist. Ich denke, jeder Mensch hat Interessen, die Interessen anderer Wesen zuwiederlaufen.
Wenn du solche Menschen pauschal als schlecht bezeichnest, m√ľsstest du auch Menschen welche wenig Geld haben als schlecht bezeichnen - sie k√∂nnten ja jemanden √ľberfallen o.√§.... ^^


Letztlich wird es wohl ohnehin keine Roboter mit bestimmten Aufgaben geben, welche gleichzeitig Intelligent sind. Wieso sollte eine AI √ľberhaupt einen beweglichen K√∂rper besitzen? Und nicht wie jetzt normale Computer einfach irgendwo rumstehen?
Sicherlich kommt einem da in den Sinn dass sie dann eingesperrt zu sein scheinen, aber dem ist nicht so.
Wir selbst nehmen die Welt ja auch nur √ľber unsere optischen Sensoren (Augen), W√§rmesensoren, geschmacks"sensoren" usw. war ;)
Und wie wir reisen, w√ľrden den AIs dann vllt Webcams zur verf√ľgung stehen ;)
Was aber eigentlich auch unnötig ist, denn sie könnten sich vermutlich selbst und/oder gegenseitig ihre eigene Welt simulieren.........

Pädosexuelle, Vegetarier und autonome Schlachtroboter

Autor: Achim Stößer | Datum:
Was Pädosexuelle angeht ist das wie mit Vegetariern - solange sie sich vegan verhalten, sprich ihre ihr anderen schadendes potentielles Verhalten nicht praktizieren ...

Was die Schlachtroboter angeht (die wie Du richtig sagst sicher kein bewu√ütsein und somit so viel Interesse haben wie ein heiziungsthermostat) ist das ein bi√üchen so, als w√ľrde man eine bomb nicht am explodieren hindern wollen, um deren Freiheit nicht einzuschr√§nken ...

Achim