A. I. - Künstliche Intelligenz

roe_ion
Fan
Fan
Beiträge: 28
Registriert: 1. Juni 2003 00:22

Ungelesener Beitrag von roe_ion »

Montag hat geschrieben:Hallo roe ion,
ja es gibt eine positive Identifikationsfigur die robotischer Natur ist. Commander Data vom Raumschiff Enterprise. Und der spielt sogar eine sehr wichtige Rolle. Eine so wichtige Rolle, dass die Produzenten und Drehbuchschreiber dafür gesorgt haben, dass man die letzten Star Trek-Filme getrost mit "The Data-Stories" hätte überschreiben können.
Hallo Montag,

klar, Data habe ich nicht bedacht, aber Star Trek ist ja nicht unumstritten in SF-Kreisen und mit den Kinofilmen ist das auch so eine Sache, die meisten finde ich nicht schlecht, aber das liegt wahrscheinlich daran, daß mir die Charaktäre durch ST TNG irgendwie ans Herz gewachsen sind. Sie gehören sozusagen zur Familie. Und in der Fernsehserie wurde in Sachen SF (interessante Aspekte, ungewöhnliche Storys) wesentlich mehr gewagt, als in den Kinofilmen. Das liegt natürlich an dem finanziellen Risiko eines Kinofilms. Das muß eben auch Action-Fans ansprechen, nicht nur die ST-TNG Fans.
Ein weiterer Robot, der sicherlich sympathisch sein soll, ist C-3PO. Und bei Kindern kommt er, glaube ich auch ganz gut an. Aber das ist halt Star Wars. Und da hast du natürlich recht, dass Episode 1 und 2 völlig scheiße sind.
Klasse, daß wir hier einer Meinung sind ;-))
Ich bin mir auch nicht mehr völlig sicher, ob David irgendwann geweint hat, aber allein dass er den ganzen Film über so rüberkam, dass als hätte man ihn auf Traurigkeit programmiert, hat mich genervt.
Was erwartest du von einem 11 jährigen Kind, daß von seiner Mutter verstoßen wird. Es geht dir ja um den Unterschied zwischen Mensch und Maschine. Wie menschlich kann ein Androide sein, war die von dir aufgeworfene Frage, deren Beantwortung (oder Bearbeitung) du von A.I. erwartet hast.

Nun ist David ein 11 jähriges Kind, bzw. ein Robot mit den Eigenschaften eines 11 jährigen Kindes. Der Film muß also zeigen inwieweit das Verhalten Davids sich von dem Verhalten eines 11 jährigen Kindes unterscheidet. Noch dazu ein 11-jähriges Kind, das merkt, daß es nur deswegen verstoßen wird, weil es künstlich ist.
Aber das Roboterproblem wurde überhaupt nicht thematisiert. Das sind halt Roboter, die werden versklavt und dann weggeschmissen. Wow, iss ja der Hammer.
Welches Roboterproblem meinst du? Ich fand schon, daß da einiges (auf emotionaler Basis) thematisiert wurde. Wir sahen Roboter, die ihre Aufgabe erfüllen, dem Menschen zu dienen (in unterschiedlichster Art und Weise, als Kindermädchen oder als Prostituierter). Wir haben gesehen, daß die Roboter auch untereinander kommunizieren, daß es auch bei Robotern das Bedürfnis gibt "Heil" zu sein, attraktiv und vollständig. Wir haben gesehen daß diese Roboter nicht unumstritten sind, daß es öffentliche Zerstörungsorgien zur Belustigung der Menschen gibt. Es wurde das menschliche Verhalten der Roboter dem unmenschlichen Verhalten der Menschen gegenübergestellt. Wir haben gesehen, daß die Roboter ihre Arbeit gern tun und daß sie. auch wenn sie beschädigt sind, lieber ihre Arbeit fortsetzen möchten, als demontiert oder zerstört zu werden.

Wir haben nicht gesehen, daß die Roboter sich organisieren, oder sich ungerecht behandelt fühlen. Hast du das erwartet oder vermißt du das? Muß ein Roboter sich in allen Punkten menschlich verhalten (auch menschliche Schwächen haben oder "negative" Emotionen besitzen), um überzeugend, glaubhaft und subtil zu sein?

Du erwartest, daß der Roboter sich über die Grenzen seiner Programmierung erhebt und quasi volle Freiheit erlangt. Also gewissermaßen den menschlichen Sündenfall durchlebt. Nicht nur den Unterschied zwischen "Gut" und "Böse" erkennt, sondern auch eine freie Wahl zwischen "Gut" und "Böse" trifft.

Was hätten wir dann? Einen künstlichen Menschen, der vielleicht zum Mörder wird? David als Jack the Ripper? David scheint im Grunde ein Asimovscher Roboter zu sein, der die berühmten Gesetze der Robotik implementiert hat. Dies ist bei Massenwaren überaus sinnvoll, denn ein Konsumprodukt darf niemals für seine Besitzer eine Gefahr darstellen können.

Damit ist der Entwicklungsfähigkeit eines Roboters natürlich eine Grenze gesetzt, die beim Menschen nicht existiert. Du hast dir sicher auch schon manchmal vorgestellt, einer bestimmten Person ein Leid anzutun und mache Menschen verwirklichen diesen Gedanken. Das funktioniert bei einem asimovschen Roboter nicht! Und das funktioniert auch bei David nicht!

Aber vielleicht hab ich die subtile Botschaft einfach nicht verstanden. Klar, David kann Liebe empfinden, aber anscheinend keinen Hass. Beneidenswert, würde ich auch gerne können. Er merkt, dass die Menschen ihm gegenüber feindlich gesinnt und liebt sie trotzdem weiterhin, oder was?
Genau! Er ist ein asimovsches Roboterkind. Zwei Einschränkungen für seine Handlungen und seine Entwicklungsfähigkeit. Ist er mehr Spielzeug, oder mehr Mensch? Ich denke, diese Frage solltest du stellen!
Er braucht die Liebe seiner "Mutter", aber als mitkriegt, dass er die nicht haben kann, zieht keine Konsequenzen. Okay, stimmt ich habe vergessen, dass er als Kind programmiert wurde und seine Programmierung nicht durchbrechen kann.
Was passiert, wenn ein Kind die Liebe seiner Mutter verweigert bekommt? Es sucht die Schuld bei sich! Was habe ich getan, warum liebt mich meine Mama nicht mehr?
Warst du auch einmal Kind? Hattest du als Kind einmal eine ähnliche Situation? Liebesentziehung ist das schlimmste, was Eltern ihren Kindern antun können. Das ist schlimmer, als sein Kind zu schlagen!
Ja, darauf läuft es letzten Endes immer bei solchen Filmen heraus: Roboter können ihre Programmierung nicht überwinden! Toll! Warum guck man sich dann solche Filme an. Wenn es ausgeschlossen ist, dass sich die Hauptfigur entwickelt, dann kann man Hailey Joel Osment gleich durch einen Pappaufsteller esetzen lassen. Tiefsinnig wäre nämlich die Frqage gewesen, worin sich Menschen und Roboter unterscheiden. Jetzt wirst du sagen: Na darin, dass Roboter nur begrenzt Gefühle haben können und ihre Programmierung nicht durchbrechen können. Meine Frage an dich: Haben Menschen nicht auch eine biologische Programmierung? Und warum wird immer wie selbstverständlich angenommen, dass wir die biologische Programmierung (wenn zustimmst, dass es soetwas gibt) locker überwinden können? Wir sind anscheinend nicht so blockiert wie Roboter.
Es gibt eine ganze Reihe von biologischen Programmierungen, die kein Mensch überwinden kann. Erhöhter Herzschlag Blutdruck und Atemfrequenz in Gefahrensituationen, die Schrecksekunde, die Autofahrer in Krisensituationen paralysiert, Und es gibt biologische Programmierungen, die unter großer Anstrengung und mit Hilfe von Selbstdisziplin von manchen Menschen überwunden werden können. z.B. Massenpanik-Situationen, wo die Handlungen der meisten Menschen mit Rationalität nichts mehr zu tun haben (sonst würden bei einer Panik nicht so viele Menschen totgetrampelt), die Angst vor dem Tod, die dazu führt, daß nur die wenigsten Menschen in der Lage sind, einer Todesandrohung zu widerstehen, Höhenangst, Selbsterhaltungstrieb etc.

Es gibt viele Situationen, in denen Triebe und biologische programmierungen das Verhalten von Menschen in ausnahmesituationen lenken. Also ist der Mensch keineswegs so erhaben über seine Programmierung.
Trotzdem ist der Mensch das Lebewesen auf der Erde, daß am wenigsten an eine biologische Programmierung gebunden ist, weil vieles von dem, was du wahrscheinlich unter biologischer Programmierung verstehst in Wirklichkeit ein erlerntes Verhalten ist. Auch soziales Verhalten ist erlernt. Ein Baby ist von Geburt an asotial. Es nimmt die Bedürfnisse anderer überhaupt nicht wahr. Auch moralische Werte sind erworben und nicht angeboren. Daher kann sich der Mensch sich nicht über eine (nicht vorhandene) biologische Programmierung erheben.
Anderes Beispiel:
Katzen sind darauf programmiert, Körperpflege durchzuführen. Menschen nicht!
Bei vielen Tieren gibt es während eines Kampfes bestimmte programmierte Demutshaltungen, die den Angreifer besänftigen und verhindern, daß der unterlegene getötet oder ernsthaft verletzt wird. Beim Menschen gibt es soetwas nicht.Daher können Menschen einander beleibige Grausamkeiten antun.
Außerdem denke ich schon, dass es ein Happyend war, denn David hat am Ende das bekommen, was er sich gewünscht hat.
Er hat eine Ilusion bekommen. Einen goldenen Schuß, er hat sich aus der realen Welt auf nimmerwiedersehen verabschiedet. In diesem Sinne wäre es ja auch ein Happy End, wenn ein Mensch mit dem Bedürfnis Drogen zu nehmen, den rest seines Lebens im Drogenrausch verbringen würde (oder im Zustand der Demenz hervorgerufen durch Hirnschäden). Oder um Star Trek zu zitieren, auf Ewig im Nexus zu bleiben (für manche scheint dies dennoch pures Glück zu sein).
Er hatte seine "Mutter" für sich und sie hatz ihn geliebt. Er ist zwar kein Mensch geworden, aber ob es sich um ein Phantasiegebilde handelt oder nicht, dass ist David als Kindroboter völlig egal. Das dürfte er doch gar nicht erfassen können (jedenfalls nach deiner Logik).
Unter Happy End verstehe ich ein Ende, bei dem ich als Zuschauer oder Leser das Gefühl habe, daß der Held sein Ziel erreicht hat. Dies ist vielleicht der Hauptunterschied zwischen uns beiden. Nach deiner Definition wäre z.B. auch ein Happy End gewesen, wenn Christiane F sich den goldenen Schuss gesetzt hätte (sie wäre nie wieder aus ihrem Drogenrausch aufgewacht (und ihren Tod hätte sie gar nicht mitbekommen)).
Und selbst dieses Phantasiegebilde war so was von zurecht konstruiert. Warum hat Spielberg es nicht vorher enden lassen und David auf dem Grund des Meeres verrotten lassen. Wozu noch dieses senitmentale Ende.
Ich hatte den Film gesehen, ohne das Ende zu kennen und dachte, als er am Grund des Sees vor der blauen Fee lag, ist das etwa das Ende? Da hat sich die ganze Sache ja überhaupt nicht gelohnt. Das ist ja bescheuert. Das ist ja überhaupt kein Ende.
Also ich war echt erleichtert, daß dann der Film doch noch fortgesetzt wurde. Ohne dieses Ende (mit dem Sprung in eine ferne Zukunft) wäre mir der Film nicht so lebendig im Gedächtnis geblieben (ich habe ihn nur damals im Kino gesehen, aber du merkst wahrscheinlich selbst, wie präsent mir der Film noch ist) und ich hätte nicht so viel darüber nachgedacht. Gerade diese Schein-Happy End finde ich faszinieren. Ein Himmel, der sich bei genauerem Hinsehen als Hölle bzw. als Trugbild erweist.
P.S. Ein Robotermessias wäre sicher bizarr gewesen, aber allein die Vorstellung hat ihren Reiz. Warum wäre das niveualos gewesen. Ich kenne nur eine niveualose Messiasgeschichte: The Matrix. Ansonsten sind Messiasgeschichten durchausgehaltvoll, man denke an Dune.
Das hängt extrem stark von der Qualität der Story ab. Das Messias-Thema verleitet sehr zu Kitsch, Pathos, Moralinausschüttungen und schablonenhaften Charakteren. Ist also wirklich sehr schwierig.
Würdest du die Planet der Affen-Fortsetzungen eigentlich empfehlen? Ich habe leider nur den ersten Teil gesehen.
Also ich hatte alle Teile gesehen, aus Vollständigkeitsgründen ist es empfehlenswert, aber vom Anspruch ist es wie so oft mit solchen Fortsetzungen. Es gelingt zwar jeder Fortsetzung einen neuen Gesichtspunkt der Grundgeschichte herauszuarbeiten, aber die Fortsetzungen bieten halt nur wenig grundlegend neues.
Ich muß mal überlegen, wie die Handlung auf die verschiedenen Teile aufgeteilt war. Es gab den zweiten Teil, in dem eine weitere Expedition zum Planet der Affen flog. Auch dort wird der Held wieder mit Dr. Zira und Cornelius zusammentreffen. Interessant ist die Dogma-Thematik. Den religiösen Führen ist bewußt, daß die Menschen ursprünglich intelligent waren und die Affen ursprünglich nur dressierte Tiere.
Dann gab es einen Kampf zwischen den Affen und den mutierten Menschen, was in der Zerstörung der Erde endete (war glaube ich schon Teil 3) Im nächsten Teil gelangen Zira und Cornelius zurück zur Erde der Gegenwart und sind zunächst beliebte Medienstars, doch als bekannt wird, was in der Zukunft passiert, wendet sich das Blatt und beide werden von Polizei und Geheimdiensten verfolgt (sie sollen sterilisiert werden). Zira und Cornelius sterben, aber ihr Sohn Caesar findet in einem Wanderzirkus unterschlupf.
Im nächsten Teil wächst Caesar unter Obhut seines menschlichen Tierpflegers und Ziehvaters auf. Parallel dazu werden die Affen zu Dienern dressiert, lernen bruchstückhaft menschliche Sprache... Caesar sieht, wie seine Brüder versklavt werden und organisiert den Aufstand. Seine Idee ist ein friedliches Zusammenleben von Menschen und Affen mit der Vorherrschaft der Affen, da die Menschen zu viel Schuld auf sich geladen haben und für die zukünftige Zerstörung der Erde verantwortlich sind.
Im letzten Teil geht es um Spannungen zwischen Menschen und Affen. Hier werden die Orang Utans rehabilitiert, die in den ersten Teilen als Intellektuelle und religiöse Führer ein bigottes Verhalten an den Tag gelegt hatten. Schlußszene: Der Statue Caesars rinnen Tränen aus den Augen, als Menschen und Affen harmonisch zusammen an einer gemeinsamen Zukunft arbeiten (tränen vor Rührung, oder Tränen, weil diese Harmonie bald zerstört sein wird -> siehe Teil 1)

Also man sollte es sich schon anschauen, aber wenn man alle Teile gesehen hat, hat man nicht unbedingt das Bedürfnis sich alle Teile noch mal anzusehen (außer es läuft nichts besseres im Fernsehen)..

Roe_Ion
Montag
SMOF
SMOF
Beiträge: 1263
Registriert: 3. November 2003 23:43
Land: Deutschland
Wohnort: Berlin

Ungelesener Beitrag von Montag »

Hallo roe ion,
Sollte ich lieber nicht fragen, warum Star Trek in SF-Kreisen umstritten ist? Ich finde, Star Trek ist SF in Hochform (Ausnahmen bestätigen die Regel. Voyager ist so eine Ausnahme.). Eigentlich war nur der zehnte Kinofilm unterste Schublade (ich wette, darüber gab es schon mal einen Thread, wenn nicht können wir das ändern.).
Aber zurück zum eigentlichen Thema. Du hast das Verhalten der Menschen angesprochen. Und genau das fand ich total einseitig. Spielberg macht es dem Zuschauer zu leicht. Die Menschen sind die Unmenschlichen und die Roboter sind die armen ausgebeuteten Geschöpfe. Außerdem hast du viele Eigenschaften der Roboter aufgezählt bzw. ihre Wünsche. Das liest sich für mich irre menschlich. Okay, soweit hab ich kein Problem (außer das man Spielberg Einfallslosigkeit vorwerfen könnte, aber würde sowas schon tun?Zwinker zwinker)
Ohoooooh, du hast von negativen Emotionen gesprochen. Da fällt mir doch gleich die Star Trek-Folge "Angriff der Borg" ein, in der Troi mal wieder ein bisschen rumphilosophieren darf und den genialen Satz sagt: "Emotionen sind nicht von vorn herein positiv oder negativ. Sie werden es erst dadurch, was wir aus ihnen machen." Oder so ähnlich (Für solche Sätze liebe ich Star Trek.). In diesem Kontext finde ich das Wort Sündenfall ein bisschen zu hochgestochen. Denn Gut und Böse sind Begriffe des menschlichen Wertesystems. Ich kenne aus meinem Leben kaum Situationen, in denen man so einfach zwischen gut und böse trennen kann oder sich für eines entscheiden kann. Das Böse existiert nur bei Herr der Ringe in Reinform.
Die FRage ist doch die: Haben die Roboter dasselbe Wertesystem wie wir Menschen? Wenn ja, dann müssten sie erkennen, dass ihre Versklavung "böse" ist und entsprechend handeln. Da sie das aber nicht tun, bleiben nur zwei Alternativen: Entweder sie haben kein Wertesystem oder sie haben ein anderes als die Menschen. Ich denke, dass sich jede vernunftbegabte Lebensform ein Wertesystem schafft, sonst könnte es seine Umwelt nicht verarbeiten. Also müssten die Roboter auch eins haben, aber welches? Das ist die Frage, um die sich AI hätte drehen sollen. Mein Güte, ein anderes uns kaum zugängliches Welbild! Man, das wäre visionär gewesen. Das hätte den Zuschauer mal so was von aus dem viel zu bequemen Kinosessel gehauen.
Und wenn du Asimov schon ansprichtst, muss ich wohl darauf eingehen. Ich habe einige Robotergeschichten Asimovs gelesen, in denen der Robot einen oder mehrere Menschen hätte sterben lassen, weil sein vier robotischen Gesetze im Widerspruch mit einander lagen. Die Asimovschen Roboter haben also eine gewisse Interpretationsfreiheit, die dem Beobachter erst später augenscheinlich wird.
Okay, vielleicht hae ich mich mit der Programmierung schlecht ausgedrückt. Ich meinte eigentlich, dass Menschen sich weiter entwickeln können. Die Roboter in AI können das nicht. Warum?
Wie kannst du beurteilen, ob David sein Ziel erreicht hat. Du hast nciht sein Denkmuster. Es gibt zwei Perspektiven: Die des Helden und die des Zuschauers. Es können in einigen Fällen ein und dasselbe sein. Aber wenn es das nicht ist, dann ist man ganz schön in der Zwickmühle. Ich denke jedenfalls nicht, dass der Zuschauer im Zweifelsfall besser entscheiden kann als der Held.
Gerade beim Messiasthema ist das der Fall. Der Messias will sein Volk erlösen. Um jeden Preis. Der Zuschauer oder Leser steht da natürlich drüber und sagt sich, "hey das ist der falsche Weg". Aber das auch logisch, denn man wird nicht wie im epischen Theater Brechts in Handlung einbezogen und muss sein eigenes Urteil fällen. Man tritt nicht an die Stelle des Helden. Entweder kann man nachvollziehen, wie sich der Held entscheidet, oder nicht. Man wird aber nicht gezwungen selbst die Entscheidung für sich zu treffen. Und da ist natürlich einfach zu sagen, dass man das Ende aus der Zuschauerposition sieht.

Montag

P.S. Danke für deine Planet der Affen-Einschätzung. hört sich wenn auch trashig aber auch sehr interessant an.
P.P.S. Ich war nie Kind. Ich bin schon als Greis in diese Welt geworfen worden.
roe_ion
Fan
Fan
Beiträge: 28
Registriert: 1. Juni 2003 00:22

Ungelesener Beitrag von roe_ion »

Montag hat geschrieben:Hallo roe ion,
Sollte ich lieber nicht fragen, warum Star Trek in SF-Kreisen umstritten ist? Ich finde, Star Trek ist SF in Hochform (Ausnahmen bestätigen die Regel. Voyager ist so eine Ausnahme.).
Viele DS9-Episoden würde ich auch als so eine Ausnahme ansehen. Ich hatte mir vor ein paar Tagen wieder mal eine Episode angeschaut und fand, dass da nichts SF-mäßiges, sondern nur Lindenstraßenmäßiger Beziehungsknatsch gezeigt wurde (Odo und Quark sowie Siskos Sohn und Quarks Neffe). Bei TOS und TNG würde ich zustimmen. Und Voyager... Vieles ist unterhaltsam, ich hasse Tuvok, der kann kein Vulkanier sein :-D
Und leider passiert wirklich wenig, was man als SF im besseren Sinn verstehen kann. Es gab ei paar wenige Episoden mit Tiefgang, aber sonst (gähn). Und Enterprise: ich habe auch hier das Gefühl, dass die Charaktere in ihrem eigenen Saft schmoren. Es gibt weder fremde Zivilisationen mit alternativen Lebensweisen, noch neue und glaubwürdige Lebensformen. Die Vulkanier verhalten sich auch nicht so, wie man es laut TOS oder TNG erwarten würde :-[
Eigentlich war nur der zehnte Kinofilm unterste Schublade (ich wette, darüber gab es schon mal einen Thread, wenn nicht können wir das ändern.).
habe ich nicht gesehen. Die anderen habe ich gesehen, und finde eigentlich nur den Film mit der Reise zu Gott wirklich schlecht.
Aber zurück zum eigentlichen Thema. Du hast das Verhalten der Menschen angesprochen. Und genau das fand ich total einseitig. Spielberg macht es dem Zuschauer zu leicht. Die Menschen sind die Unmenschlichen und die Roboter sind die armen ausgebeuteten Geschöpfe.
Also die Eltern sind doch nicht wirklich schlecht weg gekommen. Natürlich hat die Mutter David verstoßen und ausgesetzt, aber man kann es verstehen, da sie Angst um ihre echten Kinder bekommen hat. Und der Vater ... hatte er nicht auch Verständnis für David? Ich erinnere mich da nicht so genau. Und schließlich gab es auf dem Roboterschlachtplatz auch einen Menschen, der zumindest die hervorragende Arbeit, die an David vollbracht wurde, anerkannt hat. Klar, das spricht nicht unbedingt für Mitgefühl, aber gerade für technikverliebte Männer stellt so eine Reaktion durchaus schon so etwas wie eine Liebeserklärung dar (Vergleichbar, mit den Leuten, die sich in Vereinen zur Erhaltung von z.B. Oldtimerlokomotiven engagieren)
Ohoooooh, du hast von negativen Emotionen gesprochen. Da fällt mir doch gleich die Star Trek-Folge "Angriff der Borg" ein, in der Troi mal wieder ein bisschen rumphilosophieren darf und den genialen Satz sagt: "Emotionen sind nicht von vorn herein positiv oder negativ. Sie werden es erst dadurch, was wir aus ihnen machen." Oder so ähnlich (Für solche Sätze liebe ich Star Trek.). In diesem Kontext finde ich das Wort Sündenfall ein bisschen zu hochgestochen. Denn Gut und Böse sind Begriffe des menschlichen Wertesystems. Ich kenne aus meinem Leben kaum Situationen, in denen man so einfach zwischen gut und böse trennen kann oder sich für eines entscheiden kann. Das Böse existiert nur bei Herr der Ringe in Reinform.
In Reinform kommt das Gute und das Böse nur selten vor. Aber in Mischformen sehe ich es eigentlich täglich. Immer wenn es um Ausbeutung, Ungerechtigkeit, Ungleichbehandlung, Egoismus etc. geht, ist jeder Mensch außerordentlich oft mit Gut und Böse konfrontiert. Sei es eine Form von Steuerhinterziehung, sei es, dass man nicht immer auf zu viel zurückgegebenes Wechselgeld an der Kasse hinweist, oder wenn man das Vertrauen eines Freundes missbraucht, und seine Geheimnisse ausplaudert, um sich selbst interessant zu machen, oder wegschaut, wenn ein hilfloser Mensch in Bedrängnis oder Not ist. Oder wie ist es mit einer Firmenleitung, die einen Standort schließt, der wirtschaftlich arbeitet, nur um die Produktionsstätte in einem Billiglohnland aufzubauen, damit an die Aktionäre eine höhere Dividende gezahlt werden kann. Und dies, obwohl die eigene Firma erst mit Hilfe von Subventionen durch das eigene Land so groß geworden ist.
Jetzt habe ich natürlich den moralischen Zeigefinger erhoben, aber ich bin durchaus der Ansicht, dass jeder Mensch sehr oft zwischen Gut und Böse entscheiden muss. Allerdings haben Leute, die sich in diesen Beispielen für „Böse“ entscheiden, meist ein verschobenes Wertesystem. Gut ist alles, was mir oder meinen Freunden / meinem Unternehmen Vorteile bringt. Schlecht ist alles, mir oder meinen Freunden / meinem Unternehmen mehr Kosten aufbürdet, oder unbequemer ist.
Die FRage ist doch die: Haben die Roboter dasselbe Wertesystem wie wir Menschen? Wenn ja, dann müssten sie erkennen, dass ihre Versklavung "böse" ist und entsprechend handeln. Da sie das aber nicht tun, bleiben nur zwei Alternativen: Entweder sie haben kein Wertesystem oder sie haben ein anderes als die Menschen. Ich denke, dass sich jede vernunftbegabte Lebensform ein Wertesystem schafft, sonst könnte es seine Umwelt nicht verarbeiten. Also müssten die Roboter auch eins haben, aber welches? Das ist die Frage, um die sich AI hätte drehen sollen. Mein Güte, ein anderes uns kaum zugängliches Welbild! Man, das wäre visionär gewesen. Das hätte den Zuschauer mal so was von aus dem viel zu bequemen Kinosessel gehauen.
Das ist schon ein interessanter Ansatz, aber solch ein eigenes Weltbild könnten sich wohl kam Roboter erstellen, die von Menschen als Werkzeug (oder Spielzeug) gebaut wurden. So ein interessantes und komplexes soziologisches Thema hätte im letzten Teil des Films (nach dem Zeitsprung) angeschnitten werden können, da die Roboter aus der Zukunft die Möglichkeit hatten, sich unabhängig von den Menschen und ihren Zwängen zu entwickeln. Technisch wurde dies angedeutet, durch das Flugobjekt der Roboter, das sich nach der Landung in seine plattenförmigen Bestandteile aufgelöst hat. Für diese Roboterwelt spielten Kosten offensichtlich keine Rolle mehr. Was technologisch möglich war, wurde anscheinend verwirklicht.
Dieses Thema könnte auch immer dann angesprochen werden, wenn der erste Kontakt zwischen Menschen und einer fremden intelligenten Rasse (sei sie organisch oder maschinell) zustande kommt. Doch leider sieht man das in den wenigsten SF-Filmen. In ST-TNG fand dies relativ häufig statt und am faszinierernsten fand ich Einblicke in das Seelenleben der Q oder Begegnungen mit Borg.
Und wenn du Asimov schon ansprichtst, muss ich wohl darauf eingehen. Ich habe einige Robotergeschichten Asimovs gelesen, in denen der Robot einen oder mehrere Menschen hätte sterben lassen, weil sein vier robotischen Gesetze im Widerspruch mit einander lagen. Die Asimovschen Roboter haben also eine gewisse Interpretationsfreiheit, die dem Beobachter erst später augenscheinlich wird.
Das ist ja auch der Reiz der Geschichten. Asimov hat diese Gesetze vorgegeben und dann die Roboter in Krisensituationen versetzt, um zu sehen, was dennoch passieren kann (z.B. in kleiner verlorener Roboter).
Okay, vielleicht habe ich mich mit der Programmierung schlecht ausgedrückt. Ich meinte eigentlich, dass Menschen sich weiter entwickeln können. Die Roboter in AI können das nicht. Warum?
Tja, alles eine Frage der Programmierung. David war in seiner Art der Programmierung wesentlich beschränkter und wesentlich stärker auf das Kind-Schema festgelegt, als z.B. sein Gefährte, der in dieser Odyssee quasi die Rolle des größeren und beschützenden Bruders übernommen hat. Er hat quasi die Verantwortung übernommen. Etwas, was für einen Gigolo-Roboter nicht zu erwarten war. Außerdem hat sich dieser Roboterfreund an die Situation des Verfolgt-seins anpassen können.
Wie kannst du beurteilen, ob David sein Ziel erreicht hat. Du hast nicht sein Denkmuster. Es gibt zwei Perspektiven: Die des Helden und die des Zuschauers. Es können in einigen Fällen ein und dasselbe sein. Aber wenn es das nicht ist, dann ist man ganz schön in der Zwickmühle. Ich denke jedenfalls nicht, dass der Zuschauer im Zweifelsfall besser entscheiden kann als der Held.
Da bin ich anderer Ansicht. Wenn ein Film gut gemacht ist, kann sich der Zuschauer mit der Hauptperson identifizieren bzw. u.U. auch in die Figur der Hauptperson hineinversetzen. In dieser Situation erkennt man auch Fehlentscheidungen und Lebenslügen des „Helden“. Letztendlich ist ein guter Film zumeist nicht nur ein unbeteiligtes Abfotografieren irgendeiner Geschichte, sondern es kann auch ein Spiel mit dem Zuschauer sein. Er kann vom Helden an die Hand genommen werden, er kann aber auch über Wissen verfügen, dass der Held nicht besitzt.
Natürlich kannst du einwenden, dass sich ein Mensch zwar in einen anderen Menschen versetzen kann, aber nicht in einen Roboter. Da ein Roboter seine Eindrücke elektronisch verarbeitet, kann es ihm gleich sein, ob diese Eindrücke aus einer wirklichen Welt stammen, oder das Produkt einer Simulation sind (das hatten wir auch in ST-TNG. Siehe „Das Flaschenschiff“). Aber letztendlich kann man das auch beim Menschen sagen und die Frage nach der Echtheit der sog. Realität wurde sowohl in Matrix, als auch in der Philosophie gestellt. David begibt ich in eine Matrix, in eine virtuelle Realität, in der seine Wünsche in Erfüllung gehen. Es ist und beleibt dabei eine Flucht! Selbst wenn der Flüchtende sich dabei gut fühlt, ist so eine Realitätsflucht unbefriedigend und in meinen Augen nicht erstrebenswert.
P.S. Danke für deine Planet der Affen-Einschätzung. hört sich wenn auch trashig aber auch sehr interessant an.
P.P.S. Ich war nie Kind. Ich bin schon als Greis in diese Welt geworfen worden.
[/quote]
Prima, ich hatte es eigentlich bei keinem der Filme bereut, ihn mir anzuschauen. Das mit dem Kind habe ich mir schon so gedacht ;-)
Antworten