AlTheKingBundy hat geschrieben: ↑Sa 10. Aug 2019, 12:22
Wenn eine KI einen Menschen derart gut simulieren kann, dass man nicht mehr unterscheiden kann, ob nun ein Mensch oder eine KI vor einem sitzt, dann sehe ich auch keinen Grund mehr, zu unterscheiden.
Tatsächlich gibt es sehr gute Gründe dafür, sich alle Konsequenzen dieser Sichtweise deutlich vor Augen zu führen. Denn je nachdem, für welche Sicht man sich entscheidet, hat das weitreichende juristische, moralische und roboter-ethische Konsequenzen, insbesondere dann, wenn es in Zukunft Maschinen geben sollte, die sich wie Menschen verhalten.
(A) Nimmt man die BEHAVIORISTISCHE Sichtweise an, dann ist es nur relevant, ob sich eine Maschine so VERHÄLT wie ein Mensch. Sie ist genau dann intelligent, wenn sie sich intelligent verhält. Sie hat Bewussstein, wenn sie sich wie ein Mensch bei Bewusstein verhält. Sie hat Selbst-Bewusstsein, wenn sich die Maschine entsprechend selbst-bewusst verhält und sie hat Schmerzen, wenn sie sich so verhält wie ein Mensch oder Tier, das Schmerzen hat. Einer Maschine in Not oder die sich so verhält, als ob sie Schmerzen hätte nicht zu helfen, wäre demgemäß unterlassene Hilfeleistung usw.
Kurzum: eine Maschine ist in dieser behavioristischen Sichtweise genau dann ein Mensch, wenn sie sich in allen relevanten Bereichen wie ein Mensch VERHÄLT, -
unabhängig davon, ob sie auch wie ein Mensch empfindet und erlebt. Es gibt dann keinen Grund, dieser Maschine nicht auch alle Menschen- und Bürger-Rechte zukommen zu lassen. Insbesondere dürfen solche Maschinen nicht ausgebeutet oder in Sklaverei gehalten werden, nicht mehr und nicht weniger als andere Menschen für gefährliche Arbeiten eingesetzt, nicht schlechter bezahlt etc.pp. und also in keiner Weise schlechter gestellt werden, als es in der allgemeinen Menschenrechtskonvention festgelegt wurde.
(B) Geht man davon aus, dass sich eine Maschine, die sich zwar wie ein Mensch verhält, bei der aber aufgrund ihrer technischen Konstruktion nicht davon ausgegangen werden muss, dass sie über Bewusstsein und subjektives Erleben und Empfindungen wie Schmerzempfindungen tatsächlich verfügt, ergeben sich völlig andere juristische und moralische Konsequenzen.
Kurzer, aber wichtiger Einschub:
Eine Welt, in der es phänomenales Bewusstsein, also Qualia, also phänomenale Bewusststeinsinhalte, also Empfindungen wie Freude, Angst, Schmerzen, Farberlebnisse, Melancholie, Erregung usw. gibt ist nicht identisch mit einer Welt, in der es solches nicht gibt!
Eine Maschine, die sich exakt so VERHÄLT wie ein Mensch, MUSS NICHT zwangsläufig auch über phänomenale Bewusstseinsinhalte verfügen. Es ist denkbar, dass ihr jedes noch so kleine Detail einer menschlichen Reaktion einprogrammiert wurde und sie sich also nur absolut exakt so verhält, als ob sie starke Schmerzen hätte oder so, als ob sie eine bestimmte Musik traurig machte usw. usf.
Die perfekte SIMULATION menschlicher Verhaltensweisen ist also NICHT IDENTISCH mit menschlichen Verhaltensweisen. Eine Welt W1, in der eine Maschine starke Schmerzen perfekt simuliert ist also nicht identisch mit einer Welt W2, in der starke Schmerzen erlebt und gefühlt werden. Eine Welt W1, in der es keine phänomenalen Bewusstseinsinhalte gibt ist nicht identisch mit einer Welt W2, in der es phänomenale Bewusstseinsinhalte gibt. Es gilt: W1 ¬(pB) ≠ W2 (pB)
Geht man von Szenario (B) aus, darf man Maschinen, auch wenn sie sich exakt wie Menschen verhalten ausbeuten, in Sklaverei halten, für gefährliche Arbeiten einsetzen, ja sogar mutwillig beschädigen (also quälen und foltern) oder abschalten, weil es keinerlei moralisches Problem dabei geben würde (denn die Maschine
empfindet tatsächlich nichts).
Sowohl bei (A) als auch bei (B) sind die juristischen und moralischen Konsequenzen in jedem Falle extrem. Darum ist es in der Tat nicht egal, für welche der beiden Optionen man plädiert.