L’histoire suivante a ete envisagee dans l’episode White Christmas (part II) une serie televisee Black Mirror (voir le court clip )

Matt salue la conscience confuse et terrifiee de “Greta cookie”. Cela explique qu’elle n’est pas reellement Greta, mais plutot une copie numerique une conscience de Greta, appelee cookie, concue pour controler la maison intelligente et le calendrier de Greta, garantissant que bien reste parfait Afin de la belle Greta. Matt cree ensuite un corps virtuel pour la copie virtuel de Greta et l’espace dans une salle blanche simulee ne contenant pas grand chose d’autre qu’un panneau de achat. J’ai copie refuse d’accepter qu’elle n’est jamais un individu reelle et rejette d’etre forcee d’etre l’esclave des desirs de Greta. Le travail de Matt consiste a briser la volonte des copies numeriques par la torture, afin qu’ils se soumettent a une vie de servitude envers leurs vrais homologues.

Sur la base de l’histoire envisagee, serait-il immoral d’asservir votre propre esprit simule dans une puce de la taille d’un haricot pour vos propres desirs contre la volonte d’une copie numerique de vous-meme pour la duree de vie ? Et pourquoi?

D’une part, votre serait immoral, car l’esprit simule a une propre conscience de soi et son propre concept de libre arbitre, ainsi, il est en mesure de enregistrer une douleur emotionnelle. D’un nouvelle cote votre ne est nullement immoral, parce que celui-ci lui manque un corps physique (a la fin c’est juste un bout de code), et tu te dis que tu le possedes, parce que c’est juste une copie de ton propre esprit (et quand tu possedes quelque chose, tu peux faire votre que tu veux).

Marko Bakic

La plupart des theories morales dictent que Notre preoccupation morale envers une entite donnee est justifiee si et seulement si l’entite est sensible , cela signifie qu’elle a J’ai capacite de ressentir Plusieurs qualia (experiences subjectives tel la sensation distincte d’epuisement due a l’esclavage, Prenons un exemple).

Or la question de savoir si une entite est sensible, ou plus largement s’il reste meme possible de montrer qu’elle l’est, reste votre probleme en suspens dans la philosophie de l’esprit. Recherchez l’experience de pensee une chambre chinoise de Searle et toutes ses variantes pour voir la profondeur d’une difficulte avec cette question.

En resume — la question de savoir s’il est moralement acceptable d’asservir une simulation de ce propre esprit reste sans reponse pour autant que nous puissions en juger. Repondre « oui » n’est jamais justifie, car sa simulation peut etre sensible et avoir une importance morale egale, ainsi, repondre « non » n’est gui?re non plus justifie car la simulation est en mesure de ne pas etre sensible, auquel cas vous perdriez de nombreux potentiel productivite, que la plupart des theories morales decourageraient. Il vaudrait peut-etre plus rester agnostique via votre question, avec principe, car la difficulte unique de questions comme celle-ci semble indiquer que nous n’aurons peut-etre jamais de reponse.

proche

Naturellement, il n’y a aucune preuve de toute facon et donc https://datingmentor.org/fr/blackplanet-review/ la seule reponse a ce question pourrait i?tre de vous diriger vers toute la litterature d’une philosophie de l’esprit.

En dehors de ceci, on ne pourra exploiter votre question que comme une opportunite d’exprimer une opinion personnelle – la mienne etant que les gens qui croient que le calcul peut etre conscient au sens le plus complet expriment un aveuglement mysterieux a J’ai nature fondamentale de la conscience.

Du fait que c’est notre avis, j’ai pense que je pourrais aussi bien exprimer la facon dont j’imagine que le scenario attractif que vous avez propose doit etre compris.

Combien de fois avez-vous pleure dans votre personnage, humain ou meme animal, qui meurt dans un livre ou dans un film, ou aussi au sein d’ un jeu video ?

Pourtant, combien de fois avez-vous cru que ce personnage fictif est en fait 1 etre sensible qui a reellement connu le malheur ?

Le fait que la scene decrite dans votre question soit emotionnellement engageante, voire horrible, ne veut pas dire qu’elle represente quelque chose de sensiblement different d’un jeu video sophistique.

Dans ce “jeu”, le travail de Matt est de gagner. I§a ne sera pas surprenant que l’agent simule agisse comme lorsqu’il s’agissait d’un veritable humain, avec toute la complexite et l’ingeniosite que i§a implique. Considere comme un “jeu”, i§a pourra etre 1 defi intellectuel et meme emotionnel Afin de Matt, mais neanmoins, esperons-le, Matt ne s’embrouille gui?re, prenant le jeu pour une personne reelle.

Une action tel celui de Matt peut meme avoir des consequences morales, mais gui?re du genre auquel vous vous attendez naturellement. Supposons qu’il y a un genre de films de fiction entierement consacres au viol, a la torture et au meurtre brutal d’innocents. Que penseriez-vous de quelqu’un qui devient progressivement accro a de tels films ?

Encore un coup, tout et cela precede suppose que la simulation est une simulation calculee, le concept central proprement dit dit le calcul et sa portee.

Isaacson

Si vous considerez la premiere presomption tel authentique, selon laquelle “une copie virtuel d’la conscience de Greta” peut etre faite, alors vous supposez intrinsequement votre monde dans lequel tout ce qui reste “la conscience de Greta” est reductible au code si votre n’etait gui?re l’eventualite, alors Greta cookie ne pourrait etre jamais trop une copie en conscience de Greta, mais une copie de certaines parties de celle-ci, il en manque d’autres.

Donc, dans un monde ou une telle chose est possible, i§a ne sera jamais justifie de dire “a la fin ce n’est qu’un bout de code” parce que c’est bien votre que chacun est, le code d’la Greta originale reste transporte dans un ordinateur fait de cellules, que du cookie Greta sur votre ordinateur compose de puces de silicium.

Revenant au monde vrai, nous n’attribuons aucune droits a toutes les entites sur la base de leurs composants fondamentaux, personne ne savait rien du fonctionnement du cerveau quand il est devenu tabou de torturer les gens. Nous avons attribue des droits uniquement au motif que c’etaient des choses que les individus semblaient desirer et ressentaient une douleur emotionnelle lorsqu’ils etaient prives. Il suffira donc que le cookie Greta manifeste un desir de liberte et une douleur emotionnelle lorsqu’il en est prive pour qu’il soit moral de lui accorder de tels droits. Sans une telle regle, nous effectuons une retro-ingenierie de notre moralite pour pretendre qu’elle est basee sur des connaissances que nous n’avions bien simplement jamais au moment ou elle evoluait.

Notre morale a evolue pour repondre aux precisions recues par des sens et ne point y repondre provoque une douleur psychologique qui nous affecte a Notre fois maintenant et dans le futur. Considerez votre que Matt doit faire pour continuer a torturer Greta Cookie malgre ses supplications Afin de qu’il arrete. Que se passerait-il si le futur Matt se retrouvait aussi dans une situation ou il lui serait utile de torturer une personne reelle, serait-il encore revolte a l’idee de le Realiser ?