Théories, questions existentielles, et débats

Page 2 sur 2 Précédent  1, 2

Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Kjbi le Mar 21 Aoû - 17:16:22

Si seulement tes parents n'avaient pas eu ce droit là :/
Kjbi
Kjbi
Ultime Survivant I

Féminin Messages : 1994
Date d'inscription : 14/08/2015
Age : 23

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Gazaret le Mar 21 Aoû - 19:29:59

Non, Il', la remarque d'Elekitu est intéressante. Car il y a une branche de la morale moderne, l'antinatalisme, qui considère que l'être humain ne devrait pas exister et que l'on ne devrait pas enfanter. (https://en.wikipedia.org/wiki/Antinatalism pour ceux qui veulent regarder).
Globalement, il y a plusieurs arguments qui peuvent aussi être utilisés dans ce cas précis :
-On ne peut pas consentir à naître ou à être créer. C'est un acte qui se fait toujours contre notre gré. C'est un argument qui se rapproche de l'impératif Kantien : on ne peut pas créer quelqu'un pour son propre bien, car celui-ci n'existe évidemment pas avec que la personne soit créée.
-Celui de l’asymétrie entre le bonheur et la douleur : c'est un devoir moral d'éviter de faire mal, d'éviter la douleur, ce n'en est pas forcément un de créer du bonheur (ce avec quoi je suis pas vraiment d'accord, mais bon).

Un contre-argument assez fort en ce qui me concerne, c'est qu'il me parait presque axiomatique qu'il est mieux d'exister que de ne pas exister (et je pense que ce sera aussi le cas de beaucoup d'entre vous). Si on me donne le choix demain d'arrêter d'exister (par ex de modifier le monde comme si je n'avais jamais existé) je ne le ferais pas. Mais c'est assez difficile d'argumenter en faveur de cela car dans ces questions-là on rentre le personnel, la base de la morale, le subjectif presque.

Une autre chose qui pourrait m'empêcher moralement (car je pense que cette question appartient plus au domaine du moral qu'à celui du légal) de créer une intelligence artificielle, ce serait la peur qu'un jour je sois obligé de la détruire. Supposons par exemple qu'à un moment cette intelligence demande énormément d'énergie et d'entretien, qu'à côté on soit en pénurie/surpopulation, si bien qu'il est plus rentable d'arrêter son fonctionnement. Est-ce moral de l'arrêter pour sauver des humains? Et si oui, est-ce qu'on peut toujours dire que c'était moral de la créer sachant qu'on finira par la détruire? Pire encore, dans ce type de situation, ne pourrait-elle pas se révolter d'elle-même comme dans un mauvais scénario de science fiction et finir par tuer des êtres humains...?

Je pense que je la construirais quand même, quelque part ; pour reprendre l'argument plus haut, je préfère avoir existé que n'avoir jamais existé, même si la mort (et donc la non-existence) m'attendent au tournant.

Pour ce qui est des règles, il me semble qu'on impose via les lois des règles aux hommes déjà. Il me semble logique qu'on puisse leur imposer les mêmes règles : ne pas tuer, ne pas violer, ne pas blesser, etc etc. Maintenant, est-ce qu'on devrait directement coder ces règles dans leur système, ou leur laisser un plein libre-arbitre et les juger s'ils commettent un crime?
Le premier choix est clairement plus efficace, mais il peut mener à d'importantes dérives. Loin de moi l'idée de la pente glissante, mais si ce type de dispositif est déjà implanté à l'intérieur d'un robot, il sera plus facile d'en rajouter pour éventuellement discriminer, surveiller les humains, etc - il y a une dérive autoritaire possible. Au delà de ça ça contribuerait aux différences entre robots et humains, et si plus d'une IA est créée, si les robots s'intègrent dans la société, ça risquerait de poser des problèmes sociologiques. Derrière les robots ne pourraient plus se "révolter" puisqu'ils ne pourraient plus briser les règles, donc ils pourraient devenir sans le vouloir des instruments d'un pouvoir injuste. C'est pour ça que je préférerais ne coder aucune règle directement dans l'intelligence artificielle.

Pour ta dernière question Il', c'est plus compliqué que ça quelque part. Il faudrait regarder pourquoi les robots demandent d'arrêter ; par exemple, si c'est parce qu'ils sont malheureux, il suffirait de comprendre pourquoi ils le sont et de trouver éventuellement un moyen de recréer des robots qui eux seraient heureux. D'un autre côté, s'ils peuvent aider l'humanité (via de meilleurs raisonnements/calculs, ou alors en aidant les gens etc) est-ce que ce ne serait pas immoral au contraire d'arrêter leur production?

Après tout, notre consicence nous échappe, et nous ne pouvons l'appréhender que de manière rationaliste et descriptive. Et, vous me le reprocherez sans doute, ça fait que j'ai un avis non-matérialiste sur la question, et que je considère que la conscience est au delà de ses caractéristiques et fonctionnements observables. Peut-être que l'avenir prouvera le contraire.
Je me permets de rebondir sur ça : si on créé des robots réellement intelligents, il me semble impossible de savoir s'ils ont une conscience ou s'ils imitent simplement une conscience. C'est une question métaphysique, pas physique, mais d'une assez grande importance. En effet, on pourrait partir de l'idée qu'ils ont une conscience car s'ils en ont une et qu'on considère qu'ils n'en ont pas on serait amenés à prendre des décisions immorales (et que l'inverse est faux). Pour continuer dans ce sens là, il faudrait évoquer un peu plus de philosophie de la conscience, mais on s'éloignerait du sujet.

Mais si les robots étaient mêlés à la population, ce serait encore plus compliqué. Seriez-vous prêts à épouser un robot (d'apparence humaine), par exemple, sans pouvoir réellement dire si il/elle est conscient ou non? Si votre réponse est non, par ex, vous serez potentiellement en train de discriminer un robot qui possède réellement une conscience sur la base de quelque chose qu'il ne maitrise pas. Si votre réponse est oui, vous serez potentiellement en train d'aimer un objet inanimé, seul, dans un couple qui ne fait pas vraiment de sens.
Gazaret
Gazaret
Genius Player

Masculin Messages : 650
Date d'inscription : 14/08/2015
Age : 19
Localisation : Quelque part

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Kjbi le Mar 21 Aoû - 20:24:06

Ce qu'a dit Elek était vaguement hors sujet car on ne pas pas comparer une procréation qui de nos jours est obligatoire pour la survie de la société à la création d'une inteligence "humaine" robotique.

Si l'humanité veut survivre en tant que tout, elle n'a pas d'autre choix que de créer de nouveau individu au jour d'aujourd'hui, la question est donc moins légitime que celle d'un robot, y a aucune obligation à créer un robot, et la question reposait plus sur le fait de si nous avions nous le droit de créer une toute nouvelle forme d'être (oserais je dire de vie ?).

Concernant la non existence,c 'est un argument très difficile à manipuler. La première raison c'est que la non existence n'est pas un état. Elle ne se rapport à rien, on n'est pas un être non existent, ça n'existe pas. De ce fait, elle ne peut pas être envisager d'un point de vue de l'être car avant d'être un être vivant, il n'y pas eu d'être non existant.
Aussi, c'est quelque chose d'extrêmement subjectif et personnel d'estimer que la vie vaut la peine d'être vécu même si c'est une opinion assez répandu. Et souvent une autre question se pose, est ce que cet opinion viens de la peur de mourir et donc de cessez d'exister ? Et dans ce cas, cet argument est il rationnel puisque c'est notre condition d'être vivant qui nous fait peur de cesser d'exister ?

Concernant la conscience/l'imitation, perso je fais partie de ses gens qui pensent que la conscience n'est pas quelque chose de propre au vivant et qu'elle est reproductible. Qu'est ce que notre cerveau après tout sinon un large et complexe réseau nerveux ? Il est évident qu'on est loin de le comprendre totalement de nos jours mais je ne doute pas que c'est à notre portée.
Kjbi
Kjbi
Ultime Survivant I

Féminin Messages : 1994
Date d'inscription : 14/08/2015
Age : 23

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Machu Pichu le Mar 21 Aoû - 21:44:53

Déjà faudrait savoir définir ce que l'on entend par intelligence articfielle. Typiquement, un ordi qui joue contre nous aux échecs ou à la console est définie comme une "IA" ou intelligence artificelle, alors que c'est juste un bête programme humain qui lui dit "tu calcules ça ça et ça et dans telle situation tu fais ça", il y a pas vraiment d'intelligence derrière mais juste un moteur de calcul. Il y a aussi l'intelligence qui se base sur une base de données (qui peut être aussi grande qu'Internet typiquement, genre Alexa ou whatever), mais elle "n'apprend" rien non plus d'elle même, sauf en cas de mise à jour. Donc ça reste un bête programme qui dit comment on va traiter une information que l'on reçoit ainsi que comment on va utiliser la base de données à disposition, c'est purement mécanique et purement un engrenage conçu de toute pièce par l'homme, tout comme l'engrenage qui fait que quand j'appuie sur l'accélérateur de ma voiture, ça fait avancer les roues.

Donc pour moi, la seule "Intelligence artificielle" qui serait réellement intelligente, ce serait une machine qui pourrait embarquer sa propre base de données de base, qu'elle arriverait elle-même à enrichir : c'est ce que fait l'homme, ça s'appelle l'expérience, et c'est ce qui fait que chaque être humain est unique. La façon dont les neurones sont plus ou moins connectés entre eux, la mémoire , et surtout LES SENS (oui, les 5 sens, l'odorat, le toucher, la vue, l'ouïe, dans une moindre mesure le goût) nous permettent d'appréhender la vie et d'avoir des ... sensations. Des émotions quoi. Hors, pour moi, une intelligence, aussi évolué que soit le code qui la programme, ne peut pas avoir d'émotions, ça reste un traitement qui certes peut être + ou moins évolué, mais un traitement de données, de 0 et de 1, il n'y a pas d'âme là-dedans, pas d'"envies", si ce n'est peut être celle d'apprendre ? Donner des "envies" à des "robots", pour moi ce serait ça qui les ferait réellement vivre, mais 1) je vois pas pk on aurait envie de leur donner des envies 2) je ne vois pas comment on le ferait et 3) ça resterait dans tous les cas des envies assez subjectives propres au concepteur du robot lui-même, cad un peu ce qu'il a "voulu" en faire. Au contraire d'un enfant qui ne naît pas vraiment avec des "envies" mais qui par son évolution, ses sensations, son entourage, se construit et en a, on ne peut pas créer cette notion d"envie" au cours du temps dans un truc mécanique, il faut l'avoir de base dedans, et donc déjà être biaisé.
Donc pour moi la question ne se pose pas vraiment, on a le droit de faire des téléphones, on a le droit de faire des JV, on a le droit de faire des Alexa. Un robot, c'est juste un tas de mémoires programmées d'une certaine façon par qqun en particulier, qui l'a programmé à sa façon, qui sont connectées entre elles par un routage bien particulier et qui ne se modifie pas au cours du temps nn plus, tt ce qui se modifie c'est ce qu'il y a à l'intérieur des mémoires, et la façon dont ça se fait est déjà décidé au moment où l'IA est conçu. La notion de libre arbitre est pr moi totalement dénuée de sens chez un robot, ce qu'il fait, c'est que son concepteur lui a permis de le faire, que ce soit légitime ou non.
Machu Pichu
Machu Pichu
Développeur

Masculin Messages : 2112
Date d'inscription : 11/08/2015
Age : 24

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Kjbi le Mar 21 Aoû - 22:00:35

Pour la def sommaire , je l'avais donné dans mon premier post : des robots capable d'évoluer/d'apprendre en fonction des situations et d'exprimer des pensées complexe. c'est ce que j'avais dit au début. Evidemment, elle est loin d'être exhaustive, mais ça revient plus ou moins à un robot qui serait capable de réagir comme un humain avec un fonctionnement semblable. Faut bien se rendre compte de tt façon que la notion est flou car on est loin de comprendre les processus de la conscience et de l’intelligence humaine dans l'aspect purement physique. Mais instinctivement, c'est une "évidence".

Mais qu'est ce que notre cerveau sinon un programme cellulaire très compliqué ? Je suis pas certains que y ai tant de différence et que ce soit ireproduisible. Evidemment, actuellement, ce n'est pas possible, on est loin de comprendre le cerveau mais au fur à mesure de nos avances, on risque de s'approcher de ce point.

Et bon, la notion de véritable libre arbitre chez l'homme est pas mal débattu aussi btw.
Kjbi
Kjbi
Ultime Survivant I

Féminin Messages : 1994
Date d'inscription : 14/08/2015
Age : 23

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Machu Pichu le Mar 21 Aoû - 22:27:47

Certes, ce sera peut être modédisable un jour, peut être pas à l'échelle d'un humain cela dit (cad 1 robot intelligent = même taille physique qu'un humain, pr moi ce serait bcp + "généralisé" de type skynet), mais ce qui m'a un peu choqué c'est "a-t-on le droit e fixer des règles au robot", pr moi c'est pas a-t-on le droit en fait, c'est juste que c'est un peu obligatoire. Typiquement, qq chose auquel on aurait pas "programmé" le robot pr apprendre, parce qu'on aurait oublié / pas su que certaines nuances de certains concepts ne pourraient pas être assimilables, c'est comme une règle qui lui dit "Tu n'apprendras pas ceci". En fait, les limites de la programmation et de l'intelligence qu'il y a derrière la personne qui crée un robot sont déjà une règle en soi. Après, pour tout ce qui est des règles "tu ne tueras point blablabla", il est concrètement interdit par la loi de tuer, par quelque moyen que ce soit. Donc en quelque sorte, autoriser un robot à tuer en le construisant, c'est faire de lui une arme, et ce serait punissable par la loi et donc illégal. Quand on donne naissance à un humain, on ne maîtrise pas les gênes qu'on lui transmets ni comment ils évolueront (en tout cas pas encore, et même si ça peut sembler paradoxal dans le discours actuel, j'espère honnêtement que ça ne se fera jamais).. En revanche, quand l'on "donne naissance" à un robot, on peut absolument tout maîtriser. Tandis qu'on ne peut pas punir un père d'avoir un fils serial killer, on peut clairement dire que le responsable d'un robot serial killer seraient ses développeurs. Dans cette optique, les règles qui s'appliquent à la robotique intelligente sont tout simplement les règles qui l'empêchent de faire du 'mal' cad d'aller à l'encontre de la loi, et ce non pas car on les prive de cette liberté-là, mais car leurs développeurs n'ont pas empêché cette notion d'exister. Même si je pense que ce sera peu comparable, les développeurs d'enceintes connectées sont obligés d'avoir un indicateur (genre une lumière) qui montre que le micro est désactivé, sinon l'utilisateur n'a aucun moyen de savoir s'il est écouté/espionné/ses données sont collectées ou pas. Créer un produit qui ne respecte pas cette norme (cad qui, en étant hacké, peut ne pas indiquer la notion de micro activé//désactivé dc espionnage ou non) est illégal, et donc si un acte de malveillance est dû à la mauvaise conception du produit, ce n'est pas la faute du produit en lui-même mais de la personne qui l'a mal conçu. Dc oui, on doit forcément mettre des règles.

Après on pourrait aussi imaginer une situation où on aurait suffisamment d'avancée technologique pour donner une "vraie" naissance à un robot comme celle naturelle, sans pouvoir maîtriser son existence propre, mais je ne sais même pas si moralement, on autorisera ce genre de chose, tout comme on n'autorisera probablement jamais le clonage par ex.
Machu Pichu
Machu Pichu
Développeur

Masculin Messages : 2112
Date d'inscription : 11/08/2015
Age : 24

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Kjbi le Mar 21 Aoû - 23:46:13

Donc, si tu pouvais mettre un bouton "activation règle 1 : interdiction de faire des trucs contraire à la morale" sur les humains, toi tu le ferais ?

Intéressant, t'as vu Orange Mécanique ?
Kjbi
Kjbi
Ultime Survivant I

Féminin Messages : 1994
Date d'inscription : 14/08/2015
Age : 23

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Kurotsuki le Mer 22 Aoû - 0:20:49

Définir la limite entre un humain et un robot, c'est compliqué. AlphaGo est déjà un robot qui "apprend". Il démarre en connaissant les règles du jeu de go, puis pour élaborer des stratégies se contente de jouer quantités et quantités de parties pour enrichir ses connaissances et acquérir de plus en plus d'expérience. Et pourtant, je pense que tout le monde est d'accord pour dire que AlphaGo n'est pas un humain. D'où vient la différence ? Du fait qu'il ne peut apprendre que ce qu'on lui autorise ? C'est certes vrai, mais d'un autre côté, rien ne prouve que l'humain peut tout apprendre. Nous apprenons ce que notre nature profonde nous permet d'apprendre, mais rien ne dit qu'il n'existe pas de multiples domaines dont nous n'apprenons rien, tout simplement parce que nous n'avons pas connaissance de leur existence, de même que AlphaGo n'a pas connaissance d'autre chose que le jeu de go.





Il y a une expérience de pensée que j'aime beaucoup : celle de la chambre chinoise.

Il s'agit de placer une personne dans une pièce coupée du monde extérieur, avec un seul moyen de communication : une fente par laquelle les personnes à l'extérieur de la pièce peuvent faire passer des messages écrits. Le sujet placé dans la pièce dispose d'un stylo pour écrire au dos des messages et ainsi envoyer des réponses en les faisant de nouveau passer par la fente. Son but est d'établir une communication correcte avec l'extérieur. Le point-clé est le suivant : toutes les personnes communiquant avec le sujet ne comprennent que le chinois, et lui écrivent donc dans cette langue, tandis que le sujet n'en connaît pas un mot. Cependant, il dispose également dans la pièce d'une bibliothèque de livres en chinois. Évidemment, il ne les comprend pas. Mais il peut toutefois feuilleter ces livres en y recherchant dans des dialogues les phrases qui lui sont envoyées, et ainsi recopier les réponses présentes dans ces livres, afin de mener une conversation ayant du sens. Ainsi, du point de vue des gens à l'extérieur de la pièce, tout se déroule comme si le sujet maîtrisait le chinois : chaque fois qu'un message est envoyé dans la pièce, une réponse appropriée en ressort. Toutefois, peut-on dire que le sujet parle vraiment le chinois ? Qu'il ait une compréhension de cette langue, qu'il soit conscient de ce qu'il fait réellement ?



Je pense que la plupart d'entre nous seront d'accord pour dire que non. Il ne fait que recopier mécaniquement des phrases qu'il ne comprend pas, selon les informations à sa disposition. Et c'est en ce sens que l'intelligence des robots (ou de tout ce qui est programmé d'une manière ou d'une autre) est limitée : un robot est l'exact analogue du sujet dans la chambre chinoise. Son programme reçoit des données décrivant une situation (~ les messages reçus via la fente), et il en déduit une réaction précise (~ les réponses renvoyées via cette même fente) en se contentant tout simplement de suivre avec exactitude les règles selon lesquelles il a été programmé (~ la bibliothèque chinoise).

Selon cette logique, rien d'autre ne pourra émerger d'un robot ou d'un logiciel que ce qu'on lui aura permis de faire naître (et si un imprévu survient, il s'agit d'une erreur de programmation, d'un bug). Je rejoins donc Machu sur le fait qu'imposer ou non des règles n'est pas une question qui se pose : c'est l'essence même de la programmation, et à moins que l'on ne trouve un autre moyen de créer des robots, leur imposer des règles sera inévitable.

Le débat reste cependant ouvert sur la nature des règles à leur imposer.



Un détail que j'aime dans l'idée de la chambre chinoise est que l'on peut essayer d'appliquer le raisonnement à nous tous humains, même si le raisonnement laisse alors un certain nombre de points de côté. Finalement, comment apprend-on notre langue maternelle ? À force d'entendre des gens parler autour de nous. En tant que bébé, nous finissons par nous rendre compte qu'un "s'il te plaît" appelle un "merci", qu'un "atchoum" appelle un "à tes souhaits", etc. Mais en ce sens, sommes-nous si différents de la personne dans la chambre chinoise ? Nous répétons les paroles que nous avons entendu chez les autres lorsque survient une situation que nous avons déjà observée.

Une des objections les plus évidentes ici est que contrairement au sujet de la chambre chinoise, nous avons la possibilité de créer une conversation plutôt que simplement répondre à ce qui nous est dit. Mais si l'on reprend l'analogie avec les robots : les messages s'apparentaient aux données reçues par le robot ; et donc, chez nous, ne correspondraient pas seulement aux paroles prononcées dans des discussions mais également à toutes les données reçues via nos 5 sens. Et dans cette analogie, peut-on vraiment initier une conversation ? Ne fait-on pas que répondre aux "messages" que sont notre vision, notre ouïe, notre faim, notre humeur ?

Bon, vous l'aurez compris, cette analogie suppose que nous ne valons pas mieux que les robots. L'idée est choquante. Moi-même elle me choque, et j'ai envie de l'infirmer. Le souci, c'est que j'ai du mal. Je suis tenté de faire appel à la conscience, mais je ne vois ni comment définir pleinement la conscience, ni comment prouver que les robots n'en disposent pas également. Si l'un d'entre vous pouvait m'aider à démonter cette idée, je vous avoue que je serais soulagé.

EDIT : je me suis fait outspeed, je suis peut-être limite hors débat, là :v
Kurotsuki
Kurotsuki

Masculin Messages : 866
Date d'inscription : 24/01/2016
Age : 20
Localisation : Quelque part. Je suppose. Je sais plus.

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Kjbi le Mer 22 Aoû - 0:44:40

perso l'idée de fin de ton post est plus ou moins ma façon de voir les choses vis à vis du vivant, donc je ne vais pas la démonter désolé, je dirais plus que c'est une affaire de complexité que de réelle différence :v
Kjbi
Kjbi
Ultime Survivant I

Féminin Messages : 1994
Date d'inscription : 14/08/2015
Age : 23

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Gazaret le Mer 22 Aoû - 16:07:26

On s'éloigne du débat, Kuro, mais je pense que je peux fournir une rapide réponse à ton questionnement.

Ce qui personnellement me fait douter quant à la nature de la conscience humaine, c'est les perceptions, les sentiments, et au delà les intuitions que l'on possède. Commençons par les perceptions. Une autre expérience de pensée connue consiste à imaginer une certaine Mary enfermée dans une chambre. Cette Mary n'aurait jamais vu de rouge de sa vie - tout aurait été fait pour qu'elle en soit totalement isolée ; elle serait cependant éduquée de telle sorte à ce qu'elle puisse savoir tout du rouge, sauf l'actuelle sensation associée. Un jour, on la sortirait de sa chambre et on l’emmènerait voir des roses rouges. Ne serait-elle pas toujours surprise par la couleur rouge? N'aurait-elle pas toujours appris quelque chose, en voyant ce rouge?
De manière analogue, il est extrêmement difficile de décrire ce que ça fait de voir à un aveugle, et il est difficile de savoir ce que d'autres animaux qui possèdent des sens électromagnétiques, les requins par exemple, ressentent. En fait il semble impossible d'expliquer pourquoi l'on perçoit exactement de cette manière simplement à partir d'un modèle matérialiste ; il n'y a pas de relation de cause à effet qui apparaît entre une lumière qui aurait telle longueur d'onde et la couleur associée. Pourquoi le spectre des couleurs ne pourrait-il pas être inversé? C'est quelque chose qu'un modèle matérialiste simple n'explique pas de prime abord.

Et on possède d'autres choses analogues aux sensations : les émotions, les sentiments,  et surtout l'intuition. Ce dernier point est celui je pense qui permet de différencier une chambre chinoise d'un être humain. En effet, il nous est impossible d'expliquer à un aveugle ce que ça fait de voir ; et il ne nous est pas plus possible d'expliquer à quelqu'un qui ne les comprendrait pas pourquoi notre logique est telle qu'elle est (intuitions logiques), par exemple. On possède d'autres types d'intuition comme l'intuition morale, le système du bien et du mal. Et de la même manière, ce sont ces intuitions qui nous permettent de créer de nous même certaines choses, sans forcément les imiter (en mathématiques par exemple, l'intuition est une qualité importante - et le domaine même des mathématiques est une création humaine). J'irai même jusqu'à dire qu'on possède une intuition du langage. Et c'est ces intuitions, à mon sens, qui permettent la compréhension de toutes choses et qui nous différencie de cette chambre chinoise (et c'est pour ça que j'abhorre l'apprentissage par coeur btw, qui revient à devenir une chambre chinoise). Car le robot qui ne fait qu'obéir à des ordres dans sa chambre chinoise, il ne comprend pas le langage, les phrases qu'il répète - il ne connait pas leur contenu, elle n'ont pour lui aucune signification. Il n'est pas capable de comprendre les implications sociales de la conversation (ni même ce qu'est une société). De la même manière qu'un aveugle ne peut comprendre ce que cela fait de voir, ou qu'un psychopathe ne peut comprendre ce qu'est la morale.

Maintenant, il parait assez tentant de se soustraire du matérialisme une fois que l'on a pris conscience de l'importance de ces phénomènes psychiques ; mais ces phénomènes interagissent bel et bien avec la matière (sinon je ne pourrais pas vous en parler là tout de suite); or scientifiquement, un lien entre un présupposé monde "psychique" et le monde physique n'est pas envisageable, ni réaliste - car on aurait des relations de cause à effet entre des phénomènes psychiques et des phénomènes physique, ce qui, en plus de briser les lois que l'on connait, n'a jamais pu être observé. Le rasoir d'Ockham nous ferait trancher sur l'inexistence de ces phénomènes psychiques.

Il s'ensuit donc que ces phénomènes émergeraient d'une structure extrêmement complexe (le cerveau), et qu'il serait possible de créer un ordinateur qui fasse émerger ce même type de conscience, sans être une "chambre chinoise" (les IA actuelles sont des chambres chinoises). C'est en quelque sorte le concept d'émergence qui est central ici, qui montre dans pleins de domaines comment une structure élevée et complexe peut se développer à partir de quelques propriétés fondamentales. C'est pour ça qu'à mon sens créer un robot est comparable à créer un être humain ; je pense que pour créer un robot intelligent, conscient, il faudrait prendre en modèle le cerveau (puisqu'on est loin de pouvoir concevoir des systèmes avec un tel niveau de complexité sans modèle), et donc que la conscience qui en émergerait serait comparable à une conscience humaine. Et c'est là que je suis en désaccord avec ce qui a été dit sur les règles. Il y a une différence entre imposer des règles à un ordinateur et imposer des règles à la conscience qui en émergerait. Dans le premier cas, on pourrait poser des règles à l'ordinateur pour faire émerger cette conscience ; et ensuite, dans le second cas, des "règles" pour la limiter. (Dans ce sens là, on peut se demander par exemple, si donner des intuitions morales à cette machine serait lui donner des règles ; mais il semble que non, car il nous est possible de braver ces intuitions morales - ces règles reviendraient, par exemple, à surveiller ce que pense la machine, puis à l'éteindre si on voit certains raisonnements ou certaines idées arriver).
Gazaret
Gazaret
Genius Player

Masculin Messages : 650
Date d'inscription : 14/08/2015
Age : 19
Localisation : Quelque part

Fiche du joueur BGZ
Mes victoires sur BGZ:

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Théories, questions existentielles, et débats - Page 2 Empty Re: Théories, questions existentielles, et débats

Message par Contenu sponsorisé


Contenu sponsorisé


Revenir en haut Aller en bas

Page 2 sur 2 Précédent  1, 2

Revenir en haut

- Sujets similaires

 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum