Technologie

Les robots ont-ils des droits ?

Peu après son embauche par le célèbre Medialab du Massachusetts Institute of Technology (MIT), Kate Darling a acheté un robot dinosaure dont ses collèges roboticiens lui vantaient les mérites. Il avait comme particularité d’émettre une plainte quand on lui tirait la queue. À sa grande surprise, elle s’est rendu compte que cette douleur cybernétique la rendait mal à l’aise.

« Quand des amis s’amusaient à tirer la queue de mon dinosaure pour le faire gémir, je leur demandais d’arrêter, dit la juriste, jointe à Boston. Je me suis demandé comment je pouvais avoir des sentiments envers un robot, envers une chose que j’avais achetée dans un magasin. Et j’ai commencé à m’intéresser aux conséquences de ces sentiments. »

Sa réflexion l’a menée il y a deux ans à donner à la faculté de droit de l’Université Harvard un cours spécial sur les droits des robots. Depuis, elle fait à gauche et à droite des conférences sur le sujet. « Je ne dis pas que les robots ont des droits inaliénables comme les humains, dit Mme Darling. Si on leur donne des droits, ils découlent de nos normes sociales. Par exemple, nous donnons des droits aux animaux qui dépassent la simple protection de la propriété d’un individu. »

Les animaux ne constituent-ils pas un cas différent des robots, puisqu’ils peuvent ressentir la douleur ? « Oui, mais ce n’est pas la seule raison pour laquelle nous leur donnons des droits. Nous projetons sur eux nos propres sentiments. La preuve, c’est que la protection des animaux n’est pas constante, même à l’intérieur d’un même groupe d’animaux. Aux États-Unis, il a été longtemps interdit de consommer de la viande de cheval, même si on mangeait celle des bœufs. »

Kate Darling, dont la thèse de doctorat portait sur la propriété intellectuelle, veut maintenant faire davantage d’études psychologiques sur les sentiments qu’inspirent les robots ressemblant à des êtres vivants. « Les premières études montrent que les robots qui sont conçus pour ressembler à des êtres vivants sont traités autrement qu’un simple outil. Mais tout le monde n’aura pas ce réflexe. Il est difficile d’expliquer à un enfant de 6 ans qu’il peut frapper son chat-robot, mais pas un vrai chat. Nous pouvons choisir de donner des droits aux robots pour protéger le type de comportement que nous voulons encourager dans la société. »

Des règles pour protéger les humains ?

N’y a-t-il pas un parallèle avec le débat sur la violence engendrée par les jeux vidéo ? « Les études sur les jeux vidéo n’ont pas donné de résultats concluants, dit Mme Darling. Beaucoup montrent que même les enfants font la différence entre un jeu et la vraie vie. Les robots sont différents, parce que ce sont des objets physiques, qu’on peut toucher. L’homme est une créature physique. »

L’approche de Mme Darling fait également penser à celle du philosophe utilitariste Peter Singer, de l’Université Princeton, qui affirme que les animaux devraient avoir les mêmes droits que les humains – et il est encore plus controversé parce qu’il a écrit que les personnes démentes devraient être mises à mort parce qu’elles ne sont plus vraiment vivantes. Les thèses de M. Singer sont-elles affaiblies ou renforcées par l’idée d’accorder des droits aux robots ?

« J’ai beaucoup lu Singer à l’université », dit Mme Darling, qui a déjà été végétarienne mais ne l’est plus. « Je ne sais s’il serait d’accord avec moi, parce que son idée de l’éthique est basée sur les capacités à ressentir la satisfaction. A priori, mon analyse est d’un tout autre genre, parce que je la base sur les projections émotionnelles des humains. Mais on pourrait aussi considérer qu’accorder de l’importance à ces projections mine une analyse strictement utilitariste des capacités, comme celle de Singer. »

Faudrait-il des lois spécifiques aux droits des robots ? « Pas pour le moment, dit Mme Darling. Mon but est de provoquer la discussion et d’éviter que les robots soient traités de manière à traumatiser d’autres membres de la société. Serait-il acceptable de tuer ou d’agresser sexuellement un robot humanoïde ? »

Technologie

Les trois lois d’Asimov

L’auteur de science-fiction Isaac Asimov a imaginé dans les années 30 et 40 trois lois de base que devraient respecter tous les robots de l’avenir. En 2004, le film I, Robot d’Alex Proyas, avec Will Smith, était basé sur deux nouvelles d’Asimov faisant référence à ces trois lois.

1-Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu’un être humain soit exposé au danger.

2-Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.

3-Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.