Traduction de l'article paru dans le journal El País du 12 février 2020
Page originale : https://elpais.com/elpais/2020/01/30/ciencia/1580381695_084761.html
 

Pourquoi nous devons interdire la manipulation de notre cerveau
 avant que cela ne soit possible

Le scientifique Rafael Yuste, promoteur de la plus grande initiative visant à comprendre le cerveau, appelle les gouvernements à créer de nouvelles lois pour faire face aux risques de la neurotechnologie.

« Nous avons une responsabilité historique. Nous sommes à une époque où nous pouvons décider quel genre d'humanité nous voulons. Ce sont des mots capitaux, autant que le défi que pose Rafael Yuste. Ce neuroscientifique espagnol, professeur à l'université de Columbia (USA), est chuchoté dans sa conscience par les fantômes d'autres grands scientifiques de l'histoire qui ont ouvert la boîte de Pandore. Lui, qui a promu l'initiative Brain, le plus grand engagement pour découvrir les secrets du cerveau, ne se dérobe pas à sa responsabilité : « Je le porte comme un devoir ». Yuste sait bien ce que son domaine, la neurotechnologie, est déjà capable de voir et de faire dans nos esprits. Et il craint que cela ne devienne incontrôlable s'il n'est pas réglementé. C'est pourquoi elle appelle les gouvernements du monde entier à créer et à protéger de nouveaux droits : les neurodroits.

"La vie privée maximale d'une personne est ce qu'elle pense, mais maintenant il commence à être possible de la déchiffrer", prévient Yuste

L'année dernière, Yuste a réussi à manipuler le comportement de certaines souris. Et il l'a fait en puisant dans les minuscules cerveaux de ces rongeurs, entraînés à aspirer du jus lorsqu'ils voient des lignes verticales sur un écran. Yuste et son équipe avaient ciblé les neurones spécifiques qui s'activaient à ce moment-là et les avaient stimulés directement lorsque les barres n'étaient pas visibles à l'écran. Mais les souris aspiraient du jus comme si elles les avaient vus. « Ici à Columbia, un de mes collègues a développé une prothèse visuelle sans fil pour aveugles avec un million d'électrodes, qui permet à une personne de se connecter au réseau. Mais il peut aussi être utilisé pour créer des soldats avec des super capacités », prévient Yuste. Cet appareil, financé par la Darpa (l'agence de recherche de l'armée américaine), pourrait stimuler jusqu'à 100 000 neurones,

Lorsque Yuste a commencé à travailler sur l'initiative des neurodroits il y a deux ans, il s'agissait presque d'une approche abstraite et de science-fiction. "Mais l'urgence de la situation a augmenté, il y a des problèmes assez sérieux devant nous, les entreprises technologiques se précipitent là-dessus parce qu'elles pensent, à juste titre, que le nouvel iPhone va être une interface cerveau-ordinateur. non invasif », prévient Yuste. L'homme qui a promu un projet aux États-Unis de 6 milliards de dollars pour enquêter sur le cerveau énumère avec inquiétude les mouvements de ces derniers mois. Facebook a investi un milliard de dollars dans une entreprise qui connecte le cerveau aux ordinateurs. Et Microsoft un autre milliard dans l'initiative d'intelligence artificielle d'Elon Musk, qui investit 100 millions dans Neuralink, une entreprise qui va implanter des fils très fins dans le cerveau de ses utilisateurs pour augmenter leurs compétences. Et Yuste sait que Google fait des efforts similaires qui ne sont pas publics. L'ère deneurocapitalisme .

Yuste négocie avec l'Espagne pour apporter l'esprit de son serment technocratique à la stratégie nationale d'intelligence artificielle que le gouvernement prépare

"Ces grandes entreprises technologiques commencent à avoir peur de ne pas être laissées pour compte avec le nouvel iPhone cérébral . Nous devons nous adresser directement à la société et aux législateurs pour prévenir les abus », dit-il. La technologie basée sur Musk vise à aider les patients atteints de paralysie ou de membres amputés à contrôler leur parole et leurs mouvements ou à voir et entendre avec leur seul cerveau. Mais cela ne fonctionne pas. cache que le but ultime est de nous connecter directement avec des machines pour nous améliorer avec l'intelligence artificielle L'initiative de Facebook est similaire : une entreprise avec l'histoire du respect de la vie privée comme celle de Zuckerberg, accède aux pensées de ses utilisateurs. 

Ces aspirations ressemblent à de la science-fiction, mais un simple examen de certaines réalisations récentes en neurosciences met ces aspirations à portée de main. En 2014 , des scientifiques espagnols ont réussi à transmettre "bonjour" directement du cerveau d'un sujet à un autre, situé à 7 700 kilomètres, au moyen d'impulsions électriques. Dans plusieurs laboratoires, il a été possible de recréer une image plus ou moins nette de ce que voit un sujet uniquement en analysant les ondes cérébrales qu'il produit. Grâce à l'électroencéphalographie, des mots tels que "cuillère" ou "téléphone" ont été lus dans le cerveau lorsque quelqu'un y pensait. Il a également été utilisé pour identifier les humeurs. À l'Université de Berkeley, ils ont pu identifier la scène que les sujets voyaient grâce au nuage de mots que leur cerveau a suscité avec le visionnage : chien, ciel, femme, parler... Une technologie qui pourrait être utilisée pour découvrir des sentiments , en fonction des mots qui apparaissent lors de la visualisation d'une image : par exemple, vous pourriez lire "haine" lors de la visualisation de l'image d'un dictateur.

Certains de ces jalons datent de 10 ans et des milliards ont depuis été versés dans des projets privés et gouvernementaux monumentaux, de Facebook à la Darpa en passant par l'Académie chinoise des sciences. "Il pense que le projet chinois est trois fois plus gros que celui américain, et va droit au but, en fusionnant les deux volets : intelligence artificielle et neurotechnologie", prévient Yuste, qui se dit optimiste sur les bénéfices des neurotechnologies et pour que la raison veut le régler.

"A court terme, le danger le plus imminent est la perte de l'intimité mentale", prévient Yuste, qui a lancé son initiative pour les neurodroits après en avoir discuté en Colombie avec une équipe de vingt-cinq spécialistes des neurosciences, du droit et de l'éthique appelée le Morningside Group. De nombreuses entreprises ont déjà développé des dispositifs, généralement sous forme de bandeau, pour enregistrer l'activité cérébrale des utilisateurs qui veulent contrôler mentalement les drones et les voitures, ou mesurer le niveau de concentration ou de stress des travailleurs, comme c'est le cas des chauffeurs publics dans Chine. Ils y sont également utilisés avec des écoliers : le bandeau lit leurs ondes cérébrales et une petite lumière indique au professeur leur niveau de concentration. Le problème est que la société qui les vend, BrainCo, aspire à obtenir la plus grande base de données de ce type d'activité cérébrale. Plus vous avez de données, plus vos lectures seront bonnes et précieuses, bien sûr. Alors que l'industrie technologique a passé une décennie à extraire toutes les données qu'elle peut obtenir de l'utilisation d'applications et d'appareils,

Des bandeaux qui espionnent les neurones

Le règlement proposé par le groupe Yuste comporte deux approches. Celui de l'autorégulation, avec un serment technocratique qui lie déontologiquement ingénieurs, informaticiens et autres spécialistes dédiés aux neurotechnologies. En ce sens, des négociations sont en cours avec l'Espagne pour apporter l'esprit de ce serment à la stratégie nationale d'intelligence artificielle que le gouvernement prépare. D'autre part, Yuste espère que les neurodroits sont inclus dans la Déclaration des droits de l'homme et que les gouvernements établissent un cadre juridique qui empêche les abus. Le pionnier sera le Chili, avec le gouvernement duquel une législation spécifique et son inclusion dans la Constitution sont presque fermées.

"Ce qui m'inquiète le plus de toute urgence, c'est le décryptage des neurodonnées : la vie privée maximale d'une personne est ce qu'elle pense, mais maintenant, il commence à être possible de la décrypter", prévient Yuste. "Nous le faisons quotidiennement dans des laboratoires avec des souris, dès que des entreprises privées ont accès à ces informations, rions des problèmes de confidentialité que nous avons eu jusqu'à présent avec les téléphones portables. C'est pourquoi nous avons besoin de neurodroits, car c'est un problème de droits humains". ", résume-t-il. Le neuroscientifique veut alerter la population car "il n'y a pas de réglementation et cela touche aux droits humains fondamentaux".

"Il y a un potentiel de catastrophe si nous la laissons continuer à devenir incontrôlable, car il y a un manque total de réglementation", prévient Martínez-Conde.

La neurobiologiste Mara Dierssen, qui n'est pas impliquée dans l'initiative Yuste, met en lumière les problèmes bioéthiques posés par les possibilités d'amélioration de l'être humain grâce à la neurotechnologie. Bien qu'il assure qu'il y a beaucoup de sensationnalisme et d'arrogance autour d'entreprises comme celle de Musk, Dierssen souligne qu'"à long terme, il est prévu que les implants puissent entrer dans le domaine de la chirurgie élective pour ceux qui veulent 'améliorer leur cerveau avec le pouvoir de un ordinateur". "Quelles conséquences la neuro-amélioration peut-elle avoir dans un monde globalisé, biotechnifié et socio-économiquement inégalitaire ? La grande question se pose inévitablement de savoir dans quelle mesure ces techniques seraient accessibles à tous", explique Dierssen, chercheur au Center for Genomic Regulation et ancien président du Société Espagnole de Neurosciences.

Pour la neuroscientifique Susana Martínez-Conde, il s'agit d'une initiative "non seulement positive mais nécessaire". "Nous réalisons en tant que société que les avancées technologiques vont bien au-delà de ce à quoi nous sommes préparés philosophiquement et juridiquement. Nous sommes confrontés à des situations sans expérience préalable dans l'histoire", déclare Martínez-Conde, directeur du Laboratoire de neurosciences intégrées de l'Université d'État de New York. York. "Nous devons prendre note parce que la neurotechnologie a un impact direct sur ce que signifie être humain. Il y a un potentiel de catastrophe si nous la laissons continuer à devenir incontrôlable parce qu'il y a un manque total de réglementation. Il est temps d'agir avant une catastrophe à l'échelle mondiale », prévient-il.

Cette catastrophe a des résonances historiques. Tout en parlant de son bureau à Columbia, Yuste regarde le bâtiment où le projet Manhattan a été lancé, qui a conduit au largage de bombes atomiques sur Hiroshima et Nagasaki. "Ces mêmes scientifiques ont été plus tard les premiers dans la ligne de bataille pour réguler l'énergie nucléaire. Les mêmes personnes qui ont fabriqué la bombe atomique. Nous sommes sur le côté, conduisant une révolution neuroscientifique, mais nous sommes aussi les premiers à devoir alerter la société ," il dit.

Nouveaux "neurodroits"

Le groupe promu par Rafael Yuste développe ses préoccupations autour de cinq neurodroits :

1.- Droit à l'identité personnelle . Ces spécialistes craignent que la connexion des cerveaux aux ordinateurs ne dilue l'identité des gens. Lorsque les algorithmes aident à prendre des décisions, le moi des individus peut devenir flou.

2.- Droit au libre arbitre . Ce neurodroit est étroitement lié à celui de l'identité personnelle. Lorsque nous avons des outils externes qui interfèrent avec nos décisions, la capacité humaine à décider de son avenir peut être compromise.

3.- Droit à l'intimité mentale . Les outils neurotechnologiques qui interagissent avec le cerveau auront la capacité de collecter toutes sortes d'informations sur des sujets dans la sphère la plus privée que nous puissions imaginer : leurs pensées. Les experts considèrent qu'il est essentiel de préserver l'inviolabilité des « neurodonnées » générées par le cerveau humain.

4.- Droit à un accès équitable aux technologies d'augmentation. Yuste croit que les neurotechnologies apporteront d'innombrables bénéfices aux humains, mais il craint que les inégalités et les privilèges de quelques-uns, qui ont accès à ces nouvelles capacités humaines, ne se multiplient.

5.- Droit à la protection contre les préjugés et la discrimination. Ces dernières années, nous avons connu de nombreux cas dans lesquels des programmes et des algorithmes multiplient les préjugés et les partis pris. Ce droit entend que ces pannes soient recherchées avant de commencer.

El País - Javier Salas

 

----------------------------------------------------------------------------

 

RM  -  juin 2022