Comme l’intelligence humaine (I.H), l’intelligence artificielle (I.A.) est un processus évolutif. Un enfant devient plus intelligent et conscient de lui-même au fur et à mesure qu’il grandit. Les réseaux de neurones de son cerveau se structurent et se développent en même temps qu’il apprend, mémorise et expérimente la vie.
Nous venons de voir dans les articles précédents que l’intelligence artificielle suit globalement le même schéma d’apprentissage et de développement que l’humain.
Des questions cruciales s’imposent alors d’elles-mêmes : Que se passera-il lorsque des «robots-enfants» en pleine phase d’apprentissage, comme Myon par exemple, deviendront « adultes » donc plus intelligents ? ou encore qu’arrivera-il si une plateforme d’I.A aussi puissante que Watson, développait une conscience ?
De très nombreux scientifiques et chercheurs du monde entier tentent d’esquisser des scénarios probables relatifs à cette question.
Certains sont alarmistes et pensent qu’un scénario I.A vs I.H (à la Terminator) pourrait arriver tandis que d’autres sont plus optimistes et envisagent un avenir radieux I.A+I.H où la machine prendrait toutes les décisions importantes pour le bien de l’humanité !
Tous semblent d’accord cependant sur la nécessité de mettre en place de manière urgente un plan d’action mondial qui limiterait au maximum les risques du développement exponentiel de l’intelligence artificielle.
Tour d’horizon sur les différents scénarios possibles et sur ce que pensent les plus grands esprits humains et spécialistes en I.A sur la question…
Humains et robots peuvent-ils s’entendre ?
Dans mon dossier spécial sur les robots, j’avais traité la question du risque lié au développement de l’industrie robotique. En conclusion de ce dossier, dans le dernier article « Humains et robots peuvent-ils s’entendre ?» je concluais en insistant sur la nécessité d’un changement radical de notre modèle sociétal pour faire face aux nombreux changements engendrés par l’arrivée des robots.
Parmi ces changements, le système économique prédominant tel que nous le connaissons aujourd’hui (l’économie de marché) doit être complètement repensé.
Les emplois qui seront massivement perdus à cause de l’automatisation et du «machine reasoning» seront difficilement remplaçables à court terme. Des conflits sociaux pourraient alors facilement émerger et le chaos pourrait s’installer…
Tandis que des solutions commencent timidement à émerger (revenu de base universel par exemple), certains veulent aller plus vite et commencent déjà à envisager sérieusement de faire appel à l’intelligence artificielle pour résoudre ce type de problèmes !
«Des machines pour résoudre un problème généré par des machines ?»
Cela peut sembler contradictoire et bizarre mais nous allons voir que ce n’est pas complètement dénué de sens…
Une intelligence artificielle comme président des États-Unis ?
«Si une intelligence artificielle se présentait aux élections de votre pays, voteriez-vous pour elle ?»
La question peut sembler farfelue mais elle ne l’est pas vraiment pour la fondation Watson 2016. Cette dernière est une organisation indépendante qui a pour but de montrer que Watson, la célèbre plateforme I.A d’IBM, est capable de trouver des solutions politiques aux grands défis et challenges sociaux-économiques et environnementaux des États-Unis !
Dans leur site http://watson2016.com/, des explications rationnelles et des propositions pragmatiques sont présentées pour expliquer leur démarche qui se veut tout à la fois originale, radicale et sérieuse!
Les membres de cette fondation estiment que Watson a toutes les capacités pour « être un président », c’est à dire quelqu’un capable d’analyser plusieurs informations et proposer les meilleures solutions à adopter de manière rationnelle et dans l’intérêt du pays.
Le monde devenant plus complexe, la quantité d’informations à extraire et à traiter devient effectivement de plus en plus difficile à gérer pour un humain.
Watson, lui, est capable d’évaluer et d’analyser une quantité incroyable de données (Big Data) et de trouver la solution la plus pertinente à chaque problème.
Chaque option que Watson propose montre l’impact qu’elle pourrait avoir par sur l’économie, l’environnement, l’éducation, le système de santé, la politique étrangère, les libertés individuelles, etc.
Sachant qu’une décision politique éclairée ne se base pas uniquement sur une liste séparée de problèmes à régler mais doit plutôt prendre en compte un vaste réseau de systèmes interconnectés entre eux, Watson, de part sa technologie à pouvoir analyser en parallèle plusieurs champs d’actions possibles, semble effectivement « un candidat idéal ».
De plus, Watson ne peut pas être influencé par les différents lobbies (pétroliers, armements, industries, etc.) qui financent habituellement les campagnes des présidents.
→ Interview du directeur de campagne de Watson
Plusieurs autres compagnies se concurrencent aujourd’hui pour nous proposer leur meilleure I.A capable d’aider à résoudre les problèmes humains. En fait, on estime aujourd’hui à plus de 900 le nombre d’entreprises ayant déjà investi dans le domaine de l’.A., la plus connue étant bien sûr Google avec son projet Deepmind.
Il existerait même un projet pour unifier l’intelligence artificielle de tous les robots du monde pour n’en avoir qu’un au final. C’est un nouveau domaine de recherche que l’on appelle le Cloud Robotics.
Un article du magazine Wired «The plan to build a massive online brain for all the world’s robots» explique en détail comment nous pourrions arriver à atteindre ce but ultime.
Le devenir de l’I.A: un sujet hautement philosophique et éthique…
Reste à savoir si les humains pourront faire confiance à une machine pour prendre des décisions à leur place !
Personnellement, je pense que, plus celle-ci nous démontrera son efficacité dans tous les domaines (santé, business, education, agriculture, etc.), plus nous lui déléguerons des tâches plus importantes.
Nous le faisons d’ailleurs déjà d’une certaine manière avec notre smartphone qui est un peu notre « deuxième cerveau » aujourd’hui…
La vrai question est plutôt de savoir quel degré de responsabilité nous sommes prêt à concéder à la machine pour résoudre tous nos problèmes.
«Devons-nous sacrifier nos libertés pour plus de santé, de confort et de justice dans le monde ?»
C’est évidemment une question éthique et philosophique qui fait l’objet de grands débats et de discussions partout dans le monde dans plusieurs instituts et centres de recherche reconnus comme le Future of Life Institut, l’Institut for Ethics and emerging technologies, le Machine Intelligence Research Institut. ou encore le Openroboethics.
Cette dernière initiative est intéressante car elle permet à n’importe qui (pas seulement les scientifiques et les intellectuels) de répondre à des sondages sur des questions éthiques et donc de réfléchir à cette problématique de manière collaborative…
Stephen Hawking : « Le développement d’une I.A pourrait mettre fin à l’humanité ! »
Si l’efficacité grandissante de la machine à résoudre nos problèmes ne fait plus aucun doute dans un avenir proche, la question du niveau d’intelligence que peut atteindre la machine revient sans cesse au centre des débats.
Qu’adviendra-il effectivement lorsque celle-ci deviendra supérieure à notre intelligence commune ? Une I.A. développée pourrait-elle représenter une menace pour l’existence de l’humanité ?
Stuart Russel et Peter Norvig sont deux éminents spécialistes de l’I.A., qui ont été les premiers à pointer du doigt ce risque existentiel.
Nick Bostrom, un philosophe suédois qui aussi le directeur de l’Institut pour le futur de l’humanité de l’université d’Oxford, a aussi grandement contribué à alerter la communauté mondiale sur le danger potentiel d’un développement trop rapide de l’I.A.
Dans son livre « SuperIntelligence », il explique pourquoi nous devrions craindre l’émergence d’une intelligence qui serait supérieure à la nôtre :
« Si une super-intelligence artificielle prenait forme et que celle-ci avait besoin de plus de ressources énergétiques pour se développer et se reproduire, elle risquerait de considérer alors l’espèce humaine comme un concurrent ou une menace potentielle. »
Elle pourrait alors décider tout simplement de se débarrasser de nous comme nous nous le faisons chaque jour avec des millions d’espèces animales et végétales. (lire le livre la sixième extinction).
« Superintelligence » a été classé parmi les meilleures ventes de livres de science en 2014. Ce livre a directement influencé et alarmé de nombreuses personalités dont notamment Bill Gates et Elon Musk.
Au cas où certains penserait qu’un bouton on/off ou qu’un simple débranchement suffiraient à résoudre ce problème, Nick Bostrom leur rappelle qu’une machine intelligente aurait bien sûr déjà pensé à cela et pourrait prendre les dispositions nécessaires pour y remédier.
Stanley Kubrik, l’un des réalisateurs et cinéastes les plus talentueux du 20ème siècle a traité de cette question dans son film 2001, l’odyssée de l’espace. Voici un extrait culte de ce film visionnaire:
Suite à toutes ces alertes et devant la réalisation par la communauté scientifique mondiale de l’existence d’une vraie menace posée par le développement de l’intelligence artificielle, une lettre ouverte a été écrite et signée par plus de 150 personnalités influentes pour pousser les politiques et les intellectuels du monde entier à se pencher sérieusement et dès maintenant sur ces questions essentielles.
Parmi les signataires, on retrouve notamment Stephen Hawking, le célèbre physicien et mathématicien qui a déclaré: « Le développement d’une I.A pourrait mettre fin à l’humanité ! »
Elon Musk, l’entrepreneur milliardaire à l’origine de SpaceX, Tesla Motors, Hyperloop et Solarcity a, lui, donné par moins de 10 millions de dollars pour financer la recherche destinée à limiter les risques liés à l’intelligence artificielle !
Les medias sérieux comme la BBC ou Wired traitent eux aussi de plus en plus de ces sujets.
Les recommandations des experts
Parmi les mesures à prendre pour ne pas voir émerger une IA qui deviendrait plus intelligente que nous et dont on ne saurait prédire le comportement, plusieurs sont intéressantes et mériteraient qu’on y accorde plus d’attention :
Mark Waser, architecte système éthique au Digital Wisdom Group, propose de implémenter son système cohérent de lois éthiques et morales pour les machines intelligentes.
Durant les 7 dernières années qu’il a passé à travailler dans ce domaine, Mark Waser a réussi à développer un système de motivation et de prise de décision de la machine basé sur la morale.
Grâce à ce système, la machine répond correctement à la plupart des exercices de dilemmes moraux classiques en philosophie et éthique.
En ayant des valeurs calquées sur nos systèmes de valeurs universelles qui respectent l’intégrité et les droits individuels, la machine devrait donc prendre en compte le facteur humain lors de ses processus décisionnels.
D’autres, cependant, sont beaucoup plus inquiets et pensent qu’il existera toujours un risque quoique l’on fasse.
Un scénario catastrophe ne pourrait donc pas être écarté si on adoptait uniquement cette solution, et nous pourrions nous retrouver dans une situation proche de ce qui s’est passé dans le film I-robot, où l’un des robots n’avait pas respecté les 3 lois d’Asimov:
Ces chercheurs proposent donc tout simplement de stopper volontairement les recherches en IA une fois que celle-ci aura atteint un seuil critique au niveau de son degré d’intelligence. Ceci afin de s’assurer de constamment garder le contrôle sur ces machines.
Ces dernières devraient donc toujours rester sous nos ordres et leur degré d’autonomie devrait être limité sous peine de le voir évoluer et déborder.
Si cette dernière proposition semble la plus prudente, il semble peu probable que l’on puisse empêcher les progrès en I.A effectués dans l’industrie militaire.
La plupart des pays semblent en effet en compétition permanente dans une course à l’armement avec des robots tueurs dont on dit qu’ils seraient aussi dangereux que les armes nucléaires dans une lettre signée par plus de 1000 experts, scientifiques et chercheurs.
L’humain sera-il capable de suffisamment prendre conscience de tous les risques et dangers liés au développement de l’Intelligence Artificielle? Aurons-nous suffisamment de bon sens pour obliger rapidement l’industrie militaire à stopper ses recherches en armes intelligentes?
L’histoire nous a malheureusement déjà montré à plusieurs reprises que l’humain ne semble pas réellement prendre conscience de son extraordinaire pouvoir destructeur.
Ironiquement, la solution pour résoudre le problème crucial du danger des machines intelligentes pourrait peut-être venir des machines elles-mêmes.
Nous pourrions demander à Watson de nous aider à résoudre ce casse-tête chinois !
Qu’en pensez-vous ?
Omar Amrani.