Dans une interview accordée à la BBC, Stephen Hawking, le célèbre physicien et cosmologiste britannique, a déclaré que « le développement d’une intelligence totalement artificielle pourrait signifier la fin de l’espèce humaine ». Plus tôt cette année, le scientifique avait déjà expliqué que l’intelligence artificielle (IA) pouvait être la meilleure ou la pire des choses pour l’humanité.
Alors qu’il était interrogé au sujet des améliorations du nouveau synthétiseur vocal développé par Intel qui l’aide à s’exprimer, et qui se base sur l’intelligence artificielle, le physicien a expliqué que les formes primitives d’IA développées jusqu’à présent s’étaient révélées utiles mais qu’il craignait que l’on aboutisse à quelque chose qui égalerait ou dépasserait l’humain, "dans un avenir pas trop lointain".
Au Financial Times, il a expliqué que l'ingénierie génétique nous permettrait d'augmenter la complexité de notre ADN et "d'améliorer la race humaine". Mais il a précisé que ce processus serait assez lent, et qu'il faudra attendre 18 ans avant que nous en constations les bénéfices.
Par contraste, selon la loi de Moore, les ordinateurs doublent leur vitesse et leur capacité de mémoire tous les 18 mois. Il existe le risque que les ordinateurs développent une intelligence et prennent le contrôle. Les humains, qui sont limités par leur évolution biologique lente, ne pourront pas lutter, et seront supplantés. »
Hawking a également mis en garde contre le potentiel destructeur de la technologie, et le fait que les nouvelles technologies ajoutaient des menaces supplémentaires qui venaient compléter les dangers liés au nucléaire, au réchauffement climatique, et aux virus issus de travaux de génétique, auxquels nous sommes déjà confrontés. Il pense qu'un désastre planétaire est inéluctable, qu'il se produira probablement dans les 1 000 à 10 000 ans, et que, pour cette raison, nous devons étendre notre horizon au delà de la planète Terre:
Nous devons nous répartir dans l'espace, et vers d'autres étoiles, de telle sorte qu'un désastre sur la Terre ne signifierait pas la fin de la race humaine. Etablir des colonies autonomes prendra du temps et des efforts, mais cela se simplifiera graduellement grâce à l'amélioration des technologies. »
Le professeur Hawking n’est pas le seul à craindre l’avènement d’une intelligence artificielle autonome dans un futur proche. Plusieurs voix ont déjà émis certaines craintes au sujet du développement de machines intelligentes capables d’exécuter des tâches qui étaient jusqu’à présent effectuées par l’homme, avec, comme conséquence, la destruction de millions d’emplois.
Elon Musk, physicien sud-africain fondateur de Tesla et l’entreprise aérospatiale Space X, avait quant à lui mis en garde contre le fait que l’intelligence artificielle pouvait être potentiellement plus dangereuse que les armes nucléaires pour l’humanité. Plus récemment, Musk a aussi déclaré dans un message sur le site de futurologie Edge.org (effacé depuis lors) que les robots pourraient décider de tuer les humains dans un délai de 5 ans.
Stephen Hawking a souligné les bénéfices des progrès de l’Internet mais a aussi souligné la menace que représentent les atteintes à la vie privée des activités en ligne et le fait que l’Internet devenait un centre d’opérations du terrorisme.
Source : Express.be
Informations complémentaires :