Doit-on craindre l’intelligence artificielle ?

Dans le journal The Independant, le scientifique britannique Stephen Hawking et trois autres experts préviennent la population des dangers de l'intelligence artificielle. Et si l'humanité était menacée ?

0
2028
Les quatre spécialistes regrettent qu'il n'y ait pas davantage d'études en cours sur l'intelligence artificielle. ©ShutterStock

Du célèbre A.I. de Steven Spielberg à Her, romance de Spike Jones dans laquelle un homme tombe amoureux d’un programme informatique, l’intelligence artificielle (IA) est une source d’inspiration inépuisable pour les adeptes de science-fiction. Et si le fictif devenait réalité ? Et si les robots prenaient, un jour, le pouvoir ? À l’occasion de la sortie du film Transcendance, dans lequel des chercheurs conçoivent un ordinateur dotée d’une conscience, le scientifique britannique Stephen Hawking invite à se méfier de l’IA dans une tribune cosignée le 1er mai dans le journal The Independant avec l’expert en informatique Stuart Russell et les physiciens Max Tegmark et Frank Wilczek. « Nous sommes face à la meilleure ou à la pire chose qui puisse arriver à l’humanité. »

Sous-estimer l’intelligence artificielle, « la plus grave erreur de notre histoire » ?

« Réussir à créer une intelligence artificielle serait le plus grand événement dans l’histoire de l’homme mais ce pourrait aussi être le dernier », écrivent le physicien renommé et ses collègues. Ils citent des exemples comme Siri, l’assistant vocal d’Apple, les voitures auto-pilotées ainsi que les armes autonomes qui pourraient prendre la décision de tirer seules, sans aucune intervention humaine. Selon Stephen Hawking, il faut prendre très au sérieux l’intelligence artificielle. Elle fait certes encore partie du domaine de la science-fiction mais son développement est en cours. La négliger pourrait être « la plus grave erreur de notre histoire », préviennent les scientifiques.

Quels seraient concrètement les dangers de l’IA ? Les auteurs de la tribune expliquent qu’elle pourrait « déjouer les marchés financiers, dépasser les chercheurs, manipuler les dirigeants humains et développer des armes qu’on ne pourrait pas comprendre ». Les quatre spécialistes regrettent qu’il n’y ait pas davantage d’études en cours sur le sujet. « L’incidence à court terme de l’intelligence artificielle dépend de qui la contrôle, mais l’impact à long terme dépend de la possibilité réelle de la contrôler. »

Sur le même thème :

Lire aussi : Un astronaute et un robot discutent de Noël à bord de l’ISS (vidéo)

Lire aussi : Un « robot lycéen » expérimenté dès la rentrée

Cécile David