Un rapport de 100 pages avertit des risques pour l’humanité de l’intelligence artificielle

Cet article a été initialement publié sur Motherboard.

Quand on pense à l’intelligence artificielle (IA), nous viennent à l’esprit des produits comme Siri ou Alexa. En fait, l’IA est déjà omniprésente autour de nous, la plupart du temps fonctionnant en arrière-plan. On peut avoir du mal à prendre la mesure de cette lente pénétration dans tous les domaines, de la médecine à la finance, car elle ne correspond pas à ce que le cinéma hollywoodien a imaginé dans des films comme Deus Ex Machina ou Her. En grande partie, l’intelligence artificielle d’aujourd’hui est plutôt stupide en comparaison avec l’intelligence humaine : un algorithme d’apprentissage automatique est en mesure de supplanter un humain dans une tâche précise, comme jouer au jeu de go, mais échoue à effectuer des tâches anodines comme faire la différence entre une tortue et une arme à feu.

Videos by VICE

Néanmoins, 26 experts internationaux se sont rassemblés à Oxford en février de l’an passé pour discuter des utilisations malveillantes potentielles de l’intelligence artificielle. Le fruit de cette réflexion collective de deux jours est un rapport de 100 pages publié le 21 février dernier sur les risques que pose l’IA quand elle se retrouve entre mauvaises mains et les stratégies pour réduire ces risques.

L’une des quatre recommandations principales du groupe de travail, s’adressant aux chercheurs et ingénieurs en IA, était de prendre très au sérieux le double usage de leurs travaux, en tenant compte de leur utilisation à mauvais escient lors de l’établissement des priorités de recherche et des normes, et de consulter les acteurs concernés lorsque des applications malveillantes sont prévisibles ».

Cette recommandation est très pertinente considérant l’apparition récente des vidéos de « deepfakes », qui remplace le visage d’actrices pornos en pleine action par celui de célébrités à l’aide de l’apprentissage automatique. Comme l’avait rapporté notre journaliste Sam Cole, ces manipulations ont été rendues possibles en adaptant un outil d’apprentissage automatique ouvert appelé TensorFlow et développé par des employés de Google. Ces manipulations de vidéos illustrent le double usage que l’on peut faire des outils d’apprentissage automatique et soulèvent aussi la question de leur accès : à qui doit-on l’accorder?

Les experts ont d’ailleurs souligné l’utilisation de techniques similaires, par exemple en manipulant des vidéos de chefs d’État dans le but de mettre en péril la sécurité politique, l’un des trois grands axes du rapport. Il suffit d’imaginer les conséquences de la circulation à Pyongyang d’une fausse vidéo de Trump déclarant la guerre à la Corée du Nord pour comprendre ce qui est en jeu. Les experts soulignent que l’utilisation de l’IA pour rendre possible la surveillance de masse et la persuasion de masse au moyen de propagande ciblée sont deux autres risques politiques à considérer.

Les deux autres grands axes du rapport sont la sécurité numérique et la sécurité physique. Pour ce qui est de la sécurité numérique, l’IA pour mener des cyberattaques « élimine le compromis entre l’efficacité et l’échelle des attaques ». Par exemple, l’IA pourrait effectuer des cyberattaques qui requièrent beaucoup de travail comme l’hameçonnage à grande échelle ou des formes d’attaques plus sophistiquées comme l’utilisation de la synthèse vocale pour usurper l’identité d’une victime.

En matière de sécurité physique, les experts ont analysé l’importance croissante des systèmes automatisés dans le monde physique : de plus en plus de maisons et de voitures autonomes sont reliées à internet. L’IA pourrait être utilisée pour perturber ces systèmes et causer des catastrophes. De plus, il y a le risque que posent les systèmes profitant de l’intelligence artificielle volontairement destinés à causer des dommages, comme les armes autonomes et les essaims de micro-drones.

Certains des risques, comme une invasion de micro-drones autonomes, semblent appartenir à un avenir lointain, mais les cyberattaques à grande échelle, les armes autonomes et la manipulation de vidéos causent déjà des dégâts. Afin de les contrer et de veiller à ce que l’intelligence artificielle soit utilisée dans l’intérêt de l’humanité, les experts recommandent l’élaboration de nouvelles politiques et l’exploration de différents modèles d’accès. Par exemple, l’octroi centralisé de licences pourrait permettre de s’assurer que les technologies basées sur l’intelligence artificielle ne tombent pas entre de mauvaises mains, et des programmes de surveillance permettraient de garder à l’œil leur utilisation.

« Les tendances actuelles montrent qu’il y a un accès généralisé à la recherche de pointe et aux accomplissements dans le développement, écrivent les auteurs du rapport. Si ces tendances se poursuivent dans les cinq prochaines années, nous prévoyons que la capacité des auteurs d’attaques de causer des dégâts à l’aide de systèmes numériques et robotiques augmentera considérablement. »

Par contre, les experts reconnaissent que la prolifération de technologies ouvertes basées sur l’intelligence artificielle attirera aussi de plus en plus l’attention des décideurs et législateurs, qui imposeront des limites à leur utilisation. Quant à la forme que devraient prendre les mesures législatives, il faudra que ce soit établi aux niveaux local, national et international.

Pour plus d’articles comme celui-ci, inscrivez-vous à notre infolettre.

« Il reste de nombreux désaccords entre les coauteurs de ce rapport, en plus de ceux avec les autres experts de par le monde, écrit-on en conclusion du rapport. Beaucoup de ces désaccords ne seront pas résolus avant que nous disposions de données additionnelles, qui seront accessibles à mesure que les menaces et les réactions à celles-ci se concrétiseront, mais cette incertitude et des désaccords ne devraient pas nous empêcher de prendre des mesures préventives dès aujourd’hui. »