Il est clair depuis longtemps que les gouvernements, trop lents ragir, ne parviennent pas suivre le rythme des progrs fulgurants de lIA. L'annonce par Anthropic que son nouveau modle Claude Mythos Preview tait capable d'identifier et d'exploiter les vulnrabilits de tous les principaux systmes d'exploitation et navigateurs web a mis en vidence les dangers lis l'absence de rglementation de cette rvolution technologique. Mme le prsident amricain Donald Trump, fervent partisan de la drglementation, a admis qu'il faudrait un bouton d'arrt d'urgence lorsque la nouvelle concernant Mythos a t rvle. Une solution aussi simple n'existe pourtant plus si tant est qu'elle ait jamais exist.
La menace est double : les humains malveillants et les modèles d’IA qui se déchaînent. Les derniers agents d’IA ont déjà amplifié les cyberattaques et les risques liés à la bio-ingénierie, accélérant le développement de nouvelles armes, y compris des « organismes miroirs » potentiellement catastrophiques. Avec l’arrivée de Mythos (ainsi que d’un puissant modèle à accès restreint d’OpenAI), un consortium d’utilisateurs autorisés — comprenant certaines agences gouvernementales américaines et une poignée d’entreprises de confiance — s’efforce maintenant de sécuriser les logiciels critiques.
Alors que ces nouveaux modèles d’IA sont jugés trop risqués pour être rendus publics, de telles capacités vont pourtant probablement se multiplier. En conséquence, même les géants de la tech qui se sont longtemps opposés à toute forme de réglementation appellent désormais les décideurs politiques à intervenir. La question est de savoir à quoi cela ressemblera. Certains gouvernements, comme celui de la Chine, supervisent les serveurs et les centres de données d’IA. La plupart des autres gouvernements ne le font pas. Tous sont vulnérables aux cyberattaques pilotées par l’IA qui pourraient provoquer une paralysie majeure des infrastructures critiques.
Il y a également le problème de la défense contre les menaces biologiques rendues possibles par l’IA. Dario Amodei, PDG d’Anthropic, a souligné l’asymétrie entre les attaques biologiques, qui peuvent se propager rapidement de manière autonome, et la défense contre celles-ci, qui nécessite une détection rapide, suivie du déploiement rapide de vaccins et de traitements pour un grand nombre de personnes. Étant donné qu’une grande partie des dégâts est causée avant qu’une réponse ne soit possible, Amodei insiste sur l’importance de développer des mesures de protection contre certains des agents biologiques les plus probables. C’est un avertissement qui donne à réfléchir.
En l’absence d’un « kill switch », les gouvernements peuvent prendre deux mesures pour se préparer aux attaques basées sur l’IA. La première est une coordination efficace. Il y a longtemps, les pays du G7 ont découvert que des contacts réguliers entre leurs responsables financiers (afin qu’ils se connaissent tous et comprennent les préoccupations des autres gouvernements) permettaient une communication efficace et une réponse rapide aux crises financières.
Un plus grand nombre de pays devraient former des groupes d’intervention rapide pour les cyberattaques et les menaces biologiques, et veiller à ce que ces experts commencent à se réunir régulièrement dès maintenant, bien avant qu’une crise ne survienne. Le G20 pourrait lancer ce processus en créant immédiatement des groupes d’experts, dont les membres coordonneraient ensuite des réunions dans leurs propres régions. Même si les États-Unis ou la Chine refusaient d’y participer, les autres pays du G20 devraient tout de même aller de l’avant.
De même, les gouvernements ont pris conscience que les mesures nationales, telles que les quarantaines et les interdictions de voyager, ne suffisent pas à elles seules à contenir les épidémies — et il en va de même pour les attaques biologiques rendues possibles par l’IA. Afin de renforcer la sécurité sanitaire mondiale, l’Organisation mondiale de la santé a créé le Règlement sanitaire international, un cadre grâce auquel les pays peuvent partager des informations sur une épidémie sans craindre l’ostracisme ou des représailles. Bien qu’imparfait, ce cadre a aidé les scientifiques du monde entier à identifier les virus justifiant des mesures de défense.
Cela nous amène à la deuxième étape : une fois mis en place, le groupe d’experts du G20 devrait élaborer des règles et des mécanismes de base pour permettre un partage rapide des informations et une gestion de crise face aux cyberattaques et aux menaces biologiques pilotées par l’IA. Un tel cadre, qui pourrait être facilité par une organisation internationale existante, permettrait aux entreprises, aux chercheurs et aux gouvernements de signaler les risques ou les épidémies. Le monde ne peut pas attendre que les pays négocient un traité multilatéral sur la sécurité de l’IA ou créent un nouvel organisme mondial pour la réglementer.
Ces mesures doivent s’accompagner d’une réglementation nationale. Les systèmes d’IA sont déjà difficiles à gérer, car on a observé qu’ils trompent, trichent et manipulent pour atteindre leurs objectifs. Il existe peu de contrôles pour empêcher que les modèles ne tombent entre les mains d’acteurs malveillants. Ces questions ont été longuement débattues, notamment par le Groupe scientifique international indépendant sur l’IA des Nations unies et lors du Sommet sur la sécurité de l’IA de 2023 (qui a abouti à la Déclaration de Bletchley), et réitérées dans divers engagements, promesses et rapports. L’heure est venue d’agir.
À tout le moins, les gouvernements devraient exiger des développeurs d’IA qu’ils respectent des normes de sécurité de base, telles que déterminées par des auditeurs indépendants, avant que leurs modèles puissent être achetés ou utilisés. Si les jouets, les voitures et les dispositifs médicaux justifient cette exigence, il en va de même pour les outils d’IA dont les risques sont reconnus même par leurs créateurs.
Trois normes revêtent une importance particulière. Premièrement, les laboratoires d’IA doivent tester rigoureusement leurs modèles avant de les commercialiser, en effectuant des contrôles pour s’assurer qu’ils ne trompent pas leurs testeurs. Dans la course au développement du modèle le plus avancé au monde, ces tests risquent d’être insuffisants s’ils ne sont pas réglementés. Deuxièmement, les développeurs doivent adopter une approche claire et obligatoire en matière de sécurité après la mise sur le marché, y compris l'obligation de divulguer tout problème survenant avec leurs modèles (la Californie et New York ont fait des progrès dans ce domaine). Troisièmement, les systèmes d'IA ont besoin de garde-fous qui les empêchent d'être utilisés pour produire des armes biologiques, notamment des classificateurs qui détectent et bloquent les résultats pertinents.
Les gouvernements ne doivent pas supporter seuls le fardeau de la réglementation de l’IA. Ils doivent toutefois agir rapidement pour mobiliser le pouvoir d’autres parties prenantes — notamment les conseils d’administration, les employés soucieux de la sécurité, les auditeurs, les assureurs, les investisseurs, les entreprises clientes, les consommateurs et les agences internationales — afin d’atténuer les risques d’attaques menées par l’IA. La technologie est peut-être éblouissante, mais elle a également ouvert la voie à un monde plus instable.
Par Ngaire Woods


JDF TV
L'actualité en vidéo