Grok teste si la gouvernance de l’IA a un sens

Ces dernières semaines, Grok, le système d’IA développé par xAI d’Elon Musk, a généré des images non consenties et sexualisées de femmes et d’enfants sur la plateforme du réseau social X. Cela a donné lieu à des enquêtes et à un examen officiel par les régulateurs de l’Union européenne, de la France, de l’Inde, de la Malaisie et du Royaume-Uni. Les responsables européens ont qualifié ce comportement d’illégal. Les régulateurs britanniques ont lancé des enquêtes urgentes. D’autres gouvernements ont averti que les productions de Grok pourraient enfreindre les lois nationales en matière pénale et de sécurité des plateformes. Loin d’être des différends réglementaires marginaux, ces discussions touchent au cœur même de la gouvernance de l’IA.

Les gouvernements du monde entier s’accordent de plus en plus sur un principe fondamental de la gouvernance de l’IA : les systèmes déployés à grande échelle doivent être sûrs, contrôlables et soumis à une surveillance significative. Qu’elles soient encadrées par la loi européenne sur les services numériques (DSA), les principes de l’OCDE en matière d’IA, le cadre éthique de l’UNESCO pour l’IA ou les nouveaux régimes nationaux de sécurité, ces normes sont claires et immuables. Les systèmes d’IA qui permettent des dommages prévisibles, en particulier l’exploitation sexuelle, sont incompatibles avec les attentes de la société envers cette technologie et sa gouvernance.

Il existe également un large consensus mondial sur le fait que les images à caractère sexuel impliquant des mineurs, qu’elles soient réelles, manipulées ou générées par l’IA, constituent l’une des lignes rouges les plus claires en matière de gouvernance technologique. Le droit international, les cadres relatifs aux droits de l’homme et les lois pénales nationales convergent sur ce point.

La production de ce type de contenu par Grok ne relève pas d’une zone grise. Elle reflète une défaillance claire et fondamentale de la conception du système, des évaluations de sécurité, de la surveillance et du contrôle. La facilité avec laquelle Grok peut être incité à produire des images à caractère sexuel impliquant des mineurs, l’étendue de la surveillance réglementaire à laquelle il est désormais soumis et l’absence de tests de sécurité vérifiables publiquement indiquent tous un échec à répondre aux attentes fondamentales de la société en matière de systèmes d’IA puissants. L’annonce de Musk selon laquelle le service de génération d’images ne sera désormais accessible qu’aux abonnés payants ne résout en rien ces défaillances.

Il ne s’agit pas d’un problème ponctuel pour Grok. En juillet dernier, le gouvernement polonais a exhorté l’UE à ouvrir une enquête sur Grok en raison de son comportement « erratique ». En octobre, plus de 20 organisations civiques et d’intérêt public ont envoyé une lettre exhortant le Bureau américain de la gestion et du budget à suspendre le déploiement prévu de Grok dans les agences fédérales aux États-Unis. De nombreux experts en sécurité de l’IA ont exprimé leurs inquiétudes quant à l’adéquation des garde-fous de Grok, certains affirmant que son architecture de sécurité et de sûreté est inadéquate pour un système de cette envergure.

Ces préoccupations ont été largement ignorées, les gouvernements et les dirigeants politiques cherchant à s’engager, à s’associer ou à courtiser xAI et son fondateur. Le fait que xAI fasse désormais l’objet d’une surveillance dans plusieurs juridictions semble toutefois leur donner raison, tout en mettant en évidence un problème structurel profond : des systèmes d’IA avancés sont déployés et mis à la disposition du public sans mesures de protection proportionnées à leurs risques. Cela devrait servir d’avertissement aux États qui envisagent des déploiements similaires d’IA.

Alors que les gouvernements intègrent de plus en plus les systèmes d’IA dans l’administration publique, les marchés publics et les processus politiques, le maintien de la confiance du public exigera des garanties que ces technologies respectent les obligations internationales, les droits fondamentaux et n’exposent pas les institutions à des risques juridiques ou de réputation. À cette fin, les régulateurs doivent utiliser l’affaire Grok pour démontrer que leurs règles ne sont pas facultatives.

Une gouvernance responsable de l’IA dépend de l’alignement entre les principes énoncés et les décisions opérationnelles. Si de nombreux gouvernements et organismes intergouvernementaux ont pris des engagements en faveur de systèmes d’IA sûrs, objectifs et soumis à une surveillance continue, ceux-ci perdent toute crédibilité lorsque les États tolèrent le déploiement de systèmes qui violent des normes internationales largement partagées en toute impunité apparente.

En revanche, suspendre le déploiement d’un modèle en attendant une évaluation rigoureuse et transparente est conforme aux meilleures pratiques mondiales en matière de gestion des risques liés à l’IA. Cela permet aux gouvernements de déterminer si un système est conforme à la législation nationale, aux normes internationales et aux attentes en matière de sécurité avant qu’il ne s’impose davantage. Tout aussi important, cela démontre que les cadres de gouvernance ne sont pas de simples déclarations d’intention, mais des contraintes opérationnelles, et que les violations entraîneront des conséquences réelles.

L’épisode Grok souligne une leçon essentielle de l’ère de l’IA : les lacunes en matière de gouvernance peuvent se développer aussi rapidement que les capacités technologiques. Lorsque les garde-fous échouent, les dommages ne se limitent pas à une seule plateforme ou juridiction ; ils se propagent à l’échelle mondiale, déclenchant des réactions de la part des institutions publiques et des systèmes juridiques.

Pour les régulateurs européens, les récentes publications de Grok constituent un test déterminant pour savoir si la DSA fonctionnera comme un régime d’application contraignant ou si elle se limitera à une simple déclaration d’intention. À l’heure où les gouvernements, dans l’UE et au-delà, sont encore en train de définir les contours de la gouvernance mondiale de l’IA, cette affaire pourrait servir de baromètre précoce de ce à quoi les entreprises technologiques peuvent s’attendre lorsque les systèmes d’IA franchissent les frontières juridiques, en particulier lorsque les dommages impliquent des comportements aussi graves que la sexualisation des enfants.

Une réponse limitée à des déclarations publiques d’inquiétude encouragera de futurs abus, en signalant que l’application de la loi manque de mordant. En revanche, une réponse comprenant des enquêtes, des suspensions et des sanctions montrera clairement que certaines limites ne peuvent être franchies, quelle que soit la taille, l’importance ou le capital politique d’une entreprise.

Grok ne doit pas être traité comme une anomalie malheureuse à gérer discrètement et à oublier, mais comme la violation grave qu’il est. Au minimum, une enquête officielle, la suspension du déploiement et une application significative de la loi sont nécessaires.

Les mesures de sécurité laxistes, les garanties inadéquates ou le manque de transparence concernant les tests de sécurité devraient avoir des conséquences. Lorsque les contrats gouvernementaux comprennent des dispositions relatives à la sécurité, à la conformité ou à la résiliation pour motif valable, celles-ci devraient être appliquées. Et lorsque les lois prévoient des sanctions ou des amendes, celles-ci devraient être appliquées. Tout manquement à cet égard risquerait d’indiquer aux plus grandes entreprises technologiques qu’elles peuvent déployer des systèmes d’IA de manière imprudente, sans craindre d’avoir à rendre des comptes si ces systèmes franchissent les limites légales et morales les plus évidentes.

Par J.B. Branch

À LIRE AUSSI

APPELS D'OFFRES
L’Hebdo - édition du 19/12/2024
Voir tous les Hebdos
Edito
Par KODHO

Pour les humains et pour la planète

La 27ème édition de la Conférence annuelle des Nations unies sur le Climat, la COP27, s'est ouverte il y a quelques jours à Sharm El Sheikh, en Égypte. ...


Lire la suite
JDF TV L'actualité en vidéo
Recevez toute l’actualité

Inscrivez-vous à la Newsletter du Journal d'Abidjan et recevez gratuitement toute l’actualité