À peine élu 47ème président des États-Unis, Donald Trump a décidé de faire un grand ménage en révoquant lundi dernier le décret de Joe Biden daté du 30 octobre 2023, qui avait pour but d’encadrer les risques liés à l’IA. Bien que ce décret ait été conçu pour promouvoir une IA responsable, notre nouvel hôte à la Maison Blanche le voit plutôt comme un frein à l’innovation. Qui aurait cru qu’un décret puisse avoir des ambitions de blockbuster ?

Ce fameux décret demandait aux entreprises développant des systèmes d’IA avancés, avec des risques potentiels pour la sécurité nationale, l’économie ou la santé, de partager leurs résultats de tests de sécurité et autres informations cruciales avec le gouvernement. C’est un peu comme demander à un chef d’entreprise de dévoiler ses recettes secrètes… mais pour le bien de la nation, évidemment.

Cette décision de supprimer le décret arrive à un moment où les grandes entreprises d’IA sont jugées sur leurs pratiques de gestion des risques, qui laissent à désirer, selon une évaluation de SaferAI, une ONG française spécialisée dans ce domaine. Une situation aussi confortable qu’un hamster dans une roue !

Siméon Campos, fondateur et directeur exécutif de SaferAI, lâche cette petite perle :

“Les garde-fous qui viennent d’être supprimés doivent être urgemment remplacés. Notre récente notation, mesurant la maturité de gestion des risques des entreprises d’IA, montre que même les entreprises leaders se contentent de notes entre 1,5 et 1,9 sur 5 en matière de bonnes pratiques, certaines allant même jusqu’à un pitoyable 0,1. Ces chiffres révèlent que même les géants de l’industrie ont encore du chemin à parcourir pour gérer leurs risques, et sans régulation, ces lacunes pourraient devenir un véritable gouffre.”

L’enjeu est considérable, surtout après les récents développements dans le domaine de l’IA. Par exemple, le modèle o1 d’OpenAI a montré des capacités synonyme de progrès… ou pas, notamment en aidant à penser à comment développer des armes biologiques. Pendant ce temps, son cousin o3 s’apprête à faire parler de lui encore plus. Préparez-vous, il sera lancé dans quelques semaines, avec une version mini qui arrivera d’ici la fin du mois. Si le décret de Biden avait fonctionné, les entreprises auraient dû partager les résultats de leurs tests de sécurité et d’autres informations avec le gouvernement concernant de tels systèmes.

Henry Papadatos, Managing Director de SaferAI, ne mâche pas ses mots :

“Sans les exigences de tests de sûreté du décret et la transparence qui va avec, nous naviguons à vue dans un océan d’IA de plus en plus sophistiquées. Nos notations indiquent clairement que les engagements volontaires ne suffisent pas à garantir une gestion des risques adéquate.”

Les experts en gestion des risques de SaferAI lancent un appel à des mesures législatives pour combler le vide réglementaire laissé par la suppression du décret. Les dispositifs de gestion des risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité ne seront plus appliqués, laissant planer des interrogations inquiétantes sur l’utilisation abusée de systèmes d’IA avancés. Voilà un scénario dystopique qui pourrait facilement se glisser dans un film de science-fiction !

WordPress Appliance - Powered by TurnKey Linux