Des grands modèles d’IA ne respectent pas les règles de conformité de l’UE
Un nouvel outil d’évaluation des grands modèles de langage (LLM) développé par la start-up suisse LatticeFlow AI et deux instituts de recherche européens, a détecté que plusieurs modèles d’intelligence artificielle (IA), dont ceux d’OpenAI et Meta, ne respectaient pas les normes de l’Union européenne (UE) sur la cybersécurité et la lutte contre les discriminations.
L’outil – disponible gratuitement – a notamment repéré des biais discriminatoires dans le GPT-3.5 Turbo d’OpenAI, ainsi que des failles de cybersécurité. C’est le modèle Claude 3 Opus d’Anthropic qui a obtenu le meilleur score lors du test.
« La Commission se félicite de cette étude et de la plateforme d’évaluation des modèles d’IA. Elles constituent une première étape dans la traduction de la loi européenne sur l’IA (AI Act) en matière d’exigences techniques. Cela va aider les fournisseurs de modèles d’IA à s’y conformer », déclare Thomas Regnier, porte-parole de la Commission européenne.
Pour mémoire, l’AI Act de l’UE vise à promouvoir des systèmes d’intelligence artificielle fiables tout en protégeant les droits fondamentaux des citoyen·ne·s. Il est entré en vigueur le 1er août 2024 mais sa mise en œuvre complète n’aura lieu que dans trois ans. En cas de non-conformité, les entreprises pourraient écoper d’amendes pouvant atteindre les 35 millions d’euros.