La Commission européenne a adopté, mercredi 21 avril, de nouvelles règles et actions visant à faire de l'Europe "le pôle mondial d'une intelligence artificielle (IA) digne de confiance". "La combinaison du tout premier cadre juridique sur l'IA et d'un nouveau plan coordonné avec les Etats membres garantira la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l'adoption de l'IA, les investissements et l'innovation dans l'ensemble de l'UE", indique la Commission dans un communiqué. Cette approche, ajoute-t-on, sera complétée par de nouvelles règles concernant les machines, qui visent à accroître la confiance des utilisateurs dans la nouvelle génération polyvalente de produits en adaptant les dispositions relatives à la sécurité. "En matière d'intelligence artificielle, la confiance n'est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l'UE prend l'initiative d'élaborer de nouvelles normes mondiales qui garantiront que l'IA soit digne de confiance. En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l'UE", a déclaré Margrethe Vestager, vice-présidente exécutive de la Commission européenne pour une Europe adaptée à l'ère du numérique, citée dans le communiqué. Selon l'exécutif européen, les nouvelles règles "proportionnées et souples" prévues pour faire face aux risques spécifiques liés aux systèmes d'IA constitueront l'ensemble de normes "le plus strict au monde" et suivront une approche fondée sur les risques. Ainsi, les systèmes d'IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits, précise-t-on. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) et des systèmes qui permettent la notation sociale par les Etats. Par ailleurs, les systèmes d'IA à haut risque devront être conformes à des obligations strictes pour pouvoir être mis sur le marché. Parmi les systèmes d'IA considérés comme à haut risque, la Commission européenne cite les technologies utilisées dans les infrastructures critiques et sont susceptibles de mettre en danger la vie et la santé des citoyens; les technologies utilisées dans les composants de sécurité des produits et les technologies d'IA utilisées dans le domaine de l'emploi, de la gestion de la main d'œuvre et de l'accès à l'emploi indépendant. En particulier, précise la Commission, les systèmes d'identification biométrique à distance fondés sur l'IA sont considérés comme à haut risque et sont donc soumis à des exigences strictes. Leur utilisation en temps réel dans l'espace public aux fins du maintien de l'ordre est en principe interdite. En revanche, note l'exécutif européen, le nouveau règlement autorise l'utilisation libre d'applications telles que les jeux vidéo ou les filtres anti-spam reposant sur l'IA. S'agissant des machines, un règlement adopté par la Commission garantira que "les machines de nouvelle génération offrent toute la sécurité requise aux utilisateurs et aux consommateurs et encouragera l'innovation". En outre, il répondra aux besoins du marché en "apportant une plus grande clarté juridique aux dispositions actuelles, en réduisant la charge administrative et les coûts pour les entreprises grâce à l'autorisation de la documentation au format numérique".
* Microsoft rachète la société de reconnaissance vocale Nuance pour près de 20 milliards de dollars