Deux chercheurs marocains en algorithmique de l'Ecole polytechnique fédérale de Lausanne sont parvenus à obtenir des résultats surprenants sur l'intelligence artificielle, décryptant un peu plus les mécanismes de l'injonction de l'homme sur la machine. À Lausanne, sur la rive nord du lac Léman, deux chercheurs marocains en algorithmique de l'Ecole polytechnique fédérale de Lausanne (EPFL) ont obtenu des résultats de recherches très surprenants sur l'intelligence artificielle (IA) : ils ont démontré que l'injonction de l'Homme sur une flotte de robots guidés par l'IA était possible. Rachid Guerraoui, chercheur marocain et directeur du Laboratoire de programmation distribuée (LPD) de l'EPFL, dédié à l'algorithmique, et son étudiant doctorant, El Mahdi El Mhamdi, sont les co-auteurs d'une étude présentée lundi 4 décembre à Long Beach, en Californie, lors de la Neural Information Processing Systems (NIPS), une conférence sur l'intelligence artificielle et les neurosciences computationnelles qui se tient chaque année dans un pays différent. «L'intelligence artificielle cherchera toujours à éviter l'intervention humaine et à se mettre dans une situation où on ne pourra pas l'arrêter», décrypte Rachid Guerraoui pour Yabiladi depuis son laboratoire à Lausanne. En effet, les machines munies de l'intelligence artificielle répètent, s'adaptent et observent ; répètent, s'adaptent et observent... Cette suite limitée d'instructions débouchant sur un résultat se nomme communément algorithme. Ici, il s'agit d'un algorithme très simple permettant à la machine d'apprendre automatiquement, notamment de ses erreurs passées, afin qu'elle ne les reproduise plus à l'avenir. L'une des méthodes d'apprentissage automatique utilisées est l'apprentissage par renforcement. Autrement dit, l'optimisation d'une récompense quantitative au cours du temps. Cet apprentissage par renforcement puise ses origines dans les théories de la psychologie animale, qui analysent la manière dont un animal peut apprendre par essais-erreurs à s'adapter à son environnement. Intelligence artificielle répartie La situation tend à se compliquer lorsqu'il est question de plusieurs IA interagissant ensemble, comme des voitures autonomes qui rouleraient toutes ensembles. Dans ce contexte, non seulement l'IA poursuit l'apprentissage de ce qu'elle fait, mais apprend aussi de ce que font les autres. Rachid Guerraoui enchaîne avec son analogie sur les voitures autonomes : «Si par exemple une voiture a été arrêtée par l'homme, pour l'IA, ce n'est pas idéal pour arriver plus vite. Alors elle fera en sorte de ne pas être arrêté par l'Homme.» En effet, les IA apprennent les unes des autres, ce qui a mené les chercheurs à travailler sur des algorithmes appelés algorithmes répartis. «On a posé le problème de manière mathématique dans le cadre de plusieurs IA et on a vu qu'il existait plusieurs solutions pour que les IA ne prennent jamais en compte l'Homme. C'est comme si on effaçait sa mémoire à chaque fois que l'humain l'interrompt de façon à ce qu'elle ne se souvienne pas qu'il l'a interrompue», explique Rachid Guerraoui. Toujours avoir le dernier mot Faut-il rendre l'intelligence artificielle amnésique ? Oui, mais uniquement par l'humain qui demeurera l'unique maître. L'intelligence artificielle n'a aucune connaissance de la mainmise de l'Homme sur elle. C'est ce résultat, obtenu après plusieurs mois de recherches en Suisse, et réunissant une équipe de quatre personnes, qui a été présenté à Long Beach. «Le défi n'est donc pas techniquement d'interrompre un robot, mais de le programmer afin que l'intervention humaine ne change pas son comportement et qu'il ne l'optimise pas pour éviter de se faire arrêter», reprend le chercheur. C'est à cette complexité que sont attachés les chercheurs du LPD. Ils ont apporté la preuve de l'existence d'une «interruptibilité sûre» (safe interruptibility), le but final étant l'injonction de l'Homme sur la machine et non l'inverse. Il s'agit aussi de faire en sorte que les interruptions humaines ne changent en rien la manière dont les IA apprennent. El Mahdi El Mhamdi, co-auteur de l'article, explique : «Très schématiquement, on va introduire dans les algorithmes des mécanismes d'oubli comme le fait de couper des bouts de mémoire de l'IA.» Il cite à cet égard le film américain de science-fiction «Men in Black», où grâce aux technologies avancées, les héros sont virtuellement inexistants et effacent la mémoire des témoins gênants. La population ignore ainsi la présence de vie extraterrestre au sein de la planète. Article modifié le 07/12/2017 à 16h39