Les scientifiques de Facebook ont mis au point, mercredi 16 juin, une méthode qui permet de détecter ces images truquées très réalistes qui peuvent poser problème sur Internet. La flambée des puissances de calcul numérique associée au développement de l'intelligence artificielle rend possibles de fausses vidéos, qui sont par ailleurs plus « vraies » que nature, c'est ce que les spécialistes baptisent le «Deep Fake». En effet, celui-ci pose problème sur Internet car il peut servir à manipuler les internautes ou à diffamer, en faisant dire ou faire à des personnes des choses qu'elles n'ont pas dites ou faites, dans des attitudes parfaites. Dans cette nouvelle ère que d'aucuns appellent déjà « l'infocalypse », où les vraies et les fausses informations se mélangeraient sans distinction, les scientifiques de Facebook se mobilisent pour lutter contre ces « Deep Fake », grâce à une nouvelle technologie basée sur le « reverse engineering », qu'ils ont développé avec des chercheurs de l'Université d'Etat du Michigan. « Notre méthode d '« ingénierie inverse » repose sur la découverte des schémas uniques derrière le modèle d'IA utilisé pour générer une seule image deepfake », indique Facebook. Et cela est important pour lutter contre ce phénomène. Comme l'explique le réseau social dans un billet, les techniques actuelles consistent à déterminer si une image est réelle ou s'il s'agit d'un deepfake, et de comparer les vidéos en utilisant les modèles de génération de deepfake connus. Mais avec la nouvelle méthode développée par Facebook, il sera également possible d'obtenir des informations sur les deep fake générés en utilisant des modèles qui n'étaient pas encore connus. À l'instar de Facebook, d'autres géants de la Tech se mobilisent Le pouvoir diabolique des technologies dites des « deep fake » est sous l'oeil de tous les acteurs du Tech. Microsoft a présenté l'année dernière un logiciel qui peut aider à repérer les «deep fake» photo ou vidéo, l'un des nombreux programmes conçus pour combattre la désinformation avant l'élection présidentielle américaine. Fin 2019, Google avait rendu publics des milliers de «deep fake» vidéo réalisés par ses équipes pour les mettre à disposition des chercheurs qui veulent développer des méthodes de détection des images manipulées. Plus menace que divertissement Ne se limitant pas seulement à des fins humouristiques, ces deepfakes constituent une vrai menace même pour la politique, allant de la diffamation d'un discours de campagne présidentielle à la création d'une crise diplomatique. Dans ce sillage, selon le Figaro, « un soir, Brigitte Macron ne fut pas surprise lorsqu'elle a vu le président apparaître à l'écran, et prononcer un discours totalement incohérent. Une sorte de stand up faussement décalé et parfaitement inapproprié. L'espace de quelques secondes, la première dame a cru que le chef de l'Etat venait de réduire à néant trois années d'un quinquennat où la communication avait tenu une place particulière. Puis elle a très vite aperçu le discret logo apposé dans le coin inférieur gauche de son poste: un «C» blanc sur fond gris, barré d'un Canteloup ».