Facebook, le réseau social le plus utilisé au monde s'est livré à un combat contre le terrorisme. Si cette action est nécessaire pour contrecarrer la propagande terroriste, c'est la façon dont elle a été mise en œuvre qui pose problème. Une experte de l'ONU remet en lumière le plan d'action de Zuckerberg et appelle au respect des droits de l'Homme. Ce que Facebook considère comme du "terrorisme" est "trop large" et risque de conduire à une censure excessive et à un accès arbitraire au réseau social, a averti lundi une rapporteuse spéciale de l'ONU. Cette experte indépendante de l'ONU sur la protection des droits de l'Homme dans le contexte de la lutte contre le terrorisme, Fionnuala Ni Aolain, a indiqué avoir écrit à Mark Zuckerberg, patron fondateur de Facebook, pour exprimer sa préoccupation face aux efforts du premier réseau social au monde pour empêcher les "terroristes" d'utiliser sa plateforme. "L'utilisation de définitions trop larges et imprécises servant de base pour réglementer l'accès et l'utilisation de la plateforme Facebook peut conduire à une mise en œuvre discriminatoire, à une censure excessive et à un refus arbitraire en matière d'accès et d'utilisation des services de Facebook", a averti Ni Aolain, citée dans un communiqué. La définition de Facebook, a-t-elle expliqué, assimile à des entités terroristes tous les groupes non-étatiques qui recourent à la violence en vue d'atteindre leurs objectifs. "L'utilisation d'une définition aussi large est particulièrement inquiétante à la lumière du fait qu'un certain nombre de gouvernements cherchent à stigmatiser diverses formes de dissidence et d'opposition -qu'elles soient pacifiques ou violentes", en les assimilant à des terroristes, a déclaré Ni Aolain. En outre, la définition utilisée par Facebook pour définir ce qu'est un terroriste "est contraire au droit international humanitaire, car elle qualifie de terroristes tous les groupes armés non-étatiques qui sont parties à un conflit armé non-international, même si ces groupes se conforment au droit international humanitaire", a-t-elle souligné. L'experte s'est également inquiétée du manque de clarté concernant les méthodes utilisées par Facebook pour déterminer si une personne appartient à un groupe particulier, jugeant "l'absence de processus indépendants d'examen, de surveillance et de contrôle des actions de Facebook (...) très problématique". Il convient de noter qu'en mai 2018, le groupe technologique avait indiqué avoir supprimé au premier trimestre 1,9 million de contenus en lien avec la propagande terroriste, soit 73% de plus qu'au 4e trimestre 2017, grâce à des améliorations technologiques. 99,5% des contenus supprimés l'ont été avant tout signalement.