Ce que Facebook considère comme du « terrorisme » est « trop large » et risque de conduire à une censure excessive et à un accès arbitraire au réseau social, a averti lundi une rapporteuse spéciale de l'ONU. Fionnuala Ni Aolain, une experte indépendante de l'ONU sur la protection des droits de l'homme dans le contexte de la lutte contre le terrorisme, a indiqué avoir écrit à Mark Zuckerberg, patron fondateur de Facebook, pour exprimer sa préoccupation face aux efforts du premier réseau social au monde pour empêcher les « terroristes » d'utiliser sa plate-forme. « L'utilisation de définitions trop larges et imprécises servant de base pour réglementer l'accès et l'utilisation de la plate-forme Facebook peut conduire à une mise en oeuvre discriminatoire, à une censure excessive et à un refus arbitraire en matière d'accès et d'utilisation des services de Facebook« , a averti Ni Aolain, citée dans un communiqué. La définition de Facebook, a-t-elle expliqué, assimile à des entités terroristes tous les groupes non étatiques qui recourent à la violence en vue d'atteindre leurs objectifs. « L'utilisation d'une définition aussi large est particulièrement inquiétante à la lumière du fait qu'un certain nombre de gouvernements cherchent à stigmatiser diverses formes de dissidence et d'opposition – qu'elles soient pacifiques ou violentes« , en les assimilant à des terroristes, a déclaré Ni Aolain. En outre, la définition utilisée par Facebook pour définir ce qu'est un terroriste « est contraire au droit international humanitaire car elle qualifie de terroristes tous les groupes armés non étatiques qui sont parties à un conflit armé non international, même si ces groupes se conforment au droit international humanitaire« , a-t-elle souligné. L'experte s'est également inquiétée du manque de clarté concernant les méthodes utilisées par Facebook pour déterminer si une personne appartient à un groupe particulier, jugeant « l'absence de processus indépendants d'examen, de surveillance et de contrôle des actions de Facebook (…) très problématique« . En mai, le groupe technologique avait indiqué avoir supprimé au premier trimestre 1,9 million de contenus en lien avec la propagande terroriste, soit 73% de plus qu'au 4e trimestre 2017, grâce à des améliorations technologiques. 99,5% des contenus supprimés l'ont été avant tout signalement.