Cet article est une traduction de l’article de Patrick Breyer1.
En mai 2022, la Commission européenne a proposé un règlement visant à obliger les fournisseurs de services en ligne à fouiller automatiquement tous les chats, messages, e-mails et stockages en ligne privés à la recherche de contenus suspects – de manière générale et sans distinction. L’objectif déclaré est de poursuivre le partage de matériel pédopornographique ou de sollicitation d’enfants à des fins sexuelles. Les fournisseurs sont déjà autorisés à effectuer cette recherche sur une base volontaire, mais la Commission veut la rendre obligatoire pour tous les services pour lesquels il existe un risque de partage ou de manipulation psychologique.
Le 10 octobre 2022, la proposition a été présentée et discutée pour la première fois au sein de la commission LIBE du Parlement européen ; le pirate Patrick Breyer a été désigné comme rapporteur fantôme pour le groupe des Verts/ALE (ie. son négociateur). La première réunion de la commission LIBE aura lieu le 30 novembre 2022. Par la suite, le Parlement européen et le Conseil de l’UE discuteront des amendements proposés par les commissions, et ces délibérations pourraient se terminer dès la fin de l’année 2022.
Le règlement concerne les services de messagerie ainsi que les services de cloud computing et d’hébergement de toutes sortes, même les fournisseurs de services de communications chiffrées de bout en bout. Le règlement rendrait obligatoire la surveillance des conversations après que le fournisseur en ait reçu l’ordre par les autorités compétentes. Elles recevraient un tel ordre si, à la suite d’une évaluation, il s’avère qu’il existe un risque que le service (qu’il s’agisse de la fonction de conversation d’un jeu vidéo ou d’un service de vidéoconférence, de cloud, de services de courrier électronique, etc.) Par conséquent, comme il existe un tel risque pour tous les services de communication et de stockage en ligne, tous les textes, images, vidéos et voix (par exemple, les réunions visio, les messages vocaux et les appels téléphoniques) devraient être scannés. Lorsque l’algorithme pensera avoir trouvé un cas pertinent, le contenu en question serait transmis automatiquement à la police par le fournisseur de service, sans intervention humaine.
Le projet soulève de nombreuses inquiétudes au niveau des droits fondamentaux. En définitive, le règlement conduira à l’abolition du secret des télécommunications protégé par l’article 7 de la Charte européenne des droits fondamentaux, et constitue une ingérence grave dans la protection des données accordée par l’article 8 de la Charte. Cet ordre de scanner les conversations et contenus ne nécessiterait l’approbation d’aucun juge.
En outre, la technologie basée sur l’IA qui est utilisée entraînera vraisemblablement des quantités massives de faux signalements en raison du taux d’erreur inconnu des algorithmes (jusqu’à présent proposés). La Commission n’a pas fixé de normes contraignantes concernant le taux d’erreur maximal admissible. Les filtres de reconnaissance d’images sont connus pour leur capacité à détecter même des photos de vacances légales avec des enfants sur la plage ou des flirts consensuels entre mineurs, ce qui a pour conséquence de criminaliser des citoyens innocents et d’inonder la police d’innombrables faux positifs.
En outre, les algorithmes auxquels la Commission fait référence lorsqu’elle propose une telle mesure de filtrage ne sont pas accessibles au public et à la communauté scientifique, et le projet ne contient aucune obligation de divulgation. Les déclarations de diverses autorités renforcent ce soupçon d’une technologie sujette aux erreurs. Selon la police fédérale suisse, 80 % des rapports qu’elle reçoit sur la base des recherches déjà effectuées (généralement basées sur la méthode du hachage) sont pénalement non pertinents. De même, en Irlande, seuls 20 % des rapports du NCMEC reçus en 2020 ont été confirmés comme étant réellement de la pédopornographie.
Les agences de renseignement et les pirates informatiques pourront ainsi accéder plus facilement aux conversations et aux courriels privés. Dès que le chiffrement sécurisé sera affaibli pour permettre la surveillance des conversations, cette faille permettra à d’autres tiers d’accéder aux communications des personnes. Ainsi, les communications privées, de même que les secrets d’affaires et les informations gouvernementales sensibles, seraient exposées à des risques plus élevés de cyber-attaques et bénéficieraient d’une protection réduite.
Il est donc extrêmement peu probable que la surveillance des conversations ait l’effet escompté pour lutter réellement contre la pédopornographie. La surveillance obligatoire des conversations ne permettra pas de détecter la plupart des auteurs qui enregistrent et partagent de la pédopornographie, car on sait que les pédophiles s’organisent principalement par le biais de forums secrets autogérés sans algorithmes de contrôle, au lieu de partager leur contenu via des services commerciaux de courrier électronique, de messagerie ou de conversation.
En même temps, l’utilisation d’une technologie qui lit automatiquement les communications privées en ligne est dangereuse, car elle peut facilement être détournée à d’autres fins. Dans les États autoritaires, de tels filtres sont utilisés pour persécuter et emprisonner les opposants désagréables au gouvernement.
En outre, pour lutter efficacement contre les abus, il faut renforcer les moyens des forces de l’ordre de manière spécifique au lieu de les encombrer de milliers de faux rapports. En outre, il faut créer des structures qui préviennent activement les abus dans la société et dans les institutions, afin de s’attaquer à la cause du problème et pas seulement à son symptôme. Enfin, le contenu existant doit être systématiquement supprimé d’Internet, contrairement aux pratiques actuelles de la police.
1 : Site de Patrick Breyer – Article Messaging and Chat Control Retour au texte