Chat Control et CSAM : les enjeux, les garde-fous et les débats en Europe
La proposition officielle, nommée CSAM (Child Sexual Abuse Material), viserait à obliger les services de messagerie tels WhatsApp, Signal ou Messenger à détecter les contenus pédocriminels. Le mécanisme envisagé est le scan côté client : une analyse des images, vidéos ou liens directement sur l’appareil de l’utilisateur, avant même que le message ne soit chiffré et envoyé.
Garde-fous et limites du dispositif
La version la plus récente du texte prévoit que le scan serait limité aux contenus visuels et aux URL, et exclurait pour l’instant les textes et les messages audio.
Pour les messageries chiffrées, l’activation du scan demanderait le consentement explicite de l’utilisateur. En cas de refus, l’envoi d’images et de vidéos serait bloqué sur le service concerné. Par ailleurs, tout signalement serait vérifié par un humain au sein d’un futur Centre de l’UE avant d’être transmis aux autorités.
Des critiques et une lettre ouverte
Une part importante de la communauté scientifique estime ces garanties insuffisantes. Dans une lettre ouverte signée par plus de 700 experts mondiaux, dont des chercheurs de l’EPFL, on affirme que la technologie serait inefficace et facile à contourner et qu’elle pourrait affaiblir la sécurité du chiffrement en créant une porte dérobée.
Aspect juridique clé
Un point juridique jugé crucial concerne un arrêt de la Cour européenne des droits de l’homme, Podchasov c. Russie, qui rappelle que le simple stockage de données relatives à la vie privée constitue déjà une ingérence. Le scan préventif, selon les signataires, irait à l’encontre de ce droit fondamental.
Réactions et échéance du débat
Bien que la Suisse ne soit pas directement concernée, des entreprises helvétiques comme Proton et Threema ont exprimé leur inquiétude et évoqué la possibilité de se retirer du marché européen. L’issue du débat reste incertaine et dépendra du vote des États membres au Conseil de l’UE le 14 octobre prochain.
Par Hélène Joaquim