Les Suisses s’informent de plus en plus sur les plateformes majeures telles que Google, TikTok, Facebook et X, qui jouent un rôle croissant dans la communication publique et dans la formation de l’opinion. Le Conseil fédéral rappelle que ces acteurs définissent leurs propres règles de communication et que cela peut influencer le paysage médiatique.
Transparence accrue et droits des utilisateurs
Le Conseil fédéral appelle à plus de transparence lorsque des contenus sont supprimés ou des comptes bloqués. À l’avenir, les utilisateurs concernés devront être informés et les plateformes devront justifier leurs décisions.
Recours et mécanismes de règlement
Par ailleurs, les grandes plateformes seront tenues de mettre en place une procédure interne de réclamation et de participer à un règlement extrajudiciaire des litiges afin de permettre aux utilisateurs de contester les mesures prises à leur encontre par ces entreprises.
Contenus illicites et représentation légale
Les plateformes devront également mettre à disposition des utilisateurs une procédure simple permettant de notifier facilement certains contenus présumés illicites. Il s agit notamment de calomnie, d’injure, de discrimination et d’incitation à la haine.
Elles devront aussi désigner un représentant légal en Suisse lorsque le siège de l’entreprise se situe à l’étranger afin que la loi soit efficace.
Portée et calendrier
La nouvelle loi concerne les très grandes plateformes qui touchent quotidiennement 10 pour cent des citoyens. Seules cinq à quinze entreprises très influentes seront concernées. Les plateformes à but non lucratif, comme Wikipédia, et les plateformes d’éducation ne sont pas concernées. La consultation dure jusqu’au 16 février.
Forum et explications
Échanges et contexte
Des échanges dans le cadre du Forum ont porté sur ces dispositions et les points de vue exprimés, avec des interventions de parlementaires et d’experts. Des explications sur le cadre juridique ont été fournies par des intervenants spécialisés.