Fin 2023, plus de quarante États américains ont lancé des poursuites contre Meta (Facebook, Instagram), l’accusant de nuire à la « santé mentale et physique de la jeunesse » selon un reportage de France Inter. Une procédure qui en rejoint d’autres, alors que les effets négatifs des réseaux sociaux sont mieux connus et reconnus provoquant troubles du sommeil, de la sociabilité, dépression, anxiété voire idées suicidaires dans certains cas.
De plus, l’utilisation de filtres pour améliorer ses photos, comme sur Instagram et Snapchat, est aussi montrée du doigt pour ses conséquences sur l’image corporelle des utilisateurs, pouvant aller jusqu’à une dégradation de l’image de soi.
De son côté, X (ex-Twitter) fait lui aussi l’objet de procédures autour de contenus pouvant être particulièrement néfastes pour les enfants et adolescents notamment par l’exposition massive à des contenus haineux et violents non censurés.
Quelque soit la plateforme visée, les plaignants estiment que non seulement les entreprises sont au courant de ces effets addictifs sur les plus jeunes, mais les a sciemment exploités à des fins commerciales. À l’origine : « des technologies puissantes et sans précédent pour attirer et finalement piéger les jeunes et les adolescents » que l’on nomme algorithmes. Les conséquences ? Une co-rumination renforcée par les bulles algorithmiques où les personnes en détresse entrent dans une spirale, une boucle d’exposition à des contenus similaires.
Dans ce contexte, les réactions actuelles passent par le législateur. En septembre 2023, une nouvelle législation « anti-addiction » est entrée en vigueur en Chine, interdisant aux moins de 18 ans d’accéder à Internet la nuit sur leur smartphone, et limitant leur temps de connexion par jour en fonction de leur âge.
De son côté, X a été condamné en octobre 2023 en Australie à une amende de près de 370.000 euros pour son manque d’actions réelles pour empêcher la diffusion de contenus montrant des agressions sexuelles sur mineurs.
En septembre 2024, une collaboration inter-plateformes est annoncée : le programme Thrive. Fruit d’une collaboration entre Meta, le Mental Health Coalition, Snap et TikTok, Thrive vise à lutter contre la propagation de contenus liés à l’automutilation et au suicide sur les plateformes numériques. Thrive fonctionnera grâce à un système de partage de signaux. En pratique, les entreprises participantes pourront s’envoyer des alertes concernant des contenus préoccupants.
Aujourd’hui, se priver des réseaux sociaux ne parait plus envisageable. « Il faut rappeler qu’un réseau social est un espace social, il n’est ni bon ni mauvais, il faut réfléchir à la manière dont on s’en empare », souligne le Dr Charles-Edouard Notredame, psychiatre au CHU de Lille, dans une interview pour le Figaro santé. Il lance un appel à une « meilleure collaboration entre la clinique et la recherche en santé mentale et les grandes entreprises des réseaux sociaux. On ne pourra pas faire sans ces mastodontes ». Le psychiatre note qu’une « censure est difficile à appliquer, néanmoins on sait ce qui marche, comme une régulation par des messages d’aide et de soutien. Il faut envisager le réseau social comme un moyen de faire de la prévention ».