Sept familles, regroupées autour du collectif Algos Victima, accusent TikTok d’avoir exposé leurs enfants à des contenus dangereux via son algorithme. Leur avocate dénonce la responsabilité du réseau social, soulignant que la version chinoise de l’application est bien plus encadrée.
Une plainte contre l’algorithme de TikTok
Le 4 novembre, l’avocate Laure Boutron-Marmion a confirmé le dépôt d’un recours auprès du tribunal de Créteil au nom de sept familles, membres du collectif Algos Victima. Ces familles reprochent au réseau social TikTok d’avoir contribué à la dégradation de la santé physique et mentale de leurs enfants en les exposant, via son algorithme, à des contenus mettant en avant des comportements autodestructeurs, tels que le suicide, l’automutilation ou les troubles alimentaires. Parmi les adolescents concernés, deux ont malheureusement mis fin à leurs jours.
Des preuves accablantes contre TikTok
Maître Boutron-Marmion assure que le dossier contient des preuves tangibles pour chacune des histoires de ces sept familles. Ce recours vient compléter une plainte au pénal déposée en 2023 par les parents de Marie, une jeune fille ayant mis fin à ses jours après avoir été exposée à ces contenus nocifs.
Un double standard dans la modération de TikTok
L’avocate dénonce l’attitude de TikTok, qui, selon elle, joue un rôle actif dans la diffusion de ces contenus via son algorithme de recommandation. Elle souligne que la version chinoise de l’application est bien plus édulcorée et que des vidéos de ce type n’y ont pas leur place. “TikTok ne peut pas prétendre que ce contenu ne les concerne pas”, affirme-t-elle.
Un algorithme pointé du doigt
Le principal problème réside dans le fil “Pour toi” de TikTok, alimenté par un algorithme qui impose du contenu ciblé aux utilisateurs sans qu’ils aient besoin de le chercher. Selon maître Boutron-Marmion, des études montrent que des contenus sensibles comme ceux sur le suicide et l’automutilation apparaissent au bout de seulement deux minutes de navigation. Pour elle, TikTok “est à la manœuvre de son algorithme” et doit prendre ses responsabilités.