Certains challenges ont défrayé la chronique en raison des blessures, traumatismes, voire décès qu’ils ont causés. Le “Benadryl Challenge” incitait à ingérer des doses excessives d’un antihistaminique pour provoquer des hallucinations, entraînant des hospitalisations d’adolescents aux États-Unis. En France, le “Blackout Challenge” – consistant à retenir sa respiration jusqu’à l’évanouissement – a provoqué la mort de plusieurs mineurs depuis 2021.

Rôle des algorithmes : viralité sans filtre

Les mécanismes de recommandation de TikTok jouent un rôle central dans la diffusion des challenges. Le système “For You” est conçu pour maximiser le temps de visionnage et favoriser les contenus qui génèrent le plus d’interactions, indépendamment de leur contenu.

Ce fonctionnement accentue la propagation de défis risqués, car :

  • la reproduction massive de ces vidéos renforce leur visibilité,
  • les réactions émotionnelles fortes (rire, choc, peur) favorisent les partages,
  • les utilisateurs jeunes sont souvent peu critiques face aux conséquences possibles.

TikTok affirme avoir modifié son algorithme depuis 2023 pour mieux détecter les contenus nuisibles. Mais les filtres automatiques atteignent rapidement leurs limites face à la créativité et aux codes internes des communautés.

Responsabilité des créateurs et limites juridiques

Les créateurs de contenus sont en théorie responsables de ce qu’ils publient. En pratique, la frontière entre divertissement et incitation est floue, surtout lorsque le défi prend la forme d’un jeu collectif. La loi française encadre toutefois certains comportements :

  • l’incitation à se mettre en danger (même sans volonté de nuire) peut tomber sous le coup de l’article 223-1 du Code pénal,
  • l’exposition d’un mineur à une mise en danger délibérée est répréhensible, même sur un plan indirect,
  • la diffusion de contenus à caractère violent ou humiliant est passible de peines allant jusqu’à 5 ans d’emprisonnement et 75 000 € d’amende.
À lire  Majestic SEO, l’outil pour améliorer le référencement de votre site web

Des influenceurs ayant relayé des challenges impliquant de simuler des agressions ou jouer avec des produits chimiques ont été convoqués par la DGPN en 2024.

Plateformes : quelles actions de modération en place ?

TikTok revendique avoir supprimé plus de 21 millions de vidéos au second semestre 2023 pour non-respect de ses règles. Les critères de suppression incluent désormais :

  • mise en danger d’autrui,
  • défis violents ou auto-agressifs,
  • exploitation de mineurs,
  • discours incitant à la haine ou à la discrimination.

Cependant, les suppressions interviennent souvent après signalement, une fois que le contenu a déjà été largement diffusé. De plus, les reprises modifiées (effets audio, filtres détournés, reformulations) échappent fréquemment aux systèmes de détection automatique.

TikTok a lancé en 2024 une charte de co-modération avec plusieurs ONG, mais sa portée reste encore limitée et dépendante de la réactivité des modérateurs humains.

Éducation numérique : prévenir plutôt que sanctionner

Pour freiner la viralité des contenus à risques, les acteurs publics plaident pour un renforcement de l’éducation aux usages numériques dès le collège. Plusieurs rectorats français expérimentent depuis 2023 des ateliers de décodage des challenges TikTok auprès des élèves de 11 à 15 ans.

Objectif : apprendre à repérer les défis problématiques, à exercer un regard critique sur les formats viraux, et à ne pas céder à la pression du buzz. En parallèle, certains établissements imposent aux élèves un contrat d’engagement numérique, avec des clauses de non-participation aux tendances à risque.

Influence parentale : l’accompagnement indispensable des mineurs

L’implication des parents dans l’encadrement des usages est centrale. Or, selon une étude CSA (2024), 43 % des parents d’enfants inscrits sur TikTok n’ont jamais regardé une vidéo avec eux, et 60 % ignorent que leur enfant participe à des challenges.

À lire  Astuces pour faire venir des personnes sur votre live TikTok

TikTok propose bien un mode “accompagnement parental”, mais il reste peu utilisé. Une meilleure visibilité des paramètres de confidentialité, un filtrage renforcé des contenus selon l’âge, et un suivi des historiques visionnés pourraient contribuer à limiter la participation à des contenus sensibles.

Vers une régulation européenne plus ferme ?

Le Digital Services Act (DSA) impose aux grandes plateformes sociales, depuis février 2024, une obligation de transparence algorithmique et de modération renforcée pour les contenus risqués. TikTok, classé “Very Large Online Platform” par la Commission européenne, doit :

  • publier des rapports d’audit trimestriels,
  • mettre en place des mécanismes de signalement rapide accessibles à tous,
  • coopérer avec les autorités nationales en cas de contenus dangereux.

La Commission peut infliger des amendes jusqu’à 6 % du chiffre d’affaires mondial en cas de manquement. En 2024, TikTok a déjà fait l’objet de deux mises en garde officielles de Bruxelles liées à des défis viraux impliquant des mineurs.