Les entreprises technologiques sont-elles responsables de la dépendance des enfants aux réseaux sociaux ?
De procès sont lancés contre les géants des réseaux sociaux accusés de négliger la protection des utilisateurs. Ils ébranlent l’argument fondamental de l’ère numérique, selon lequel les entreprises technologiques ne seraient que des intermédiaires.
Une nouvelle série de procédures judiciaires intentées devant des tribunaux américains remet en cause une protection juridique de longue date qui exemptait les grandes plateformes de réseaux sociaux de responsabilités.
Plutôt que de se focaliser sur les contenus préjudiciables publiés par les utilisateurs, ces poursuites visent la conception même des plateformes.
Les plaignants, parmi lesquels des familles individuelles et des procureurs d’État, affirment que des entreprises comme Meta et Google ont délibérément conçu des fonctions telles que le défilement infini, les recommandations algorithmiques, la lecture automatique et les notifications push pour maximiser l’engagement, sachant que les enfants sont particulièrement vulnérables à une utilisation compulsive.
En Californie, un procès très surveillé soutient que l’architecture d’Instagram et de YouTube a contribué à de graves problèmes de santé mentale chez un mineur.
Au Nouveau-Mexique, des responsables d’État accusent Meta d’avoir présenté de manière trompeuse la sécurité de ses plateformes en ce qui concerne les risques d’exploitation des enfants.
Ce qui distingue cette vague, c’est la stratégie juridique.
Plutôt que de demander aux tribunaux de réguler la parole, les plaignants invoquent la responsabilité du fait des produits, la négligence et la protection des consommateurs.
Ils soutiennent que les plateformes ne sont pas des intermédiaires passifs, mais des systèmes conçus pour capter l’attention et que, lorsque de tels systèmes provoquent de manière prévisible des dommages chez les mineurs, les entreprises doivent en être tenues responsables, à l’instar des fabricants dans d’autres secteurs.
Les décisions de ces procédures pourraient transformer la manière dont le droit américain traite les plateformes numériques, restreindre la portée pratique de l’article 230 et établir de nouvelles attentes en matière de responsabilité de conception, de protection des jeunes et de transparence des entreprises.
Pendant plus d’une décennie, les entreprises de réseaux sociaux se sont présentées comme des plateformes neutres, des espaces ouverts où les utilisateurs se connectent, créent et partagent du contenu.
Cette lecture est désormais directement contestée devant les cours américaines, où une nouvelle vague de poursuites demande aux juges et aux jurés de voir ces sociétés non pas comme des hôtes passifs, mais comme des fabricants de produits délibérément conçus pour favoriser la dépendance.
Lire aussi :
Il ne s’agit pas seulement d’une responsabilité financière.
Ces procès pourraient redéfinir la manière dont le droit appréhende les plateformes numériques et déterminer si les entreprises qui conçoivent des systèmes visant à maximiser l’attention des enfants peuvent être tenues responsables lorsque ces systèmes causent des dommages.
À Los Angeles, une affaire suivie de près, engagée par une jeune femme identifiée dans les reportages comme Kaley GM, affirme que l’Instagram de Meta et le YouTube de Google ont été conçus pour retenir les mineurs sur la plateforme grâce à des fonctions comme le défilement infini, les recommandations algorithmiques et les renforcements rapides.
L’argument de la plaignante va au‑delà de la simple présence de contenus nocifs sur la plateforme. Selon les allégations, l’architecture elle‑même a été construite pour maintenir l’engagement d’une manière qui affecte la santé mentale des enfants.
TikTok et Snap ont trouvé un accord avant l’ouverture du procès, tandis que Meta et Google restent devant un jury pour défendre leurs choix de conception.
Les entreprises réfutent l’idée que leurs produits sont « addictifs » au sens clinique et soulignent que la santé mentale des adolescents résulte d’un ensemble complexe de facteurs sociaux et personnels.
Elles font aussi valoir qu’elles proposent des outils de sécurité et des contrôles parentaux.
Ingénierie de la dépendance
La stratégie juridique qui émerge dans ces affaires marque un éloignement de la protection qu’offre depuis longtemps l’article 230, la loi américaine qui a protégé les plateformes de responsabilités pour les contenus générés par les utilisateurs.
Plutôt que d’affirmer que les plateformes doivent répondre de ce que publient les utilisateurs, les plaignants se concentrent sur la manière dont les plateformes sont construites.
Cette distinction est essentielle.
Le droit de la responsabilité du fait des produits reconnaît depuis longtemps que les fabricants doivent prendre en compte les risques prévisibles, en particulier lorsqu’il s’agit de groupes vulnérables.
Un constructeur automobile ne peut pas se décharger de la responsabilité d’un défaut de conception en arguant que les conducteurs prennent parfois de mauvaises décisions.
Une entreprise qui fabrique des jouets ne peut ignorer le risque d’étouffement en soutenant que les parents devraient mieux surveiller leurs enfants.
La question est de savoir si la conception elle‑même crée un risque déraisonnable et s’il existait des alternatives plus sûres.
Appliquer ce cadre aux réseaux sociaux change la nature même du débat.
Les plateformes ne se contentent pas de stocker du contenu.
Elles le classent, le recommandent et le diffusent via des interfaces conçues pour réduire les frictions et prolonger au maximum le temps passé dessus.
Le défilement infini supprime les points d’arrêt naturels.
Les flux algorithmiques apprennent ce qui déclenche une réaction émotionnelle et proposent davantage de contenu similaire.
Les notifications sont ajustées pour réengager les utilisateurs à des moments de vulnérabilité.
Ces fonctions ne sont pas accessoires, elles constituent le produit lui‑même.
Connaissances internes des entreprises sur les dégâts
Les plaignants dans l’affaire californienne affirment que les entreprises savaient que les jeunes utilisateurs sont particulièrement sensibles à ces systèmes de récompense. Des reportages évoquent des recherches internes sur le comportement des adolescents et les modèles d’engagement.
Si les entreprises disposaient de preuves montrant que certaines décisions de conception renforcent l’usage compulsif des mineurs, la question juridique devient plus claire : des mesures raisonnables ont‑elles été prises pour atténuer le risque prévisible ?
Meta et Google répliquent que les connaissances scientifiques sur la « dépendance » ne sont pas définitives et que corrélation n’est pas causalité.
Elles affirment que la dépression, l’anxiété et l’automutilation chez les adolescents existaient avant les réseaux sociaux et résultent de facteurs variés, y compris la famille, l’école et des pressions sociales plus larges.
Cette défense semble convaincante au premier abord.
Toutefois, la responsabilité du fait des produits n’exige pas l’existence d’une cause unique. Il suffit qu’il y ait une contribution significative au risque.
Les tribunaux répartissent régulièrement la responsabilité quand plusieurs facteurs convergent et causent un dommage. Si la conception accroît sensiblement la probabilité de préjudice, cela peut suffire.
La question juridique n’est pas de savoir si les réseaux sociaux expliquent seuls la crise de santé mentale, mais de déterminer si les choix de conception des entreprises amplifient prévisiblement les dommages pour les mineurs.
Une affaire similaire au Nouveau‑Mexique accentue encore le focus sur la responsabilité.
Là‑bas, des responsables d’État accusent Meta d’avoir présenté de façon trompeuse l’efficacité de ses mécanismes de protection face aux risques d’exploitation sexuelle des enfants.
L’allégation n’est pas seulement que des acteurs malveillants existent en ligne, mais que l’entreprise a surestimé l’efficacité de ses protections et retenu des informations sur des dangers connus.
Dilemme entre réglementation et innovation
Pris ensemble, ces dossiers témoignent d’un changement plus large dans la manière dont on conçoit le préjudice numérique.
Pendant des années, les grandes entreprises technologiques ont soutenu qu’Internet était trop dynamique et complexe pour être réglementé par des doctrines traditionnelles de responsabilité. On avait averti les tribunaux qu’imposer une responsabilité aux plateformes risquerait d’étouffer l’innovation et de porter atteinte à la liberté d’expression.
Cependant, ces poursuites ne visent pas à contrôler la parole.
Elles posent la question de savoir si l’architecture même de l’engagement peut être défectueuse.
Le débat cesse d’être purement technique pour devenir structurel. Le modèle économique des grandes plateformes repose sur la maximisation de l’attention.
Plus de temps passé sur la plateforme signifie davantage de données, plus d’impressions publicitaires et des revenus accrus.
Dans ce contexte, les fonctions de conception qui approfondissent l’engagement ne sont pas de simples effets secondaires, elles sont au cœur des stratégies de croissance des entreprises.
Si l’engagement génère du profit et si les mineurs représentent une part importante de la base d’utilisateurs, les incitations à attirer et retenir leur attention deviennent très puissantes.
C’est précisément pour cela que le droit de la responsabilité du fait des produits existe : établir un équilibre lorsque les intérêts du marché entrent en conflit avec la sécurité.
Lire aussi :
L’industrie affirme avoir mis en place des mesures de protection, notamment des rappels du temps d’écran, des outils de modération et des paramètres spécifiques pour les adolescents.
Les critiques, en revanche, estiment que ces mesures sont souvent des options additionnelles greffées sur des systèmes toujours optimisés pour l’immersion totale des utilisateurs.
Si l’architecture de base est conçue pour une consommation infinie de contenu, des paramètres de sécurité facultatifs peuvent‑ils vraiment neutraliser cette logique de conception ?
La réponse dépendra probablement de la manière dont les jurys interpréteront les documents internes et les témoignages des dirigeants.
Dans des affaires antérieures de responsabilité d’entreprise, de l’industrie du tabac aux défauts automobiles, la communication interne a joué un rôle décisif pour façonner la perception publique.
Si les éléments de preuve montrent qu’il y avait une connaissance du risque sans mesures d’atténuation proportionnelles, les conséquences en matière d’image pourraient dépasser le cadre d’un seul jugement.
Portée internationale
Il serait erroné de considérer ces procès uniquement sous l’angle américain. Les enjeux résonnent à l’échelle mondiale.
Partout en Europe, les régulateurs durcissent déjà les règles en matière de sécurité en ligne et de transparence algorithmique.
Au Royaume‑Uni, la loi sur la sécurité en ligne impose aux plateformes un devoir de diligence pour protéger les enfants des contenus nuisibles.
Dans l’Union européenne, le règlement sur les services numériques (Digital Services Act) introduit de nouvelles obligations en matière d’évaluation et d’atténuation des risques.
À partir de décembre 2025, l’utilisation des réseaux sociaux est interdite aux moins de 16 ans et la mise en œuvre de cette mesure est confiée aux plateformes elles‑mêmes.
Des mesures similaires sont à l’étude en Türkiye.
Les affaires américaines diffèrent par la forme, mais pas par le fond.
Elles reflètent un mécontentement croissant vis‑à‑vis d’une économie numérique qui considère l’attention comme une ressource à exploiter, y compris lorsque cette ressource appartient à des enfants.
Si les plaignants l’emportent, les conséquences pourraient remodeler les normes de conception. Les plateformes pourraient être contraintes d’instaurer par défaut certaines barrières pour les mineurs, de limiter l’intensité des algorithmes, de réduire les notifications nocturnes et de fournir des avertissements plus clairs sur les risques.
Les tribunaux pourraient envoyer le message que les entreprises qui détiennent des connaissances détaillées sur le comportement des utilisateurs assument également la responsabilité correspondante.
Si les entreprises remportent ces procès, elles présenteront probablement la décision comme la preuve que les tribunaux ne sont pas le lieu approprié pour traiter des questions sociales complexes.
Le débat retournerait alors aux législateurs et aux régulateurs.
Quoi qu’il en soit, il semble que l’ère de l’immunité absolue des plateformes s’estompe peu à peu.
Ces procès remettent en cause le récit fondamental de l’ère numérique, selon lequel les entreprises technologiques ne seraient que des intermédiaires et les utilisateurs entièrement responsables de leurs choix.
Les plaignants proposent une autre lecture. Ils soutiennent que l’ingénierie comportementale à grande échelle n’est pas neutre, surtout lorsqu’elle cible des esprits en développement.
Les enfants ne sont pas de simples « petits adultes » capables de se débrouiller seuls sur un marché d’idées.
Les neurosciences montrent que les adolescents sont particulièrement sensibles à la validation sociale et aux mécanismes de récompense. Concevoir des systèmes qui exploitent ces sensibilités tout en prétendant à la neutralité devient une position de plus en plus difficile à défendre.
La leçon n’est pas que les réseaux sociaux doivent être supprimés.
Les plateformes numériques ont permis la connexion, la créativité et la mobilisation politique à l’échelle mondiale.
Mais l’innovation n’exonère pas les entreprises des obligations qui s’imposent dans d’autres industries.
Si un produit est conçu d’une manière qui met prévisiblement en danger ses plus jeunes utilisateurs, la société a toujours exigé que le fabricant en assume la responsabilité.
Les batailles judiciaires en cours en Californie et au Nouveau‑Mexique ne sont donc pas de simples disputes abstraites sur des doctrines juridiques. Elles constituent un nouveau chapitre de la longue lutte visant à aligner le pouvoir des entreprises sur l’intérêt public.
Le message aux grandes entreprises technologiques est que la conception de votre produit est de votre responsabilité.
Pour les législateurs et les régulateurs du monde entier, le message est peut‑être encore plus clair : l’ère de l’exception numérique, où les plateformes échappaient aux cadres traditionnels de responsabilité, touche à sa fin.
*Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement la ligne éditoriale de TRT.