Instagram, YouTube : leur caractère addictif n’est pas “de la négligence”, c’est un modèle d’affaires !
Meta (Facebook, WhatsApp, Instagram) et Google (YouTube) sont-ils seulement coupables de “négligence” par rapport aux risques que leurs applications font encourir aux usagers, selon le récent verdict d’un procès aux Etats-Unis ?
25 avril 2026 (Nouvelobs) : Pour l’expert Alessandro Fiorentino, ces géants du numérique ont au contraire délibérément perfectionné des « techniques prédatrices » pour créer une « dépendance psychologique » des utilisateurs.
Le 25 mars 2026, un jury de Los Angeles a déclaré Meta et Google coupables de négligence pour leur rôle dans l’addiction d’une jeune fille aux réseaux sociaux, au terme d’un procès inédit visant les géants américains du numérique. Selon le verdict, Meta, maison mère de Facebook et WhatsApp, a fait preuve de négligence en n’informant pas suffisamment des risques liés à Instagram. De son côté, Google, filiale d’Alphabet, a été jugé négligent pour ne pas avoir averti des dangers associés à YouTube.
Sérieusement, de qui se moque‑t‑on ? Il faudrait croire que Meta et Google ont « oublié » que leurs propres équipes ont conçu, testé et perfectionné des mécanismes addictifs pendant plus d’une décennie. L’expression utilisée par la justice américaine pour qualifier les pratiques de Meta et Google – « coupables de négligence » – est presque comique, lorsqu’on connaît la réalité des mécanismes déployés par les plateformes pour capter l’attention des jeunes.
Car, enfin, comment parler de négligence quand tout, absolument tout, dans la conception de ces services, relève d’une « ingénierie comportementale intentionnelle », documentée, industrialisée ? Ce n’est pas une opinion. C’est un constat étayé par l’article de recherche que j’ai publié avec David Bessot en mai 2023 : « RGPD, un révélateur des logiques subreptices des plateformes envers la jeunesse ».
Dans ce travail, nous écrivions déjà :
« La stratégie de ces plateformes […] est de créer une dépendance psychologique des utilisateurs et d’utiliser diverses techniques prédatrices de collecte de données personnelles. »
Difficile de faire plus clair. Nous ne sommes pas face à un oubli. Nous sommes face à une stratégie.
La stratégie d’ancrage
Les plateformes n’ont jamais caché leur ambition : maximiser le temps passé, capter l’attention, transformer chaque interaction en donnée exploitable. Elles ont pour cela perfectionné ce que nous décrivions comme la « stratégie d’ancrage », un cycle en quatre temps : déclencheur, action, récompense variable, investissement, conçu pour créer une habitude, puis une dépendance. La stratégie d’ancrage est la mère des techniques prédatrices, développées par les experts « marketing produit » de ces plateformes numériques, s’appuyant notamment sur les travaux de B. J. Fogg.
Ce n’est pas un dérapage. C’est une méthode. Et cette méthode est d’autant plus efficace qu’elle s’appuie sur les vulnérabilités cognitives des jeunes. Comme nous le soulignions :
« Au travers d’astuces juridiques, de techniques dissimulées, d’ergonomies trompeuses et de manipulation cognitive, le client n’est plus en capacité d’agir en conscience. »
On est loin d’une simple négligence. On est dans la préméditation, la planification, l’optimisation continue.
Un arsenal, pas un accident
Extorsion du consentement, asservissement du consentement, atomisation du risque juridique, synchro‑acquisition… Les plateformes ont développé un véritable catalogue de techniques destinées à contourner l’esprit du RGPD (Règlement général sur la Protection des Données) tout en respectant sa lettre. Elles savent exactement ce qu’elles font. Elles savent pourquoi elles le font. Qualifier cela de négligence, c’est comme accuser un pickpocket d’avoir « maladroitement » glissé sa main dans votre poche !
En Europe, on ne se raconte plus d’histoires. La directive SMA (Services de médias audiovisuels), le DSA (Digital Services Act), les travaux du Media Board, les enquêtes sur TikTok : tout cela repose sur un constat simple et lucide. Les plateformes ne sont pas négligentes, elles sont performantes. Performantes dans la captation de l’attention. Performantes dans la collecte de données. Performantes dans l’exploitation des biais cognitifs. C’est précisément pour cela qu’il faut les réguler. La conclusion préliminaire de la Commission européenne sur la conception addictive de TikTok va dans ce sens. Elle reconnaît enfin que l’addiction n’est pas un effet secondaire : c’est un produit.
Un réveil américain tardif
La décision américaine ajoute une pierre à l’édifice, mais elle révèle aussi un décalage culturel. Là où l’Europe parle de « responsabilité », de « design addictif », de « risques systémiques », les Etats-Unis en sont encore à évoquer la « négligence ». Il faudra bien, un jour, appeler les choses par leur nom.
La naïveté n’est plus une option. Les jeunes paient aujourd’hui le prix d’un modèle économique qui a prospéré sur leur attention, leur impulsivité, leur besoin de lien social. Les rapports s’accumulent, les alertes aussi. Le bien-être des jeunes se dégrade, et les plateformes continuent d’optimiser leurs mécanismes.
Alors, non, ce n’est pas de la négligence. C’est une stratégie. Une stratégie qui a fonctionné. Une stratégie qui doit désormais être encadrée – fermement, durablement, collectivement.
BIO EXPRESS
Alessandro Fiorentino est expert en protection des données chez Adequacy et vice-président de l’association Privacy Tech.
Cet article est une tribune, rédigée par un auteur extérieur au journal et dont le point de vue n’engage pas la rédaction.
–
