Le jury déclare Meta responsable : un appel à l’éveil pour les géants de la tech
Eh bien, nous y revoilà. Un autre jour, un autre géant technologique sanctionné pour quelque chose qui, franchement, aurait dû être traité depuis des années. Cette fois, c’est Meta, qui a été déclaré responsable par un jury fédéral en Californie pour son rôle dans la facilitation de l’exploitation sexuelle des enfants. Le verdict, rendu la semaine dernière, a accordé 20 millions de dollars aux plaignants dans deux affaires consolidées. Vingt millions de dollars. Pour quelque chose d’aussi horrible. C’est un début, je suppose, mais c’est à peine la surface des dommages causés.
Les plaignants, deux jeunes femmes qui ont été victimes d’exploitation sexuelle des enfants sur les plateformes de Meta, ont soutenu que l’entreprise avait conçu Instagram d’une manière qui contribuait directement à leur abus. En particulier, elles ont pointé des fonctionnalités comme les messages directs et les messages éphémères comme des outils exploités par des prédateurs. Ce n’est pas vraiment une révélation, n’est-ce pas ? Ce ne sont pas des bugs obscurs ; ce sont des fonctionnalités fondamentales qui sont remises en question pour leur potentiel de mauvaise utilisation depuis… eh bien, depuis leur création.
La question de l’IA : une occasion manquée ?
Ce qui me dérange ici, en tant que personne passant ses journées à évaluer l’IA, c’est ceci : où était la technologie avancée pour prévenir cela ? On entend Meta, Google et le reste du groupe Big Tech claironner constamment leurs capacités d’IA. Ils construisent des rêves de métavers, développent des IA pour écrire nos e-mails et créent des algorithmes pour suggérer quels vidéos de chats nous pourrions aimer ensuite. Pourtant, quand il s’agit de protéger des utilisateurs vulnérables contre de véritables criminels, il semble que leur IA dormait au volant ou simplement n’était pas une priorité.
Pensez-y. Nous avons des IA capables de détecter des sentiments nuancés dans un texte, d’identifier des objets dans une vidéo en temps réel et de signaler des comportements suspects dans des vastes ensembles de données. Devons-nous croire que les mêmes entreprises qui se vantent de ces merveilles ne pourraient pas déployer une IA suffisamment avancée pour identifier et perturber les schémas évidents d’exploitation qui se déroulent sur leurs plateformes ? Il ne s’agit pas de prévention parfaite – aucun système n’est infaillible – mais il s’agit de démontrer un véritable engagement à utiliser les outils à leur disposition. Et franchement, 20 millions de dollars n’évoquent pas un « engagement sincère ».
Au-delà du paiement : quelle est la suite ?
Ce verdict ne concerne pas seulement l’argent. Il s’agit de poser un précédent. La décision du jury indique que les entreprises technologiques peuvent et seront tenues responsables des choix de conception qui permettent le préjudice. Ce n’est pas seulement une question de mauvais acteurs ; il s’agit des plateformes elles-mêmes qui sont complices par leur conception et leur inaction. Et soyons clairs, c’est l’un des nombreux procès que Meta doit actuellement affronter sur des bases similaires. Ce n’est pas un incident isolé ; c’est un schéma.
L’industrie technologique s’est longtemps cachée derrière le bouclier de l’article 230, affirmant qu’elle n’est pas responsable du contenu généré par les utilisateurs. Cependant, ce verdict érode cette défense en se concentrant sur la conception des produits. Il soutient que si vous construisez une maison avec un trou béant dans le toit, vous ne pouvez pas simplement hausser les épaules et dire : « Eh bien, quelqu’un d’autre a jeté l’eau à l’intérieur. » Vous avez construit le trou.
Alors, qu’est-ce que cela signifie pour le reste d’entre nous ? Espérons que cela signifie que les entreprises technologiques commenceront enfin à mettre leur IA là où leur bouche est. Arrêtez de consacrer 90 % de votre budget d’IA à l’optimisation des annonces et 10 % à la « sécurité ». Commencez à traiter la sécurité des utilisateurs, en particulier celle des plus vulnérables, comme une fonctionnalité essentielle du produit, et non comme un ajout ou un pansement PR. Car tant que ces plateformes privilégieront l’engagement et la croissance au détriment de la sécurité humaine fondamentale, ces titres continueront à apparaître. Et franchement, je suis fatigué de les écrire.
🕒 Published: