Le jury déclare Meta responsable : un appel à l’éveil pour les géants de la technologie
Eh bien, nous y revoilà. Un autre jour, un autre géant de la technologie sanctionné pour quelque chose qui, franchement, aurait dû être traité depuis des années. Cette fois, c’est Meta, reconnu responsable par un jury fédéral en Californie pour son rôle dans la facilitation de l’exploitation sexuelle des enfants. Le verdict, rendu la semaine dernière, a accordé 20 millions de dollars aux plaignants dans deux affaires consolidées. Vingt millions de dollars. Pour quelque chose d’aussi horrible. C’est un début, je suppose, mais cela effleure à peine la surface des dommages causés.
Les plaignantes, deux jeunes femmes victimes de l’exploitation sexuelle des enfants sur les plateformes de Meta, ont soutenu que l’entreprise avait conçu Instagram de manière à contribuer directement à leurs abus. En particulier, elles ont souligné des fonctionnalités telles que la messagerie directe et les messages éphémères comme des outils exploités par les prédateurs. Ce n’est pas exactement une révélation, n’est-ce pas ? Ce ne sont pas des bugs obscurs ; ce sont des fonctionnalités essentielles qui ont été questionnées pour leur potentiel d’abus depuis… eh bien, depuis leur création.
La question de l’IA : une occasion manquée ?
Mon problème particulier ici, en tant que personne qui passe ses journées à évaluer l’IA, est le suivant : où était la technologie avancée pour prévenir cela ? Nous entendons Meta, Google et le reste de la bande des Big Tech claironner sans cesse leurs capacités en IA. Ils construisent des rêves de métavers, développent des IA pour rédiger nos e-mails et créent des algorithmes pour suggérer les vidéos de chats que nous aimerions voir. Pourtant, lorsqu’il s’agit de protéger les utilisateurs vulnérables contre de véritables criminels, il semble que leur IA était soit endormie au volant, soit simplement pas priorisée.
Pensez-y. Nous avons une IA capable de détecter des nuances de sentiment dans le texte, d’identifier des objets dans des vidéos en temps réel et de signaler des modèles suspects dans le comportement des utilisateurs à travers d’énormes ensembles de données. Doit-on croire que les mêmes entreprises qui se vantent de ces merveilles ne pouvaient pas déployer une IA suffisamment avancée pour identifier et interrompre les motifs évidents d’exploitation qui se déroulent sur leurs plateformes ? Ce n’est pas une question de prévention parfaite – aucun système n’est infaillible – mais il s’agit de démontrer un réel engagement à utiliser les outils à leur disposition. Et franchement, 20 millions de dollars ne crient pas “engagement véritable.”
Au-delà du paiement : quelle est la suite ?
Ce verdict ne concerne pas seulement l’argent. Il s’agit de poser un précédent. La décision du jury indique que les entreprises technologiques peuvent et seront tenues responsables des choix de conception qui permettent le préjudice. Ce n’est pas seulement une question d’acteurs malveillants ; il s’agit des plateformes elles-mêmes qui sont complices par leur conception et leur inaction. Et soyons clairs, c’est l’une des nombreuses poursuites auxquelles Meta fait face sur des bases similaires. Ce n’est pas un incident isolé ; c’est un schéma.
L’industrie technologique s’est longtemps cachée derrière le bouclier de la Section 230, affirmant qu’elle n’est pas responsable du contenu généré par les utilisateurs. Ce verdict, cependant, sape cette défense en se concentrant sur la conception du produit. Il soutient que si vous construisez une maison avec un trou béant dans le toit, vous ne pouvez pas simplement hausser les épaules et dire : “Eh bien, quelqu’un d’autre a jeté l’eau.” Vous avez construit le trou.
Alors, que cela signifie-t-il pour nous tous ? Espérons que cela signifie que les entreprises technologiques commenceront enfin à mettre leur IA là où est leur bouche. Arrêtez de consacrer 90 % de votre budget IA à l’optimisation des publicités et 10 % à “la sécurité.” Commencez à traiter la sécurité des utilisateurs, en particulier pour les plus vulnérables, comme une fonctionnalité produit essentielle, et non comme une pensée accessoire ou un pansement PR. Parce que tant que ces plateformes privilégient l’engagement et la croissance au détriment de la sécurité humaine fondamentale, ces gros titres continueront d’arriver. Et franchement, j’en ai assez de les écrire.
🕒 Published: