سري للغاية

Les applications et les sites Web qui utilisent l’intelligence artificielle pour retirer les vêtements des femmes

Une application d’habillage utilisant l’intelligence artificielle. Une application de nudité utilisant l’intelligence artificielle
Les applications et les sites Web qui utilisent l’intelligence artificielle pour retirer les vêtements des femmes sur les photos sont en hausse et leur popularité dans le monde augmente à un rythme alarmant, selon les chercheurs.

Rien qu’en septembre, 24 millions de personnes ont visité des sites Web présentant des images nues de femmes, selon la société d’analyse des médias sociaux Graphika.

Promotion sur les réseaux sociaux… et les entreprises réagissent
De nombreux services de travestissement ou de « strip-tease » utilisent les réseaux sociaux populaires pour se commercialiser. Par exemple, depuis le début de cette année, le nombre de liens annonçant des applications permettant de se déshabiller pour les femmes a augmenté de plus de 2 400 % sur les réseaux sociaux, y compris sur X et Reddit, selon les propos rapportés par Time Magazine citant des chercheurs.
Ces applications utilisent des techniques d’intelligence artificielle pour recréer une image, souvent celle d’une femme, afin qu’elle apparaisse complètement nue dans la nouvelle image. En fait, beaucoup de ces services travaillent uniquement sur des images de femmes.

Ces applications font partie d’une tendance inquiétante de diffusion de matériel pornographique produit et diffusé sans le consentement de l’une ou l’autre des parties et développé et distribué grâce aux progrès de l’intelligence artificielle, qui adopte une technologie spéciale connue sous le nom de deepfake pornographie.

Les experts ont découvert que l’une des images publiées sur le site Web X était utilisée pour annoncer une application de déshabillage, avec un langage indiquant que les utilisateurs pouvaient créer des images nues puis les envoyer à la personne déshabillée numériquement, incitant au harcèlement et éventuellement au chantage. Pendant ce temps, une application a payé pour que sa publicité apparaisse sur YouTube de Google, apparaissant en premier lors de la recherche du mot « nudify ».

Mais un porte-parole de Google a déclaré que la société n’autorisait pas les publicités “qui contiennent du contenu sexuel explicite. Nous avons examiné les publicités en question et travaillons à supprimer les publicités qui enfreignent nos politiques. ” Ni la plateforme X ni Reddit n’ont répondu aux demandes de commentaires.

D’un autre côté, TikTok a interdit le mot clé « se déshabiller », un terme de recherche populaire sur les sites de médias sociaux, et a averti que les recherches du mot « peuvent être liées à un comportement ou à un contenu qui enfreint nos directives », selon l’application.

L’application Telegram a déclaré qu’elle travaillait activement à modérer les contenus préjudiciables sur sa plateforme, y compris la distribution de matériels d’abus sexuels sur des enfants, ajoutant qu’en deux mois, les modérateurs ont supprimé 45 000 groupes et chaînes liés à la maltraitance des enfants.

Un porte-parole de WhatsApp a déclaré qu’ils traiteraient ce type d’images, en particulier celles d’enfants, comme un type de pratique criminelle contre les enfants, et que les personnes impliquées seraient interdites et signalées aux autorités.

De son côté, Meta a également commencé à bloquer les mots-clés liés à la recherche d’applications d’habillage, tandis que son porte-parole a refusé de commenter.

Accidents antérieurs
En novembre, un pédiatre de Caroline du Nord a été condamné à 40 ans de prison pour avoir utilisé des applications de travestissement sur des photos de ses patients, la première poursuite de ce type en vertu de la loi qui interdit la génération de matériels d’abus sexuels sur des enfants.

La diffusion de ces images produites à l’aide de ces techniques se heurte à de sérieux obstacles juridiques et éthiques, car les images sont souvent extraites des réseaux sociaux et distribuées sans le consentement du propriétaire de l’image ou sans savoir qui l’a fait.

En Espagne, de jeunes écolières ont déclaré avoir reçu des images d’elles-mêmes nues fabriquées à l’aide de ces applications, déclenchant un débat plus large sur les dommages que ces outils peuvent causer.

José Ramon Paredes Parra, le père d’une victime de 14 ans, a déclaré à ABC News : “Aujourd’hui, un smartphone peut être considéré comme une arme mortelle. C’est une arme avec un réel potentiel de destruction et je ne veux pas que cela se reproduise”. ” Ni à ma fille, ni à personne. “

Plus de 30 victimes âgées de 12 à 14 ans ont été identifiées jusqu’à présent et l’enquête est en cours depuis le 18 septembre, selon la police nationale.

Le fléau d’Internet
La pornographie non consensuelle de personnalités publiques est depuis longtemps le fléau d’Internet, mais les experts en confidentialité des données s’inquiètent de plus en plus du fait que les progrès de la technologie de l’intelligence artificielle rendent les programmes de deepfake plus faciles et plus efficaces.

“Nous constatons de plus en plus que cela est fait par des gens ordinaires avec des femmes et des filles tout à fait ordinaires”, a déclaré Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation. “Vous le voyez chez les lycéens et même chez les personnes ayant fait des études universitaires. .»

Galperin a déclaré que de nombreuses victimes ne découvrent jamais qu’elles ont des photos en ligne, mais même celles qui le font peuvent avoir du mal à obtenir un moyen légal d’enquêter sur l’affaire et peuvent ne pas trouver suffisamment d’argent pour engager une action en justice.

Galperin a ajouté qu’il n’existe actuellement aucune loi fédérale interdisant la création de deepfake pornographie, bien que le gouvernement américain interdise la génération de ce type d’images d’enfants et de mineurs.

Claire McGlynn, professeur de droit à l’Université de Durham au Royaume-Uni et experte en matière de violence contre les femmes et les filles, a déclaré : « Il s’agit d’une attaque directe contre les femmes et les filles grâce à une technologie spécialement conçue pour les maltraiter. »

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى