Partager:
Cinq jeunes hommes, majeurs et mineurs, ont été mis en cause en Espagne pour avoir diffusé dans des groupes de discussion en ligne de fausses photos dénudées de jeunes filles mineures qu'ils connaissaient, générées grâce à l'intelligence artificielle, a annoncé lundi la Garde civile.
"Le réalisme des images rendaient très difficiles de faire la différence entre celles qui étaient authentiques et celles qui avaient été modifiées", a souligné la Garde civile, équivalent de la gendarmerie en France, dans un communiqué.
"Les photographies avaient été modifiées grâce à un logiciel d'intelligence artificielle et diffusées grâce à une application de messagerie instantanée", ajoute le communiqué, soulignant le "préjudice émotionnel et social important" des victimes.
Les suspects connaissaient leurs victimes, une vingtaine en tout, et tous étaient originaires de la région de Séville, dans le sud-ouest de l'Espagne.
L'alerte a été donnée par les parents d'une des victimes.
Les cinq suspects sont susceptibles d'être poursuivis pour pédopornographie et atteinte à la vie privée.
L'IA provoque une inquiétude croissante dans le monde car cette technologie peut être utilisée à des fins malveillantes comme dans le cas de l'hypertrucage ("deepfake") pornographique.
Selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l'IA, 96% des fausses vidéos en ligne sont de la pornographie dite "non consensuelle", utilisant des images de femmes (souvent célèbres) dans des vidéos manipulées grâce à l'intelligence artificielle.