Partager:
Vidéos d'arnaques avec des voix trafiquées, fausses photos de nu avec de vrais visages… : les actes de malveillance favorisés par l'émergence de l'intelligence artificielle se multiplient ces derniers mois. Si des gardes-fous peuvent être mis en place, c'est principalement au niveau européen que cette question s'impose.
Les plaintes autour d'images trafiquées par l'IA se multiplient en Belgique. Ainsi, la RTBF a récemment annoncé une plainte contre X à la suite de la diffusion d'une vidéo avec les journalistes François De Brigode et Laurick Ayoub, dont les voix ont été modifiées pour promouvoir une arnaque.
Dans un autre cadre, la VRT a révélé que des personnalités flamandes, dont l'ex-Miss Belgique Celine Van Ouytsel, ont été victimes de "deepnudes", des fausses images d'elles, dénudées. Child Focus signale par ailleurs deux plaintes déposées par des mineures suite au partage de "deepnudes" les concernant.
Ces publications sont bien punies par la loi, rappelle l'avocate Me Mona Giacometti. "Soit pour voyeurisme, si la personne est reconnaissable. Soit pour diffusion non consentie de contenus à caractère sexuel", dit-elle. L'auteur risque entre six mois et 10 ans de prison pour voyeurisme, et même 10 à 15 ans si la victime est mineure.
L'utilisation d'une image ou d'une voix peut également tomber sous le coup du RGPD, rappelle l'Autorité de protection des données (APD).
L'Union européenne planche par ailleurs sur une nouvelle réglementation autour de l'intelligence artificielle, le "AI Act", pour étiqueter obligatoirement toute image issue de l'IA comme telle. Une directive européenne sur les violences sexuelles est par ailleurs attendue prochainement pour que les plateformes modèrent plus rapidement les "deepnudes" et autres images générées par l'IA.
"L'IA offre de nombreuses possibilités, mais elle comprend également des risques pour les droits et libertés des individus. Il est donc important de bien l'encadrer", conclut Anne-Charlotte Recker de l'APD.