Partager:
OpenAI, la start-up à l'origine des célèbres outils d'intelligence artificielle (IA) générative ChatGPT et DALL-E, permet désormais à des chercheurs de tester son outil conçu pour détecter si des images numériques ont été créées par des programmes d'IA.
L'authentification des contenus en ligne est devenue une préoccupation majeure avec l'explosion de l'IA générative, qui permet de produire toutes sortes de contenus sur simple requête - y compris de fausses photographies de personnes ou de faux enregistrements audio à des fins de fraude, par exemple.
OpenAI a expliqué avoir mis au point un programme de détection d'images générées par DALL-E 3.
Selon des tests en interne sur une version antérieure de l'outil, "il identifie correctement environ 98% des images de DALL-E 3. Moins de 0,5% des images non générées par de l'IA ont été incorrectement attribuées à DALL-E 3", a indiqué l'entreprise californienne dans un communiqué en ligne.
La start-up largement financée par Microsoft a toutefois précisé que son programme était moins performant quand des images crées avec DALL-E 3 ont ensuite été rétouchées ou quand elles ont été générées par d'autres modèles.
OpenAI a par ailleurs annoncé qu'elle ajouterait désormais des marques en filigrane aux images d'IA, afin de respecter les normes de la Coalition for Content Provenance and Authenticity (C2PA).
La C2PA est une initiative de l'industrie technologique qui établit des normes techniques pour déterminer la provenance et l'authenticité des contenus numériques.
Le mois dernier, le groupe Meta (Facebook, Instagram) a déclaré qu'il commencerait à étiqueter les contenus générés par l'IA à partir du mois de mai en utilisant la norme C2PA. Son voisin Google, a également rejoint l'initiative.