Identifier les contenus générés par l’IA sur Facebook, Instagram et Threads
Nous travaillons avec des partenaires du secteur sur des normes techniques communes pour identifier les contenus créés grâce à l’IA, y compris les contenus vidéo et audio.
Dans les mois à venir, nous étiquetterons les images que les utilisateurs publient sur Facebook, Instagram et Threads lorsque nous pourrons détecter des signaux standard de l’industrie indiquant qu’elles sont générées par l’IA.
Nous étiquetons les images photoréalistes créées à l’aide de Meta AI depuis son lancement afin que les utilisateurs sachent qu’elles ont été « imaginées avec l’IA ».
En tant qu’entreprise à la pointe du développement de l’IA depuis plus de dix ans, il est extrêmement gratifiant de voir s’exprimer toute la créativité des personnes qui utilisent nos nouveaux outils d’IA générative, comme notre générateur d’images Meta AI qui aide les utilisateurs à créer des images à l’aide de simples prompts textes.
À mesure que la différence entre le contenu humain et le contenu synthétique s’estompe, les utilisateurs souhaitent pouvoir les distinguer. Certains d’entre eux découvrent souvent le contenu généré par l’IA pour la première fois et nous ont indiqué qu’ils appréciaient la transparence autour de cette nouvelle technologie. Il est donc important que nous les aidions à savoir si le contenu photoréaliste qu’ils voient a été créé à l’aide de l’IA. Pour ce faire, nous apposons la mention « Imaginé avec l’IA » sur les images photoréalistes créées à l’aide de notre fonction Meta AI, mais nous souhaitons également pouvoir le faire pour les contenus créés à l’aide d’outils d’autres entreprises.
C’est pourquoi nous avons travaillé avec des partenaires du secteur pour nous aligner sur des normes techniques communes qui signalent qu’un contenu a été créé à l’aide de l’IA. La détection de ces signaux nous permettra d’étiqueter les images générées par l’IA que les utilisateurs publient sur Facebook, Instagram et Threads. Nous développons actuellement cette fonctionnalité et, dans les mois à venir, nous commencerons à appliquer l’étiquetage dans toutes les langues prises en charge par chaque application. Nous poursuivrons cette approche tout au long de l’année prochaine, au cours de laquelle un certain nombre d’élections importantes se dérouleront à travers le monde. Pendant cette période, nous espérons en apprendre beaucoup plus sur la façon dont les utilisateurs créent et partagent le contenu créé avec l’IA, sur le type de transparence que les gens jugent le plus utile et sur la façon dont ces technologies évoluent. Ce que nous apprendrons éclairera les meilleures pratiques du secteur et notre propre approche pour l’avenir.
Une nouvelle approche de l’identification et de l’étiquetage des contenus générés par l’IA
Lorsque des images photoréalistes sont créées à l’aide de notre fonctionnalité Meta AI, nous prenons plusieurs mesures pour que les utilisateurs sachent que l’IA est impliquée, notamment en plaçant des marqueurs visibles sur les images, ainsi que des watermarkers invisibles et des métadonnées intégrées dans les fichiers d’image. Cette utilisation de watermarkers invisibles et de métadonnées améliore la robustesse de ces balises invisibles et aide les autres plateformes à les identifier. Il s’agit là d’un élément important de l’approche responsable que nous adoptons pour créer des fonctions d’IA générative.
Étant donné que le contenu généré par l’IA apparaît partout sur internet, nous avons travaillé avec d’autres entreprises de notre secteur pour développer des normes communes d’identification dans le cadre de forums tels que le Partnership on AI (PAI). Les watermarkers invisibles que nous utilisons pour les images Meta AI – métadonnées IPTC et marqueurs invisibles – sont conformes aux meilleures pratiques du PAI.
Nous mettons au point des outils de pointe capables d’identifier les watermarkers invisibles à grande échelle, en particulier les informations « générées par l’IA » dans les normes techniques C2PA et IPTC, afin de pouvoir étiqueter les images de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock lorsqu’ils mettront en œuvre leurs projets d’ajout de métadonnées aux images créées à l’aide de leurs outils.
Si les entreprises commencent à inclure des signaux dans leurs générateurs d’images, elles n’ont pas encore commencé à les inclure dans les outils d’IA qui génèrent du son et de la vidéo à la même échelle, de sorte que nous ne pouvons pas encore détecter ces signaux et étiqueter ce type de contenu provenant d’autres entreprises. Pendant que l’industrie travaille pour mettre en place cette fonctionnalité, nous ajoutons une fonction permettant aux utilisateurs lorsqu’ils partagent des vidéos ou des sons générés par l’IA de l’indiquer afin que nous puissions les étiqueter. Nous exigerons des utilisateurs qu’ils utilisent cet outil d’identification et de référencement lorsqu’ils publieront du contenu organique avec une vidéo photoréaliste ou un son réaliste qui a été créé ou modifié numériquement. Nous pourrons appliquer des sanctions s’ils ne le font pas. Si nous déterminons qu’un contenu image, vidéo ou audio créé ou modifié numériquement présente un risque particulièrement élevé de tromper le public sur un sujet important, nous pourrons ajouter un étiquetage plus visible, le cas échéant, afin que les internautes disposent de plus d’informations et d’un meilleur contexte.
Cette approche est à la pointe de ce qui est techniquement possible à l’heure actuelle. Mais il n’est pas encore possible d’identifier tous les contenus générés par l’IA, et il existe des moyens d’éliminer les marqueurs invisibles. C’est pourquoi nous réfléchissons à une série d’options. Nous travaillons ardemment pour développer des classificateurs qui peuvent nous aider à détecter automatiquement le contenu généré par l’IA, même si le contenu n’a pas de marqueurs invisibles. Parallèlement, nous cherchons des moyens de rendre plus difficile la suppression ou la modification des watermarkers invisibles. Par exemple, FAIR, le laboratoire de recherche fondamentale en IA de Meta, a récemment partagé ses recherches sur une technologie de watermaker invisible que nous développons, Stable Signature. Cette technologie intègre le mécanisme de watermarking directement dans le processus de génération d’images pour certains types de générateurs d’images, ce qui pourrait être utile pour les modèles open-source afin que le watermarker ne puisse pas être désactivé.
Ce travail est d’autant plus important qu’il est probable que cet espace devienne de plus en plus hostile dans les années à venir. Les personnes et les organisations qui veulent activement tromper les gens avec du contenu généré par l’IA chercheront à contourner les mesures de protection mises en place pour les détecter. Dans notre secteur et dans la société en général, nous devrons continuer à chercher des moyens de garder une longueur d’avance.
En attendant, il est important de tenir compte de plusieurs éléments pour déterminer si un contenu a été créé par l’IA, comme vérifier si le compte qui partage le contenu est digne de confiance ou rechercher des détails qui pourraient sembler ou paraître artificiels.
La diffusion des contenus générés par l’IA n’en est qu’à ses débuts. Au fur et à mesure qu’il se répandra dans les années à venir, la société débattra de ce qu’il convient de faire ou de ne pas faire pour identifier les contenus synthétiques et non synthétiques. L’industrie et les régulateurs pourraient s’orienter vers des moyens d’authentifier les contenus qui n’ont pas été créés à l’aide de l’IA ainsi que les contenus qui l’ont été. Ce que nous présentons aujourd’hui, ce sont les étapes que nous estimons appropriées pour les contenus partagés sur nos plateformes à l’heure actuelle. Mais nous continuerons d’observer et d’apprendre, et nous reverrons notre approche au fur et à mesure. Nous continuerons à collaborer avec nos pairs du secteur. Et nous resterons en dialogue avec les gouvernements et la société civile.
Nos standards de la communauté s’appliquent à tous les contenus publiés sur nos plateformes, quelle que soit la manière dont ils ont été créés. En ce qui concerne les contenus préjudiciables, le plus important est que nous soyons en mesure de les repérer et de prendre des mesures, qu’ils aient été créés ou non à l’aide de l’IA. L’utilisation de l’IA dans nos systèmes d’intégrité est un élément la suite sur le site de meta
Posts récents
Voir toutUne règle historique changée par Elon Musk… ce n’était plus votre crédibilité qui comptait, mais simplement le fait de payer 11 euros par...
コメント