
Le sujet
Les règles proposées pour l’étiquetage des deepfakes générés par l’IA, qui sont en cours d’élaboration dans un code de transparence lié à la loi sur l’IA, divisent les experts impliqués dans le processus de rédaction de l’UE.
Les parties prenantes
En vertu de la loi sur l’IA de l’Union européenne, les entreprises doivent s’assurer que les contenus générés par l’IA (images, vidéos, audio) sont marqués d’un filigrane indiquant le rôle de l’IA dans leur création. Si un système d’IA est utilisé pour créer un deepfake, tel qu’une vidéo montrant apparemment une personne réelle en train de parler, l’idée est qu’il doit être marqué comme synthétique afin d’éviter tout risque de tromperie.
Où en sommes-nous
Un conflit semble se profiler entre les acteurs industriels et les groupes de la société civile quant à la limite que l’UE devrait fixer en matière d’étiquetage des contenus améliorés ou générés par l’IA.
L’objectif du code de bonnes pratiques est de fournir aux entreprises des conseils pratiques sur la manière de se conformer aux règles de transparence de la loi sur l’IA, qui devaient initialement entrer en vigueur en août 2026.
Source Euractiv
Notre implication est portée par notre foi dans la capacité de changement de nos sociétés et par la nécessité d’agir pour soutenir un changement qui n’est plus une option, mais une ardente nécessité.

