Ce este EU AI Act?
Regulamentul UE privind inteligența artificială (AI Act) este primul cadru legislativ complet pentru AI la nivel global, adoptat de Parlamentul European și Consiliul UE. A intrat în vigoare la 1 august 2024 și se aplică gradual în următorii 2–3 ani, în funcție de tipul de sistem AI implicat.
Acest regulament:
- clasifică aplicațiile AI în funcție de riscurile pe care le prezintă (de la risc inacceptabil până la minim și general-purpose AI) și
- impune obligații specifice – inclusiv de transparență – în funcție de această clasificare.
Transparența conținutului generat sau manipulat de AI
Obligatii principale (Articolul 50)
Articolul 50 din EU AI Act stabilește cerințe de transparență pentru anumite tipuri de conținut generat sau manipulat de AI, printre care:
-
Identificare și marcare automată
– Furnizorii de sisteme AI trebuie să asigure că ieșirile AI (imagini, video, text, audio) pot fi identificate ca fiind generate sau manipulate de AI și detectabile în mod automat (de exemplu, într-un mod lizibil pentru mașini). -
Informare clară pentru utilizatori
– Persoanele expuse la conținut generat/manipulat de AI trebuie să fie informate în mod clar că nu este conținut original uman (de exemplu text sau material audio/video deepfake). -
Excepții limitate
– Regulile pot avea excepții, de exemplu în cazul conținutului artistic, satiric sau când conținutul este folosit în scopul prevenirii sau investigării unei infracțiuni. -
Aplicare în timp
– Obligațiile de transparență vor începe să se aplice în mod complet începând cu 2 august 2026.
Aceste prevederi se vor aplica nu doar textului, ci și imaginii și video-ului generat sau manipulat de AI — inclusiv deepfake-urilor.
Codul de bune practici pentru transparență
Pentru a ajuta companiile și dezvoltatorii să respecte obligațiile din Articolul 50, Comisia Europeană și un grup de experți lucrează la un „Cod de bune practici privind transparența conținutului generat de AI”:
- acesta include orientări privind marcarea și etichetarea conținutului generat de AI și
- modul în care deepfake-urile și alte tipuri de conținut trebuie prezentate și detectate.
Codul este în proces de consultare până în ianuarie 2026, iar normele vor intra în vigoare pe 2 august 2026.
Cum s-ar aplica asta concret?
Furnizorii de instrumente AI și modele generative (de exemplu, generatoare de imagini sau video) vor avea obligația de a integra mecanisme tehnice care:
- marchează conținutul generat în mod automat,
- permit detectarea software a originii sale artificiale,
- și asigură că utilizatorii știu când este vorba de AI.
Important de reținut:
- regulile nu sunt formulate ca o directivă simplă: „toată editarea digitală trebuie să fie declarată” — ci se referă la situații în care conținutul generat/manipulat de AI poate induce în eroare publicul sau riscă să fie folosit pentru manipulare (cum ar fi deepfake-urile).
- editările minore (de exemplu corectarea culorii sau filtrarea simplă a unei fotografii) nu intră automat în obligațiile de transparență dacă nu creează un conținut falsificat cu potențial de înșelăciune.
Context mai larg în UE
Regulamentul AI Act face parte dintr-un pachet mai larg de inițiative legislative ale UE pentru a crește responsabilitatea și transparența în mediul digital (alături de Digital Services Act și alte norme pentru platforme și algoritmi).
Concluzie
Da, UE introduce cerințe de transparență pentru conținut generat sau manipulat de AI, inclusiv imagini, ca parte din Regulamentul AI Act — dar nu este o lege care să oblige de fiecare dată fotograful să declare fiecare retușare minoră a unei imagini; se concentrează mai ales pe:
- prevenirea manipulării și dezinformării,
- identificarea deepfake-urilor și a conținutului generat AI într-un mod automat,
- informarea clară a utilizatorilor atunci când sunt expuși la astfel de materiale.
Blog







