„Primul pas pentru a acţiona împotriva unui conţinut online generat sau manipulat cu inteligenţa artificială (IA), care nu este etichetat clar, este raportarea acestuia către platformele online unde a fost publicat. Utilizarea unui deepfake rău-intenţionat, respectiv a unui material generat cu IA fără a se dezvălui în mod clar şi distinct faptul că a fost creat sau manipulat în mod artificial, prin etichetarea în consecinţă a rezultatului generat de IA şi divulgarea originii sale artificiale, poate fi raportată direct către platforme, utilizând mecanismele de raportare instituite de acestea (…) În ceea ce priveşte atenuarea riscurilor legate de inteligenţa artificială generativă, platformele online şi motoarele de căutare online ale căror servicii ar putea fi utilizate pentru a crea sau disemina conţinut generat de IA ar trebui să le ofere utilizatorilor interfeţe şi instrumente standard şi uşor de utilizat, care să le permită să adauge etichete la conţinutul generat de IA. De asemenea, ajustarea termenilor şi condiţiilor de utilizare şi asigurarea aplicării lor este o altă măsură pentru evaluarea şi atenuarea riscurilor legate de inteligenţa artificială generativă”, notează instituţia.