Donald Trump publica a X una fotografia de Nicolás Maduro a l’avió després de la seva captura a Veneçuela, el seu historial publicant contingut amb IA posa en alerta els mitjans de comunicació i l’equip del New York Times s’activa i intenta verificar-la, però no aconsegueixen un veredicte definitiu. Ho relaten en una crònica que és una mostra de transparència davant la incertesa que genera la IA i el nou rol del periodista com a forense de la informació.
“El que van fer al final és publicar-lo no com una fotografia periodística, sinó com una imatge que formava part d’un missatge de Donald Trump”, explica Mariona Pina, periodista responsable de divulgació a Verificat. Això exemplifica a la perfecció el canvi del paper del periodista en temps d’intel·ligència artificial: quan l’ull i les tècniques de detecció fallen, el que ha de prevaldre és el criteri periodístic i donar context a la informació.
De l’humor a la desinformació
Els deepfakes van començar com una eina associada a l’humor. Una imatge que es va fer especialment viral va ser la que mostrava el papa Francesc lluint un anorac blanc amb un crucifix penjant. Amb el pas del temps, aquests continguts es fan servir cada cop més per desinformar amb diversos interessos: econòmics, polítics o per humiliar o desacreditar algú, entre d’altres.
El perfeccionament dels models d’IA i la facilitat d’ús ha propiciat també una democratització d’aquest tipus de contingut: ara qualsevol pot generar imatges o vídeos falsos amb un telèfon mòbil. “Google, a partir del model Nano Banana, ha millorat molt, especialment en la facilitat de fer modificacions amb text sense coneixements tècnics. D’aquesta manera cobreix un entorn de població molt ampli”, apunta Enrique San Juan, coordinador del Grup de Treball d’IA del Col·legi de Periodistes.
En canvi, quan se cerca la perfecció en la generació de contingut, l’expert assenyala que encara cal conèixer més a fons les eines més complexes. “Midjourney és la que porta més temps en la línia de la qualitat d’imatge. No és fàcil de fer servir, però quan ja li agafes el truquillo a la complexitat dels seus prompts, pots arribar a tenir resultats molt realistes”, afegeix.
Aquestes millores en la facilitat d’ús i capacitats dels models han inundat internet d’imatges generades amb IA. “Si el 2023 s’estimaven 500.000 deepfakes generats per intel·ligència artificial, s’estima que el 2025 en vam tenir vuit milions. Aquí es veu com han augmentat en quantitat, però també en qualitat”, assegura Pina.
Un canvi que afecta les redaccions
Tot això provoca un impacte directe en la professió periodística. Si l’aparició de les xarxes va facilitar una connexió més directa amb els mitjans, ara la IA contamina aquest canal obert: la desinformació pot tacar fàcilment la feina dels professionals.
Enrique San Juan assenyala que, malgrat les actualitzacions dels models, aquests encara no són del tot perfectes a l’hora de simular la realitat. “En alguns continguts que estan molt ben fets sempre hi ha un puntet que dius ‘Ah, és per aquí que l’enganxo!’”, afirma. I el nostre principal actiu, prossegueix aquest expert, és l’ull humà: “És molt complex, és molt perfecte i té moltes qualitats que la màquina encara no arriba a confondre”.
Però l’exigència de ser els primers a publicar pot fer que no ens hi fixem prou bé. Un exemple recent va ser la publicació en la portada d’un mitjà digital d’abast nacional d’una fotografia generada amb IA sobre l’accident ferroviari a Adamuz, tragèdia que va provocar nombrosos vídeos falsos. La redacció va reaccionar ràpidament i va rectificar, però la situació va posar en relleu que fàcil és caure en l’engany d’aquestes eines. “També és part de l’alfabetització mediàtica poder dir que ningú és expert en això i que tots som vulnerables a poder caure en aquesta desinformació”, explica Pina.
No tot està perdut, doncs. Per això l’experta de Verificat dona algunes claus per entrenar el sentit crític i intentar millorar la nostra capacitat per detectar els continguts alterats amb IA.
-
Les emocions
Primer de tot, és molt important fixar-nos en quina emoció ens transmet la imatge. “Les imatges que més es viralitzen, moltes d’elles són desinformació”, assegura Pina. Per tant, si la imatge o vídeo ens fa sentir por, ràbia, inseguretat o qualsevol emoció potent, això ja ens podria posar en alerta.
-
Fer una cerca inversa
El segon pas seria fer una cerca inversa mitjançant Google Lens, una eina gratuïta amb la qual és fàcil trobar on s’ha publicat la fotografia. Fins i tot podem trobar-nos que en alguns casos altres mitjans de comunicació ja l’hauran desmentit. En el cas dels vídeos, es pot fer una cerca per fotograma.
En aquest sentit, Gemini també té una eina, SynthID, que permet detectar les imatges generades amb la IA de Google. Però, segons explica aquesta multinacional, han desenvolupat un sistema de marca d’aigua digital que s’integra en el contingut generat amb IA i que és molt difícil d’esborrar en cas d’editar la imatge. És per això que tot allò que no estigui fet amb Gemini no ho detecta, cosa que deixa fora gran part dels deepfakes, molts d’ells generats amb Grok, la IA d’Elon Musk amb poques restriccions.
-
Detectar inconsistències
En el cas dels vídeos, els models actuals encara generen algunes inconsistències o al·lucinacions, com es coneixen en l’argot de la intel·ligència artificial. “Per exemple, en vídeos de manifestacions poden aparèixer elements i desaparèixer sense sentit. O sigui, que potser t’apareix un ocell i en el següent fotograma ja no apareix”, explica Pina. I això és extensible a diverses lleis de la física que els models d’IA encara no controlen i que permeten verificar fàcilment els vídeos. “De vegades observes que l’ombra no acaba de quadrar”, posa com a exemple aquesta experta.
-
Analitzar el context
Quan els punts anteriors fallen, cal recórrer a una investigació del context a què s’atribueix el contingut sospitós. Per exemple, els vídeos de les grans nevades a Rússia que es van viralitzar en xarxes socials. Segons explica Pina, cal fixar-se en “què diuen els mitjans locals, que tenen la informació de primera mà.” I, d’aquesta manera, “trobar relacions amb fonts confiables” o properes a la notícia com a forma d’intentar verificar allò que descriu el vídeo o la imatge.
-
Fer servir IA per detectar IA
També hi ha algunes eines d’IA que permeten analitzar els deepfakes. El resultat sempre és un percentatge i en cap cas donen un veredicte definitiu. Per exemple, The New York Times va fer servir l’eina AI or Not per comprovar si la imatge de Maduro era real i el resultat no va ser concloent mentre que en el cas del deepfake de l’accident d’Adamuz, el resultat és “Likely AI generated.” Una altra eina per detectar vídeos generats per IA és Deepware, que també permet posar-hi un enllaç directament. Però després d’analitzar un deepfake del rei emèrit emès al programa Està passant de 3Cat, l’eina ha detectat només un 17% de probabilitats que sigui IA. És la prova que no ens podem refiar del tot d’aquests sistemes. “Les eines per detectar intel·ligència artificial van bé, però no pot ser l’única manera de fer-ho, perquè no són 100% fiables, i això està molt demostrat”, adverteix Pina.

Construir un entorn mediàtic segur
Un cop dites aquestes cinc claus, també hem d’entendre que la corba d’evolució de la tecnologia és exponencial, mentre que l’aprenentatge humà va molt més lent. Per tant, com a periodistes i ciutadans, mai podrem ser infal·libles a l’hora de detectar els deepfakes. I més tenint en compte que fins i tot les eines de detecció es queden obsoletes quan milloren els models generatius.
I si ens equivoquem i donem per bona una informació falsa, el més important és rectificar i ser honestos, complint el codi deontològic. “Cada error ha de ser una oportunitat per construir un entorn mediàtic segur i on tots puguem aprendre els uns dels altres i on puguem continuar revisant-nos i aprenent”, defensa Pina. “I que la gent pugui confiar en el fet que, si el mitjà es torna a equivocar un altre dia, que podria passar, sabrem que s’està equivocant”, conclou aquesta experta.
La formació, clau
El Grup de Treball d’IA del Col·legi de Periodistes, amb Enrique San Juan al capdavant, va treballar en la redacció de l’annex del Codi Deontològic que prohibeix explícitament l’ús d’IA generativa en la creació o edició d’imatges periodístiques. “El seu ús només és admissible quan el mateix contingut generat per IA constitueixi el fet noticiable i s’identifiqui clarament com a tal” , apunten.
Recentment, aquest grup de treball ha presentat un informe de l’impacte de la IA en els mitjans de comunicació i informació a Catalunya. Però el més important ara a les redaccions, assenyala San Juan, és la formació en aquestes eines. “La manera per la qual les empreses i els professionals avancen ara mateix en IA generativa és, segons la meva percepció, bàsicament autodidacta. Perquè encara avui les organitzacions no s’han pres seriosament la tasca de formar. Entre altres coses, perquè els líders en aquestes estructures tampoc dominen la IA”, conclou. I aquesta formació és la que permetrà identificar millor els continguts generats amb IA, marcar les pautes de treball amb aquestes eines i generar un ecosistema informatiu més segur. Tot això per esdevenir un far; una font fiable i humana enmig de l’oceà de deepfakes en què cada cop més s’està convertint la xarxa.