È stata sviluppata un'intelligenza artificiale in grado di svelare accuratamente i DeepFake | Giornale dello Spettacolo
Top

È stata sviluppata un'intelligenza artificiale in grado di svelare accuratamente i DeepFake

L'università di Modena e Reggio Emilia ha sviluppato un sistema avanzato in grado di smascherare i deepfake con un'accuratezza del 97%. L'utilizzo dei Deepfake ed il loro sviluppo è considerato un rischio per la disinformazione e per gli usi malevoli.

È stata sviluppata un'intelligenza artificiale in grado di svelare accuratamente i DeepFake
Intelligenza Artificiale
Preroll

redazione Modifica articolo

16 Ottobre 2024 - 16.55 Culture


ATF

Giovenale in una sua satira si chiedeva “Chi controllerà i controllori stessi” (Quis custodiet ipsos custodes)? Una domanda sempre rimasta attuale e divenuta un celebre modo di dire per criticare gli abusi di potere. Ed in un mondo sempre più immerso nell’intelligenza artificiale, è stata prodotta un’intelligenza artificiale in grado di controllare i deepfake prodotti dalle altre intelligenze artificiali. Il merito è dell’Università di Modena e Reggio Emilia che ha sviluppato un avanzato sistema di intelligenza artificiale per il riconoscimento dei DeepFake visivi, considerato il più efficace al mondo, con una precisione superiore al 97%.

Presentato alla conferenza ECCV 2024 a Milano, questo sistema, denominato CoDE (Contrasting Deepfakes Diffusion via Contrastive Learning), è basato su un’architettura di apprendimento contrastivo. CoDE è in grado di distinguere immagini artificiali da quelle reali, anche quando queste vengono modificate, compresse o trasmesse, superando notevolmente le capacità umane di rilevamento.

Il progetto si inserisce all’interno dell’iniziativa europea ELSA, mirata a sviluppare tecnologie sicure nell’era dell’intelligenza artificiale. CoDE è frutto della collaborazione tra l’Università di Modena e Reggio Emilia e Leonardo S.p.A., che ha generato milioni di immagini artificiali grazie al supercomputer Da Vinci. Nonostante l’accuratezza del sistema, rimangono sfide nel riconoscere contenuti manipolati attraverso tecniche recenti o compressioni estreme, evidenziando la necessità di aggiornamenti costanti per contrastare nuove minacce.

Il fenomeno dei DeepFake, che combina tecnologie di deep learning con la creazione di contenuti ingannevoli, non è di certo nuovo ma negli anni si è sempre più perfezionato sollevando preoccupazioni a livello sociale e politico, in quanto potrebbe facilitare la disinformazione o gli usi malevoli. Il sistema CoDE, oltre a individuare se un’immagine è reale o manipolata, offre una valutazione del grado di affidabilità e segnala quale tipo di intelligenza artificiale potrebbe aver generato il contenuto.

Native

Articoli correlati