Quando si pensa ad Adobe il più delle volte si pensa a Photoshop. L’azienda, ormai sinonimo di “immagine modificata”, sa però benissimo che viviamo in un mondo in cui le immagini hanno un peso specifico importantissimo e le implicazioni etiche che comporta il fornire al mondo un software in grado di modificarle in maniera eccellente. Per questo motivo, in collaborazione con gli scienziati della UC Berkeley, un team di ricerca ha creato un algoritmo in grado di individuare le manipolazioni facciali nelle immagini con il 99% di affidabilità.
I ricercatori Adobe Richard Zhang e Oliver Wang , insieme ai loro collaboratori di Berkeley, Sheng-Yu Wang, Andrew Owens e il professor Alexei A. Efros, hanno sviluppato un metodo per rilevare le modifiche alle immagini che sono state fatte utilizzando la funzione Face Aware Liquify Photoshop – che consente la regolazione delle linee del viso, incluso l’apporto di modifiche alle espressioni facciali. Dopo aver “addestrato” una Convolutional Neural Network (CNN) – una rete neurale basata sull’intelligenza artificiale – il software che sono riusciti a realizzare è in grado di riconoscere con precisione le immagini manipolate. Per verificarne il funzionamento i ricercatori hanno creato un ampio set di immagini prese dal web nelle quali era stato utilizzato Liquify e poi lo hanno sottoposto in maniera casuale al software: è riuscito a riconoscere i “fake” con una precisione del 99%. La stessa selezione è stata poi proposta al vaglio dell’occhio umano: solo il 53% dei partecipanti è riuscito a superare il test. “Viviamo in un mondo in cui è sempre più difficile fidarsi delle informazioni digitali che consumiamo, non vedo l’ora di esplorare ulteriormente quest’area di ricerca” ha affermato il ricercatore di Adobe Richard Zhang.
Viviamo in un periodo storico in cui la diffusione di notizie ed immagini false è seempre maggiore ma fortunatamente, si spera molto presto, con accorgimenti come questi sarà molto più facile riconoscerle.