Privacy e riconoscimento facciale, soprattutto delle persone e dei passanti nelle foto e nei video condivisi sui social media, sono due dei temi caldi del momento: in un periodo storico nel quale si sta facendo di tutto per tutelarli, la Duke University va controtendenza e sviluppa un software basato sull’intelligenza artificiale in grado di depixelare i volti senza perdere dettaglio chiamato Pulse (Photo Upsampling via Latent Space Exploration).
I software per ricreare un volto in alta risoluzione solitamente partono da un’immagine a bassa risoluzione e poi, grazie ad algoritmi di intelligenza artificiale, vanno a “completarla” aggiungendo pixel dove mancano: in sostanza, agiscono direttamente sull’immagine e la migliorano. I problemi legati a questo approccio sono da ricercare nei dettagli dell’immagine che ne esce: partendo da un file in bassa, gli scarsi punti di riferimento di partenza (come i dettagli della pelle o degli occhi) non possono essere elaborati con estrema fedeltà. Il software della Duke University, Pulse (Photo Upsampling via Latent Space Exploration), funziona in modo completamente diverso: anche lui parte da un’immagine in bassa risoluzione ma non va a modificarla direttamente, la va a ricreare. Usando l’intelligenza artificiale Pulse utilizza l’immagine del volto pixelata come riferimento e l’intelligenza artificiale va a generare il volto in modo totalmente casuale: il file che ne uscirà non sarà un miglioramento del volto originario, sarà un volto costruito artificialmente dalla IA.
Sebbene sia ancora in fase embrionale e di studio, Pulse sembra poter fornire immagini già piuttosto precise. Partendo dalla fila di volti al centro, totalmente pixelati, il software è riuscito a generare artificialmente la fila di volti in basso – un risultato in molti casi corrispondente al vero se confrontato con la fila in alto, che mostra invece le immagini in alta risoluzione di partenza.
Le applicazioni che in futuro potrebbe avere Pulse sono innumerevoli ma in questo complicato periodo storico è impossibile non pensare alla privacy e alla sua possibile violazione, un argomento tornato al centro delle discussioni soprattutto in seguito alle proteste e alle manifestazioni antirazziali che si stanno succedendo in USA. Anzi, proprio a causa degli scontri che stanno investendo diverse città, sono state tante le aziende che hanno fatto marcia indietro sulla concessione dei software di riconoscimento facciale. Prima su tutte IBM che, tramite il nuovo Amministratore Delegato Arvind Krishna, ha comunicato al Congresso degli Stati Uniti che non farà più ricerca, non svilupperà più tecnologie e non venderà più servizi legati al riconoscimento facciale senza che venga aperto un dibattito nazionale sulla possibile violazione delle norme di sicurezza: “Ibm si oppone con fermezza e non ammetterà l’uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali”. Anche Amazon ha fatto lo stesso e ha deciso di non concedere più la sua tecnologia “Rekognition” (software che fornisce un’analisi facciale altamente accurata per individuare, analizzare e comparare volti per una grande varietà di casi d’uso come la verifica degli utenti, il conteggio delle persone e la sicurezza pubblica) agli organi federali statunitensi: “Siamo convinti che i governi debbano definire regole più severe per controllare l’utilizzo etico della tecnologia di riconoscimento facciale e, in questi giorni, il Congresso sembra pronto per affrontare questa sfida. Speriamo che la moratoria di un anno possa fornire al governo un tempo sufficiente per implementare regole appropriate”.
Speriamo quindi che una tecnologia come quella sviluppata dalla Duke University venga applicata per fornire immagini dello spazio più dettagliate o, più banalmente, per permettere ai TV 8K di fare un upscaling delle immagini più dettagliato.