Per Adam Mosseri l’AI è talmente ubiqua che le piattaforme dovranno smettere di inseguire i deepfake e iniziare a fingerprintare foto e video autentici, direttamente in macchina
Nel 2025 il feed di Instagram è stato invaso da immagini e video generati da intelligenza artificiale, spesso indistinguibili da quelli reali per l’utente medio. Mosseri riconosce che i social saranno sotto crescente pressione per etichettare i contenuti sintetici, ma ammette che i sistemi di identificazione peggioreranno mano a mano che l’AI diventa più brava a imitare il reale.
Dall’AI ovunque alla crisi della fiducia
Mosseri, capo di Instagram, ha lanciato un manifesto di fine anno che segna un punto di svolta: “L’AI è così ubiqua che sarà più pratico fingerprintare i media reali che quelli fake”. L’idea è spostare il focus dalla caccia ai deepfake all’autenticazione alla fonte, coinvolgendo produttori di fotocamere e smartphone per firmare crittograficamente le immagini al momento dello scatto.
Le etichette AI introdotte da Meta si basano su metadati e watermark forniti da software come Photoshop o dai modelli generativi, ma questi segnali sono fragili e facili da rimuovere. Un approccio hardware-first, invece, si allinea con standard come C2PA, già testati da Leica, Nikon e Sony, dove la firma digitale è incorporata nel file e verificabile lungo l’intera pipeline di editing.
“Sarà più pratico fingerprintare il reale”
Per i creator, Mosseri prevede un ritorno del valore nelle immagini “raw” e imperfette: in un mare di contenuti ultra-levigati generati da AI, la prova di umanità sarà proprio nelle foto meno perfette, con backstage e imperfezioni visibili. Le piattaforme, d’altro canto, potrebbero usare il fingerprint come segnale di ranking: i contenuti certificati autentici avranno priorità nei feed, soprattutto in news, politica e cronaca visiva.
Dalle etichette AI ai certificati crittografici
Un ecosistema basato sul fingerprinting solleva però interrogativi cruciali su privacy e tracciabilità: legare un contenuto al dispositivo e all’identità del fotografo rischia di amplificare sorveglianza e profiling. Inoltre, emerge un nuovo digital divide: chi usa hardware obsoleto o non certificato vedrà i propri contenuti reali percepiti come meno affidabili rispetto a quelli “firmati” da top brand.
Cosa cambia per creator, fotografi e piattaforme
Per il mondo del cinema, dell’arte e della fotografia questa evoluzione potrebbe ridisegnare la credibilità dei contenuti: dai deepfake di attori alle manipolazioni in post-produzione, l’autenticazione hardware diventa essenziale per preservare la fiducia nel visivo digitale.
Tag: Instagram, Adam Mosseri, intelligenza artificiale, AI generativa, deepfake, contenuti sintetici, fotografia digitale, content authenticity, C2PA, Leica, Nikon, Sony, Meta, social media, creator economy, verifica contenuti, fingerprinting media, etichette AI, OnOffMag
A cura di: Claudio Napoli | OnOffMag
Data: 1 gennaio 2026
Copyright © www.OnOffMag.com