Il problema di base è semplice così come complicate le conseguenze: oggi, una fotografia, quando viene scattata "include" dei metadati (succede da moltissimo tempo, siano essi EXIF o XMP). Quello scatto, però, può subire modifiche ed eliminazione dei metadati stessi con sistemi automatici (vedi pubblicazione sui social), con la conseguenza diretta di non sapere più chi l'ha scattata, se ci sono diritti e se si in che forma, più altre informazioni che nell'ambito professionale ma non solo possono essere veramente importanti.
Facciamo un esempio: con tutte le buone intenzioni del mondo e ben intenzionato a pagare per poter usufruire di una fotografia che ho trovato in rete, nella quasi totalità dei casi non posso risalire a chi l'ha scattata. Quella foto, infatti, è stata sicuramente compressa, modificata per la fruizione sul web e spesso privata, volontariamente o no, di informazioni base per poterla ricondurre al legittimo proprietario. Non solo: gli attuali metadati non sempre includono l'autore, è un dato che deve essere forzato dalle impostazioni della fotocamera.
Da anni Adobe ha in cantiere una soluzione che prevede molti passi avanti per superare queste limitazioni, proponendo di fatto un consorzio, CAI (Content Authenticity Initiative), in collaborazione con New York Times e Twitter, anche in nome della lotta alle fake news oltre che alla maggiore riconducibilità verso i legittimi possessori dei diritti. Il CAI non "impone" una singola piattaforma unificata per l'autenticità e la certificazione dei dati importanti relativi alle foto (inizialmente solo queste), ma suggerisce un insieme di standard che possono essere utilizzati per creare e rivelare attribuzione e cronologia delle immagini, documenti, contenuti multimediali (video, audio) e contenuti in streaming.
Adobe sa che sarà una strada difficile da percorrere: abbiamo letto tutte e 28 le pagine del PDF ed è un florilegio di "potrebbe", "sarebbe", dove appunto a farla da padroni sono il condizionale e le buone intenzioni, nella piena consapevolezza che un nuovo sistema davvero efficiente ha di fronte diversi scogli. Partiamo dalle buone intenzioni, alcune poco scontate: non solo un determinato contenuto potrebbe essere meno soggetto alla cancellazione dei dati importanti, ma anche contenere una sorta di storico di quello che ha subito dallo scatto in poi, come ad esempio ridimensionamento, compressione e altre informazioni. Non viene citata mai ma lo facciamo noi per capire meglio: si pensi ad una sorta di blockchain, che permetta inizialmente ai professionisti di settore e magari un giorno a tutti di conoscere esattamente cosa ne è stato del proprio contenuto.
Ovviamente ci sono innumerevoli ma, il primo dei quali sarebbe l'adozione del nuovo standard da parte di tutti i costruttori, chiamati ad implementarlo nativamente nei propri apparecchi. C'è poi la questione del "dove": tutto nel singolo scatto, in qualche modo? In parte in cloud e se si, dove e chi detiene queste informazioni? Non siamo volutamente scesi nel dettaglio (anche perché non ce ne sono molti), perché gli interrogativi aperti sono ancora molti, ma ci sembrava interessante almeno far capire che c'è un gruppo importante al lavoro sulla questione. Dove porterà e se sarà fattibile, è presto per dirlo.