Adobe continua a potenziare Firefly, la sua piattaforma di intelligenza artificiale generativa, con un'attenzione particolare al mondo del video. Le novità presentate si concentrano su strumenti avanzati per la produzione audiovisiva, con l’obiettivo di integrare la generazione AI nei flussi di lavoro dei creativi.
Il nuovo modello generativo per il video: Firefly Video Model
L’annuncio più significativo riguarda il debutto del modello generativo video, un’evoluzione che amplia le capacità di Firefly oltre immagini e grafica vettoriale.
Adobe rilascerà in beta pubblica Firefly Video Model, il primo modello di generative AI per video commercialmente sicuro del settore. Sarà disponibile con la funzione Generate Video (beta) sulla nuova applicazione web di Firefly (firefly.adobe.com) e in Adobe Premiere Pro con Generative Extend (beta).
Il sistema, attualmente in beta privata, è stato sviluppato per offrire funzionalità che semplificano l’editing, riducono i tempi di produzione e permettono di colmare lacune nei contenuti senza dover ricorrere a riprese aggiuntive.
Un esempio pratico è la possibilità di estendere una clip mancante di qualche secondo, evitando così reshoot costosi. Adobe ha addestrato il modello su video provenienti da Adobe Stock e altre fonti autorizzate, garantendo contenuti commercialmente sicuri e utilizzabili per la produzione professionale.
Un ecosistema integrato per la creatività
Adobe sta lavorando per unificare l’esperienza Firefly, permettendo di generare immagini, design, vettori e ora video da un’unica piattaforma. L’idea è quella di costruire un flusso di lavoro continuo, in cui un bozzetto iniziale possa essere trasformato in un’immagine, poi in una sequenza animata, il tutto senza uscire dall’ecosistema Adobe.
A questa logica si aggiunge Scene to Image, una funzione che consente di creare modelli 3D di riferimento (anche con materiali fisici come plastilina o modellini), da cui Firefly genera immagini coerenti, pronte per essere animate nel video.
La nuova applicazione web di Firefly offrirà un set completo di strumenti basati sulla famiglia di modelli Firefly e si integra direttamente con le applicazioni Adobe di riferimento nel settore, consentendo ai creatori di passare senza soluzione di continuità dall’ideazione alla produzione.
Nuove opzioni per il controllo creativo
Una delle richieste più frequenti da parte dei professionisti riguarda la possibilità di personalizzare e dirigere l’output dell’AI. Firefly ora include parametri per regolare angolazioni di ripresa, movimenti di camera e stili visivi, elementi essenziali per ottenere risultati più fedeli all’estetica desiderata.
Non mancano strumenti per il compositing avanzato, come la generazione di effetti visivi su sfondo trasparente, perfetti per integrare esplosioni, scintille e fumo nei progetti. Anche il formato verticale 9:16, sempre più usato per contenuti social, è supportato nativamente.
Un'altra innovazione è la possibilità di generare transizioni fluide tra due frame, utile per creare carrellate o movimenti di macchina in modo naturale. Questo apre nuove prospettive per l’animazione, permettendo di interpolare disegni chiave per ottenere sequenze animate senza interventi manuali fotogramma per fotogramma.
Firefly non si ferma al video: Adobe ha anche annunciato funzionalità di traduzione automatica per oltre 20 lingue, un supporto essenziale per la localizzazione rapida dei contenuti.
Nuovi piani Firefly
I nuovi piani Firefly permettono di sfruttare al massimo le potenzialità della nuova app web:
- Firefly Standard: pensato per i creator alla ricerca di strumenti per l’ideazione, offre 2.000 crediti video/audio al mese, fino a 20 generazioni di video 1080p da 5 secondi
- Firefly Pro: pensato per chi necessita di generare contenuti video/audio con maggiore frequenza, offre 7.000 crediti video/audio al mese, fino a 70 generazioni di video 1080p da 5 secondi
- Firefly Premium: in arrivo prossimamente, pensato per professionisti e team con esigenze di produzione su larga scala.
Inoltre, gli abbonati a Creative Cloud avranno accesso a una selezione di funzionalità generative per video e audio a partire dal 12 febbraio alle 15:00.