OpenAI presenta Sora, l’app social per video generati con l’AI
OpenAI ha annunciato Sora, una nuova app video con funzionalità social, accessibile solo su invito, che permette di creare clip AI estremamente realistiche di sé stessi, degli amici e di altre persone e di condividerle in un feed che privilegia i contatti e le interazioni reali.
L’app si basa su Sora 2, un modello di generazione video che migliora l’accuratezza fisica, il realismo e il controllo, gestisce movimenti complessi nel rispetto delle leggi della fisica e eccelle negli stili cinematografici, realistici e anime. Sora 2 genera anche l’audio con voci credibili, paesaggi sonori di sottofondo ed effetti sonori sincronizzati, così che ogni scena risulti completa già dal primo rendering.
Il cuore dell’esperienza è la funzione “cameo”. L’app osserva un breve video della persona e la inserisce, con aspetto e voce coerenti, all’interno di ambienti generati da Sora, consentendo di creare clip personali da condividere con la propria rete. È possibile scegliere chi può utilizzare il proprio cameo e si ha visibilità su tutti i video in cui appare la propria immagine, inclusi i draft prima della pubblicazione. Questa impostazione tutela il controllo e la trasparenza sull’uso della propria identità digitale, mantenendo l’esperienza focalizzata su cerchie di persone che si conoscono.
Sora integra anche meccaniche social pensate per un uso più consapevole. Il feed mostra i contenuti delle persone seguite o con cui si interagisce e include controlli per personalizzare ciò che compare. L’app monitora periodicamente il benessere dell’utente e, per impostazione predefinita, privilegia l’uso con gli amici, motivo per cui l’accesso è limitato tramite inviti.
In questa fase iniziale, Sora è disponibile su iOS negli Stati Uniti e in Canada e gli invitati possono usare Sora 2 anche dal sito web dedicato. Al momento, Sora 2 è gratuito, mentre gli abbonati a ChatGPT Pro hanno accesso alla variante Sora 2 Pro sulla piattaforma online.
Dal punto di vista creativo, Sora 2 mira a garantire coerenza visiva e comportamentale dei soggetti, offrendo un controllo più preciso su stile e contenuto. Il miglior rispetto della fisica riduce gli artefatti tipici dei modelli precedenti e aumenta l’affidabilità nelle scene dinamiche. La generazione con audio integrato rende le clip pronte per la condivisione, riducendo i passaggi in post-produzione.
Sound on. pic.twitter.com/QHDxq6ubGt
— OpenAI (@OpenAI) September 30, 2025