OpenAI presentó Sora 2, una evolución de su generador de video que ahora sincroniza audio y mejora física/coherencia; y además lanzó una app con scroll infinito para crear, remixar y publicar videos generados.
El video hiperreal entra en modo social y de consumo masivo. Esto cambia las cosas.
¿Qué es exactamente?
El modelo Sora 2 genera video con diálogo y sonido. Mejora la física y la coherencia. Los rebotes, fluidos, sombras y cámara reaccionan de forma mucho más natural. Entrega clips de 5–10 s (más para cuentas Pro) y tendrá API.
Mientras que la app Sora es un feed vertical tipo TikTok. La clave son los Cameos: grabas un clip corto para autorizar tu semblanza y la app la usa por prompt en nuevas escenas, siempre que la hayas subido y con controles de permiso/retirada. Por ahora en iOS y por invitación en USA/Canadá.
Qué cambia (de fondo)
El cambio de fondo es triple y ocurre a la vez. El video se vuelve lenguaje diario, la coherencia física mejora (menos fallos grotescos, acciones, luces y objetos respetan reglas, habilitando demos, tutoriales y anuncios más serios) y la distribución migra del buscador al feed; un scroll infinito donde el descubrimiento depende menos de palabras clave y más de recomendaciones en tiempo real.
Eso permite iterar narrativas en horas, pero también acelera la difusión de piezas engañosas cuando fallan los controles.
Lo que preocupa
Deepfakes creíbles a un scroll. OpenAI añade marcas de agua, metadatos y revisiones, pero la historia muestra que siempre hay atajos. El reto no es solo técnico, también es de hábitos y de aprender a dudar con criterio.
Derechos y consentimiento. Cameos exige autorización y permite revocar acceso, pero el mal uso social (contextos engañosos o difamación) no desaparece. La educación del usuario pesará tanto como la moderación.
Gobernanza de contenido. Las figuras públicas solo aparecen si suben su cameo. Aun así, un modelo “opt‑out” en derechos puede tensar la relación con creadores y medios.
Tu identidad se vuelve un activo 👀
Otro ángulo interesante es que pasamos de que la gente te siga por tus videos (Reels/TikTok) a que, con Cameos y permisos claros, puedan producir videos con tu imagen. Tu rostro y tu voz autorizados se vuelven reutilizables en piezas propias o de terceros, con continuidad y escala, sin sesiones eternas.
Puede sonar extraño o cuestionable hoy, pero todo apunta a que se normalizará rápido (sobre todo en la Gen Alpha). Los avatares IA actuarán como puente de adopción: herramientas como Heygen ya permiten crear dobles consistentes que mantienen rasgos y estilo a lo largo de campañas y catálogos.
Mientras Hollywood discute figuras como Tilly Norwood (de la que hablaremos mañana 🤓) y sindicatos como SAG‑AFTRA cuestionan entrenamientos sin permiso y la pérdida de “lo humano”, OpenAI empuja el video generativo a lo cotidiano. En paralelo, Sora 2 acerca el “doble digital” usable por cualquiera. Todo apunta a una convivencia humano ↔ avatar IA en cultura, y también en negocios y educación.
¿Quieres aterrizarlo en tu negocio?
En la Academia de IA de Weplash encontrarás guías y cursos prácticos para crear avatares/UGC que mantengan identidad y consistencia; y prototipar campañas y how‑tos en video con herramientas actuales, nuevos cursos cada semana y con criterio.
Bienvenidos a la web mixta con humanos, avatares… y tu dedo decidiendo qué es real.