La inteligencia artificial (IA) generativa, la tecnología que permite crear contenido nuevo a partir de datos existentes, ha transformado industrias enteras en un tiempo récord.
Primero fueron los modelos de lenguaje como ChatGPT, capaces de redactar textos complejos. Luego, los generadores de imágenes como DALL-E y Midjourney, que pueden crear ilustraciones y fotografías realistas con solo una descripción.
Pero la industria tecnológica cruzó la siguiente gran frontera: la generación de video.
La capacidad de crear secuencias de vídeo complejas, coherentes y de alta fidelidad a partir de una simple instrucción de texto representa un punto de inflexión con implicaciones para el sector audiovisual, la publicidad, el entretenimiento y la comunicación digital.
En el centro de esta revolución se encuentra OpenAI, la misma compañía de investigación y desarrollo que lideró la masificación de la IA con ChatGPT.
Su más reciente creación genera un debate, no solo por su impresionante capacidad técnica, sino también por los desafíos éticos y de seguridad que plantea.
El nombre de esta tecnología es Sora. Se trata de un modelo de inteligencia artificial que transforma texto en video. Su nombre proviene de la palabra japonesa que significa “cielo”, una elección que, según la compañía, busca evocar un potencial creativo ilimitado.
¿Qué es Sora y cómo funciona?
Sora es un modelo de IA capaz de generar videos de hasta un minuto de duración manteniendo la calidad visual y la fidelidad a la instrucción del usuario. Puede crear “escenas complejas con múltiples personajes, tipos específicos de movimiento y detalles precisos del sujeto y el fondo”.
La compañía afirma que el modelo no solo sigue las instrucciones del usuario, sino que también entiende cómo existen los objetos en el mundo físico.
Esta capacidad le permite generar personajes que “expresan emociones vibrantes” y escenas que, aunque sean fantásticas, aplican reglas físicas coherentes, como reflejos en el agua o el movimiento del pelaje con el viento.
Técnicamente, OpenAI explica que Sora es un “modelo de difusión” que opera sobre una “arquitectura de transformadores”, similar a la que utilizan los modelos de lenguaje como GPT. Sin embargo, en lugar de procesar fragmentos de texto, el modelo trabaja con “parches” de datos visuales y temporales.
En la práctica, el sistema comprime los videos en un formato de menor dimensión, los descompone en estos “parches” y luego aprende a generar nuevos parches para construir un video desde cero, para finalmente decodificarlos en píxeles visibles.
Para mejorar la interpretación de las instrucciones del usuario, Sora también utiliza una técnica de “reencabezado” ( re-captioning ) similar a la de DALL-E 3, en la que amplía las indicaciones de texto para generar videos con mayor fidelidad a la solicitud original.

La evolución a Sora 2: Sonido y una nueva app
OpenAI presentó la primera versión de Sora el 15 de febrero de 2024, mostrando clips breves pero de una calidad que, según los reportes de la época, parecían “sacados de una película de Hollywood”. Sin embargo, la compañía no lo liberó al público en ese momento.
El 30 de setiembre de 2025, la empresa anunció el lanzamiento de Sora 2, una versión significativamente más avanzada. La principal novedad, según el comunicado oficial de la compañía, es que este nuevo modelo “también cuenta con diálogo y efectos de sonido sincronizados”. Esta capacidad de generar audio de forma integrada lo convierte en una herramienta de producción audiovisual mucho más completa.
Junto con Sora 2, OpenAI lanzó una nueva aplicación para celular. Medios como Decrypt la describen como una aplicación social similar a TikTok, que permite a los usuarios no solo generar videos a partir de texto, sino también insertar su propia imagen en las escenas creadas por la IA.
¿Puede cualquier persona usar Sora?
Esta es una de las preguntas más frecuentes, y la respuesta corta es no, no de forma ilimitada. El acceso a esta poderosa herramienta se ha gestionado con cautela desde su concepción debido a los riesgos que implica.
La primera versión de Sora, anunciada en 2024, nunca se abrió al público general. OpenAI otorgó acceso únicamente a un grupo reducido de evaluadores de seguridad, cuya función era buscar formas activas en que el modelo podría ser utilizado para fines maliciosos.
También se le dio acceso a un grupo selecto de artistas visuales, diseñadores y cineastas para obtener retroalimentación sobre su potencial creativo.
Con el lanzamiento de Sora 2 en setiembre, el acceso se amplió, pero sigue siendo controlado. Según el informe de LinkSpace, la aplicación “está disponible de manera gratuita con límites iniciales en la app Sora y en sora.com”.
En Costa Rica la aplicación no se ha lanzado todavía, pero ya aparece en las tiendas con el anuncio “próximamente”.
Por su parte, los usuarios que pagan la suscripción de ChatGPT Pro pueden acceder a Sora 2 Pro, una versión que ofrece mayor calidad y menos limitaciones en la generación de contenido.
Este despliegue gradual responde a las serias preocupaciones sobre los riesgos que implica la tecnología.
La capacidad de crear videos ultrarrealistas de eventos que nunca ocurrieron abre la puerta a la generación de desinformación a gran escala, un peligro que la propia compañía reconoció antes de considerar una liberación masiva.
Además, la compañía enfrenta un escrutinio legal por el material utilizado para entrenar a sus modelos.
OpenAI ya fue demandada en múltiples ocasiones por presuntamente usar material con derechos de autor sin permiso. Aunque indicaron que para Sora usó tanto videos de dominio público como otros con licencia, se negaron a revelar la cantidad y el origen exacto de los datos de entrenamiento.