El incómodo momento de la creadora de ChatGPT en una entrevista al tratar de explicar su nueva herramienta, Sora

A mediados de febrero, OpenAI (la compañía detrás de ChatGPT) presentó Sora, una herramienta de inteligencia artificial generativa que permite crear videos de alta calidad de un minuto de duración a partir de una descripción de texto, similar a lo que ya se podía hacer con imágenes (con aplicaciones como Dall-E, Midjourney o Stable Diffusion), que recién estará disponible a fin de año, pero que ya le está generando momentos incómodos antes de estar liberada al público en general, tal como demostró una entrevista reciente a su principal directiva.

Aunque tiene algunas limitaciones, y las animaciones pueden tener errores, los primeros resultados han sorprendido por la calidad y versatilidad de sus animaciones, como pueden apreciarse en este video:

Así es Sora, el motor de texto-a-video de Openai

Mientras tanto, Mira Murati, creadora del ChatGPT original y una de las máximas ejecutivas de OpenAI (y su CEO durante un fin de semana tumultuoso) accedió a una entrevista con Joanna Stern, periodista del Wall Street Journal, para explicar cómo funciona Sora y qué capacidad tiene.

En un momento de la entrevista, Stern le hizo una pregunta clave a Murati, sobre el origen de los contenidos que se usaron para entrenar a Sora, el motor para generar videos, y lograr que sea tan dúctil: es necesario que se haya usado una gran cantidad de videos.

-¿Qué información fue usada para entrenar a Sora?

-Usamos información disponible públicamente y contenido licenciado.

-¿Y videos en YouTube?

-No estoy segura.

-¿Videos de Facebook, Instagram?

-Si estaban disponibles públicamente para usar, puede que estén en los datos, pero no estoy segura

Murati sí confirma que usaron videos licenciados de Shutterstock para educar a Sora. Las evasivas de Murati (que es directora de tecnología de OpenAI) son importantes: los modelos grandes de lenguaje, o LLM (el nombre técnico para las inteligencias artificiales generativas como GPT, el Gemini de Google o Llama de Meta, por ejemplo) se entrenan suministrándoles cantidades descomunales de contenido: textos de todo tipo en el caso de los chatbots, imágenes para educar a los generadores de imágenes, música para los de audio, y lógicamente video para los creadores de video como Sora.

Pero hace tiempo que los creadores de contenido sospechan que sus creaciones se usaron para educar a estos motores sin autorización y sin pago de regalías: en enero del año pasado varios artistas gráficos demandaron a Stable Diffusion por usar sus obras para entrenar a sus IA generativas (que sumaron entre sus capacidades la posibilidad de emular sus estilos de dibujo); también lo hicieron, en julio pasado, la comediante Sarah Silverman y los escritores Paul Tremblay y Mona Awad, ya que sospechan que sus libros son parte del corpus con los que se educó a GPT; en diciembre último se sumó el New York Times, que sospecha que los artículos disponibles en su sitio son una de las fuentes con las que se educó a ChatGPT. En todos los casos, la queja es la misma: estas nuevas herramientas necesitan muchos datos para aprender a reconocer patrones, emular estilos y demás, y sería muy difícil lograrlo solo con contenido sin derechos de autor. Era previsible que en una entrevista alguien hiciera esa pregunta; es sorprendente que no hayan tenido lista una respuesta que no deje dudas al respecto, como sí lo hizo con otros aspectos técnicos del notable motor de generación de videos de OpenAI.

Aquí está la entrevista completa.

LA NACION

Conocé The Trust Project

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *