Tecnologia

El culebrón de OpenAI, el creador de ChatGPT


La compañía de IA se enfrenta a cada vez más competidores a la vez que busca crear una tecnología superior a la inteligencia humana.

Han pasado nueve años desde que un grupo de tecnólogos formado por Elon Musk, Sam Altman, Greg Brockman, Wojciech Zaremba, Ilya Sutskever y John Schulman fundó en San Francisco OpenAI. Su misión era desarrollar herramientas de inteligencia artificial seguras y abiertas que empoderaran a las personas en lugar de reemplazarlas. Este ambicioso objetivo desembocó a finales de 2022 en el lanzamiento de ChatGPT, primer chatbot conversacional capaz de entender y responder a los humanos con un lenguaje natural gracias a la inteligencia artificial generativa. Desde entonces, OpenAI se ha convertido en la compañía referente en esta tecnología, alcanzando una valoración de 80.000 millones de dólares a principios de este año.

La compañía liderada por Altman ha logrado imponer a la inteligencia artificial generativa como la innovación de la década o quizás del siglo, llevando a todas las grandes empresas de la competencia, incluidos los gigantes tecnológicos, a sumarse a esta carrera por abanderar un segmento que promete cambiar la forma en la que trabajamos, nos relacionamos o, simplemente, vivimos.

Pero no todo ha sido un camino de rosas para OpenAI, especialmente desde finales de 2023. El viernes 17 de noviembre, Sam Altman fue destituido como director ejecutivo de OpenAI. Uno de sus socios fundadores, Ilya Sutskever, junto a otros tres miembros de la junta directiva decidieron echar a Altman ante la supuesta amenaza que supone la inteligencia artificial generativa y la poca atención que estaba prestando al respecto. Pero Microsoft, que desde que OpenAI lanzó ChatGPT se ha caracterizado por mover ficha rápido aliándose con la tecnológica, también fue rápida ante el despido de Altman y anunció su contratación tan sólo dos días después.

La telenovela no terminó aquí. El lunes por la mañana, los casi 800 empleados de OpenAI firmaron una carta advirtiendo de que se unirían a Microsoft renunciando a sus puestos si no se recontrataba a Altmany todos los miembros de la junta directiva de la empresa renunciaban. Un día más tarde, OpenAI anunciaba la vuelta de Altman y la reorganización de la junta, con la salida de tres de los miembros que impulsaron la salida del directivo, entre ellos Sutskever, y la incorporación de dos nuevos, Bret Taylor, ex codirector ejecutivo de Salesforce y Lawrence Summers, exsecretario del Tesoro.

Superalineación

Esta crisis por la que pasó el gigante de la inteligencia artificial y que acabó con el regreso de Altman, en realidad no ha supuesto el fin de los problemas para la compañía, sobre todo los relacionados con las dudas sobre la gestión que tiene respecto a la inteligencia artificial general. OpenAI está comprometida con crear esta tecnología desde sus inicios, donde operaba sin ánimo de lucro y tenía la misión de asegurar que la inteligencia artificial general se desarrollara como código libre y en beneficio de toda la humanidad. La versión generativa se refiere a una forma de inteligencia artificial que tendría el potencial de ser más inteligente que los humanos en cualquier aspecto, con acceso al conocimiento humano y la capacidad de entrenarse a sí misma y crear versiones aún mejores.

El potencial de esta tecnología se ha convertido en un importante foco problemático para OpenAI. El julio de 2023, la compañía anunció la puesta en marcha del departamento de Superalineación, un equipo específico para controlar a la inteligencia artificial superior a la humana y que contaba con un plazo de cuatro años para conseguirlo. Pero menos de un año más tarde este equipo se desintegró. Ilya Sutskever, cofundador y científico jefe de OpenAI que además lideraba el equipo de Superalineación, anunciaba su marcha de la compañía, y un día más tarde, el codirector de este departamento, Jan Leike, comunicaba su partida. Esa misma semana, OpenAI anunciaba el cierre de su departamento frente a los riesgos de la inteligencia artificial.

“Construir máquinas más inteligentes que los humanos es una tarea intrínsecamente peligrosa. OpenAI asume una enorme responsabilidad en nombre de toda la humanidad. Pero en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”, aseguraba Leike en redes el día que abandonó OpenAI.

La ola de críticas hacia la compañía de Altman y los posibles riesgos de crear una inteligencia artificial tan poderosa hicieron que el propio directivo y su mano derecha y también fundador, Greg Brockmam, lanzaran un comunicado en redes explicando que no había que alarmarse. “No existe un manual probado sobre cómo recorrer el camino hacia la inteligencia artificial generativa. Creemos que la comprensión empírica puede ayudar a orientar el camino a seguir. Creemos tanto en aprovechar las enormes ventajas como en trabajar para mitigar los riesgos graves; nos tomamos muy en serio nuestro papel aquí y sopesamos cuidadosamente los comentarios sobre nuestras acciones”.

Pero a principios de junio, un grupo de empleados de OpenAI publicaron una carta para advertir de que la empresa y sus rivales están creando inteligencia artificial con riesgos indebidos, sin suficiente supervisión y sin permitir que los empleados hablen públicamente. “Estos riesgos van desde el afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de inteligencia artificial que podría provocar la extinción humana”, dice la carta.

El origen de los datos

Más allá de las dudas sobre la actuación futura de la start up en torno al uso de la tecnología, OpenAi también se enfrenta a dudas actuales sobre la procedencia de los datos que emplea para entrenar a sus modelos. ChatGPT 3.5 se entrenó utilizando 570 GB de datos procedentes de libros publicados, páginas web, entradas de Wikipedia, artículos aleatorios y otros textos de dominio público disponibles en la Red. En total, se estima que se introdujeron en el sistema más de 300.000 millones de tókens o parámetros. Se calcula que el último modelo GPT-4o se entrenó con más de un billón de parámetros. Pero tener acceso a gran cantidad de datos no es fácil.

La tecnológica desarrolló en 2021 una herramienta de reconocimiento de voz, llamada Whisper, capaz de transcribir el audio de los vídeos de YouTube, sin autorización de los creadores de esos contenidos. Además, se enfrenta a demandas por derechos de autor de The New York Times y otros medios estadounidenses que aseguran que la firma utilizó millones de artículos del diario para entrenar a su chatbot. OpenAI está intentando cerrar acuerdos con grandes grupos editoriales con los que poder seguir alimentando su modelo, como en Financial Times, The Time o la red social Reddit.

La última en alzar la voz contra el laboratorio ha sido la actriz Scarlett Johansson, quien criticó a la compañía después de que ésta anunciara su nuevo modelo de lenguaje utilizando una voz muy similar a la de la actriz sin su permiso.

Aunque desde OpenAI creen que una inteligencia artificial general podría estar lista esta misma década, mientras tanto la compañía sigue avanzando por mejorar sus modelos de lenguaje y dotarlos de cada vez más posibilidades. Altman anunció en febrero Sora, su propuesta de inteligencia artificial para elaborar vídeos a partir de texto, aunque todavía no está disponible para el público en general. Además, la compañía presentó el nuevo ChatGPT-4o el pasado mes de mayo con un claro foco, ser aún más natural.

OpenAI defiende que este nuevo modelo es un paso significativo hacia una interacción más natural entre los hombres y los ordenadores. GPT-4o es capaz de razonar a través de peticiones de voz, texto e imágenes siendo capaz mantener conversaciones ágiles en tiempo real.

Lo que está por venir es difícil de aventurar, pues la propia OpenAI asegura que su próximo modelo dejará en ridículo al actual, pero en ese camino la tecnológica tendrá que responsabilizarse del potencial de las máquinas que crea y anteponer la ética y la seguridad a la carrera empresarial.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button