OpenAI puede clonar voces, pero no lanzará su tecnología al público por sus riesgos | Tecnología | inteligencia artificial | OpenAI | Chat GPT | TECNOLOGIA | GESTIÓN

La empresa de dijo este lunes que mediante su modelo Voice Engine puede clonar voces humanas reproduciendo un sonido natural “emotivo y realista” usando una muestra de 15 segundos, pero que aún no lanzará la al público general, ya que sería demasiado arriesgado.

“Reconocemos que generar un discurso que se asemeje a las voces de las personas, conlleva serios riesgos, que son especialmente importantes en un año electoral”, apuntó en un comunicado los creadores de

Voice Engine es un nuevo modelo de IA que puede convertir texto a voz para crear voces sintéticas, que, según la compañía, pueden permitir que los creadores de contenidos puedan traducir su trabajo en otras lenguas sin perder sus acentos nativos y ayudar a las personas con problemas de comunicación verbal a usar su voz para, por ejemplo, llamar por teléfono.

LEA TAMBIÉN: Uso de la IA es clave para mejorar eficiencia de empresas, pero aún hay retos

LEA TAMBIÉN: Inteligencia artificial puede ser útil para detectar miedo de mujeres maltratadas

En uno de los ejemplos que da la empresa se puede escuchar como la voz de una anglosajona se tradujo al español, mandarín, alemán, francés y japonés conservando el acento nativo de la persona.

Por el momento, las empresas que pueden acceder a esta tecnología son la empresa de tecnología educativa Age of Learning, la plataforma de narración visual HeyGen, el fabricante de software de salud Dimagi, el creador de aplicaciones de comunicación de inteligencia artificial Livox y el sistema de salud Lifespan.

“Estamos adoptando un enfoque cauteloso e informado para una publicación más amplia debido al potencial de uso indebido de la voz sintética”, indicó la empresa en el comunicado donde además apunta que las empresas con las que trabajan han aceptado sus políticas de uso.

Entre esas reglas está que no se use la voz de alguien sin su consentimiento o que hay que indicar a los usuarios que son voces sintéticas.

“Finalmente, hemos implementado un conjunto de medidas de seguridad, que incluyen marcas de agua para rastrear el origen de cualquier audio generado por Voice Engine, así como un monitoreo proactivo de cómo se utiliza”, añadió OpenAI.

Este año electoral en ya se han dado casos de llamadas automáticas con voces clonadas de políticos como el presidente

Otro gran problema de las voces sintéticas generadas por IA es que los estafadores las podrían usar para acceder a cuentas bancarias que utilizan autenticación de voz.

Te puede interesar

Lo que puede estar en juego para Apple tras el lanzamiento de las Vision Pro

New York Times demanda a OpenAI y Microsoft por violación de derechos de autor

Consejos para usar ChatGPT correctamente y no verse perjudicado

Comienza a destacar en el mundo empresarial recibiendo las noticias más exclusivas del día en tu bandeja Aquí. Si aún no tienes una cuenta, Regístrate gratis y sé parte de nuestra comunidad.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *