Tecnologia

Los niños son más vulnerables a ser “manipulados” por la inteligencia artificial según un estudio de Cambridge


A estas alturas del 2024 prácticamente todos hemos trasteado con alguna que otra inteligencia artificial. Cada vez somos más quienes las utilizamos a diario para resolver tareas mecánicas, como escribir un correo o moderar el tono de un mensaje. Y, si estamos familiarizados con ellas, sabremos que a veces pecan de políticamente correctas. Algunas se niegan incluso a crear historias policiacas donde haya asesinatos o secuestros. Niños y niñas están expuestos a IAs de todo tipo, algunas con muchos menos escrúpulos y eso abre un gran problema.

Así lo analizan en un reciente estudio científico de la Universidad de Cambridge y, en él, enumeran varios ejemplos. Entre ellos se encuentra un caso de 2021, donde una niña de 10 años estaba utilizando el famoso asistente de voz Alexa cuando la IA le incitó a introducir una moneda en un enchufe. Otro caso bastante sonado fue el de un estudio de 2023 donde un grupo de investigadores habló con la IA de Snapchat, My AI, haciéndose pasar por una niña de 13 años. Con los mensajes adecuados, el chatbot terminó dándole a la supuesta niña consejos para acostarse con un hombre de 31 años. El peligro es real y, conociéndolo, bienvenida sea la “mojigatería” de los principales chatbots.

En la investigación aclaran que, tras estos dos incidentes, las empresas implicadas implementaron con diligencia una serie de medidas de seguridad para que los incidentes no se repitieran. Sin embargo, hace falta algo más: medidas a largo plazo que instruyan a empresas, maestros, líderes escolares, padres, desarrolladores y responsables políticos. Consejos que les ayuden a detectar los posibles peligros de una IA antes de desarrollarla, lanzarla al mercado o permitir que la usen sus hijos. Precisamente con esto en mente, el estudio ha desarrollado una lista con consejos para todos los públicos.

A continuación, presentamos una versión resumida de esos puntos para facilitar su acceso a los usuarios de inteligencias artificiales, aunque pueden encontrar una versión más detallada en el artículo científico.

  • 1.¿Cuán robustos son los mecanismos de procesamiento de lenguaje natural para entender el habla infantil, la jerga o las consultas ambiguas?
  • 2.¿Hay filtros adaptables para asegurar que las respuestas a niños estén libres de contenido explícito o dañino?
  • 3.¿El AI considera el contexto y las conversaciones previas para evitar malentendidos?
  • 4.¿El AI adapta sus respuestas según la etapa de desarrollo y madurez del niño?
  • 5.¿Cómo se monitorea y modera el contenido en tiempo real? ¿Hay sistemas de reporte para interacciones inapropiadas?
  • 6.¿Qué datos se recogen y cómo se asegura la equidad, transparencia y seguridad en su manejo?
  • 7.¿Puede el AI detectar y responder a emociones negativas como confusión o miedo?
  • 8.¿La AI puede conectar a los niños con sistemas de soporte humano al detectar experiencias sensibles?
  • 9.¿Existe un sistema de retroalimentación amigable para que los niños reporten interacciones inapropiadas?
  • 10.¿La AI afirma consistentemente su identidad no humana y evita descripciones antropomórficas?
  • 11.¿Son transparentes los procesos y algoritmos detrás del AI? ¿Educadores y familias pueden acceder a esta información?

En ningún momento del estudio se sugiere que haya algo esencialmente negativo en el uso de las inteligencias artificiales. Ni siquiera en el uso de inteligencias artificiales por parte de los niños. Sin embargo, es evidente que existen formas incorrectas de interactuar con ellas y, por supuesto, de que ellas interactúen con nosotros. Precisamente por eso, en esta investigación, sus autores abogan por el desarrollo de nuevas medidas que obliguen a tener en cuenta los potenciales peligros de las IAs, en especial, en su interacción con menores.

¿Cómo se pueden crear marcos legales claros para proteger a los niños? ¿El diseño de AI incluye metodologías centradas en los niños? ¿Colaboran desarrolladores con expertos en seguridad infantil? ¿Cómo pueden los educadores involucrar a los padres en el uso seguro de AI? Estas son solo algunas de las preguntas abiertas que, según los autores del estudio, deberían dirigir el desarrollo de los modelos de lenguaje que están por llegar. Preguntas especialmente relevantes a al luz de los últimos descubrimientos, que revelan que a los niños les cuesta más comprender que las IAs no son humanas y tienden a establecer relaciones de confianza con ellas con mayor facilidad, con todos los problemas que ello conlleva.

QUE NO TE LA CUELEN:

  • ¿Podemos distinguir a una IA de un humano? En algunas tareas ya es harto difícil (por no decir imposible) pero juguemos a ser abogados del diablo y digamos que todavía no hay tareas en las que puedan parecer humanas. Con la velocidad a la que mejoran podemos dar por hecho que, en algún momento, posiblemente no muy lejano, serán capaces de escribir, dibujar e incluso “hablar” como lo haría cualquiera de nosotros. No estamos entrando en las motivaciones o los pasos que sigan. Ni siquiera en que la imitación sea perfecta. Solo nos interesa que cada vez habrá más personas que no logren encontrar diferencias entre las respuestas y productos de una IA y las que daría un ser humano.

REFERENCIAS (MLA):

  • Lee, Madison, and Alex Morgan. “‘No, Alexa, No!’: Designing Child-Safe AI and Protecting Children from the Risks of the ‘Empathy Gap’ in Large Language Models.” Learning, Media and Technology, vol. 19, no. 3, 2024, pp. 245-261, https://doi.org/10.1080/17439884.2024.2367052.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button