Tecnologia

Usan fotos de niños para entrenar modelos de Inteligencia Artificial, los padres no lo saben


Esta situación revela los peligros que puede representar este tipo de tecnología. (Imagen Ilustrativa Infobae)

Human Rights Watch (HRW) ha lanzado una dura advertencia sobre un nuevo problema relacionado con la inteligencia artificial (IA) y sus implicaciones sobre los derechos y libertades de los niños. Una investigación ha puesto de manifiesto que el conjunto de datos LAION-5B, ampliamente utilizado para el entrenamiento de modelos de IA, contiene imágenes de menores que violan gravemente su privacidad.

El mes pasado, Hye Jung Han, investigadora de HRW reportó a Wired, que identificó que el conjunto de datos LAION-5B incluía 170 fotos de niños brasileños. Las imágenes fueron obtenidas principalmente de blogs personales, redes sociales y videos con escasa visibilidad en YouTube.

Esto es de suma gravedad porque los términos de servicio de YouTube prohíben la recopilación de datos personales sin el consentimiento adecuado, lo que evidencia un ataque directo a estas políticas.

Fotos de menores de 10 años de edad estaban siendo usadas por este modelo de IA. (Imagen Ilustrativa Infobae)

En un hallazgo aún más reciente, se encontró otras 190 imágenes de niños australianos, incluidas fotos de recién nacidos y niñas en bañador durante un carnaval. Estas imágenes fueron compartidas originalmente bajo estrictas medidas de privacidad, en blogs personales o en redes sociales con acceso limitado.

Algunas incluso provenían de fotógrafos profesionales contratados por familias o instituciones educativas para eventos específicos. La presencia de estas fotos en el conjunto de datos plantea serias preocupaciones sobre la falta de control y autorización en la recopilación de datos personales.

Asimismo, una de las preocupaciones más graves destacadas por HRW es que, las URLs de estas imágenes a menudo contienen información sensible, como nombres y ubicaciones específicas.

Otro peligro era que las imágenes presentaban información del nombre y dirección de los menores. (Foto: Freepik)

Por ejemplo, una imagen etiquetada con detalles precisos permitió a los investigadores obtener los nombres completos y la guardería frecuentada por dos niños en Perth, Australia. Esta capacidad para extraer información privada de imágenes supuestamente seguras reflejan la vulnerabilidad a la que están expuestos los menores en la era digital.

Estas imágenes son extremadamente difíciles de localizar mediante búsquedas en línea regulares, lo que indica que los padres y cuidadores han tomado medidas deliberadas para proteger la privacidad de los niños.

Sin embargo, las herramientas y técnicas utilizadas para crear conjuntos de datos masivos como LAION-5B han ignorado estas medidas, exponiendo la privacidad de los menores a un riesgo considerable.

Los investigadores evidenciaron que este hallazgo es solo un poco de todo lo que integran estos sistemas. (Imagen ilustrativa Infobae)

HRW ha señalado que su equipo solo pudo revisar una fracción mínima del conjunto de datos, menos del 0,0001 % de sus 5.850 millones de imágenes. Los investigadores se sorprendieron por la cantidad de fotos personales de niños que encontró incluso en una muestra aleatoria.

Se esperaría encontrar en su lugar una mayor proporción de imágenes más comunes en la web, como fotos de animales o paisajes, lo que resalta aún más el carácter invasivo de este conjunto específico de datos.

En defensa de sus prácticas, LAION, una ONG detrás del conjunto de datos, hizo declaraciones a Ars Technica que mantienen una política de “tolerancia cero con el contenido ilegal”.

La regulación de la inteligencia artificial es uno de los temas que piden estas investigaciones. (Imagen Ilustrativa Infobae)

No obstante, reconoció que eliminar estas imágenes comprometedoras es un proceso lento y complejo. Además, una vez que los modelos de IA han sido entrenados con estos datos, es imposible “olvidar” la información absorbida, lo que implica que el daño potencial ya está hecho.

Por el momento, esta alerta pone de relieve la urgente necesidad de establecer regulaciones más estrictas y controles más robustos en la recopilación y uso de datos para el entrenamiento de IA.

La precisión y eficacia de estos modelos no deben lograrse a expensas de la privacidad y los derechos de los individuos, especialmente de los niños, que son un grupo particularmente vulnerable.

No solo se pone en peligro la privacidad de los menores, sino que también, se cuestiona la ética y la legalidad de las prácticas de recopilación de datos de muchos de los modelos de IA actuales.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button