Tecnologia

La disciplina informática está en crisis


La disciplina informática está en crisisGenerador de imágenes de la IA de BING para T21/Prensa Ibérica, desarrollada con tecnología de DALL·E.

La maestría en el lenguaje alcanzada por la IA ha sumido a la disciplina informática en una profunda crisis que separa a los académicos de los profesionales de la industria, cuando la prioridad ahora es la investigación destinada a minimizar los riesgos potenciales de los sistemas inteligentes.

Relacionadas

La disciplina informática ha entrado en una profunda crisis desde el lanzamiento de ChatGPT en 2022, asegura el informático y matemático israelí Moshé Y. Vardi en un artículo publicado en la revista Communications of ACM.

La inteligencia artificial (IA), que durante décadas fue un subcampo de la informática caracterizado por promesas excesivas y resultados insuficientes, ha alcanzado ahora un punto de inflexión, según Vardi.

La maestría en el lenguaje, considerada el santo grial de la IA, se ha materializado de repente, permitiendo que las computadoras se comuniquen fluidamente en lenguaje natural.

Y aunque a veces generan contenido sin sentido, el lenguaje es siempre pulido. Este avance ha acercado el sueño de la inteligencia general artificial, que siempre parecía estar más allá del horizonte, a una realidad tangible, asegura Vardi.

Preocupación por la IA

Y esto no ha dejado indiferente al sector. En enero pasado, casi 3.000 investigadores implicados en los desarrollos de la IA fueron sometidos a una gran encuesta sobre el futuro de la Inteligencia Artificial y la mayoría expresaron una incertidumbre sustancial sobre el valor a largo plazo del progreso esta tecnología.

La preocupación de estos expertos se centra, principalmente, en la propagación incontrolada de información falsa, la manipulación a gran escala de la opinión pública, el control autoritario de las poblaciones y el empeoramiento de la desigualdad económica.

El panorama del futuro de la IA que proyectan estos expertos empezaría a perfilarse en 2028, cuando con al menos con un 50% de probabilidades, los algoritmos inteligentes construirán desde cero un sitio de procesamiento de pagos, así como crearán una canción indistinguible de una original y permitirán el ajuste autónomo de un modelo de lenguaje de gran tamaño (como es el caso de chatGPT).

Si la ciencia continúa sin interrupciones, según los estimaciones previas, la probabilidad de que las máquinas sin ayuda superen a los humanos en todas las tareas posibles se estima en un 10% para 2027 y en un 50% para 2047. Y la probabilidad de que todas las ocupaciones humanas se vuelvan completamente automatizables alcanzaría el 10% en 2037 y el 50% en 2116, según los participantes en la gran encuesta de enero.

Estimación de riesgos

La mayoría de los encuestados expresaron diferentes niveles de preocupación sobre los posibles riesgos futuros: mientras que el 68,3% piensa que los buenos resultados de la IA sobrehumana son más probables que los malos, de estos optimistas netos, el 48% dio al menos un 5% de posibilidades de resultados extremadamente malos, como la extinción de los humanos, mientras que el 59% de los pesimistas netos dieron un 5% o más a resultados extremadamente buenos.

Entre el 38% y el 51% de los encuestados dieron al menos un 10% de posibilidades de que la IA avanzada condujera a resultados tan malos como la extinción humana.

Más de la mitad sugirió que se justifica una preocupación “sustancial” o “extrema” sobre seis escenarios diferentes relacionados con la IA, incluida la desinformación, el control autoritario y la desigualdad.

Podemos decir que existe desacuerdo sobre si un progreso más rápido o lento en la IA sería mejor para el futuro de la humanidad, al mismo tiempo que un amplio acuerdo en que se debería dar más prioridad a la investigación destinada a minimizar los riesgos potenciales de los sistemas de IA. Esta es la principal conclusión que se extrae de la encuesta.

Recreación artística del impacto de la IA en la disciplina informática.

IA, en el foco

Aunque esta encuesta levantó algunas suspicacias, considerando que los expertos exageraban los escenarios apocalípticos, ahora todas las miradas están puestas en una de las conferencias de IA más grandes, NeurIPS 2024, la trigésima octava edición de esta iniciativa sobre sistemas de procesamiento de información neuronal, que se desarrollará del 9 al 15 de 2024 en el Centro de Convenciones de Vancouver.

Para esta edición, la conferencia ha convocado presentaciones que abordarán una variedad de temas dentro del campo de la IA, incluyendo aprendizaje profundo, aprendizaje por refuerzo, métodos probabilísticos, optimización, y aspectos sociales y económicos de la IA, entre otros.

Además, este año, NeurIPS ha puesto un énfasis particular en la intersección de la IA con la creatividad humana a través de su pista de “Creative AI”, que se centró en el tema de la “Ambigüedad”. Esta pista busca destacar los desafíos multifacéticos y complejos que surgen al aplicar la IA para promover y desafiar la creatividad humana.

La pista de Creative AI invita a trabajos de investigación y obras de arte que muestren enfoques innovadores de la IA y aprendizaje automático en el arte, el diseño y la creatividad.

Se anima especialmente a las presentaciones que cuestionen el uso de datos privados y públicos, consideren nuevas formas de autoría y propiedad, desafíen las nociones de lo ‘real’ y lo ‘no real’, así como la agencia humana y de la máquina, y proporcionen un camino hacia adelante para redefinir y nutrir la creatividad humana en esta nueva era de la computación generativa.

Poco consenso estratégico

La cuestión que se plantea detrás de todo este despliegue es si NeurIPS será capaz de articular un consenso sobre cómo abordar las preocupaciones sobre la IA.

El problema radica en que la comunidad de la IA está profundamente dividida en dos ramas: la academia por un lado y la industria por el otro, explica Vardi.

Los investigadores académicos se sienten cómodos con el Código de Ética de ACM, que exige que los profesionales de la informática apoyen constantemente el bien público. La ACM es la sociedad profesional más grande en computación y, aunque tiene un grupo de interés especial en inteligencia artificial (SIGAI), la sensación general es que ACM se “ha desentendido” de la IA hace muchos años, según Vardi.

Uso responsable de la informática

Los investigadores industriales de la IA están en otra liga: suelen trabajar en corporaciones con fines de lucro, que a menudo hablan sobre la responsabilidad social corporativa, pero que, en la práctica, se centran en la maximización de ganancias. Además, tienen acceso a datos e informática a gran escala con los que los investigadores académicos sólo pueden soñar.

Lo que propone Vardi para resolver este dilema es recoger el testigo de la responsabilidad social que quedó en el aire cuando se disolvió en 2013 la Computer Professionals for Social Responsibility (CPSR), que la organización global que desde 1983 promovía el uso responsable de la tecnología informática, particularmente en el entorno bélico (recordemos que ese año estaba en pleno auge la crisis de los euromisiles entre la OTAN y el Pacto de Varsovia).

CPSR debería ser la encargada convocar y moderar la reflexión toda la comunidad sobre el futuro de la IA, según Vardi. La idea ya está en el aire, pero nada indica, de momento, que vaya a ponerse en marcha. La disciplina informática ciertamente está en shock.

Referencia

Thousands of AI Authors on the Future of AI. Katja Grace et al. arXiv:2401.02843v2 [cs.CY]. DOI:https://doi.org/10.48550/arXiv.2401.02843



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button