La inteligencia artificial avanza a pasos agigantados, pero ¿estamos preparados para las consecuencias? Una reciente encuesta a miles de investigadores en IA destapa predicciones tanto fascinantes como aterradoras, poniendo en primer plano la necesidad de priorizar la seguridad en su desarrollo.
El estudio al que hago referencia es:"Encuesta de Expertos sobre el Progreso de la IA de 2023", o ESPAI, que fue realizado por un equipo de investigadores de AI Impacts, la Universidad de Oxford y la Universidad de Bonn. El objetivo principal de la encuesta (es la tercera en una serie iniciada en 2016) era recopilar las opiniones de investigadores de IA sobre el progreso de la IA, sus posibles impactos sociales y las medidas de seguridad necesarias para mitigar los riesgos potenciales.
La encuesta se enfocó en las predicciones de los investigadores sobre:
- La velocidad a la que se alcanzarán ciertos hitos en el desarrollo de la IA
- La naturaleza y las capacidades de los futuros sistemas de IA
- Los posibles impactos sociales, tanto positivos como negativos, de la IA avanzada
- Las estrategias para abordar los riesgos potenciales asociados con la IA.
Estudios de este tipo me parecen muy relevantes en estemomento de rápidos avances en la IA, con el lanzamiento de modelos de lenguaje grandes muy eficientes (libres y propietarios) y un creciente interés público y gubernamental en las implicaciones de la esta tecnología.
Podemos suponer que los investigadores de IA están en una posición privilegiada para hacer predicciones informadas sobre el futuro de la IA. Si bien no deben considerarse infalibles, nos permite contar con información valiosa para la toma de decisiones en el desarrollo y la regulación de esta tecnología.
Como primer dato a analizar la encuesta de 2023 reveló una aceleración en las expectativas con respecto a la llegada de la inteligencia artificial de alto nivel (HLMI), un estado hipotético en el que las máquinas poseen una inteligencia comparable o superior a la humana, permitiéndoles superar a los humanos en todas las tareas. Mientras que en 2022 se predijo una probabilidad del 50% de alcanzar HLMI para el año 2060, la encuesta de 2023 adelantó esta fecha a 2047, una reducción significativa de 13 años. Esta aceleración puede atribuirse a los avances recientes en la IA, como el lanzamiento de ChatGPT y GPT-4.
El estudio define HLMI (High-Level Machine Intelligence) como la capacidad de una máquina para superar el rendimiento humano en todas las tareas, de manera más eficiente y económica. Por lo que lo diferencia de AGI (Artificial General Intelligence) que se entiende como la capacidad de una máquina para realizar cualquier tarea intelectual que un humano puede realizar, incluyendo el razonamiento, el aprendizaje, la resolución de problemas y la creatividad. Si bien ambas definiciones son amplias y están en debate, me parece importante tener un cuenta esta sutil diferencia, en resumen: HLMI enfatiza la eficiencia y el rendimiento, mientras que AGI se centra en la generalidad y la flexibilidad de la inteligencia.
A pesar del optimismo sobre la velocidad del progreso, la encuesta también destaca preocupaciones significativas sobre los riesgos que la IA avanzada podría representar para la humanidad.
Vemos algunos de los puntos mas relevantes:
La IA de alto nivel (HLMI) ¡está muy cerca!. En 2022, estimaban que había un 50% de probabilidades de que HLMI llegara para el 2060. ¡Pero en 2023, la fecha se adelantó a 2047! Parece que ChatGPT y otros modelos de lenguaje grandes les inyectaron una buena dosis de optimismo. Para ese grupo de investigadores, luego de un año se redujo mas de un 30% el tiempo para esta hito.
¡Alerta! Riesgos a la vista. Muchos investigadores están preocupados por los posibles impactos negativos de la IA avanzada, y no hablamos solo de robots mayordomos que se rebelan. Sino que algunos incluso temen la extinción humana. Más de la mitad de los encuestados cree que hay al menos un 5% de probabilidades de que la IA acabe con la humanidad o nos deje en una situación de desventaja permanente. ¡Y entre el 38% y el 51% considera que la probabilidad es mayor al 10%!. Como en todos los rubros siempre hay optimistas y pesimistas, pero no es para dejar de lado que la mitad de los que están trabajando en IA dicen que estamos tirando con forma de Trapezoedro Pentagonal y tenemos una posibilidad en diez que sea el fin de la humanidad.
También el hackeo a nuestra sociedad es preocupante. La desinformación a gran escala, la manipulación de la opinión pública, la posibilidad de que grupos peligrosos creen armas con IA, el control autoritario por parte de gobiernos y el aumento de la desigualdad económica son solo algunos de los escenarios que mantienen a los investigadores despiertos por la noche. La encuesta exploró once escenarios potencialmente preocupantes. ¡Más del 50% de los encuestados considera que al menos 6 de estos escenarios son motivo de preocupación!
El “problema de alineación". Imagínense que le piden a un genio de la lámpara un deseo, pero lo formulan mal y terminan con resultados desastrosos. Como la película Bedazzled (traducida como “Al diablo con el diablo” en español), pero en escala planetaria. Este es, en esencia, el problema de alineación: cómo asegurarnos de que la IA entienda y cumpla con nuestros deseos de manera segura y beneficiosa. La mayoría de los encuestados considera que este problema es importante y difícil de resolver.
¿Hay solución?
Las respuestas podemos resumirlas en ¡Priorizar la seguridad de la IA!. Ante este panorama apocalíptico, la mayoría de los expertos coincide en que la investigación en seguridad de la IA debe ser una prioridad. Esto implica, entre otras cosas, encontrar formas de identificar y corregir sesgos en los modelos, mejorar la transparencia de los algoritmos y analizar los riesgos existenciales a largo plazo. Más del 70% de los encuestados opinan que la investigación en este campo debería recibir más atención que la que actualmente se le otorga.
Este trabajo es un llamado a la reflexión sobre el futuro de la IA. Si bien la tecnología promete avances sin precedentes, me parece que es crucial abordar los riesgos potenciales para garantizar que su desarrollo beneficie a la humanidad. El debate sobre la seguridad de la IA debe involucrar a toda la sociedad, incluyendo a los expertos, los responsables políticos y el público en general, la clave está en encontrar el equilibrio: impulsar el desarrollo de la IA mientras nos aseguramos de que sea segura y beneficie a la humanidad.