El Debate que Necesitamos (Pero No el que Tenemos)La Cumbre y Contracumbre de IA en París

El 10 y 11 de febrero, París se convirtió en el epicentro de dos visiones radicalmente diferentes sobre el futuro de la IA. Mientras los líderes mundiales y ejecutivos tecnológicos debatían en salones lujosos, una contracumbre organizada por Éric Sadin nos recordaba la dimensión humana que frecuentemente nos olvidamos en estas discusiones.

12 | Febrero | 2025

Imagen del artículo

El Cisma Regulatorio

Si bien, en París, se firmó la "Declaración sobre Inteligencia Artificial Inclusiva y Sostenible para las Personas y el Planeta". Donde se establece un enfoque abierto, inclusivo y ético para el desarrollo de la IA, destacando la necesidad de garantizar que la inteligencia artificial sea accesible, transparente, ética, segura y confiable; y promueve la cooperación internacional y la reducción de la brecha digital, con el objetivo de acelerar el progreso hacia los Objetivos de Desarrollo Sostenible. No todo fueron rosas y concordia. Alrededor de 60 países y entidades supranacionales, como la Unión Europea, firmaron la declaración. Entre los firmantes se incluyen los 27 Estados miembros de la Unión Europea, China, India, Japón, Australia, Canadá, Brasil, Chile y el Vaticano. Sin embargo, Estados Unidos y el Reino Unido decidieron no firmar el documento, aduciendo preocupaciones sobre la claridad en la gobernanza global y la seguridad nacional.

Lo que realmente me inquieta de esta cumbre no es tanto la falta de acuerdo - que era previsible - sino la clara división ideológica entre dos visiones del futuro. Estados Unidos y el Reino Unido, con su negativa a firmar la declaración final, están apostando por un modelo de innovación sin restricciones que, podemos suponer, significa dejar que las grandes tecnológicas marquen el rumbo.

La postura de Vance (Vicepresidente de EEUU) sobre "no frenar la innovación" suena atractiva en superficie, pero esconde una realidad más compleja: estamos cediendo el control del futuro tecnológico a entidades cuyo principal objetivo es maximizar beneficios. Esta postura refleja una continuación de la doctrina tecnológica de Trump: una mezcla de nacionalismo tecnológico y libertarianismo corporativo. Esta filosofía presenta algunos puntos, por lo menos conflictivos a tener en cuenta:

  • Promueve la desregulación mientras critica el poder de las big tech.
  • Defiende la supremacía tecnológica estadounidense pero rechaza la cooperación internacional.
  • Abraza la innovación sin restricciones pero teme la influencia extranjera.

La figura de Elon Musk, actualmente parte del gobierno de EEUU, ejemplifica estas contradicciones. Por un lado, advierte sobre los peligros de una IA sin control, comparándola con "invocar al demonio". Por otro, sus acciones empresariales - desde la adquisición de Twitter hasta sus intentos con OpenAI - sugieren una búsqueda de control centralizado sobre estas tecnologías, dejando decisiones cruciales en manos de una sola persona o corporación.

La otra visión

El enfoque europeo, defendido por Von Der Leyen y Macron, representa una visión distinta, a lo mejor mas equilibrada. Se basa en que principios como la transparencia y el código abierto no son obstáculos burocráticos, sino son salvaguardas esenciales para asegurar que la IA sirva a toda la sociedad y no solo a unos pocos privilegiados.

Expertos como Damini Satija, directora del programa de tecnología y derechos humanos de Amnistía Internacional, han advertido sobre la necesidad urgente de establecer reglas vinculantes para mitigar los daños causados por la IA. Satija enfatiza que los gobiernos no deben permitir que los intereses empresariales eclipsen las voces de aquellos que sufren los efectos adversos de estas tecnologías. Su preocupación se centra en el hecho de que sin una regulación adecuada, las tecnologías pueden perpetuar desigualdades existentes y amenazar libertades civiles.

Mientras que JD Vance, Vicepresidente de Estados Unidos advirtió sobre los peligros de una regulación excesiva, en resumen algo como: "Una regulación excesiva podría obstaculizar la innovación y el desarrollo económico. Debemos evitar sofocar una de las tecnologías más prometedoras de nuestra generación."

Otros participantes expresaron:

Ursula Von Der Leyen, Presidenta de la Comisión Europea: "La IA necesita competencia, pero también colaboración, y la IA necesita la confianza de la gente, y tiene que ser segura."

Emmanuel Macron, Presidente de Francia: Francia invertirá más de 100.000 millones de euros en inteligencia artificial en los próximos años, asegurando que este desarrollo respete nuestros valores, incluyendo los derechos de autor y la protección de menores .

Papa Francisco, En un mensaje dirigido a la cumbre, destacó la importancia de la dignidad humana en el desarrollo de la IA: "Estamos ante una transformación radical de lo que es la humanidad. Sin mecanismos de control claros, la inteligencia artificial podría convertirse en una amenaza para la dignidad humana."

Sundar Pichai, CEO de Google: La inteligencia artificial es el mayor cambio de nuestras vidas.

Demis Hassabis, CEO de DeepMind: La AGI está a la vuelta de la esquina, y con ella vienen riesgos significativos que debemos abordar mediante conversaciones continuas sobre seguridad

Max Tegmark, Profesor del MIT y cofundador del Future of Life Institute: Es como si estuviéramos en una película de desastres, avanzando a toda velocidad sin prestar atención a las señales de advertencia.

¿Y China?

La participación de China en la Cumbre de París merece un análisis detallado, pues revela cambios significativos en la dinámica global del desarrollo de la IA. En la cumbre adoptó una postura proactiva y colaborativa. El viceprimer ministro chino, Zhang Guoqing, expresó la disposición de China a compartir sus logros en inteligencia artificial y a cooperar con otras naciones para garantizar un desarrollo seguro y ético de esta tecnología. Esta postura se alinea con la política diplomática del presidente Xi Jinping, que promueve la construcción de "una comunidad con un futuro compartido para la humanidad”.

Resulta sorprendente observar cómo China, tradicionalmente criticada por su enfoque restrictivo en tecnología, emerge ahora como defensora de la cooperación internacional en IA. La firma de la declaración por parte de China, mientras Estados Unidos y Reino Unido se mantienen al margen, revela un cambio sísmico en el equilibrio de poder tecnológico global. Que se suma al aluvión constante de modelos Open Source que surgen desde oriente.

Podemos intuir que compartir logros en IA refleja una sofisticada estrategia diplomática. China puede estar aprovechando el vacío dejado por las potencias occidentales para posicionarse como líder en la gobernanza global de la IA. Esta postura no solo beneficiaría su imagen internacional sino que también le otorga influencia en la definición de futuros estándares.

La postura de Vance refleja una preocupación legítima: la competencia tecnológica con China. Sin embargo, la solución propuesta: desregulación total por un lado, y bloqueo tecnológico por otro, podría acelerar precisamente los problemas que pretende evitar, creando un escenario donde la tecnología se desarrolla sin consideraciones éticas o sociales adecuadas.

No podemos saber si China está sinceramente comprometida con la cooperación internacional en IA. ¿Estamos presenciando un cambio genuino hacia un desarrollo más inclusivo de la IA, o es esta una movida estratégica en un juego geopolítico más amplio?

La Contracumbre: ¿Un Contrapeso Necesario?

A pocos metros del “Grand Palais” en el mas modesto “Théâtre de la Concorde” el filósofo francés Éric Sadin organizó una contracumbre titulada "Por un humanismo de nuestro tiempo", que reunió a investigadores, periodistas y profesionales de diversos sectores para debatir el impacto de la inteligencia artificial en la sociedad desde una perspectiva humanista.

Conocemos a Sadin por su postura crítica hacia la digitalización y la IA, por lo que no nos sorprende que califique a la cumbre oficial como una "misa propagandística" y un "gran salto hacia adelante dirigido a la automatización cada vez mayor de los asuntos humanos". Entre los temas abordados en la contracumbre se incluyeron el impacto de la IA en la educación, el trabajo y la cultura. Los organizadores advirtieron que, mientras la cumbre oficial se centraba en intereses económicos y tecnológicos, era esencial considerar las implicaciones sociales y culturales del desarrollo exponencial de la IA.

Sadin enfatizó la necesidad de pasar de la reflexión teórica a la acción política, instando a dejar de "interrogar ingenuamente" a empresarios e ingenieros y, en su lugar, dar protagonismo a testimonios directos de quienes experimentan los efectos de la IA en su vida diaria

Para seguir pensando…

Me parece que la premisa de que el mercado se autorregulará eficientemente en el desarrollo de la IA no tiene en cuenta que las corporaciones tecnológicas operan con horizontes temporales cortos y objetivos financieros específicos. Esto crea un desajuste crítico entre los incentivos corporativos a corto plazo y las implicaciones a largo plazo para la sociedad y la necesidad de salvaguardas éticas y sociales.

No es el desarrollo de la IA en sí, algo inevitable, lo que me preocupa. Sino la perspectiva de que este desarrollo esté guiado exclusivamente por métricas de rentabilidad corporativa. Las grandes tech tienen recursos y talento extraordinarios, pero su historial en temas como privacidad, sesgos algorítmicos y responsabilidad social es, siendo generosos, irregular.

Creo que un marco regulatorio es complejo, diría que prácticamente imposible a esta altura. Y no estoy convencido de que sirva para algo. Por el contrario, puede ser que este marco consensuado entre los gobiernos y las grandes tecnológicas solo sirva para asegurar su monopolio. Matando de raíz cualquier posibilidad de competencia. A lo mejor si estamos abriendo “La Caja de Pandora” o frotando “La lámpara de Aladino” (de acuerdo a quien escuchemos) es preferible que todos tengamos acceso y no quede en manos de unos pocos.

La Cumbre y Contracumbre de París fue un necesario momento de claridad. Nos mostró la dualidad de posturas en el desarrollo de la IA. Por un lado las corporaciones dictan las reglas mientras por el otro los gobiernos, en el mejor de los casos, observan desde la barrera o negocian a puertas cerradas. Y el resto de la humanidad miramos desde lejos sin entender lo que pasa.

¿Podemos pensar en una organización internacional de gobernanza de la IA que vele por los intereses de la humanidad?

Y vos, ¿de qué lado estás? ¿Crees que podemos confiar en que las corporaciones tecnológicas autorregulen el desarrollo de la IA, o necesitamos una intervención activa de los gobiernos?,

Este debate apenas comienza y puede ser que ya sea tarde, las decisiones que tomemos hoy darán forma al futuro. Necesitamos mantener presente la pregunta fundamental: ¿Cómo podemos asegurar que el desarrollo de la IA sirva genuinamente a la humanidad en su conjunto?. Como siempre digo, no podemos permitirnos el lujo de ser espectadores pasivos.