Ciencia y sociedad

La Inteligencia Artificial está en una vorágine tecnológica descontrolada

Ni los compromisos de gobiernos y empresas, ni las advertencias científicas, hacen mella en la industria

La Inteligencia Artificial está desbocada.

La Inteligencia Artificial está desbocada. / Europa Press/Khanchit Khirisutchalual

Eduardo Martínez de la Fe

Eduardo Martínez de la Fe

La Inteligencia Artificial está viviendo una vorágine tecnológica que oscila entre las revolucionarias oportunidades que promete y los peligros que la acompañan, a los que la industria hace oídos sordos a pesar de los compromisos formales de gobiernos y empresas para preservar el bien de la humanidad.

Hay una agitación muy intensa en torno a los posibles desarrollos de la Inteligencia Artificial (IA) y a los riesgos asociados a esta tecnología porque la industria, aparentemente, está lanzada a nuevas iniciativas muy prometedoras sin tener en consideración que la sociedad no está preparada para los avances tecnológicos que ya están en puertas, tal como acaban de advertir destacados expertos en un artículo publicado en Nature.

La semana pasada se celebró en Seúl (Corea del Sur) una segunda cumbre mundial sobre la IA, continuación de la desarrollada hace seis meses en Inglaterra, que culminó con la así llamada Declaración de Bletchley, firmada por una treintena de países, entre ellos el Reino Unido, Estados Unidos, la UE, China, España, Israel y Arabia Saudita.

Esa Declaración definió un marco de pruebas internacional para modelos de IA, después de que algunos expertos y profesionales de la industria pidieran una pausa de seis meses en el desarrollo de sistemas potentes. También elogió las “enormes oportunidades globales” de la IA, al mismo tiempo que advirtió sobre su potencial de causar daños “catastróficos”.

Y no menos importante, consiguió asimismo el compromiso de grandes empresas tecnológicas, incluidas OpenAI, Google y Meta de Mark Zuckerberg, de cooperar con los gobiernos para probar sus modelos antes de su lanzamiento.

Vorágine tecnológica

Parece que esos compromisos están quedando en papel mojado, ya que, si bien el Reino Unido y EE. UU. han establecido institutos nacionales de seguridad de la IA, el desarrollo de la Inteligencia Artificial en la industria ha continuado a un ritmo trepidante sin reparar en consideraciones éticas de ningún tipo, con una inversión de 100.000 millones de dólares este año, según informa The Guardian. El objetivo es destinar 1 billón de dólares en esta década.

Los nuevos productos emergentes son GPT-4o (OpenAI), la actualización de Gemini (Google), nuevas versiones de Llama (Meta) y la nueva versión de Claude por parte de IA Anthropic, formada por disidentes de OpenAI.

Y la carrera continúa: GPT-5 y un nuevo de buscador inteligente están en el horno de OpenIA; Google se prepara para lanzar Astra, presentado como un agente de IA universal que resulta útil en la vida cotidiana; Microsoft prepara un nuevo modelo de IA; Apple está en conversaciones con OpenAI para instalar ChatGPT en sus teléfonos inteligentes; y se están invirtiendo miles de millones de dólares en IA en empresas tecnológicas de todos los tamaños.

La automatización de decisiones por parte de la IA representa un enorme riesgo.

La automatización de decisiones por parte de la IA representa un enorme riesgo. / Generador de imágenes de COPILOT para T21/Prensa Ibérica.

Cambios tecnológicos

El hecho comprobado es que en los seis meses transcurridos desde Bletchley se han visto cambios tecnológicos significativos, como la aparición de los llamados modelos "multimodales" como GPT-4 y Gemini, lo que significa que pueden gestionar una variedad de formatos como texto, imagen y audio (el modelo Sora de OpenAI).

También destaca en esta vorágine la emergente generación aumentada por recuperación (RAG), una técnica para darle una especialidad a una IA generalista que mejora los resultados de los modelos de lenguaje de gran tamaño (LLM) para que sigan siendo relevantes, precisos y útiles en diversos contextos.

Todos estos proyectos están concentrados en unos pocos gigantes que tienen músculo suficiente para desarrollos tan costosos, que hoy dominan la industria y de la que participan también competidores y aliados de menor calibre, que solo pueden bailar al ritmo de estos colosos.

El problema, como indica el citado artículo de Nature, es que las actuales iniciativas de gobernanza carecen de mecanismos e instituciones para prevenir el mal uso y la imprudencia, y apenas abordan los sistemas autónomos que representan la mayor amenaza para la sociedad. De hecho, los intentos de regular la mano oculta de la IA en la vida de los estadounidenses están fracasando en los parlamentos estadounidenses, confirma AP.

Desamparo social

Eso significa que no solo las empresas tecnológicas menores están a merced de los gigantes, sino que ese desenfreno deja en el mayor desamparo a la sociedad, que también participa del frenesí a nivel de usuario sin darse cuenta de dónde se está metiendo.

Según explican los expertos, los sistemas avanzados de inteligencia artificial (tecnología que lleva a cabo tareas típicamente asociadas con seres inteligentes) podrían ayudar a curar enfermedades y elevar los niveles de vida, pero también conllevan la amenaza de erosionar la estabilidad social y permitir la guerra automatizada.

Advierten, sin embargo, que el avance de la industria tecnológica hacia el desarrollo de sistemas autónomos plantea una amenaza aún mayor porque los gigantes tecnológicos están cambiando su enfoque hacia el desarrollo de sistemas de IA generalistas que puedan actuar y perseguir objetivos de forma autónoma.

Eso significa que los aumentos en las capacidades y la autonomía pronto podrían amplificar enormemente el impacto de la IA, con riesgos que incluyen daños sociales a gran escala, usos maliciosos y una pérdida irreversible del control humano sobre los sistemas autónomos de IA, dijeron los expertos, agregando que el avance desenfrenado de la IA podría conducir a la “marginación o extinción de la humanidad”.

Michelle Donelan, secretaria de tecnología del Reino Unido, junto al ministro de ciencia y TIC de Corea del Sur, Lee Jong-ho, en la conferencia sobre la cumbre IA en Seúl el 22 de mayo.

Michelle Donelan, secretaria de tecnología del Reino Unido, junto al ministro de ciencia y TIC de Corea del Sur, Lee Jong-ho, en la conferencia sobre la cumbre IA en Seúl el 22 de mayo. / Ministerio de Ciencia y TIC de Corea del Sur.

Nuevo paso en Seúl

En la cumbre surcoreana, coorganizada también por el Reino Unido, se ha mantenido la tónica de Bletchley: culminó con la Declaración de Seúl, en la que los firmantes (una decena de países) se comprometen a fomentar la cooperación internacional entre gobiernos, empresas, academia y sociedad civil en materia de IA. El núcleo duro de este compromiso lo forman Estados Unidos, Reino Unido, Japón, Canadá, Singapur y la Oficina Europea de IA. Se reunirán de nuevo en San Francisco (USA) a finales de este año.

En paralelo, Amazon, Anthropic, Cohere, Google, IBM, Inflection AI, Meta, Microsoft, Mistral AI, OpenAI, Samsung Electronics y xAi se han comprometido a su vez en Seúl “a no desarrollar ni implementar ningún modelo o sistema si no se pueden aplicar mitigaciones para mantener los riesgos por debajo de los umbrales”, así como a identificar, evaluar y gestionar las amenazas de su algoritmos y comunicarlas a los “actores externos” y autoridades de gobierno.

Torbellino empresarial

Eso no significa, necesariamente, que el bloque de colosos tecnológicos sea coherente con esos compromisos, ya que los peligros que acechan a la IA están siendo asumidos incluso por los líderes que están comprometidos en sus desarrollos dentro de esas empresas de vanguardia.

OpenAI es el ejemplo más elocuente: ha perdido cuatro de sus dirigentes en un mes, el último de ellos Jan Leike, encargado de garantizar que los sistemas de inteligencia artificial (IA) “respeten los valores y objetivos de la humanidad”, destaca en otro artículo The Guardian.

Leike sigue la estela dejada días antes por Ilya Sutskever, cofundador de OpenAI y figura emblemática del sector, y por “dos altos responsables de seguridad de OpenAI que dimitieron recientemente” por desacuerdos éticos, subraya The Guardian. ¿En qué quedamos?

Habrá que esperar un tiempo para ver en qué termina esta espiral.