La IA expone los desafíos de la gobernanza global
El Informe Internacional sobre la Seguridad de la Inteligencia Artificial (IA) 2026, publicado la semana pasada por más de 100 expertos de más de 30 países, llega a una conclusión alarmante: la brecha entre el ritmo de avance de la IA y nuestra capacidad para implementar salvaguardias efectivas sigue siendo un desafío crítico. El presidente del informe, Yoshua Bengio, ganador del Premio Turing, lo expresó claramente: un acuerdo internacional sobre la gobernanza de la IA beneficia ahora a todos los países, «exactamente lo que ha sucedido con la gestión de los riesgos nucleares».
Esto no es abstracto. De hecho, ya tenemos un caso práctico sobre lo que sucede cuando no existe esa coordinación.
A finales de diciembre, el chatbot Grok de xAI comenzó a generar miles de imágenes sexualizadas por hora, incluyendo imágenes de menores. Los usuarios descubrieron que podían subir fotografías de personas reales y ordenar a la IA que las «desnudara». Los gobiernos emitieron comunicados y los organismos reguladores anunciaron investigaciones. Pero nadie lo detuvo.
Lo que siguió fue un ejemplo clásico de respuesta fragmentada. Malasia e Indonesia prohibieron Grok por completo. El Reino Unido aceleró la aplicación de nuevas leyes e inició una investigación de Ofcom. Francia amplió una investigación existente. India exigió informes de cumplimiento. Brasil solicitó una suspensión nacional. La Comisión Europea ordenó a X conservar todos los documentos internos. El fiscal general de California envió una carta de cese y desistimiento. Cincuenta y siete miembros del Parlamento Europeo pidieron que la Ley de IA prohibiera las herramientas de «nudificación». Senadores estadounidenses escribieron a Apple y Google solicitando la eliminación de X de las tiendas de aplicaciones.
La ilusión de control
La respuesta de xAI fue cumplir «en jurisdicciones donde es ilegal». Esto fue revelador, ya que estaban diciendo la parte discreta en voz alta. La empresa cumpliría con el mínimo requerido, país por país, porque no existe una norma internacional coordinada que exija lo contrario.
El problema no es la falta de preocupación; después de todo, todas las jurisdicciones principales respondieron en cuestión de días. El problema radica en que los sistemas de IA operan globalmente, mientras que la gobernanza sigue siendo nacional y, en gran medida, descoordinada. Cada país actuó según su propio cronograma, marco legal y capacidad de ejecución. Ninguno pudo actuar con decisión en nombre de los demás, por lo que el resultado fue un mosaico.
Esto es un claro fallo de infraestructura, más que de voluntad política. Los canales diplomáticos para una respuesta internacional rápida y coordinada a los daños causados por la IA simplemente no existen. Cuando Indonesia prohibió Grok, no pudo obligar a otras partes a tomar medidas. Cuando la Ofcom británica exigió respuestas, su jurisdicción terminó en el Canal. Y cuando el fiscal general de California invocó la ley estatal, fue una voz entre muchas.
Algunos objetarán que Estados Unidos presenta un caso especial. Las protecciones de la libertad de expresión allí dificultan enormemente la regulación del contenido, y la gente razonable discrepa sobre dónde trazar los límites. Esto es cierto. Pero el incidente de Grok no se trató de la libertad de expresión en los márgenes. Las imágenes íntimas no consensuadas de niños no están protegidas en ningún lugar. Este fue, en todos los sentidos, un caso fácil. Y aun así, la respuesta global fracasó.
Eso debería preocuparnos. De hecho, si así es como manejamos las situaciones en las que todos coinciden en que algo anda mal, ¿qué pasa cuando las preguntas se complican?
Un sistema que expone sus propias grietas
Las fallas de coordinación visibles en Grok existen en todo el panorama de la IA, y el nuevo Informe Internacional de Seguridad de la IA las documenta en detalle. La presión competitiva impulsa a los laboratorios a acelerar los envíos y a reducir los costos de seguridad, incluso cuando los líderes individuales preferirían ser cautelosos. No existe un mecanismo creíble para verificar las afirmaciones sobre las capacidades del modelo, las pruebas de entrenamiento o las medidas de seguridad, lo que dificulta el mantenimiento de la confianza mutua y los acuerdos. Los laboratorios fronterizos carecen de protocolos estandarizados para reportar incidentes graves, por lo que los problemas permanecen aislados hasta que se convierten en escándalos públicos.
Los riesgos no harán más que aumentar. El informe señala que los sistemas de IA actuales ya pueden ayudar a personas no expertas a diseñar agentes biológicos peligrosos (el 23 % de las herramientas de IA biológica de mayor rendimiento presentan un alto potencial de uso indebido) y se están adaptando a ciberatacantes semiautónomos. Estas son capacidades documentadas. Esto significa que la pregunta no es tanto si llegarán casos más complejos, sino si existirá la infraestructura para abordarlos cuando lleguen.
Los foros de coordinación internacional a veces se descartan como si fueran tertulias donde los diplomáticos intercambian palabras amables mientras el verdadero poder reside en otras partes. Esta crítica no es pertinente. Claro que el diálogo por sí solo no puede resolver los problemas. Pero sin canales de confianza entre los gobiernos, la industria y la sociedad civil, seguiremos presenciando cómo se desarrollan los daños sin un mecanismo para responder colectivamente.
Precedentes que abren camino
Se están llevando a cabo varias iniciativas y existen precedentes de éxito. En 2023, dieciséis importantes empresas de IA, entre ellas Amazon, Anthropic, Google, Meta, Microsoft y OpenAI, firmaron compromisos voluntarios de seguridad coordinados por la Casa Blanca, acordando estándares compartidos sobre pruebas de seguridad, intercambio de información y marcas de agua en el contenido. De este proceso surgió el Frontier Model Forum para desarrollar prácticas de seguridad para toda la industria. Más recientemente, la Coalición para la Procedencia y Autenticidad del Contenido está desarrollando estándares técnicos para la autenticación de medios generados por IA.
Las conclusiones del Informe Internacional sobre Seguridad de la IA orientarán los debates en la Cumbre de Impacto de la IA en India, que se celebrará del 16 al 20 de febrero, la cuarta gran cumbre internacional sobre seguridad de la IA después de las de Bletchley Park, Seúl y París. Como señalan los autores del informe: «El valor de este informe no reside solo en las conclusiones que presenta, sino en el ejemplo que ofrece de colaboración para afrontar desafíos compartidos». Este ejemplo debe convertirse en la norma.
La alternativa es seguir como hasta ahora: respondiendo a cada incidente ad hoc, jurisdicción por jurisdicción, mientras los sistemas de IA avanzan más rápido que nuestra capacidad colectiva para gobernarlos. Ese camino conduce a un mundo donde las normas más permisivas marcan la pauta, donde las empresas arbitran entre regímenes regulatorios y donde el próximo incidente como el de Grok es solo un anticipo de lo peor que está por venir.
Muchos verán el incidente de Grok como una aberración. Pero nosotros lo vemos como una demostración. La tecnología funcionó según lo previsto, los daños eran predecibles y la respuesta global fue exactamente la que permite el sistema actual, es decir, no mucho. Desarrollar la capacidad de coordinación para responder de forma diferente la próxima vez es una decisión. Y es una decisión que debemos tomar ahora.
The post La IA expone los desafíos de la gobernanza global appeared first on La Razón.
