IA (Bloomberg)

La falacia de regular la IA como la bomba atómica

El fantasma de la Guerra Fría reaparece para domesticar lo indomesticable: la IA

Desde hace unos meses reapareció una idea tan solemne como absurda: copiar los tratados de la Guerra Fría para controlar el desarrollo de la inteligencia artificial (IA). La propuesta, impulsada por algunos empresarios y académicos norteamericanos, dice que así como Estados Unidos y la Unión Soviética limitaron la expansión de las armas nucleares mediante acuerdos internacionales, ahora el mundo debería hacer lo mismo con la IA. La comparación suena seria, pero no resiste ni el primer análisis. Es un intento nostálgico de aplicar recetas del siglo pasado a un fenómeno que ni siquiera obedece a las leyes del mundo físico.

Durante la Guerra Fría, el problema era claro: dos potencias con arsenales atómicos capaces de destruir el planeta necesitaban evitar un enfrentamiento directo. Cada bomba tenía materia, peso y ubicación; podía contarse, medirse y vigilarse con satélites. De esa materialidad surgió la posibilidad de un control mutuo. Si uno fabricaba una ojiva más, el otro podía detectarla. Por eso funcionaron los tratados: había simetría de poder, conocimiento técnico compartido y un objeto tangible que podía verificarse.

La IA no tiene nada de eso. No hay bombas, ni uranio, ni silos ocultos en desiertos. Hay centros de datos: son enormes depósitos de servidores donde circulan impulsos eléctricos y cálculos matemáticos que nadie comprende por completo. La mayoría de los sistemas modernos funcionan como cajas negras: producen resultados que ni sus diseñadores saben explicar. Cuando se entrena un modelo de lenguaje o una red neuronal profunda, lo que se obtiene no es un conjunto de reglas sino un entramado de correlaciones estadísticas tan complejo que deja de ser interpretable. Por eso la idea de “supervisar” o “verificar” el desarrollo de la IA es una fantasía. Sería como firmar un tratado para controlar los sueños: se pueden registrar las ondas cerebrales, pero no el contenido.

El problema no es técnico, sino epistemológico. No existe manera de abrir la caja negra y entender realmente qué ocurre adentro. Las máquinas aprenden de formas que no podemos seguir paso a paso; su lógica es emergente, no programada. En el caso nuclear, los inspectores medían la radiación o identificaban materiales prohibidos. En la IA, la única evidencia visible es el consumo eléctrico o el número de chips utilizados, lo cual no dice nada sobre lo que la máquina aprende. Aspirar a una regulación de algo que nadie entiende equivale a intentar escribir un código penal para el azar.

Y aun si esa imposibilidad se resolviera mágicamente, quedaría otro obstáculo mayor: el desequilibrio absoluto de poder. En la Guerra Fría existían dos bloques rivales; ahora solo hay uno. Estados Unidos controla toda la cadena material de la IA: los chips más avanzados, las máquinas que los fabrican, el software de entrenamiento, los centros de datos, las plataformas y los fondos de inversión. Ningún otro país tiene acceso a ese ecosistema completo. China puede fabricar versiones atrasadas, pero depende de componentes occidentales. Europa carece de empresas de entrenamiento masivo y Rusia directamente no figura. No hay equilibrio, y sin balance no hay tratado posible. Un pacto requiere pares; sin embargo, hoy hay un monopolio.

El resto del mundo asiste como espectador a una carrera que ya terminó. Pretender que se firme un acuerdo internacional entre “potencias tecnológicas” es ignorar que esas potencias no existen. No hay dos ejércitos de la IA compitiendo: hay un solo bloque con control total sobre la infraestructura y el conocimiento. Ni siquiera se trata ya de Estados Unidos como Estado, sino de conglomerados privados con más recursos que la mayoría de los países. Pensar que van a someterse voluntariamente a un sistema de inspección global es un acto de ingenuidad política o de hipocresía deliberada.

La idea de un “tratado de verificación”, además, parte de una suposición falsa: que la IA es un riesgo que puede contenerse con normas. En realidad, el problema no es que alguien “haga” una superinteligencia peligrosa, sino que todos dependemos cada vez más de sistemas que nadie domina. El peligro no está en una explosión, sino en la absorción lenta y total de la capacidad humana de decisión por procesos automáticos. No hay misil que disuadir, sino algoritmos que reemplazan funciones esenciales sin que nadie los entienda ni los pueda auditar.

Detrás de la retórica de los tratados se esconde un intento de tranquilizar conciencias: fingir que la humanidad tiene el control mientras la verdadera autoridad se desplaza hacia estructuras que no responden a gobiernos ni a leyes. Es una forma de autoengaño diplomático. Hablar de “verificación internacional” en este contexto es como proponer un microscopio para medir la fe.

El nuevo discurso regulatorio de la Guerra Fría aplicada a la IA no es un proyecto racional: es una puesta en escena para disimular el vacío. Pretende el ordenamiento de un universo que ya no tiene frontera física ni equilibrio político. Las armas nucleares podían destruir la Tierra; la IA, en cambio, disuelve silenciosamente la soberanía sobre lo real. Y a eso no se le puede poner un sello ni un tratado: solo se lo puede comprender, si es que aún queda tiempo para hacerlo.

Las cosas como son.

Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.

En esta Nota