Wednesday 17 de December, 2025

OPINIóN | 24-11-2025 15:59

El riesgo judicial que amenaza el futuro de la IA

La IA enfrenta riesgos legales imposibles de asegurar; una inmunidad parcial podría evitar que el sistema judicial detenga la innovación.

A medida que la inteligencia artificial (IA) ocupa un lugar central en el desarrollo económico y tecnológico del mundo, emerge un problema poco visible pero de consecuencias estructurales: el sistema judicial, tal como está diseñado en los Estados Unidos, representa una amenaza directa para el desarrollo de esta tecnología.

La razón está en el mecanismo que regula las responsabilidades civiles: juicios desproporcionados, veredictos imprevisibles, demandas colectivas que multiplican el riesgo y un sistema de compensaciones punitivas que excede cualquier lógica de reparación. Frente a este escenario, resulta urgente discutir la posibilidad de otorgar inmunidad legal parcial y acotada a las empresas de IA en ciertos aspectos, para preservar el ecosistema que posibilita su existencia.

El corazón del problema es que las compañías de IA enfrentan riesgos que no son asegurables en los términos tradicionales. Los seguros funcionan bajo un principio de dispersión de daños: se asume que los eventos negativos serán aislados, variados y con costos más o menos previsibles. Pero en el caso de la IA, una sola decisión del modelo puede generar efectos replicados en millones de usuarios. Un error en el diseño o en el entrenamiento del modelo puede provocar una catarata de reclamos idénticos en todo el país. Ese carácter sistémico y acumulativo de los errores vuelve prácticamente imposible calcular una prima adecuada, prever el pasivo potencial o establecer topes de cobertura razonables. Es decir, las aseguradoras no pueden —ni quieren— cubrir estos riesgos, lo que deja a las empresas expuestas y vulnerables, sin red de contención frente a una tormenta jurídica.

El sistema judicial estadounidense como amenaza estructural

Aquí es donde entra en juego el sistema judicial estadounidense. A diferencia de muchos países latinoamericanos, donde los juicios se desarrollan de forma individual, con procedimientos escritos y jueces técnicos, en Estados Unidos existen dos figuras centrales que elevan drásticamente el nivel de exposición: el juicio por jurado y la acción de clase.

El juicio por jurado permite que doce ciudadanos sin formación jurídica decidan la responsabilidad de una empresa y el monto de la indemnización. En temas complejos como los que involucran IA, esto puede llevar a decisiones altamente emocionales, sin apego técnico, infladas por la indignación o el temor. A esto se suma una figura aún más riesgosa: la acción colectiva.

Una acción colectiva es un procedimiento en el que un grupo numeroso —potencialmente miles o millones de personas— se une en una única demanda, representado por uno o varios demandantes. El argumento es que todos han sido afectados por la misma causa o el mismo hecho. En el contexto de la IA, esto significa que si un modelo genera un daño replicable —por ejemplo, una difamación automática, una recomendación errónea o un sesgo sistemático en sus respuestas— todos los usuarios que hayan recibido ese mismo resultado podrían unirse en una demanda única y reclamar compensaciones conjuntas. El problema es la acumulación de indemnizaciones: lo que podría ser una demanda de diez mil dólares se multiplica por millones y se convierte en una sentencia de miles de millones, imposible de absorber incluso para las empresas más grandes.

Como si esto no fuera suficiente, el sistema judicial estadounidense permite las llamadas indemnizaciones punitivas. A diferencia de las compensaciones tradicionales, que buscan reparar el daño a la víctima, estas se imponen como castigo al demandado y como advertencia al resto de la sociedad. No están ligadas al daño real, sino a la percepción del jurado sobre la gravedad de la conducta. Esto significa que un jurado puede decidir que una empresa pague diez, veinte o cien veces el monto del daño, simplemente para “dar una lección”. En un entorno donde las decisiones del modelo pueden ser involuntarias, estadísticas y difíciles de prever, la posibilidad de enfrentar una indemnización punitiva convierte cualquier juicio en una amenaza existencial para la empresa demandada.

Una solución legal ya utilizada en otros sectores

Frente a este panorama surge la propuesta de otorgar inmunidad legal limitada a las compañías de IA en determinadas circunstancias. Esta inmunidad no eliminaría su responsabilidad general ni permitiría abusos impunes, pero establecería límites claros para evitar que el sistema judicial se convierta en el verdugo de una tecnología incipiente.

La inmunidad ya existe en el derecho estadounidense en otros ámbitos. Por ejemplo, los gobiernos extranjeros gozan de inmunidad jurisdiccional: no se los puede demandar en tribunales estadounidenses salvo en circunstancias excepcionales, gracias a una ley especial. Asimismo, los propios estados dentro de EE. UU. tienen inmunidad soberana, lo que significa que no pueden ser demandados sin su consentimiento. Funcionarios públicos también gozan de inmunidad calificada, que los protege de juicios mientras actúen dentro de sus funciones y no violen claramente derechos establecidos.

En el sector privado también se han otorgado inmunidades o protecciones legales en contextos sensibles. Por ejemplo, las compañías farmacéuticas que producen vacunas bajo ciertos programas del gobierno federal están protegidas contra demandas individuales, y cualquier reclamo debe presentarse en tribunales especiales, con topes preestablecidos. También los proveedores de servicios digitales gozan de inmunidad bajo ciertas leyes cuando actúan como intermediarios y no como editores de contenido.

Un modelo de inmunidad parcial y controlada

El modelo a seguir combinaría esta experiencia previa: una inmunidad parcial, condicionada, con parámetros estrictos y mecanismos de control. En concreto, esta exención de responsabilidades limitaría tres aspectos fundamentales. Primero, impediría que se presenten acciones colectivas contra una empresa de IA cuando se trate de daños difusos, difíciles de cuantificar o derivados de decisiones estadísticamente esperables. Segundo, prohibiría las indemnizaciones punitivas, ya que el propósito de castigo se vuelve arbitrario cuando el daño no fue causado con intención. Y tercero, elevaría los requisitos de admisibilidad de las demandas: no cualquiera podría demandar, sino que debería presentar pruebas concretas de daño, de causalidad directa y de ausencia de cumplimiento de estándares técnicos por parte de la empresa.

Una consecuencia directa y positiva de establecer este tipo de inmunidad es que reabre la puerta al mercado de seguros. Hoy muchas aseguradoras rechazan la cobertura de riesgos asociados con la IA porque los consideran ilimitados, imposibles de calcular y económicamente inviables. Pero si se establece una inmunidad legal que fija límites claros a las compensaciones posibles, las aseguradoras podrán diseñar productos específicos, calcular primas razonables, establecer topes de cobertura y acompañar el desarrollo del sector con instrumentos financieros de respaldo. De este modo, la inmunidad no sería un escudo para evitar responsabilidades, sino un marco jurídico que permite reactivar el mecanismo de aseguramiento, indispensable para la estabilidad de cualquier industria.

Este enfoque no implica dar carta blanca a las empresas. Todo lo contrario. La inmunidad solo sería válida si las compañías cumplen con estándares de transparencia, auditabilidad, seguridad y debido cuidado. Se podría exigir que sus modelos sean revisados por terceros, que se publiquen informes sobre sus procesos de entrenamiento, que se respete el consentimiento de los datos utilizados y que existan mecanismos internos de reparación rápida para usuarios afectados. En caso de incumplir estos requisitos, la inmunidad podría retirarse. Sería, en términos prácticos, una inmunidad condicional, sujeta a reglas claras, como ocurre en otros ámbitos del derecho.

La oportunidad de actuar antes de que el daño sea irreversible

La IA será una de las infraestructuras centrales del siglo XXI. Como ocurrió en el siglo XIX con el ferrocarril o en el XX con la aviación civil, el marco legal debe adaptarse para no matar a la tecnología antes de que despliegue su potencial. Estados Unidos tiene hoy la oportunidad —y la responsabilidad— de crear un entorno jurídico en el que la innovación no dependa del azar de un jurado, del humor de una demanda colectiva ni del cálculo ciego de un castigo ejemplar.

La inmunidad parcial para ciertos tipos de reclamos puede ser la diferencia entre un ecosistema vibrante y uno paralizado por el miedo. No se trata de proteger a las empresas; se trata de resguardar la tecnología misma como motor de desarrollo y de evitar que los tribunales se conviertan en campos minados donde toda invención corre el riesgo de ser destruida antes de nacer.

Las cosas como son

Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.

Galería de imágenes

En esta Nota

Mookie Tenembaum

Mookie Tenembaum

Analista internacional, autor de Desilusionismo.

Comentarios