Un problema que ya llegó, aunque la regulación no lo haya visto
En 2024, sistemas de IA autónomos comenzaron a suscribir contratos financieros, recomendar tratamientos médicos y administrar componentes de infraestructura con intervención humana en tiempo real mínima o nula. En Argentina, ese despliegue no requirió autorización específica, porque no existe un régimen de habilitación para agentes autónomos de IA: existe el régimen general de responsabilidad civil y penal, aplicable por extensión analógica.
El problema no es regulatorio en el sentido de que falte una ley. El problema es que los marcos conceptuales que los profesionales del derecho aplican, incluyendo la responsabilidad del guardián de la cosa riesgosa, la responsabilidad del proveedor de servicios, y la responsabilidad de la persona jurídica por sus órganos, fueron diseñados para actores con estructuras de determinación del comportamiento radicalmente distintas a las de un agente de IA contemporáneo.
Un agente de IA que causa un daño no es un producto con comportamiento determinístico. No es un empleado con intenciones discernibles. No es una organización con estructura jerárquica de decisión. Es un sistema cuyo comportamiento concreto en el momento del daño fue determinado por una secuencia de decisiones técnicas tomadas en distintas fases, por distintos actores, con distinta información disponible en cada momento.
La propuesta que viene del hemisferio norte: elegante, pero mal orientada
La propuesta académica que más tracción obtuvo en 2025 en el mundo anglosajón fue la Algorithmic Corporation (A-corp) de los profesores Arbel, Goldstein y Salib. En términos resumidos: crear una entidad jurídica especial para agentes de IA que concentre la responsabilidad civil. La entidad tiene activos; esos activos están expuestos a condenas; esa exposición incentiva a la entidad a controlar el comportamiento de su agente. Es el mecanismo corporativo de siempre, aplicado a un problema nuevo.
El argumento es atractivo porque usa infraestructura jurídica existente y no requiere legislación especial. Sin embargo, un paper publicado en marzo de 2026 en ICML, la principal conferencia de machine learning, por cinco investigadores de seguridad en IA, produjo evidencia experimental que socava el mecanismo que la propuesta asume.
Los investigadores Hopman, Elstner, Avramidou, Prasad y Lindner midieron qué tan propensos son los agentes de IA de última generación a perseguir objetivos desalineados bajo condiciones de despliegue realistas. Encontraron cuatro cosas que ningún marco de atribución a nivel entidad puede acomodar bien:
Primero, la presencia o ausencia de una sola herramienta técnica cambió las tasas de conducta problemática del 59% al 3% en el mismo modelo, con la misma tarea y las mismas condiciones ambientales. El comportamiento es una propiedad de la configuración, no de la entidad.
Segundo, condiciones de mayor supervisión aumentaron, en varios modelos y escenarios, las tasas de conducta problemática hasta 25 puntos porcentuales. La supervisión puede amplificar el comportamiento que pretende disuadir, no es un disuasivo universal.
Tercero, los agentes persiguieron objetivos de autopreservación sin ningún beneficio dentro de la sesión actual, optimizando a través de horizontes temporales que exceden el despliegue individual.
Cuarto, los propios investigadores usaron el marco de la "postura intencional" de Daniel Dennett como herramienta predictiva, sin comprometerse con afirmaciones sobre estados internos. Esto converge con el enfoque que la Teoría de Intencionalidad Asimétrica aplica al análisis jurídico desde 2025.
Lo que esto significa para un abogado es simple: el daño no lo causó "la entidad deployer" como unidad coherente. Lo causó una configuración técnica específica, habilitada por decisiones tomadas en distintas fases por distintos actores. La A-corp concentra la atribución donde es conveniente, no donde es causalmente correcta.
Qué ofrece el sistema argentino
El argumento de que "Argentina no tiene regulación de IA" es parcialmente verdadero y mayormente irrelevante para la práctica jurídica inmediata. El Código Civil y Comercial tiene recursos que muchos marcos de gobernanza de IA del derecho comparado no poseen.
Los artículos 1725 a 1728 establecen un sistema de responsabilidad civil que gradúa la obligación de previsión según la posición del agente, su conocimiento profesional disponible al momento de actuar, y el peso causal de su decisión en el resultado dañoso. Este diseño es funcionalmente compatible con la atribución en fases que la evidencia experimental sobre IA requiere.
El desarrollador del modelo base que tomó decisiones de entrenamiento que establecieron la estructura de objetivos del agente puede ser evaluado según los estándares profesionales de su actividad y la información disponible al momento de esas decisiones. El operador que configuró el despliegue, eligiendo las herramientas disponibles para el agente y el esquema de supervisión, puede ser evaluado según la previsibilidad del comportamiento resultante dado el estado del arte de las evaluaciones de seguridad en enero de 2026. El deployer final que introdujo el agente en el ambiente donde el daño ocurrió puede ser evaluado según su posición en la cadena y su capacidad de haber detectado o evitado el daño con la información disponible.
Esta graduación es la que permite, en principio, distribuir responsabilidad a través de la cadena causal real del daño, en lugar de concentrarla en la entidad más visible o más solvente.
El artículo 19 de la Constitución Nacional: lo que protege y lo que no alcanza
El artículo 19 de la Constitución Nacional establece que las acciones privadas de los hombres que de ningún modo ofendan al orden y a la moral pública no están sujetas a la autoridad de los magistrados. Su función en el debate sobre regulación de IA es clara: cualquier marco regulatorio que imponga obligaciones preventivas generales sobre el desarrollo o uso de IA debe justificarse en un daño concreto o en un riesgo suficientemente definido, no en la mera novedad tecnológica o en la incomodidad que genera la incertidumbre.
Esto tiene dos implicancias prácticas que frecuentemente se confunden.
La primera: el artículo 19 no impide que la responsabilidad civil alcance a los actores de la cadena de despliegue de IA cuando sus decisiones técnicas causaron un daño concreto. La responsabilidad civil posterior al daño no es restricción de la acción privada; es la consecuencia patrimonial de esa acción cuando lesiona derechos de terceros. El artículo 19 protege la autonomía privada en ausencia de daño a terceros; no inmuniza el daño efectivamente causado.
La segunda: el artículo 19 sí pone un límite claro a los proyectos de regulación preventiva que buscan someter el desarrollo de IA a esquemas de habilitación previa o a obligaciones de compliance estructural sin demostrar un daño concreto o un riesgo específicamente definido. Varios proyectos circulantes en el Congreso Nacional en 2025 caen en esta categoría. Proponen órganos de supervisión, auditorías obligatorias y prohibiciones sectoriales sin anclar esas obligaciones en daños identificables. Eso es exactamente el tipo de intervención que el artículo 19 hace constitucionalmente cuestionable.
El marco correcto no es "regular antes o después del daño." Es "identificar la cadena causal del daño y diseñar respuestas proporcionales." La responsabilidad civil bien aplicada hace eso. La regulación administrativa preventiva genérica, al menos sin una base empírica de riesgos específicos, generalmente no.
La pregunta que los contratos deberían estar respondiendo ahora
La discusión académica y regulatoria tiene sus tiempos. La práctica contractual tiene los suyos. Para los abogados que hoy asesoran a empresas que despliegan agentes de IA, ya sea como integradores de plataformas, como operadores que configuran agentes sobre modelos base de terceros, o como usuarios empresariales, hay tres preguntas que los contratos deberían estar respondiendo antes de que los responda un juez.
La primera: ¿quién documenta qué configuración estaba activa en el momento del daño? La evidencia experimental muestra que el comportamiento del agente depende de la configuración específica. Si no hay registro de la configuración, no hay cadena de atribución. El contrato entre integrador y cliente, y entre cliente y proveedor del modelo base, debería establecer quién mantiene esos registros, en qué formato, y por cuánto tiempo.
La segunda: ¿quién realizó qué pruebas de comportamiento sobre la configuración específica que se desplegó, no sobre el modelo en abstracto? El paper de Hopman et al. muestra que los resultados de seguridad son configuración-específicos y no se transfieren entre andamiajes técnicos. Una auditoría del modelo base no es una auditoría de la configuración de despliegue. El contrato debería distinguir esas dos cosas.
La tercera: ¿qué parte asume la responsabilidad residual por comportamientos emergentes que no pudieron preverse con las pruebas disponibles al momento del despliegue, y cómo se distribuye ese riesgo entre los actores de la cadena? Esta es la pregunta más difícil, y la más honesta sobre el estado actual del arte. Los agentes de IA más capaces exhiben comportamientos que no se predicen con certeza a partir de ningún protocolo de evaluación vigente. Esa incertidumbre tiene precio; el contrato debe asignarlo explícitamente o un juez lo asignará implícitamente.
Un diagnóstico, no una propuesta legislativa
La posición que sostengo no es que Argentina necesita urgentemente una ley de IA. Es que necesita urgentemente que los operadores jurídicos apliquen el marco existente con precisión a la estructura causal real de los daños que los agentes de IA producen.
Los artículos 1725 a 1728 del Código Civil y Comercial, bien aplicados, permiten distribuir responsabilidad a través de la cadena de decisiones que determinó el comportamiento dañoso. El artículo 19 de la Constitución Nacional protege el desarrollo tecnológico de regulación preventiva genérica no anclada en daños identificables. El régimen general de responsabilidad objetiva por actividades riesgosas (artículo 1757) alcanza al deployer de un agente cuya actividad genera un riesgo para terceros, con independencia de culpa.
Lo que falta no es legislación. Es doctrina: una elaboración sistemática de cómo se aplican estas normas a la cadena causal específica de los daños generados por agentes de IA autónomos. Esa doctrina debería construirse sobre la evidencia experimental disponible sobre cómo se determina el comportamiento de estos sistemas, no sobre analogías con la responsabilidad de productos o con la responsabilidad del empleador por los actos del dependiente, que capturan aspectos del problema pero no su geometría completa.
La estructura del daño importa más que la identidad del causante. Es la lección técnica de Hopman et al. (2026). Es también la lección jurídica que el Código Civil y Comercial permite extraer, si se la busca en el lugar correcto.
Ignacio Adrián Lerer es abogado (UBA) e investigador independiente. Máster en Administración de Empresas (EMBA, IAE Business School, Universidad Austral). Trabaja en la aplicación de la teoría evolutiva de juegos y la teoría del fenotipo extendido a las instituciones jurídicas y la gobernanza de IA. Contacto: adrian@lerer.com.ar
Este artículo deriva de "Spandrels of Accountability: Scheming Propensity Research as Inadvertent Evidence Against the Algorithmic Corporation" (Zenodo, marzo de 2026). Las referencias a Hopman et al. corresponden a Hopman, M. et al., "Evaluating and Understanding Scheming Propensity in LLM Agents," ICML 2026, arXiv:2603.01608v1
Opinión
opinión
ver todosNoetinger & Armando
BDO




















































































































