El Desafío Regulatorio de la IA: Output versus Proceso en la Nueva Norma Peruana
Por Ignacio Adrián Lerer (*)

La Paradoja Susskind en el Derecho Administrativo

 

El reciente Decreto Supremo peruano N.º 115-2025-PCM plantea una pregunta que Richard Susskind anticipó hace una década: ¿debe el Estado regular cómo funciona la inteligencia artificial o limitarse a controlar qué efectos produce? La respuesta no es menor. De ella depende si construimos un sistema jurídico eficaz o una burocracia digital destinada al fracaso

 

La regulación peruana opta por el modelo procesal: clasifica sistemas, impone evaluaciones de impacto, exige supervisión humana, establece "sandboxes" y cronogramas detallados. Es el enfoque que tranquiliza a los funcionarios. Y que, según Susskind, representa exactamente la trampa en la que no deberíamos caer.

 

El Artículo 19 como Principio Rector

 

Nuestro artículo 19 constitucional contiene una lección que parece olvidada: "Ningún habitante será obligado a hacer lo que no manda la ley, ni privado de lo que ella no prohíbe." La norma no regula procesos sino límites de resultado. No dice cómo debemos actuar, sino que prohíbe que nuestras acciones "ofendan al orden y a la moral pública" o "perjudiquen a un tercero."

 

¿Cómo es posible que un principio de 1853 sea más moderno que las regulaciones de IA de 2025? La respuesta está en su elegante simplicidad: el constituyente comprendió que regular medios conduce al dirigismo; regular fines preserva la libertad y la innovación.

 

El modelo peruano invierte esta lógica. Establece 47 obligaciones específicas para sistemas de "alto riesgo", cronogramas de 180 días hábiles para lineamientos éticos, y supervisión procesal permanente. Pero no define con precisión cuándo un resultado de IA será considerado jurídicamente lesivo.

 

La Trampa del Procedimentalismo Digital

 

Imaginemos la escena: una startup argentina desarrolla un algoritmo que predice riesgo crediticio con 94% de precisión, reduciendo la exclusión financiera en un 30%. Bajo el modelo peruano, debería cumplir evaluaciones de impacto, auditorías algorítmicas, certificaciones de supervisión humana y reportes trimestrales. Costo: seis meses y US$ 200,000. Beneficio social del procedimiento: cero.

 

Bajo el modelo del artículo 19: si el algoritmo no discrimina ilegalmente, no viola privacidad y no causa daño a terceros, está permitido. Punto. El Estado podrá fiscalizar ex post si los resultados cumplen esas condiciones. Pero no puede exigir que la empresa demuestre ex ante cómo funciona su "caja negra".

 

Esta diferencia no es académica. Es la línea entre un ecosistema de innovación y un cementerio de startups asfixiadas por compliance.

 

Susskind y la Ilusión del Control Procesal

 

Susskind, un abogado británico especialista en IA desde hace décadas, demolió la fantasía de que más regulación procesal genera mejores resultados. La obsesión por controlar cómo se practica el derecho —colegios profesionales, aranceles mínimos, procedimientos rígidos— no mejoró la justicia; la encareció y la volvió inaccesible.

 

La IA presenta la misma disyuntiva. Podemos regular cada paso del desarrollo algorítmico, como hace Perú. O podemos regular solo los resultados que consideramos inaceptables, como sugiere el artículo 19.

 

La diferencia es brutal. El primer enfoque genera lo que Susskind llama "lawyer bureaucracy": abogados que se especializan en cumplir regulaciones sobre IA sin entender ni la tecnología ni sus efectos reales. El segundo enfoque genera responsabilidad real: si tu sistema discrimina, pagas las consecuencias; si no discrimina, operas libremente.

 

La Falacia de la Supervisión Humana

 

El Decreto peruano exige "supervisión humana meaningful" para sistemas de alto riesgo. ¿Qué significa "meaningful"? ¿Un humano que presiona un botón cada hora? ¿Uno que revisa 10% de las decisiones? ¿Uno que entiende el funcionamiento interno del algoritmo?

 

La respuesta revela el error conceptual de fondo. La supervisión efectiva no depende del proceso sino del outcome. Un sistema que produce decisiones sesgadas requiere intervención, independientemente de cuántos humanos hayan estado "supervisando." Un sistema que produce decisiones equitativas no requiere supervisión, aunque funcione sin intervención humana directa.

 

El artículo 19 resuelve esta paradoja con precisión quirúrgica: si no perjudicas a terceros, actúa libremente. Si perjudicas, responde por el daño. No importa si un humano estaba o no "supervisando."

 

Incentivos Perversos del Modelo Procesal

 

El reglamento peruano crea incentivos destructivos. Las empresas invertirán en cumplimiento procesal, no en mejorar resultados. Los abogados especializados cobrarán por auditar procesos, no por prevenir daños reales. Los funcionarios medirán éxito por cantidad de evaluaciones de impacto completadas, no por reducción efectiva de riesgos.

 

Es la receta perfecta para el fenómeno que Susskind describe como "regulatory capture by complexity": la regulación termina beneficiando a quienes mejor navegan su complejidad, no a quienes mejor sirven al interés público.

 

Propuesta para el Modelo Argentino

 

Argentina tiene la oportunidad de liderar con inteligencia regulatoria. En lugar de copiar el modelo procesal peruano, podría construir un marco basado en nuestro artículo 19:

 

Principio de reserva legal aplicado: Los desarrolladores de IA pueden operar libremente, salvo prohibiciones específicas establecidas por ley.

 

Estándar de resultado dañoso: Se prohíben únicamente los sistemas que produzcan discriminación ilegal, violación de privacidad o daño demostrable a terceros.

 

Fiscalización ex post: El Estado audita resultados, no procesos. Si un algoritmo discrimina en la práctica, es responsabilidad del desarrollador, independientemente del proceso utilizado.

 

Sandbox natural: Todo desarrollo está permitido por defecto. Los límites surgen solo cuando se demuestra daño efectivo.

 

Responsabilidad objetiva por daño: Los desarrolladores responden por los efectos de sus sistemas, incentivando la autorregulación efectiva.

 

La Ventaja Competitiva de la Simplicidad

 

Mientras Perú construye una burocracia de 180 días hábiles para aprobar lineamientos éticos, Argentina podría atraer inversión en IA con una regulación de cinco páginas basada en principios constitucionales de 1853.

 

¿Cuál sistema producirá más innovación responsable? La respuesta está en la historia: los marcos simples basados en responsabilidad por resultados superan sistemáticamente a los sistemas complejos basados en control de procesos.

 

No es que la regulación peruana sea incorrecta por ser detallada, sino que su detallismo procesal oscurece lo esencial: proteger derechos sin asfixiar innovación. El artículo 19 constitucional ofrece esa precisión. Solo falta que nuestros reguladores tengan la sabiduría de aplicarlo.

 

Referencias

 

Normativa

 

Decreto Supremo N.º 115-2025-PCM. "Decreto Supremo que aprueba el Reglamento de la Ley Nº 31814, Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país." Diario Oficial El Peruano, 9 de septiembre de 2025.

 

Constitución de la Nación Argentina. Artículo 19. Sancionada en 1853, reformada en 1994.

 

Doctrina

 

Susskind, Richard. Tomorrow's Lawyers: An Introduction to Your Future. 2nd ed. Oxford: Oxford University Press, 2017.

 

Susskind, Richard. How to Think About AI: A Guide for Lawyers. Oxford: Oxford University Press, 2024.

 

 

Citas

Ignacio Adrián Lerer es abogado (UBA) con MBA del IAE, especializado en integridad,  derecho de la tecnología y regulación de IA.

Artículos

Las Unidades de Inteligencia Financiera de América Latina tienen un talón de Aquiles en ciberseguridad: la respuesta ante incidentes
García Vautrín Condomí Alcorta & Asoc.
detrás del traje
Felicitas Cassagne
De CASSAGNE ABOGADOS
Nos apoyan