El fallo que no prohíbe la IA, pero sí exige profesionalismo
La reciente decisión de la Sala de Casación Penal de la Corte Suprema de Justicia de Colombia (radicado 70927, AP760-2026) generó titulares previsibles: “rechazan escrito por uso de inteligencia artificial”. Sin embargo, esa lectura rápida resulta extremadamente superficial porque, adelantándonos un poco al resultado, el fallo no es una reacción contra la tecnología sino una advertencia sobre cómo se la utiliza. Y ahí está el verdadero punto.
En el caso, el tribunal analizó una demanda de casación cuya estructura evidenciaba que el contenido provenía, en gran medida, de un sistema generativo. Al someter el texto a herramientas de detección, los resultados fueron contundentes: altísima probabilidad de generación automática, escaso porcentaje de redacción humana y fragmentos con coincidencias externas.
Sin embargo, lo determinante no fue la estadística, lo decisivo fue el contenido.
El recurso incluía fórmulas propias de una guía de redacción, “se debe demostrar”, “se debe incluir”, que revelaban que las sugerencias del sistema no habían sido corroboradas ni adaptadas al caso concreto. No había una apropiación técnica del texto ni trabajo jurídico posterior.
Y en casación, eso es insostenible.
La casación penal en Colombia, regulada por la ley 906 de 2004, no admite aproximaciones genéricas. Exige la identificación precisa de una causal taxativa, el encuadre correcto del error, ya sea in iudicando o in procedendo, el desarrollo técnico del cargo y la demostración de su trascendencia frente a la doble presunción de acierto y legalidad que protege la sentencia de segunda instancia.
No basta con discrepar, afirmar o sugerir. Hay que construir.
En este caso, el problema no fue haber utilizado IA como asistente, sino haber delegado la arquitectura argumental del recurso sin ejercer el control crítico indispensable. Se trasladó el borrador, pero no se lo convirtió en un escrito técnicamente jurídico.
Y eso expone algo que ya es evidente en la región: la inteligencia artificial no reduce el estándar profesional, lo eleva.
Las herramientas generativas pueden producir textos verosímiles, estructurados e incluso persuasivos en apariencia. Pero la verosimilitud no es técnica y, en sede extraordinaria, la técnica es todo.
El fallo colombiano no inaugura una etapa de prohibición tecnológica, fija un estándar de responsabilidad y marca un límite claro: la automatización no sustituye el razonamiento jurídico ni exonera del deber de revisión, adaptación y coherencia procesal.
Desde una perspectiva legaltech, la lección es clara. La discusión ya no es si usar o no inteligencia artificial sino cómo integrarla de manera profesional, estratégica y éticamente responsable.
La herramienta puede asistir, optimizar tiempos y ampliar el acceso a información. Pero, la responsabilidad profesional, es indelegable.
Artículos
Deloitte Legal
opinión
ver todosBarreiro
Noetinger y Armando
Xtrategia Group



















































































































