Estados Unidos: Nuevo caso de suspensión por utilizar falsa jurisprudencia del ChatGPT
Por Milagros Tallarico
Alfaro Abogados

En un escenario legal cada vez más impulsado por la tecnología, la presencia de la plataforma de inteligencia artificial (IA) ChatGPT como asistente en la elaboración de presentaciones judiciales ha generado consecuencias en la justicia estadounidense.

 

En esta oportunidad, un Juez Disciplinario de la Corte Suprema de Colorado (Estados Unidos) suspendió al abogado Zachariah C. Crabill temporalmente por 90 días, por citar jurisprudencia «falsa» generada por ChatGPT.

 

Los hechos se remontan al mes de abril del año 2023, cuando el abogado fue contratado para redactar y presentar una impugnación de sentencia en un caso civil, del cual no era su expertise. Al tiempo la presentación, no revisó si las citas jurisprudenciales eran correctas. Lo cierto es que, Crabill descubrió la falsedad de las citas, pero no alertó al Juzgado ni retiró su escrito.

 

Posteriormente, Crabill presentó una declaración jurada disculpándose ante el tribunal aproximadamente una semana después de la audiencia y se retiró del caso. Atribuyó su falta de honestidad a un estado de pánico y a la vergüenza, señalando desafíos personales, como la pérdida de su hermano y madre, así como el embarazo de su esposa.

 

Marco legal:

 

El fallo disciplinario concluyó que Crabill violó ciertos artículos de las Reglas de Conducta Profesionales ‘‘Colorado Rules of Professional Conducts’’ tales como:

 

  • Colorado RPC N° 1.1: Deber de representar de manera competente a un cliente.
  • Colorado RPC N° 1.3: Deber de actuar con diligencia y prontitud razonables al representar a un cliente.
  • Colorado. RPC N° 3.3: Prohibición de hacer, a sabiendas, una declaración falsa de hechos materiales o de derecho ante un Tribunal.
  • Colorado RPC N° 8.4: Se establece como mala conducta profesional que un abogado participe en conductas que impliquen deshonestidad, fraude, engaño o tergiversación.

Por ello, Zachariah C. Crabill fue suspendido por 90 días. Esta sanción estará sujeta a la finalización de un período de prueba de dos años, según una opinión emitida por la Oficina del Presidente Disciplinario de la Corte.

 

Antecedente - ‘‘Roberto Mata vs. Avianca Airlines’’

 

Recientemente -como antecedente a esta medida- el abogado Steven Schwartz de la firma de Nueva York ‘‘Levidow, Levidow & Oberman’’, fue contratado por Robert Mata para presentar una demanda por lesiones contra Avianca Airlines.

 

En su demanda, el letrado utilizó el ChatGPT para redactar los argumentos contra la compañía aérea, fundamentando los mismos en jurisprudencia inventada por la inteligencia artificial de ChatGPT, entre las que incluía: ‘’Varghese v. China South Airlines, Martinez v. Delta Airlines, Shaboon v. EgyptAir, Petersen v. Iran Air, Miller v. United Airlines, and Estate of Durden v. KLM Royal Dutch Airlines’’.

 

Si bien Schwartz explicó que jamás había utilizado previamente esta herramienta y que no creyó que la misma pudiese dar información falsa, lo cierto es que, la jurisprudencia a la que se hacía referencia en las presentaciones no existía, y hubo un caso en el que el número de expediente de una presentación se confundió con el de otra presentación judicial.

 

El desenlace de este caso resultó en un acontecimiento sin precedentes en el sistema legal de Estados Unidos, donde Schwartz fue sancionado con una multa de 5.000 dólares por presentar investigaciones legales ficticias respaldadas por ChatGPT.

 

En virtud de estos antecedentes, el Tribunal del Distrito Norte de Texas (Estados Unidos), a cargo del juez Brantley Starr, publicó una orden permanente para los abogados que litiguen en su jurisdicción donde certifiquen mediante un formulario obligatorio denominado ‘‘Mandatory Certification Regarding Generative Artificial Intelligence’’ que no han utilizado inteligencia artificial en el proceso de redacción de los documentos y escritos legales que sean presentados ante la justicia.

 

El fundamento principal de la medida radica en que la inteligencia artificial generativa no es considerada adecuada para redactar escritos jurídicos debido a dos razones. En primer lugar, sostienen que la misma tiene una propensión a inventarse cosas, incluso citas judiciales y, por otra parte, que no es adecuada ya que existe la posibilidad que incorpore algún tipo de sesgo desconocido o imprevisto.

 

Consideraciones

 

Este caso nos invita a reflexionar sobre la responsabilidad ética en la era de la inteligencia artificial. La sanción impuesta por el Juez Disciplinario de la Corte Suprema de Colorado no solo subraya las consecuencias prácticas de la utilización de la plataforma de inteligencia artificial ChatGPT en las presentaciones judiciales, sino que también deja en evidencia las complejidades éticas y morales que enfrentamos los abogados al integrar tecnologías avanzadas en el ejercicio profesional.

 

Por otra parte, este nuevo caso destaca la necesidad imperativa que los abogados asumamos un papel activo en la supervisión y verificación de la información generada por estas herramientas. La supervisión es trascendental para que actuemos con responsabilidad frente a nuestros clientes al emplear inteligencia artificial en nuestras presentaciones.

 

Bibliografía.

 

 

Alfaro Abogados
Ver Perfil

Opinión

El nuevo art. 245 bis de la LCT y la reedición de viejos errores del pasado
Por Lucas J. Battiston
PASBBA
detrás del traje
Diego Palacio
De PALACIO & ASOCIADOS
Nos apoyan