Internacional

Casos falsos con ChatGPT: Abogado se disculpa por presentar pruebas fraudulentas realizadas con inteligencia artificial en proceso judicial

El abogado presentó un informe con argumentos redactados por ChatGPT con el fin de evitar la desestimación de la demanda que mantenía contra una aerolínea, pero todo le salió mal.

Abogado usa ChatGPT para armar un caso judicial

Un abogado estadounidense admitió que usó ChatGPT en la redacción de casos para defender una demanda legal contra una empresa. (Foto Prensa Libre: Pexels)

Un abogado estadounidense se enfrenta a posibles sanciones penales por haber utilizado la inteligencia artificial de ChatGPT para preparar una serie de precedentes legales en un caso judicial. Además, el profesional tuvo que ofrecer disculpas por haber utilizado esta herramienta tecnológica.

El letrado es Steven Schwartz, que ejerce en Nueva York, Estados Unidos, quien expresó que, “Simplemente no tenía idea de que ChatGPT fuera capaz de fabricar citas de casos completos u opiniones judiciales, incluso de una manera que pareciera auténtica”.

El error ocurrió en un caso civil ventilado ante un tribunal federal de Manhattan, en el cual la compañía aérea colombiana Avianca fue demandada por una persona que afirmaba haber sufrido lesiones durante un vuelo entre El Salvador y Nueva York en agosto de 2019.

Luego que los abogados de la aerolínea pidieran al tribunal que desestimara el caso, Schwartz presentó un documento de diez páginas en el que citaba más de media docena de decisiones anteriores para respaldar el argumento de que el litigio debía continuar.

Sin embargo, todos los fallos presentados no habían existido, porque tampoco los casos evocados eran reales, como pudieron comprobarlo el juez Kevin Castel y los abogados de Avianca. Esta situación obligó a Schwartz a admitir que ChatGPT lo había inventado todo.

“La corte se enfrenta a una circunstancia sin precedentes”, escribió el juez Castel el mes pasado. “Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas”, agregó. El juez ordenó a Schwartz y a su socio legal comparecer ante él para enfrentar posibles sanciones.

Schwartz se disculpó ante el tribunal en una audiencia ocurrida el martes, además expresó que “Fue un error profundamente lamentable”. “En el momento en que realicé la investigación legal en este caso, creía que ChatGPT era un motor de búsqueda confiable. Ahora sé que eso era incorrecto. Nunca fue mi intención engañar a la corte”, explicó.

ChatGPT se ha convertido en una sensación global desde que se lanzó a fines del 2022 por su capacidad para producir contenido similar al humano, incluidos ensayos, poemas y conversaciones, a partir de indicaciones simples.

Schwartz dijo que él y su firma, Levidow, Levidow & Oberman, habían sido “ridiculizados públicamente” en la cobertura de los medios. “Esto ha sido profundamente vergonzoso tanto a nivel personal como profesional, ya que estos artículos estarán disponibles en los próximos años”, escribió.

“Este asunto ha sido una experiencia reveladora para mí y puedo asegurarle a la corte que nunca volveré a cometer un error como este”, concluyó.

Lea más: ChatGPT: Qué es y cómo se usa la herramienta de Inteligencia Artificial que puede responder sobre cualquier tema

La historia fue reportada el pasado sábado 3 de junio por el The New York Times.

ESCRITO POR: