spot_imgspot_imgspot_imgspot_img
InicioNacionalesExpediente argentino reveló jurisprudencia fabricada por IA; el juez mantuvo la resolución

Expediente argentino reveló jurisprudencia fabricada por IA; el juez mantuvo la resolución

Qué ocurrió

Un expediente judicial en Argentina puso en foco un problema creciente. En abril de 2026, un abogado incorporó en sus escritos jurisprudencia que resultó ser creada por una herramienta de inteligencia artificial. Las citas y los números de fallo eran plausibles a simple vista. Ni la parte contraria ni el juez advirtieron la falsedad durante el trámite regular. La irregularidad se hizo visible en una etapa posterior, cuando la existencia de las sentencias citadas fue puesta en duda y finalmente no pudo comprobarse.

Cómo se descubrió y por qué no hubo revocación

La falta de detección inicial expuso fallas en los controles de veracidad que se aplican en expedientes cotidianos. Las referencias doctrinales y los números de expedientes parecían correctos y se incorporaron sin la verificación documental necesaria. Al revisar el expediente con más detenimiento, la contraparte advirtió la ausencia de las sentencias mencionadas en los registros públicos y lo puso en conocimiento del tribunal. El magistrado evaluó si la falsedad debía llevar a la anulación de lo resuelto.

En su análisis, el juez consideró que esas citas no fueron la base esencial del fallo. Entendió que, aun corrigiendo o suprimiendo las referencias falsas, el núcleo de la decisión no cambiaría. Por esa razón, rechazó revocar la sentencia. La decisión subraya una distinción del derecho procesal: no todo error procesal conduce automáticamente a la nulidad si no afecta el centro del pronunciamiento. El tribunal priorizó así la estabilidad de la resolución y la economía procesal.

Contexto internacional y cifras que preocupan

El episodio se suma a una serie de casos en los que herramientas de IA generaron lo que se describe como “alucinaciones”: referencias jurídicas convincentes pero inexistentes. En distintos países se documentaron incidentes que derivaron en sanciones disciplinarias o multas a profesionales que no verificaron el material generado por modelos. Entre los ejemplos internacionales se mencionaron apelaciones con hasta 48 citas inventadas, sanciones individuales que oscilaron entre 420 euros y 5.000 dólares, y una multa equivalente a una UTM (aproximadamente 70.000 pesos chilenos) en otra jurisdicción de la región.

Las revisiones y estudios sobre el tema registraron más de 50 incidentes vinculados a errores de IA en documentos legales hasta 2026 y estimaron que cerca del 70% de esos errores no fueron detectados en primera instancia. Esas cifras plantean inquietudes sobre la capacidad de los controles internos de despachos y de los tribunales para detectar material falso cuando las referencias parecen verosímiles.

Implicancias y recomendaciones para la práctica profesional

La situación abre cuestiones sobre la responsabilidad profesional y las obligaciones éticas de quienes litigan. En el ejercicio de la profesión rige el deber de verificar las fuentes. Confiar solo en resultados de modelos generales de lenguaje sin cotejar en bases oficiales puede configurar negligencia disciplinaria o procesal. Por eso, especialistas y colegios profesionales recomiendan adoptar protocolos claros y medidas concretas.

Entre las prácticas sugeridas están el uso de herramientas especializadas para derecho que faciliten la comprobación de citas, la suscripción a bases de datos oficiales, controles de calidad internos en estudios jurídicos y la exigencia de dobles verificaciones antes de presentar escritos. También se sugiere una política de transparencia en el uso de asistentes automatizados y capacitaciones obligatorias para magistrados y abogados sobre las limitaciones de estos sistemas.

Desde la óptica institucional, los tribunales enfrentan el desafío de conciliar la eficiencia tecnológica con la exigencia de fiabilidad en las fuentes. Las respuestas posibles incluyen requerir comprobantes de las citas aportadas, aplicar sanciones disciplinarias cuando exista negligencia probada y establecer protocolos para evaluar si un error afecta el fallo de fondo. La decisión de no revocar la sentencia en el caso argentino demuestra que los tribunales pueden priorizar la estabilidad de las resoluciones cuando el error no altera el núcleo del pronunciamiento. Al mismo tiempo, deja abierta la discusión sobre medidas disuasorias y controles más estrictos para evitar que incidentes similares se repitan.

Para la comunidad jurídica, la lección es clara: la adopción de herramientas de inteligencia artificial no exonera de la obligación profesional de comprobar la exactitud de la información presentada en juicio. La tecnología acelera tareas, pero exige normas y prácticas de verificación que eviten que errores automatizados perjudiquen la validez de las decisiones judiciales y la confianza en el sistema.

spot_imgspot_imgspot_imgspot_img
MAS COMENTADAS
spot_imgspot_imgspot_imgspot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_imgspot_imgspot_img
- Advertisment -spot_imgspot_imgspot_img

MAS VISTAS

spot_imgspot_imgspot_imgspot_img

COMENTARIOS RECIENTES