tecnologia

Anthropic apuesta por la IA legal pese a errores que ya llegaron a tribunales

La compañía lanzó nuevas herramientas para despachos, en medio de sanciones a abogados por citar casos inexistentes generados con inteligencia artificial.

La inteligencia artificial quiere meterse todavía más al mundo de la abogacía, aunque su relación con los tribunales no ha estado libre de tropiezos. En las últimas semanas, distintos jueces han sancionado o advertido a abogados por presentar escritos con citas legales falsas, precedentes inexistentes o referencias fabricadas por herramientas de IA. Incluso una corte federal de apelaciones en Estados Unidos impuso una multa de 30 mil dólares a dos abogados por un recurso con citas falsas que parecían producto de “alucinaciones” de inteligencia artificial.

En ese contexto, Anthropic decidió ir en sentido contrario al miedo: ampliar su presencia en el sector legal. La empresa lanzó una nueva suite de herramientas de Claude dirigida a firmas de abogados, con integraciones a plataformas como Thomson Reuters, Westlaw, Practical Law, Harvey, Box, Everlaw y DocuSign, además de 12 plugins enfocados en áreas de práctica como litigio, asesoría comercial y otros campos especializados.

La propuesta no se limita a responder preguntas. Anthropic busca que Claude opere dentro del flujo diario de trabajo de los despachos, con funciones para investigación legal, revisión de contratos, redacción de documentos, análisis de expedientes y apoyo en tareas internas. La compañía también ha impulsado integraciones con herramientas de productividad como Word, Excel y PowerPoint, con el objetivo de que la IA acompañe documentos, hojas de cálculo y presentaciones sin perder contexto entre tareas.

El argumento central de Anthropic es que el problema no está únicamente en el modelo, sino en las fuentes de información que consulta. Es decir, si la IA responde desde bases verificadas, expedientes reales y bibliotecas jurídicas confiables, el riesgo de inventar precedentes debería disminuir. Sin embargo, los casos recientes demuestran que el verdadero reto está en la supervisión humana: cuando los abogados no verifican lo que la herramienta produce, el error puede terminar convertido en un documento judicial.

La apuesta llega además con cifras que buscan generar confianza. De acuerdo con reportes especializados, Claude Opus 4.7 obtuvo 90.9 por ciento en BigLaw Bench, una evaluación de Harvey enfocada en tareas legales de grandes firmas. Anthropic también anunció una alianza con Freshfields para desarrollar herramientas de IA legal, como revisión contractual, redacción de documentos, due diligence e investigación de mercado.

La gran pregunta sigue abierta: ¿una IA conectada a fuentes legales verificadas puede reducir las “alucinaciones” o solo hará que los errores sean más difíciles de detectar? Por ahora, la industria legal parece decidida a no frenar el experimento, pero los tribunales ya dejaron claro que la responsabilidad final no será de la máquina, sino de quien firma el documento.

OTRAS NOTAS