Como inteligencia artificial ("AI") Las herramientas se integran cada vez más en la práctica legal, Su uso por los árbitros ya no es una posibilidad teórica sino una realidad práctica. Desde redactar órdenes de procedimiento hasta organizar evidencia o incluso ayudar en la preparación de premios, AI ofrece la promesa de una mayor eficiencia, consistencia, y rentabilidad. Pero, ¿qué sucede cuando esa eficiencia tiene costo del juicio humano??
Un caso reciente presentado en un EE. UU.. Corte federal, Lapaglia V. Válvula., plantea precisamente esta pregunta. El reclamante ha solicitado anular un laudo arbitral con el argumento de que el árbitro supuestamente confió en la IA hasta tal punto que él "subcontrató su papel adjudicativo."[1] Mientras que el resultado del caso sigue siendo incierto, Presenta un punto de partida ideal para examinar los límites del uso de la IA en el arbitraje y las responsabilidades legales y éticas que vienen con él.
Este artículo explora las cuestiones clave planteadas por Lapaglia, Colocarlos en el contexto de las pautas recientemente emergentes sobre la IA en el arbitraje. Considera en qué punto la asistencia de IA va demasiado lejos y qué rol Transparencia, expectativas del partido, y la justicia procesal debería jugar para navegar por esta nueva frontera.
Lapaglia V. Válvula.
En Lapaglia V. Válvula., un consumidor de juegos de PC, Señor. Lapaglia (la "Demandante") presentó un reclamo en arbitraje administrado por el Asociación Americana de Arbitraje (la "AAA") exigiendo una compensación por los precios más altos que pagó como resultado de presuntas violaciones antimonopolio por Valve Corp.. (la "Demandado"), El propietario de la tienda de juegos en línea de Steam, así como por incumplimiento de la garantía derivada de un juego de PC defectuoso que había comprado.[2]
Se escucharon las afirmaciones del reclamante ante un único árbitro (la "Árbitro") en diciembre 2024 audiencia.[3] La audiencia tuvo lugar 10 dias, y según el reclamante, durante los descansos en el proceso, El árbitro supuestamente dijo a las partes que quería emitir una decisión rápidamente porque tenía un próximo viaje programado para los Galápagos..[4]
El último informe posterior a la audiencia se presentó en 23 diciembre 2024, con el premio (29 páginas largas) emitido por 7 enero 2025 (la "Premio"), Cuando el árbitro estaba supuestamente programado para irse en su viaje.[5]
En 8 abril 2025, El reclamante presentó una petición para anular el premio de arbitraje (la "Petición") ante el Tribunal de Distrito de los Estados Unidos para el Distrito Sur de California (la "Tribunal de Distrito") conforme a 9 USC. §§ 10(una)(3), (una)(4), sobre la base de que, entre otras cosas, el árbitro supuestamente "subcontrató su papel adjudicativo a la inteligencia artificial ('AI')."[6]
El reclamante concluyó que el árbitro usó AI para redactar su premio sobre la base de los siguientes elementos de hecho:
- El árbitro "contó una historia sobre cómo había sido asignado para escribir un breve artículo en un club de aviación del que formó parte, y que había usado chatgpt para escribirlo para ahorrar tiempo."[7]
- El árbitro "notó a las partes que se iba a un viaje a los Galápagos pronto y quería hacer el caso antes de entonces."[8]
- El premio supuestamente contiene "Signos reveladores de la generación de IA"Y supuestamente cita hechos que"son falsos y no se presentan en el juicio o presentes en el registro"Sin citas relevantes.[9]
- El secretario de ley del abogado del reclamante le preguntó a Chatgpt si creía que un cierto párrafo fue escrito por humanos o AI, y chatgpt declaró que "El fraseo incómodo del párrafo, redundancia, incoherencia, y la sobregeneralización "sugiere que el pasaje fue generado por AI en lugar de escrito por un humano"."[10]
El reclamante se basó en la sección 10(una)(4) de la FAA, cuales "Permite Vacatur donde un árbitro ‘excede sus poderes[]'"Al actuar fuera del alcance del acuerdo contractual de las partes.[11]
El reclamante afirmó que el premio debe ser desocupado porque, Supuestamente confiar en AI, El árbitro excedió su autoridad obligada por el alcance del acuerdo de arbitraje de las partes, que empodera a un "árbitro neutral"Resolver disputas entre ellos y Binds dijo que el árbitro proporciona"una decisión escrita"Y un"declaración de razones"Por su tenencia.[12] En los casos en que un árbitro depende de AI, El reclamante afirmó que esto "traiciona las expectativas de los partidos de una decisión bien razonada en un árbitro humano."
El reclamante luego analogizado entre el presente caso y otros EE. UU.. casos, como Mover, C ª. v. Citigroup Global MKTS.,[13] donde los tribunales desocuparon los premios de arbitraje donde los árbitros falsificaron sus credenciales o hicieron otras representaciones falsas. Los tribunales en estos casos señalaron que los premios deben ser anulados "donde "simplemente no hay forma de determinar si" un "impostor" no calificado en el panel de arbitraje "influyó en otros miembros del panel o que el resultado del arbitraje se vio afectado por su participación"".[14] Según el reclamante, Así como los tribunales han anulado los premios cuando la toma de decisiones se subcontrata a una persona que no sea el árbitro designado, También debe un tribunal anular un premio cuando la toma de decisiones se subcontrata a la IA.[15]
El Tribunal de Distrito aún no ha declarado sobre la petición del reclamante., pero, A pesar de cualquier argumento fáctico o legal que pueda plantearse contra el reclamo del reclamante, Este caso plantea preguntas importantes sobre el futuro del arbitraje.: ¿Deberían los árbitros confiar en la IA?? Si es así, Hasta qué punto?
Ai en arbitraje
A primera vista, AI parece un desarrollo bienvenido para el arbitraje. Ofrece el potencial de acelerar los procedimientos organizando y resumiendo rápidamente grandes volúmenes de datos,[16] reduciendo así la carga de trabajo del árbitro. Esta mayor eficiencia podría, en turno, reducir el costo total del arbitraje, particularmente donde el árbitro se recuerda a una hora por hora.
sin embargo, El uso de IA en arbitraje no está exento de riesgos. El principal de estos es la erosión potencial de la independencia del árbitro y la responsabilidad de la toma de decisiones, especialmente donde se confía en la IA para evaluar, legal, o asuntos probatorios. Los sistemas de IA son propensos a las alucinaciones, es decir, Generación de información plausible pero inexacta o completamente falsa.[17] Si no es cuidadosamente revisado y verificado por el árbitro, Dichas inexactitudes pueden comprometer la calidad y la confiabilidad del premio, SELITRAR el deber del árbitro de proporcionar una decisión razonada y precisa.
Aunque las reglas de la mayoría de las principales instituciones arbitral (CCI, AICV, SIAC, HKIAC, etc.) Actualmente están en silencio sobre el uso de AI por parte de los árbitros, Los recientes instrumentos de ley suave han comenzado a llenar este vacío, ofreciendo orientación sobre la integración responsable y adecuada de la IA en el proceso arbitral.
Directrices de IA para los árbitros
Un ejemplo de esto es el arbitraje de Silicon Valley & Centro de mediación ("SVAMC") Directrices sobre el uso de inteligencia artificial en arbitraje (la "Directrices de SVAMC"), que fueron publicados en 30 abril 2024. Las pautas de SVAMC "Introducir un marco basado en principios para el uso de inteligencia artificial (AI) Herramientas en arbitraje en un momento en que tales tecnologías se vuelven cada vez más poderosas y populares. Están destinados a ayudar a los participantes a los arbitrajes a navegar por las posibles aplicaciones de la IA."[18]
Parte 3 de las pautas de SVAMC establece específicamente las pautas para los árbitros, incluyendo pautas 6 (No delegación de responsabilidades de toma de decisiones) y 7 (Respeto por el debido proceso).
Según la directriz 6, "Un árbitro no delegará ninguna parte de su mandato personal a ninguna herramienta de IA. Este principio se aplicará particularmente al proceso de toma de decisiones del árbitro. El uso de herramientas de IA por los árbitros no reemplazará su análisis independiente de los hechos, la ley, y la evidencia."[19]
Pauta 7 proporciona: "Un árbitro no dependerá de la información generada por la IA fuera del registro sin hacer que las divulgaciones apropiadas a las partes de antemano y, en cuanto a práctico, Permitir que las partes lo comenten. Donde una herramienta de IA no puede citar fuentes que pueden verificarse independientemente, Un árbitro no asumirá que tales fuentes existen o son caracterizadas con precisión por la herramienta AI."[20]
Otro ejemplo ligeramente más reciente es el Instituto de Árbitros Chartered ("Ciarb") Guía sobre el uso de IA en arbitraje (la "Guía de ciarb"), publicado en 2025. Como las pautas de SVAMC, la guía de ciarb "busca orientación sobre el uso de IA de una manera que permita los solucionadores de disputas, sus representantes, y otros participantes para aprovechar los beneficios de la IA, mientras apoya los esfuerzos prácticos para mitigar parte del riesgo para la integridad del proceso, los derechos de procedimiento de cualquier parte, y la ejecución exigente de cualquier premio o acuerdo de liquidación."[21]
La Parte IV de la guía de CIARB aborda el uso de IA por los árbitros y, Como las pautas de SVAMC, contiene dos artículos: Artículo 8 (Discreción sobre el uso de IA por los árbitros) y artículo 9 (Transparencia sobre el uso de IA por los árbitros).
Artículo 8 notas que los árbitros pueden considerar el uso de herramientas de IA para mejorar el proceso del árbitro, incluyendo tanto la eficiencia del procedimiento como la calidad de la toma de decisiones del árbitro, Pero que los árbitros "no debe renunciar a sus poderes de toma de decisiones a la IA"Y"debe evitar delegar cualquier tarea a las herramientas de IA [...] Si dicho uso podría influir en las decisiones procesales o sustantivas."[22] Artículo 8 También recuerda a los árbitros que deben verificar de forma independiente la precisión y corrección de la información obtenida a través de AI, Al tiempo que mantiene una perspectiva crítica para evitar una influencia indebida sobre sus decisiones.[23] Finalmente, Artículo 8 establece que los árbitros "asumirá la responsabilidad de todos los aspectos de un premio, Independientemente del uso de la IA para ayudar con el proceso de toma de decisiones."[24]
Artículo 9 alienta a los árbitros a consultar con las partes, así como otros árbitros en el mismo tribunal, Sobre si las herramientas de IA pueden ser utilizadas por ellos a lo largo de los procedimientos arbitral.[25]
Esta nota ahora volverá al Lapaglia caso para examinar la supuesta conducta del árbitro con estas pautas de IA en mente.
Análisis: Lapaglia Según las pautas de IA
Examinar la supuesta conducta del árbitro en Lapaglia V. Válvula. (puramente hipotéticamente) a través de la lente de las pautas, No es un caso en blanco y negro de uso inapropiado/apropiado de AI, Incluso si todos los hechos alegados por el reclamante se toman como verdaderos.
Por ejemplo, Según la guía de SVAMC 6 y artículo de Ciarb 8, Si el árbitro usó AI, como chatgpt, Mientras redacta el premio, esto no es per se inapropiado, siempre y cuando retuvo su poder de toma de decisiones y no fue influenciado por la IA para hacer cualquier procedimiento, factual, o decisiones legales.[26]
sin embargo, Si, Como afirma el reclamante, El árbitro realmente citó hechos y evidencia que no eran "en el registro o de otra manera evidente o incluso argumentado",[27] Guía de svamc 7 sugiere que esto puede haber sido inapropiado si el árbitro no pudo hacer "divulgaciones apropiadas a las partes de antemano y, en cuanto a práctico, Permitir que las partes lo comenten", [28] que puede plantear preocupaciones serias del debido proceso.
Más lejos, Guía de svamc 7 y artículo de Ciarb 8 Ambos recuerdan que los árbitros tienen el deber de verificar independientemente la precisión de cualquier declaración hecha en sus premios. Así, Si la IA utilizada por el árbitro hizo referencia a hechos de que "son falsos y no se presentan en el juicio o presentes en el registro", Como afirma el reclamante,[29] era el deber del árbitro verificar su precisión, Y aparentemente no lo hace (Como supuestamente terminaron en el premio final), El árbitro puede haber usado de manera inapropiada ai.
Adicionalmente, Si bien la petición del reclamante no aclara en qué contexto estos hechos fabricados, Las incoherencias y las generalizaciones se elaboraron supuestamente en el premio o si parecían tener alguna relación con la decisión del árbitro, Su presencia en el premio parece cuestionar si el árbitro no delegó a ninguno de su poder de toma de decisiones, Particularmente con respecto al análisis fáctico del premio, A ai, Contrariamente a la guía de SVAMC 6 y artículo de Ciarb 8, como se ha mencionado más arriba.[30]
En cualquier evento, Basado en la petición del reclamante, No está claro si el árbitro hecho cualquier tipo es una divulgación con respecto a cualquier uso de IA a lo largo de los procedimientos. sin embargo, Tanto las pautas de SVAMC como la directriz de Ciarb sugieren que, Si un árbitro usa cualquier cantidad de AI, él o ella debe revelar su uso a las partes,[31] Si no busca su aprobación de antemano.[32]
Conclusión
los Lapaglia V. Válvula. El caso, aunque todavía está pendiente y basado en acusaciones aún por evaluar judicialmente, plantea preguntas significativas y oportunas sobre el papel de la inteligencia artificial en la toma de decisiones arbitral. Incluso si la base objetiva para la petición del reclamante sigue siendo incierta, El caso ilustra útilmente los tipos de desafíos y complejidades que pueden surgir cuando los árbitros dependen, o se sospecha que confiar, En las herramientas de IA en los premios de redacción.
Como el análisis anterior demuestra, Un principio central debe guiar cualquier consideración del uso de AI por los árbitros: no delegación. Los árbitros no pueden externalizar su función adjudicativa a un tercero, humano o máquina, ni pueden permitir que la tecnología comprometa su razonamiento independiente. Mientras que la IA puede ayudar con las tareas administrativas o de redacción, No puede reemplazar el compromiso personal del árbitro con los hechos, evidencia, y ley.
Igualmente importante es la transparencia. Donde los árbitros usan herramientas de IA, Deben revelar esto a las partes y, potencialmente, Busque su aprobación previa. Las pautas como las emitidas por SVAMC y CIARB dejan en claro que los árbitros tienen la responsabilidad final de la precisión, integridad, y autoría humana de sus premios.
los Lapaglia El caso también destaca un problema probatorio emergente: ¿Cómo pueden las partes probar que un premio, o parte de él, fue redactado por AI?? ¿Son confiables las herramientas de detección de IA, y ¿cómo deberían los tribunales tratar tales pruebas?? ¿Qué pasa si un árbitro usa AI simplemente para mejorar la claridad en lugar de sustituir el razonamiento??
A medida que las herramientas de IA se vuelven más sofisticadas y ampliamente adoptadas, Estas preguntas serán cada vez más importantes. Tribunales, instituciones arbitrales, y las fiestas necesitarán lidiar con los estándares apropiados para el uso de AI, los mecanismos para la divulgación, y las consecuencias del mal uso. Si el Lapaglia La petición tiene éxito, ya ha logrado provocar una conversación más amplia que el arbitraje ya no puede evitar.
[1] Petición para anular el premio de arbitraje; Memorando de puntos y autoridades en apoyo de los mismos 2, Lapaglia V. Válvula., No. 3:25-CV-00833 (DAKOTA DEL SUR. California. abr. 8, 2025).
[2] Carné de identidad. a 2- 3.
[3] Carné de identidad. a 3.
[4] Carné de identidad. a 4.
[5] Carné de identidad. a 4.
[6] Carné de identidad. a 2. El reclamante también impugnó el laudo sobre la base de que el árbitro supuestamente consolidó el reclamo del reclamante con 22 Otros en violación del acuerdo de arbitraje y se negaron a permitir que el reclamante presentara un informe experto que supuestamente demuestre la posesión de la demandada de una cuota de mercado de monopolio.
[7] Carné de identidad. a 9.
[8] Carné de identidad. a 9.
[9] Carné de identidad. a 9.
[10] Carné de identidad. a 10.
[11] Carné de identidad. a 9.
[12] Carné de identidad. a 10.
[13] Mover, C ª. v. Citigroup Global MKTS., 840 F.3d 1152, 1159 (9Circo. 2016).
[14] Carné de identidad. a 10.
[15] Carné de identidad. a 10.
[16] UNA. Singh Chauhan, Futuro de la IA en arbitraje: La delgada línea entre la ficción y la realidad, 26 septiembre 2020, https://arbitrationblog.kluwerarbitration.com/2020/09/26/future-of-ai-in-arbitration-the-fine-line-between-fiction-and-reality/.
[17] METRO. Magal et al., Inteligencia artificial en arbitraje: Problemas probatorios y perspectivas, 12 octubre 2023, https://globalarbitrationreview.com/guide/the-guide-evidence-in-international-arbitration/2nd-edition/article/artificial-intelligence-in-arbitration-evidentiary-issues-and-prospects.
[18] Directrices de SVAMC, Introducción.
[19] Directrices de SVAMC, Pauta 6.
[20] Directrices de SVAMC, Pauta 7.
[21] Guía de ciarb, Introducción.
[22] Guía de ciarb, Artículos 8.1, 8.2.
[23] Guía de ciarb, Artículo 8.3.
[24] Guía de ciarb, Artículo 8.4.
[25] Guía de ciarb, Artículos 9.1-9.2.
[26] Directrices de SVAMC, Pauta 6; Guía de ciarb, Artículo 8.
[27] Petición para anular el premio de arbitraje; Memorando de puntos y autoridades en apoyo de los mismos 9, Lapaglia V. Válvula., No. 3:25-CV-00833 (DAKOTA DEL SUR. California. abr. 8, 2025).
[28] Directrices de SVAMC, Pauta 7.
[29] Petición para anular el premio de arbitraje; Memorando de puntos y autoridades en apoyo de los mismos 9, Lapaglia V. Válvula., No. 3:25-CV-00833 (DAKOTA DEL SUR. California. abr. 8, 2025).
[30] Directrices de SVAMC, Pauta 6; Guía de ciarb, Artículo 8.
[31] Directrices de SVAMC, Pauta 6.
[32] Guía de ciarb, Artículos 9.1-9.2.