Ca inteligență artificială („AI“) instrumentele devin din ce în ce mai integrate în practica juridică, Utilizarea lor de către arbitri nu mai este o posibilitate teoretică, ci o realitate practică. De la redactarea comenzilor procedurale la organizarea de probe sau chiar la asistarea la pregătirea premiilor, AI oferă promisiunea unei eficiențe mai mari, consistență, și rentabilitate. Dar ce se întâmplă atunci când această eficiență costă judecata umană?
Un caz recent depus într -un SUA. Curtea Federala, Lapaglia v. Valve Corp., ridică exact această întrebare. Reclamantul a solicitat să renunțe la o atribuire arbitrală pe motiv că arbitrul se presupunea că s -a bazat pe AI într -o asemenea măsură încât el ”a externalizat rolul său adjudecativ.“[1] În timp ce rezultatul cazului rămâne incert, Prezintă un punct de plecare ideal pentru examinarea limitelor utilizării AI în arbitraj și responsabilitățile legale și etice care vin cu acesta.
Acest articol explorează problemele cheie ridicate de Lapaglia, plasarea lor în contextul unor orientări nou emergente pe AI în arbitraj. Consideră în ce punct asistența AI merge prea departe și ce rol de transparență, așteptări ale partidului, și corectitudinea procedurală ar trebui să joace în navigarea acestei noi frontiere.
Lapaglia v. Valve Corp.
În Lapaglia v. Valve Corp., un consumator de jocuri pentru PC, Domnul. Lapaglia („Reclamant“) a depus o cerere în arbitraj administrat de către Asociatia Americana de Arbitraj („AAA“) Solicitarea unei compensații pentru prețurile mai mari pe care le -a plătit ca urmare a presupuselor încălcări antitrust de către Valve Corp. („care răspunde“), Proprietarul magazinului de jocuri Steam Online, precum și pentru încălcarea garanției care decurge dintr -un joc defect al PC -ului pe care l -a achiziționat.[2]
Afirmațiile reclamantului au fost audiate în fața unui singur arbitru („Arbitru“) la un decembrie 2024 auz.[3] Audierea a avut loc 10 zi, și potrivit reclamantului, În timpul pauzelor în proceduri, Arbitrul ar fi spus părților că vrea să emită rapid o decizie, deoarece a avut o călătorie viitoare programată la Galapagos.[4]
Ultimul brief post-audiere a fost trimis la 23 decembrie 2024, cu premiul (29 pagini lungi) emis pe 7 ianuarie 2025 („Adjudecare“), Când arbitrul ar fi fost programat să plece în călătoria sa.[5]
Pe 8 Aprilie 2025, Reclamantul a depus o petiție de a renunța la acordarea de arbitraj („Petiţie“) În fața Curții de District Statelor Unite pentru districtul de sud al Californiei („Judecătoria Districtuală“) conform 9 U.S.C. §§ 10(A)(3), (A)(4), pe baza că, printre altele, Arbitrul ar fi „a externalizat rolul său adjudecativ la inteligența artificială („AI”).“[6]
Reclamantul a concluzionat că arbitrul a folosit AI pentru a -și redacta atribuirea pe baza următoarelor elemente de fapt:
- Arbitrul „a spus o poveste despre cum a fost desemnat să scrie un scurt articol despre un club de aviație din care făcea parte, și că a folosit chatgpt pentru a -l scrie pentru a economisi timp.“[7]
- Arbitrul „a remarcat pentru petreceri că a plecat în curând la o excursie la Galapagos și a vrut să facă cazul înainte de atunci.“[8]
- Se presupune că premiul conține „Semne Telltale ale generației AI”Și presupune că citează fapte care„sunt ambele neadevărate și nu sunt prezentate la proces sau prezente în înregistrare”Fără citări relevante.[9]
- Funcționarul avocatului reclamantului l -a întrebat pe Chatgpt dacă crede că un anumit paragraf este scris de oameni sau AI, Și Chatgpt a declarat că „Fraza penibilă a alineatului, redundanţă, incoerenţă, și suprageneralizarea „sugerează că pasajul a fost generat de AI, mai degrabă decât de scris de un om”.“[10]
Reclamantul s -a bazat pe secțiune 10(A)(4) din FAA, care "Permite Vacatur în cazul în care un arbitru „își depășește puterile[]“”Acționând în afara domeniului de aplicare al acordului contractual al părților.[11]
Reclamantul a afirmat că premiul trebuie să fie anulat pentru că, Se presupune că se bazează pe AI, Arbitrul și -a depășit autoritatea legată de sfera de aplicare a acordului de arbitraj al părților, care împuternicește un „Arbitrul neutru„Pentru a rezolva litigiile dintre ele și se leagă arbitrul menționat pentru a furniza„o decizie scrisă”Și un„Declarație de motive”Pentru deținerea lor.[12] În cazurile în care un arbitru se bazează pe AI, Reclamantul a susținut că acest lucru „trădează așteptările partidelor cu privire la o decizie bine reamenajată de către un arbitru uman.“
Reclamantul a fost apoi analogat între cazul de față și alte S.U.A.. cazuri, precum Mişcare, Inc. v. Citigroup Global MKTS.,[13] În cazul în care instanțele au abandonat premiile de arbitraj în care arbitrii și -au falsificat acreditările sau au făcut alte reprezentări false. Instanțele din aceste cazuri au remarcat că premiile ar trebui să fie vacante "În cazul în care „nu există pur și simplu nicio modalitate de a determina dacă„ un „impostor” necalificat pe panoul de arbitraj „a influențat alți membri ai grupului sau că rezultatul arbitrajului a fost afectat de participarea sa”“.[14] Conform reclamantului, la fel cum instanțele au abandonat premii atunci când luarea deciziilor este externalizată unei alte persoane decât arbitrul numit, La fel și o instanță trebuie să renunțe la o atribuire atunci când luarea deciziilor este externalizată de AI.[15]
Curtea de district încă nu a pronunțat petiția reclamantului, dar, În ciuda oricăror argumente faptice sau legale care pot fi ridicate împotriva cererii reclamantului, Acest caz ridică întrebări importante despre viitorul arbitrajului: Ar trebui să se bazeze arbitrii pe AI? Dacă da, în ce măsură?
AI în arbitraj
La prima vedere, AI pare o dezvoltare binevenită pentru arbitraj. Oferă potențialul de a accelera procedurile prin organizarea rapidă și rezumând volume mari de date,[16] reducând astfel volumul de muncă al arbitrului. Această eficiență crescută ar putea, in schimb, Scădește costul general al arbitrajului, în special în cazul în care arbitrul este remunerat pe oră.
in orice caz, Utilizarea AI în arbitraj nu este lipsită de riscuri. Printre acestea, printre acestea este potențialul eroziune a independenței arbitrului și a responsabilității decizionale, mai ales în cazul în care AI se bazează pentru a evalua faptul, legale, sau probleme probatorii. Sistemele AI sunt predispuse la halucinații - adică, generarea de informații plauzibile, dar inexacte sau complet false.[17] Dacă nu este revizuit și verificat cu atenție de către arbitru, Astfel de inexactități pot compromite calitatea și fiabilitatea premiului, subminarea datoriei arbitrului de a oferi o decizie motivată și exactă.
Deși regulile majorității instituțiilor arbitrale majore (ICC, LCIA, SIAC, HKIAC, etc.) În prezent, au tăcut în ceea ce privește utilizarea AI de către arbitri, Instrumente recente de drept soft au început să completeze acest decalaj, Oferind îndrumări cu privire la integrarea responsabilă și adecvată a AI în procesul arbitral.
Orientări AI pentru arbitri
Un exemplu în acest sens este arbitrajul Silicon Valley & Centrul de mediere („SVAMC“) Orientări privind utilizarea inteligenței artificiale în arbitraj („Orientări SVAMC“), care au fost publicate pe 30 Aprilie 2024. Orientările SVAMC „Introduceți un cadru bazat pe principiu pentru utilizarea inteligenței artificiale (AI) instrumente în arbitraj într -un moment în care astfel de tehnologii devin din ce în ce mai puternice și populare. Aceștia sunt destinați să ajute participanții la arbitrajuri cu navigarea potențialelor aplicații ale AI.“[18]
Parte 3 Din liniile directoare SVAMC stabilește în mod specific orientări pentru arbitri, inclusiv orientări 6 (Non-delegarea responsabilităților de luare a deciziilor) și 7 (Respect pentru procesul cuvenit).
Conform Ghidului 6, „Un arbitru nu va delega nicio parte a mandatului personal pentru niciun instrument AI. Acest principiu se aplică în special procesului de luare a deciziilor arbitrului. Utilizarea instrumentelor AI de către arbitri nu va înlocui analiza lor independentă a faptelor, Legea, și dovezile.“[19]
Ghid 7 prevede: „Un arbitru nu se bazează pe informații generate de AI în afara înregistrării fără a face dezvăluiri adecvate părților în prealabil și, în ceea ce privește practic, permițând părților să comenteze acest lucru. În cazul în care un instrument AI nu poate cita surse care pot fi verificate în mod independent, Un arbitru nu trebuie să presupună că astfel de surse există sau sunt caracterizate cu exactitate de instrumentul AI.“[20]
Un alt exemplu puțin mai recent este Institutul de Arbitri Chartered („Ciarb“) Ghid privind utilizarea AI în arbitraj („Ghid CIARB“), publicat în 2025. Ca orientările SVAMC, Ghidul Ciarb „încearcă să ofere îndrumări cu privire la utilizarea AI într -o manieră care să permită soluționarea litigiilor, reprezentanții lor, și alți participanți să profite de beneficiile AI, în timp ce susțineți eforturi practice de atenuare a o parte din riscul pentru integritatea procesului, Drepturile procedurale ale oricărei părți, și aplicarea capacității oricărui acord de atribuire sau soluționare care urmează.“[21]
Partea a IV -a din ghidul CIARB abordează utilizarea AI de către arbitri și, Ca orientările SVAMC, conține două articole: Articol 8 (Discreția asupra utilizării AI de către arbitri) și articolul 9 (Transparența asupra utilizării AI de către arbitri).
Articol 8 observă că arbitrii pot lua în considerare utilizarea instrumentelor AI pentru a îmbunătăți procesul de arbitru, inclusiv atât eficiența procedurilor, cât și calitatea luării deciziilor arbitrului, Dar acei arbitri „nu ar trebui să renunțe la puterile lor de luare a deciziilor către AI" și "ar trebui să evite delegarea oricăror sarcini către instrumentele AI [...] Dacă o astfel de utilizare ar putea influența deciziile procedurale sau de fond.“[22] Articol 8 De asemenea, le reamintește arbitrilor că ar trebui să verifice în mod independent exactitatea și corectitudinea informațiilor obținute prin AI, menținând în același timp o perspectivă critică pentru a preveni influența nejustificată asupra deciziilor lor.[23] In cele din urma, Articol 8 prevede că arbitrii ”își asumă responsabilitatea pentru toate aspectele unei premii, Indiferent de utilizarea AI pentru a ajuta la procesul de luare a deciziilor.“[24]
Articol 9 încurajează arbitrii să se consulte cu părțile, precum și alți arbitri din același tribunal, cu privire la faptul dacă instrumentele AI pot fi utilizate de către aceștia pe parcursul procedurii arbitrale.[25]
Această notă va reveni acum la Lapaglia caz pentru a examina presupusa conduită a arbitrului, având în vedere aceste orientări AI.
Analiză: Lapaglia Conform liniilor directoare AI
Examinarea presupusei conduite a arbitrului în Lapaglia v. Valve Corp. (pur ipotetic) prin obiectivul orientărilor, Nu este un caz alb-negru de utilizare necorespunzătoare/adecvată a AI, Chiar dacă toate faptele pretinse de reclamant sunt considerate adevărate.
De exemplu, Potrivit Ghidului SVAMC 6 și articolul Ciarb 8, Dacă arbitrul a folosit AI, ca chatgpt, În timp ce redactați premiul, nu este în sine nepotrivit, Atâta timp cât și-a păstrat puterea de luare a deciziilor și nu a fost influențat de AI în realizarea vreunei procedurale, factual, sau decizii legale.[26]
in orice caz, dacă, După cum afirmă reclamantul, Arbitrul a citat într -adevăr fapte și dovezi care nu au fost "în înregistrare sau altfel demonstrat sau chiar argumentat“,[27] Ghid SVAMC 7 sugerează că acest lucru ar fi putut fi inadecvat dacă arbitrul nu a reușit să facă "Dezvăluiri adecvate părților dinainte și, în ceea ce privește practic, permițând părților să comenteze acest lucru“, [28] ceea ce poate ridica probleme grave de proces cuvenite.
Mai departe, Ghid SVAMC 7 și articolul Ciarb 8 Ambii reamintesc că arbitrii au datoria de a verifica în mod independent exactitatea oricăror declarații făcute în premiile lor. Prin urmare, Dacă AI -ul folosit de arbitrul a făcut referire la fapte care „sunt ambele neadevărate și nu sunt prezentate la proces sau prezente în înregistrare“, După cum pretinde reclamantul,[29] era datoria arbitrului de a -și verifica exactitatea, și aparent nu reușește să facă acest lucru (întrucât se presupune că au ajuns în premiul final), Arbitrul poate să fi folosit în mod necorespunzător AI.
În plus,, În timp ce petiția reclamantului nu se clarifică în ce context aceste fapte fabricate, Se presupune că incoerențele și supra-generalitățile au fost elaborate în premiere sau dacă par să aibă vreo influență asupra deciziei arbitrului, Prezența lor în premiere pare să pună la îndoială dacă arbitrul nu a delegat niciuna din puterea sa de luare a deciziilor, în special în ceea ce privește analiza faptică a premiului, La AI, contrar Ghidului SVAMC 6 și articolul Ciarb 8, așa cum sa menționat mai sus.[30]
În orice caz, pe baza petiției reclamantului, Nu este clar dacă arbitrul a făcut orice fel este dezvăluit cu privire la orice utilizare a AI pe parcursul procedurii. in orice caz, Atât orientările SVAMC, cât și Ghidul Ciarb sugerează că sugerează că, În cazul în care un arbitru folosește orice sumă de AI, el sau ea ar trebui să -și dezvăluie utilizarea părților,[31] Dacă nu solicitați aprobarea lor în prealabil.[32]
Concluzie
De asemenea, Lapaglia v. Valve Corp. Cazul-deși este încă pendinte și bazat pe acuzații încă de evaluat în mod judiciar-ridică întrebări semnificative și în timp util cu privire la rolul inteligenței artificiale în luarea deciziilor arbitrale. Chiar dacă baza de fapt pentru petiția reclamantului rămâne incertă, Cazul ilustrează în mod util tipurile de provocări și complexități care pot apărea atunci când arbitrii se bazează, sau sunt suspectați că se bazează, pe instrumentele AI în redactarea premiilor.
După cum demonstrează analiza de mai sus, Un principiu de bază trebuie să ghideze orice considerație a utilizării AI de către arbitri: non-delegație. Arbitrii nu își pot externaliza funcția adjudecată către un terț - uman sau mașină - nici nu pot permite tehnologiei să -și compromită raționamentul independent. În timp ce AI poate ajuta la sarcini administrative sau de redactare, Nu poate înlocui implicarea personală a arbitrului cu faptele, dovezi, și legea.
La fel de important este transparența. Unde arbitrii folosesc instrumente AI, ar trebui să dezvăluie acest lucru părților și, potenţial, solicitați aprobarea prealabilă a acestora. Liniile directoare precum cele emise de SVAMC și CIARB arată clar că arbitrii prezintă o responsabilitate finală pentru exactitate, integritate, și autorul uman al premiilor lor.
De asemenea, Lapaglia Cazul evidențiază, de asemenea, o problemă probatorie emergentă: Cum pot partidele să demonstreze că un premiu sau o parte din acesta - a fost redactat de AI? Instrumentele de detectare AI sunt fiabile, și cum ar trebui să trateze instanțele de judecată? Ce se întâmplă dacă un arbitru folosește AI pur și simplu pentru a spori claritatea, mai degrabă decât pentru a înlocui raționamentul?
Pe măsură ce instrumentele AI devin mai sofisticate și mai adoptate pe scară largă, Aceste întrebări vor deveni din ce în ce mai importante. Tribunalele, instituții arbitrale, Și petrecerile deopotrivă vor trebui să se confrunte cu standardele adecvate pentru utilizarea AI, Mecanismele de dezvăluire, și consecințele utilizării greșite. Indiferent dacă Lapaglia petiția reușește, A reușit deja să provoace o conversație mai largă pe care arbitrajul nu o mai poate evita.
[1] Petiția de a renunța la premiul de arbitraj; Memorandum de puncte și autorități în sprijinul acestora la 2, Lapaglia v. Valve Corp., Nu. 3:25-CV-00833 (S.D.. Cal. Aprilie. 8, 2025).
[2] id-ul. la 2- 3.
[3] id-ul. la 3.
[4] id-ul. la 4.
[5] id-ul. la 4.
[6] id-ul. la 2. Reclamantul a contestat, de asemenea, atribuirea pe baza faptului că arbitrul ar fi consolidat în mod greșit cererea reclamantului cu 22 Alții încalcă Acordul de arbitraj și au refuzat să permită reclamantului să prezinte un raport de expert.
[7] id-ul. la 9.
[8] id-ul. la 9.
[9] id-ul. la 9.
[10] id-ul. la 10.
[11] id-ul. la 9.
[12] id-ul. la 10.
[13] Mişcare, Inc. v. Citigroup Global MKTS., 840 F.3d 1152, 1159 (9sec. 2016).
[14] id-ul. la 10.
[15] id-ul. la 10.
[16] A. Singh Chauhan, Viitorul AI în arbitraj: Linia fină dintre ficțiune și realitate, 26 Septembrie 2020, https://arbitrationblog.kluwerarbitration.com/2020/09/26/future-of-ai-in-arbitration-the-fine-line-between-fiction-and-reality/.
[17] M. Magal și colab., Inteligență artificială în arbitraj: Probleme și perspective probatorii, 12 octombrie 2023, https://globalarbitrationreview.com/guide/the-guide-evidence-in-international-arbitration/2nd-edition/article/artificial-intelligence-in-arbitration-evidentiary-issues-and-prospects.
[18] Orientări SVAMC, Introducere.
[19] Orientări SVAMC, Ghid 6.
[20] Orientări SVAMC, Ghid 7.
[21] Ghid CIARB, Introducere.
[22] Ghid CIARB, Articole 8.1, 8.2.
[23] Ghid CIARB, Articol 8.3.
[24] Ghid CIARB, Articol 8.4.
[25] Ghid CIARB, Articole 9.1-9.2.
[26] Orientări SVAMC, Ghid 6; Ghid CIARB, Articol 8.
[27] Petiția de a renunța la premiul de arbitraj; Memorandum de puncte și autorități în sprijinul acestora la 9, Lapaglia v. Valve Corp., Nu. 3:25-CV-00833 (S.D.. Cal. Aprilie. 8, 2025).
[28] Orientări SVAMC, Ghid 7.
[29] Petiția de a renunța la premiul de arbitraj; Memorandum de puncte și autorități în sprijinul acestora la 9, Lapaglia v. Valve Corp., Nu. 3:25-CV-00833 (S.D.. Cal. Aprilie. 8, 2025).
[30] Orientări SVAMC, Ghid 6; Ghid CIARB, Articol 8.
[31] Orientări SVAMC, Ghid 6.
[32] Ghid CIARB, Articole 9.1-9.2.