Come intelligenza artificiale (“AI") Gli strumenti diventano sempre più integrati nella pratica legale, Il loro uso da parte degli arbitri non è più una possibilità teorica ma una realtà pratica. Dalla redazione di ordini procedurali all'organizzazione di prove o addirittura assistenza nella preparazione dei premi, L'IA offre la promessa di una maggiore efficienza, coerenza, ed efficacia in termini di costi. Ma cosa succede quando quell'efficienza arriva a costo del giudizio umano?
Un caso recente depositato in una USA. Corte Federale, Lapaglia v. Valve Corp., solleva esattamente questa domanda. Il richiedente ha presentato una petizione per liberare un premio arbitrale sulla base del fatto che l'arbitro avrebbe fatto affidamento su un'intelligenza artificiale a tal punto che "esternalizzato il suo ruolo giudiziario."[1] Mentre il risultato del caso rimane incerto, Presenta un punto di partenza ideale per esaminare i limiti dell'uso dell'IA in arbitrato e le responsabilità legali ed etiche che ne derivano.
Questo articolo esplora le questioni chiave sollevate da Lapaglia, posizionarli nel contesto di linee guida emergenti sull'IA in arbitrato. Considera a che punto l'assistenza AI va troppo lontano e quale ruolo trasparenza, aspettative del partito, e l'equità procedurale dovrebbe giocare nella navigazione di questa nuova frontiera.
Lapaglia v. Valve Corp.
Nel Lapaglia v. Valve Corp., un consumatore di giochi per PC, Sig. Lapaglia (il "pretendente") ha presentato un reclamo in arbitrato somministrato dal Associazione americana di arbitrato (il "AAA") chiedendo un risarcimento per i prezzi più alti che ha pagato a seguito di presunte violazioni antitrust da parte di Valve Corp. (il "convenuto"), il proprietario del negozio di giochi online Steam, nonché per violazione della garanzia derivante da un gioco PC difettoso che aveva acquistato.[2]
Le affermazioni del richiedente sono state ascoltate davanti a un unico arbitro (il "Arbitro") A un dicembre 2024 udito.[3] L'audizione è avvenuta 10 giorni, e secondo il richiedente, Durante le pause nel procedimento, L'arbitro avrebbe detto alle parti che voleva emettere rapidamente una decisione perché aveva un viaggio in arrivo in programma per i Galapagos.[4]
L'ultimo brief post-uopea è stato presentato 23 dicembre 2024, con il premio (29 pagine lunghe) rilasciato 7 gennaio 2025 (il "premio"), Quando l'arbitro sarebbe stato programmato per partire per il suo viaggio.[5]
Su 8 aprile 2025, Il richiedente ha presentato una petizione per liberare l'arbitrato (il "Petizione") davanti al tribunale distrettuale degli Stati Uniti per il distretto meridionale della California (il "Tribunale distrettuale") ai sensi di 9 USC. §§ 10(un')(3), (un')(4), sulla base di ciò, inter alia, l'arbitro presumibilmente "esternalizzato il suo ruolo giudiziario in intelligenza artificiale ("AI")."[6]
Il richiedente ha concluso che l'arbitro ha usato l'IA per redigere il suo premio sulla base dei seguenti elementi fattuali:
- L'arbitro "raccontava una storia su come gli era stato assegnato un breve articolo su un club di aviazione di cui faceva parte, e che aveva usato Chatgpt per scriverlo per risparmiare tempo."[7]
- L'arbitro "notò per le parti che stava lasciando presto un viaggio alle Galapagos e voleva fare il caso prima di allora."[8]
- Il premio presumibilmente contiene "segni rivelatori di generazione di intelligenza artificiale"E presumibilmente cita i fatti che"sono entrambi falsi e non presentati alla prova o presenti nel record"Senza citazioni pertinenti.[9]
- L'impiegato legale del consulente del richiedente ha chiesto a Chatgpt se credeva che un certo paragrafo fosse stato scritto da umani o AI, E Chatgpt lo affermava "il fraseggio imbarazzante del paragrafo, ridondanza, incoerenza, e eccessivamente la generalizzazione "suggeriscono che il passaggio è stato generato dall'IA piuttosto che scritto da un essere umano"."[10]
Il richiedente si basava sulla sezione 10(un')(4) della FAA, quale "Permette Vacatur dove un arbitro "supera i loro poteri[]'"Agendo al di fuori dell'ambito dell'accordo contrattuale delle parti.[11]
Il richiedente ha affermato che il premio deve essere lasciato libero perché, presumibilmente facendo affidamento su AI, L'arbitro ha superato la sua autorità vincolata dall'ambito dell'accordo di arbitrato delle parti, che autorizza un "arbitro neutro"Per risolvere le controversie tra loro e Binds detto arbitro per fornire"una decisione scritta"E un"Dichiarazione di ragioni"Per la loro partecipazione.[12] Nei casi in cui un arbitro si basa sull'intelligenza artificiale, Il richiedente ha affermato che questo "tradisci le aspettative delle parti di una decisione ben ragionata presa da un arbitro umano."
Il richiedente è quindi analogico tra il presente caso e gli altri Stati Uniti. casi, ad esempio Mossa, Inc. v. Citigroup Global Mkts.,[13] Laddove i tribunali hanno lasciato i premi arbitrali in cui gli arbitri hanno falsificato le loro credenziali o hanno fatto altre false rappresentazioni. I tribunali in questi casi hanno notato che i premi dovrebbero essere liberati "Laddove "semplicemente non vi è modo di determinare se" un "impostore" non qualificato sul pannello dell'arbitrato "ha influenzato gli altri membri del panel o che il risultato dell'arbitrato sia stato influenzato dalla sua partecipazione"".[14] Secondo il richiedente, Proprio come i tribunali hanno lasciato i premi quando il processo decisionale viene esternalizzato a una persona diversa dall'arbitro nominato, così anche un tribunale deve lasciare un premio quando il processo decisionale viene esternalizzato all'IA.[15]
Il tribunale distrettuale deve ancora governare sulla petizione del richiedente, ma, Nonostante qualsiasi argomenti fattuali o legali che possono essere sollevati contro il reclamo del richiedente, Questo caso solleva importanti domande sul futuro dell'arbitrato: Gli arbitri dovrebbero fare affidamento sull'intelligenza artificiale? Se è così, in che misura?
AI in arbitrato
A prima vista, L'intelligenza artificiale sembra uno sviluppo gradito per l'arbitrato. Offre il potenziale per accelerare i procedimenti organizzando e riassumendo in rapido volume di dati di grandi dimensioni,[16] riducendo così il carico di lavoro dell'arbitro. Questa maggiore efficienza potrebbe, a sua volta, abbassare il costo complessivo dell'arbitrato, in particolare laddove l'arbitro viene remunerato su base oraria.
tuttavia, L'uso dell'IA in arbitrato non è privo di rischi. Il principale tra questi è la potenziale erosione dell'indipendenza e della responsabilità decisionale dell'arbitro, Soprattutto dove viene invocato l'IA per valutare fatti, legale, o questioni probatorie. I sistemi di intelligenza artificiale sono soggetti a allucinazioni, cioè, generare informazioni plausibili ma inaccurate o completamente false.[17] Se non attentamente rivisto e verificato dall'arbitro, Tali inesattezze possono compromettere la qualità e l'affidabilità del premio, Minare il dovere dell'arbitro di fornire una decisione ragionata e accurata.
Sebbene le regole della maggior parte delle principali istituzioni arbitrali (ICC, LCIA ·, SIAC, HKIAC, eccetera.) sono attualmente in silenzio sull'uso dell'IA da parte degli arbitri, Recenti strumenti di soft law hanno iniziato a colmare questa lacuna, Offrire una guida sull'integrazione responsabile e appropriata dell'IA nel processo arbitrale.
Linee guida per arbitri
Un esempio di questo è l'arbitrato della Silicon Valley & Centro di mediazione (“SVAMC") Linee guida sull'uso dell'intelligenza artificiale in arbitrato (il "Linee guida SVAMC"), che sono stati pubblicati su 30 aprile 2024. Le linee guida SVAMC "introdurre un quadro basato su principi per l'uso dell'intelligenza artificiale (AI) strumenti in arbitrato in un momento in cui tali tecnologie stanno diventando sempre più potenti e popolari. Hanno lo scopo di aiutare i partecipanti agli arbitrati con la navigazione delle potenziali applicazioni dell'IA."[18]
Parte 3 delle linee guida SVAMC stabilisce specificamente le linee guida per gli arbitri, comprese le linee guida 6 (Non delegazione delle responsabilità decisionali) e 7 (Rispetto per il giusto processo).
Secondo le linee guida 6, “Un arbitro non deve delegare alcuna parte del proprio mandato personale a qualsiasi strumento di intelligenza artificiale. Questo principio si applicherà particolarmente al processo decisionale dell'arbitro. L'uso degli strumenti AI da parte degli arbitri non deve sostituire la loro analisi indipendente dei fatti, La legge, e le prove."[19]
Linee guida 7 fornisce: “Un arbitro non deve fare affidamento su informazioni generate dall'IA al di fuori del record senza in precedenza informazioni relative alle parti e alle parti, Per quanto riguarda pratico, permettendo alle parti di commentarlo. Laddove uno strumento AI non può citare fonti che possono essere verificate in modo indipendente, Un arbitro non deve presumere che tali fonti esistano o siano caratterizzate accuratamente dallo strumento AI."[20]
Un altro esempio leggermente più recente è l'Istituto di arbitri Chartered (“Ciarb") Linee guida sull'uso dell'IA in arbitrato (il "Linee guida Ciarb"), pubblicato in 2025. Come le linee guida SVAMC, La linea guida di Ciarb "Cerca di fornire una guida sull'uso dell'IA in un modo che consenta i risolutori delle controversie, i loro rappresentanti, e altri partecipanti per sfruttare i benefici dell'IA, Pur sostenendo gli sforzi pratici per mitigare parte del rischio per l'integrità del processo, Diritti procedurali di qualsiasi parte, e l'applicazione di qualsiasi accordo di premi o transazione che ne seguì."[21]
La parte IV della linea guida di Ciarb affronta l'uso dell'IA da parte degli arbitri e, Come le linee guida SVAMC, contiene due articoli: Articolo 8 (Discrezione sull'uso dell'IA da parte degli arbitri) e l'articolo 9 (Trasparenza sull'uso dell'IA da parte degli arbitri).
Articolo 8 Note che gli arbitri possono prendere in considerazione l'utilizzo di strumenti AI per migliorare il processo di arbitro, compresa sia l'efficienza del procedimento che la qualità del processo decisionale dell'arbitro, Ma quegli arbitri "non dovrebbe rinunciare ai loro poteri decisionali all'IA" e "dovrebbe evitare di delegare eventuali attività agli strumenti di intelligenza artificiale [...] Se tale uso potrebbe influenzare le decisioni procedurali o sostanziali."[22] Articolo 8 Ricorda inoltre agli arbitri che dovrebbero verificare in modo indipendente l'accuratezza e la correttezza delle informazioni ottenute tramite AI, pur mantenendo anche una prospettiva critica per prevenire un'influenza indebita sulle loro decisioni.[23] Finalmente, Articolo 8 fornisce quegli arbitri "si assume la responsabilità per tutti gli aspetti di un premio, Indipendentemente da qualsiasi uso dell'IA per aiutare nel processo decisionale."[24]
Articolo 9 Incoraggia gli arbitri a consultare le parti, così come altri arbitri nello stesso tribunale, Sul se gli strumenti di intelligenza artificiale possano essere utilizzati da loro nel corso del procedimento arbitrale.[25]
Questa nota ora tornerà al Lapaglia caso per esaminare la presunta condotta dell'arbitro con queste linee guida AI.
Analisi: Lapaglia Secondo le linee guida AI
Esaminare la presunta condotta dell'arbitro in Lapaglia v. Valve Corp. (puramente ipoteticamente) attraverso l'obiettivo delle linee guida, Non è un caso in bianco e nero di uso inappropriato/appropriato dell'IA, Anche se tutti i fatti asseriti dal richiedente sono considerati veri.
Per esempio, Secondo le linee guida SVAMC 6 e articolo Ciarb 8, Se l'arbitro usava AI, Come Chatgpt, Durante la stesura del premio, Questo non è di per sé non appropriato, Finché ha mantenuto il suo potere decisionale e non è stato influenzato dall'IA nel realizzare qualsiasi procedura, fattuale, o decisioni legali.[26]
tuttavia, Se, Come afferma il richiedente, L'arbitro ha effettivamente citato fatti e prove che non erano "nel record o altrimenti evidenziato o addirittura discusso",[27] Linee guida SVAMC 7 suggerisce che ciò potrebbe essere stato inappropriato se l'arbitro non è riuscito a fare "divulgazione appropriata alle parti in anticipo e, Per quanto riguarda pratico, permettendo alle parti di commentarlo", [28] che può sollevare gravi preoccupazioni per il processo.
Ulteriore, Linee guida SVAMC 7 e articolo Ciarb 8 Entrambi ricordano che gli arbitri hanno il dovere di verificare in modo indipendente l'accuratezza di eventuali dichiarazioni fatte nei loro premi. così, Se l'IA usata dall'arbitro ha fatto riferimento a fatti che "sono entrambi falsi e non presentati alla prova o presenti nel record", Come sostiene il richiedente,[29] Era il dovere dell'arbitro verificare la loro precisione, e apparentemente non riuscendo a farlo (Come presumibilmente sono finiti nel premio finale), L'arbitro può aver usato in modo inappropriato AI.
Inoltre, Mentre la petizione del richiedente non chiarisce in quale contesto questi fatti fabbricati, Incoherences e over-generalisations sono state presumibilmente elaborate nel premio o se sembravano avere qualche influenza sulla decisione dell'arbitro, La loro presenza nel premio sembra mettere in discussione se l'arbitro non ha delegato nessuno dei suoi potere decisionali, in particolare per quanto riguarda l'analisi fattuale del premio, All'IA, Contrariamente alle linee guida SVAMC 6 e articolo Ciarb 8, come menzionato sopra.[30]
In ogni caso, in base alla petizione del richiedente, Non è chiaro se l'arbitro fatto qualsiasi tipo sia divulgazione in merito a qualsiasi uso dell'IA durante il procedimento. tuttavia, Sia le linee guida SVAMC che le linee guida di Ciarb suggeriscono che, Se un arbitro dovesse utilizzare qualsiasi importo di AI, lui o lei dovrebbe rivelare il suo uso alle parti,[31] In caso contrario, cercare la loro approvazione in anticipo.[32]
Conclusione
Il Lapaglia v. Valve Corp. Il caso-sebbene ancora in sospeso e basato su accuse ancora da valutare giudiziario-solleva domande significative e tempestive sul ruolo dell'intelligenza artificiale nel processo decisionale arbitrale. Anche se la base fattuale per la petizione del richiedente rimane incerta, Il caso illustra utilmente i tipi di sfide e complessità che possono sorgere quando gli arbitri si basano, o è sospettato di fare affidamento, sugli strumenti di intelligenza artificiale in premi per la stesura.
Come dimostra l'analisi sopra, Un principio fondamentale deve guidare qualsiasi considerazione dell'uso di intelligenza artificiale da parte degli arbitri: non delegazione. Gli arbitri non possono esternalizzare la loro funzione giudicativa a terzi - umani o macchina - né possono consentire alla tecnologia di compromettere il loro ragionamento indipendente. Mentre l'intelligenza artificiale può aiutare con le attività amministrative o di redazione, Non può sostituire l'impegno personale dell'arbitro con i fatti, prova, e legge.
Altrettanto importante è la trasparenza. Dove gli arbitri usano strumenti di intelligenza artificiale, Dovrebbero rivelarlo alle parti e, potenzialmente, Cerca la loro previa approvazione. Linee guida come quelle emesse da SVAMC e Ciarb chiariscono che gli arbitri hanno la massima responsabilità per l'accuratezza, integrità, e la paternità umana dei loro premi.
Il Lapaglia Il caso mette inoltra anche un problema probatorio emergente: In che modo le parti possono dimostrare che un premio - o parte di esso - è stato redatto da AI? Sono strumenti di rilevamento AI affidabili, e come i tribunali dovrebbero trattare tali prove? E se un arbitro usa l'IA semplicemente per migliorare la chiarezza piuttosto che per sostituire il ragionamento?
Man mano che gli strumenti AI diventano più sofisticati e ampiamente adottati, Queste domande diventeranno sempre più importanti. Tribunali, istituzioni arbitrali, e le parti dovranno affrontare gli standard appropriati per l'uso di intelligenza artificiale, i meccanismi per la divulgazione, e le conseguenze dell'uso improprio. Se il Lapaglia La petizione ha successo, È già riuscito a provocare una conversazione più ampia che l'arbitrato non può più evitare.
[1] Petizione per liberare l'arbitrato; Memorandum di punti e autorità a sostegno 2, Lapaglia v. Valve Corp., No. 3:25-CV-00833 (S.D. Cal. aprile. 8, 2025).
[2] Id. a 2- 3.
[3] Id. a 3.
[4] Id. a 4.
[5] Id. a 4.
[6] Id. a 2. Il richiedente ha inoltre contestato il premio sulla base del fatto che l'arbitro avrebbe consolidato in modo errato la richiesta del richiedente con 22 Altri in violazione dell'accordo arbitrale e si sono rifiutati di consentire al richiedente di presentare una relazione di esperti che presumibilmente dimostra il possesso del convenuto di una quota di mercato del monopolio.
[7] Id. a 9.
[8] Id. a 9.
[9] Id. a 9.
[10] Id. a 10.
[11] Id. a 9.
[12] Id. a 10.
[13] Mossa, Inc. v. Citigroup Global Mkts., 840 F.3d 1152, 1159 (9esimo cir. 2016).
[14] Id. a 10.
[15] Id. a 10.
[16] UN. Singh Chauhan, Futuro dell'IA in arbitrato: La linea sottile tra finzione e realtà, 26 settembre 2020, https://arbitrationblog.kluwerarbitration.com/2020/09/26/future-of-ai-in-arbitration-the-fine-line-between-fiction-and-reality/.
[17] M. Magal et al., Intelligenza artificiale in arbitrato: Questioni probatorie e prospettive, 12 ottobre 2023, https://globalarbitrationreview.com/guide/the-guide-evidence-in-international-arbitration/2nd-edition/article/artificial-intelligence-in-arbitration-evidentiary-issues-and-prospects.
[18] Linee guida SVAMC, introduzione.
[19] Linee guida SVAMC, Linee guida 6.
[20] Linee guida SVAMC, Linee guida 7.
[21] Linee guida Ciarb, introduzione.
[22] Linee guida Ciarb, articoli 8.1, 8.2.
[23] Linee guida Ciarb, Articolo 8.3.
[24] Linee guida Ciarb, Articolo 8.4.
[25] Linee guida Ciarb, articoli 9.1-9.2.
[26] Linee guida SVAMC, Linee guida 6; Linee guida Ciarb, Articolo 8.
[27] Petizione per liberare l'arbitrato; Memorandum di punti e autorità a sostegno 9, Lapaglia v. Valve Corp., No. 3:25-CV-00833 (S.D. Cal. aprile. 8, 2025).
[28] Linee guida SVAMC, Linee guida 7.
[29] Petizione per liberare l'arbitrato; Memorandum di punti e autorità a sostegno 9, Lapaglia v. Valve Corp., No. 3:25-CV-00833 (S.D. Cal. aprile. 8, 2025).
[30] Linee guida SVAMC, Linee guida 6; Linee guida Ciarb, Articolo 8.
[31] Linee guida SVAMC, Linee guida 6.
[32] Linee guida Ciarb, articoli 9.1-9.2.