Jako umělá inteligence („AI“) nástroje se stále více integrují do právní praxe, Jejich použití rozhodci již nejsou teoretickou možností, ale praktickou realitou. Od příkazů k vypracování procedurálních pořádek po organizaci důkazů nebo dokonce pomoci při přípravě cen, AI nabízí příslib vyšší efektivity, konzistence, a nákladová efektivita. Co se však stane, když tato účinnost přijde na náklady na lidský úsudek?
Nedávný případ podaný v U.S. federální soud, Lapaglia v. Valve Corp.., Vyvolává přesně tuto otázku. Navrhovatel požádal o uvolnění rozhodčího ocenění z důvodu, že se rozhodce údajně spoléhal na AI do té míry, že „“Outsourcing jeho rozhodčí role.“[1] Zatímco výsledek případu zůstává nejistý, Představuje ideální výchozí bod pro zkoumání limitů používání AI při rozhodčích a právních a etických povinnostech, které s ním přicházejí.
Tento článek zkoumá klíčové problémy vznesené Lapaglia, Umístěte je do kontextu nově vznikajících pokynů na AI v rozhodčím řízení. Zvažuje to, v jakém okamžiku pomoc AI jde příliš daleko a jakou transparentnost role, Očekávání strany, a procedurální spravedlnost by měla hrát při navigaci této nové hranice.
Lapaglia v. Valve Corp..
v Lapaglia v. Valve Corp.., spotřebitel PC her, pan. Lapaglia („Žadatel“) podal žalobu v rozhodčím řízení spravovanou Americká arbitrážní asociace („AAA“) Požaduje kompenzaci za vyšší ceny, které zaplatil v důsledku údajného porušení antimonoposti od Valve Corp. („Odpůrce“), Majitel obchodu s parními online her, stejně jako pro porušení záruky pramenící z vadné hry PC, kterou koupil.[2]
Nároky žalobce byly vyslechnuty před jediným rozhodcem („Rozhodce“) v prosinci 2024 sluch.[3] Slyšení se konalo 10 dny, a podle žadatele, Během přestávek ve sborníku, Rozhodce údajně řekl stranám, že chce rychle vydat rozhodnutí, protože měl nadcházející výlet naplánovaný na Galapagos.[4]
Závěrečné posílení pomírané bylo předloženo na 23 prosinec 2024, s cenou (29 stránky dlouhé) vydáno na 7 leden 2025 („Cena“), Když byl rozhodce údajně naplánován na cestu na cestě.[5]
Na 8 duben 2025, Navrhovatel podal žádost o uvolnění rozhodčího řízení („Petice“) Před okresním soudem Spojených států pro jižní okres Kalifornie („Okresní soud“) podle 9 U.S.C. §§ 10(A)(3), (A)(4), na základě toho, mimo jiné, rozhodce údajně „Outsourcing jeho rozhodčí role k umělé inteligenci („Ai“).“[6]
Navrhovatel dospěl k závěru, že rozhodce použil AI k vypracování ceny na základě následujících faktických prvků:
- Rozhodce „vyprávěl příběh o tom, jak byl přidělen k napsání krátkého článku o leteckém klubu, na kterém byl součástí, a že Chatgpt použil, aby jej napsal, aby ušetřil čas.“[7]
- Rozhodce „poznamenal pro strany, že brzy odcházel na výlet na Galapág a chtěl předtím případu udělat případ.“[8]
- Cena údajně obsahuje „Značky generace AI“A údajně uvádí fakta, že„jsou nepravdivé a nejsou prezentovány při pokusu nebo jsou přítomny v záznamu„Bez relevantních citací.[9]
- Úředník právního zástupce žadatele se zeptal Chatgpt, zda věří, že určitý odstavec byl napsán lidmi nebo AI, a Chatgpt uvedl, že „trapné frázování odstavce, Redundance, nesoudržnost, a nadgeneralizace „naznačuje, že pasáž byla generována spíše AI než napsána člověkem.““[10]
Navrhovatel se spoléhal na sekci 10(A)(4) FAA, který "Povoluje vakun, kde rozhodce ‘převyšuje své síly[]'„Vystupováním mimo rozsah smluvní dohody stran.[11]
Navrhovatel tvrdil, že cena musí být uvolněna, protože, údajně spoléháním na AI, Rozhodce překročil jeho pravomoc vázaný rozsahem rozhodčí dohody o stranách, který zmocňuje „Neutrální rozhodce„Pro vyřešení sporů mezi nimi a vázáním řekl, že rozhodce poskytne“písemné rozhodnutí“A„prohlášení o důvodech„Za jejich držení.[12] V případech, kdy se rozhodce spoléhá na AI, Navrhovatel uvedl, že toto „Zruší očekávání stran od dobře odůvodněného rozhodnutí vyneseného lidským rozhodcem.“
Navrhovatel pak analogizoval mezi projednávaným případem a dalším U.S. případy, jako Pohyb, Inc. proti. Citigroup Global MKTS.,[13] kde soudy uvolnily rozhodčí ocenění, kde rozhodci falšovali své přihlašovací údaje nebo učinili jiné nepravdivé reprezentace. Soudy v těchto případech poznamenaly, že ceny by měly být uvolněny “kde „prostě neexistuje způsob, jak zjistit, zda„ nekvalifikovaný „podvodník“ na rozhodčím panelu „ovlivnil další členy panelu nebo že výsledek rozhodčího řízení byl ovlivněn jeho účastí““.[14] Podle navrhovatele, Stejně jako soudy uvolnily ocenění, když je rozhodování externě zadáno jiné osobě než jmenovaný rozhodce, Stejně tak musí soud uvolnit cenu, když je rozhodování externě na AI.[15]
Okresní soud musí ještě rozhodnout o petici žadatele, ale, navzdory jakýmkoli faktickým nebo právním argumentům, které mohou být vzneseny proti nároku žadatele, Tento případ vyvolává důležité otázky týkající se budoucnosti rozhodčího řízení: Měli by se rozhodci spoléhat na AI? Pokud ano, do jaké míry?
AI v arbitráži
Na první pohled, AI vypadá jako vítaný vývoj pro rozhodčí řízení. Nabízí potenciál k urychlení řízení rychlým organizací a shrnutím velkých objemu dat,[16] čímž se sníží pracovní zátěž rozhodce. Tato zvýšená účinnost by mohla, na oplátku, Snižte celkové náklady na rozhodčí řízení, zejména tam, kde je rozhodce odměňován na hodinovém základě.
nicméně, Použití AI v rozhodčím řízení není bez rizika. Hlavním mezi nimi je potenciální eroze nezávislosti a odpovědnosti za rozhodování rozhodce, Zejména tam, kde se na AI spoléhá, aby posoudil faktické, právní, nebo důkazní záležitosti. Systémy AI jsou náchylné k halucinacím - to je, generování věrohodné, ale nepřesné nebo zcela nepravdivé informace.[17] Pokud nebude rozhodce pečlivě přezkoumán a ověřen, Takové nepřesnosti mohou ohrozit kvalitu a spolehlivost ceny, podkopávat povinnost rozhodce poskytnout odůvodněné a přesné rozhodnutí.
Ačkoli pravidla většiny hlavních rozhodčích institucí (ICC, LCIA, SIAC, HKIAC, atd.) v současné době mlčí o používání AI rozhodci, Nedávné nástroje měkkých práv začaly tuto mezeru vyplňovat, nabízet pokyny k odpovědné a vhodné integraci AI do rozhodčího procesu.
Pokyny AI pro rozhodce
Jedním z příkladů je rozhodčí řízení Silicon Valley & Mediační centrum („SVAMC“) Pokyny pro použití umělé inteligence v rozhodčím řízení („Pokyny SVAMC“), které byly publikovány na 30 duben 2024. Pokyny SVAMC „Představte základní rámec pro použití umělé inteligence (AI) Nástroje v rozhodčím řízení v době, kdy se takové technologie stávají stále silnějšími a populárními. Účelem je pomáhat účastníkům při navigaci v potenciálních aplikacích AI.“[18]
Část 3 Pokyny SVAMC konkrétně stanoví pokyny pro rozhodce, včetně pokynů 6 (Nedelegace odpovědností za rozhodování) a 7 (Respekt k řádnému procesu).
Podle pokynů 6, „Rozhodce nesmí delegovat žádnou část svého osobního mandátu na žádný nástroj AI. Tento princip se vztahuje zejména na rozhodovací proces rozhodce. Použití nástrojů AI rozhodci nebude nahradit svou nezávislou analýzu skutečností, zákon, a důkazy.“[19]
Pokyny 7 poskytuje: „Rozhodce se nesmí spoléhat na informace generované AI mimo záznam, aniž by strany předem učinily příslušné zveřejnění a předem učinily příslušné zveřejnění a, Pokud jde o praktické, umožňující stranám k tomu komentovat. Kde nástroj AI nemůže citovat zdroje, které lze nezávisle ověřit, Rozhodce nepředpokládá, že takové zdroje existují nebo jsou přesně charakterizovány nástrojem AI.“[20]
Dalším trochu novějším příkladem je Chartered Institute of Arbitrators („Ciarb“) Pokyny pro použití AI při rozhodčím řízení („Pokyny CIARB“), zveřejněno v 2025. Jako pokyny SVAMC, směrnice CIARB „usiluje o poskytnutí pokynů k používání AI způsobem, který umožňuje rezolversům sporů, jejich zástupci, a další účastníci, aby využili výhod AI, Při podpoře praktického úsilí o zmírnění určitého rizika pro integritu procesu, Procesní práva jakékoli strany, a vymahatelnost jakékoli následné dohody o udělení nebo vypořádání.“[21]
Část IV pokynů CIARB se zabývá používáním AI rozhodci a, jako pokyny SVAMC, obsahuje dva články: Článek 8 (Diskrétnost nad používáním AI rozhodci) a článek 9 (Transparentnost nad používáním AI rozhodci).
Článek 8 Poznamenává, že rozhodci mohou zvážit použití nástrojů AI k posílení procesu rozhodce, včetně účinnosti řízení a kvality rozhodování rozhodce, Ale ti rozhodci “neměly by se vzdát svých rozhodovacích pravomocí AI" a "by se měl vyhnout delegování jakýchkoli úkolů na nástroje AI […] Pokud by takové použití mohlo ovlivnit procesní nebo věcná rozhodnutí.“[22] Článek 8 Také připomíná rozhodci, že by měli nezávisle ověřit přesnost a správnost informací získaných prostřednictvím AI, a zároveň udržovat kritickou perspektivu, která zabrání nepřiměřenému vlivu na jejich rozhodnutí.[23] Konečně, Článek 8 poskytuje, že rozhodci “přebírá odpovědnost za všechny aspekty ceny, Bez ohledu na jakékoli použití AI k pomoci s rozhodovacím procesem.“[24]
Článek 9 Povzbuzuje rozhodce, aby konzultovali se stranami, stejně jako další rozhodci stejného tribunálu, o tom, zda mohou nástroje AI používat v průběhu rozhodčího řízení.[25]
Tato poznámka se nyní vrátí do Lapaglia případ prozkoumat údajné chování rozhodce s těmito pokyny AI na mysli.
Analýza: Lapaglia Podle pokynů AI
Zkoumání údajného chování rozhodce Lapaglia v. Valve Corp.. (čistě hypoteticky) prostřednictvím čočky pokynů, Nejedná se o černobílý případ nevhodného/vhodného použití AI, I když jsou všechna fakta, která tvrdí žadatel, považováni za pravdivé.
Například, Podle pokynů SVAMC 6 a článek CIARB 8, Pokud rozhodce použil AI, jako chatgpt, při navrhování ceny, To není sama o sobě nemístný, Dokud si zachoval svou rozhodovací moc a nebyl ovlivněn AI při výrobě jakéhokoli procedurálu, faktické, nebo právní rozhodnutí.[26]
nicméně, -li, Jak tvrdí žadatel, Rozhodce skutečně citoval fakta a důkazy, které nebyly “v záznamu nebo jinak prokázáno nebo dokonce argumentováno“,[27] Svamc pokyny 7 naznačuje, že to mohlo být nevhodné, pokud se rozhodce nepodařilo provést “vhodné zveřejnění stran předem a, Pokud jde o praktické, umožňující stranám k tomu komentovat“, [28] které mohou vyvolat vážné obavy z řádných procesů.
Dále, Svamc pokyny 7 a článek CIARB 8 Oba si vzpomínají, že rozhodci mají povinnost samostatně ověřit přesnost jakýchkoli prohlášení učiněných v jejich ocenění. Tím pádem, Pokud AI používaná rozhodcem odkazovala na fakta, že “jsou nepravdivé a nejsou prezentovány při pokusu nebo jsou přítomny v záznamu“, Jak tvrdí žadatel,[29] Povinností rozhodčího byla ověřit jejich přesnost, a zjevně tak neučinil (Jak údajně skončili v konečné ceně), Rozhodce může mít nevhodně použitý AI.
dodatečně, Zatímco petice žadatele neobjasňuje, v jakém kontextu se tato vymyslela fakta, nesoudržnosti a nadměrné generalizace byly údajně rozpracovány v ceně nebo zda se zdálo, že mají jakýkoli dopad na rozhodnutí rozhodce, Zdá se, že jejich přítomnost v ceně zpochybňuje, zda rozhodce nezasáhl žádnou z jeho rozhodovací síly, zejména o faktické analýze ceny, Na AI, Na rozdíl od pokynů SVAMC 6 a článek CIARB 8, jak je zmíněno výše.[30]
Při jakékoli události, Na základě petice žadatele, Není jasné, zda je rozhodce nějakého druhu zveřejňování týkající se jakéhokoli použití AI v průběhu sborníku. nicméně, Pokyny SVAMC i pokyny CIARB to naznačují, Měl by rozhodce použít jakékoli množství AI, Měl by zveřejnit své použití stranám,[31] Pokud ne předem hledejte svůj souhlas.[32]
Závěr
The Lapaglia v. Valve Corp.. Případ-i když stále čeká a na základě obvinění, která musí být ještě soudně posouzena-vyvolává významné a včasné otázky o úloze umělé inteligence při rozhodování. I když faktický základ petice žadatele zůstává nejistý, Případ užitečně ilustruje typy výzev a složitosti, které mohou nastat, když se spoléhají rozhodčí, nebo jsou podezřelé ze spoléhání, Na nástrojích AI při navrhování cen.
Jak ukazuje výše uvedená analýza, Základní princip musí vést jakékoli zvážení používání AI rozhodci: nedelegace. Rozhodci nemohou outsourcovat svou soudce pro třetí stranu - člověka nebo stroj - ani nemohou umožnit technologii ohrozit jejich nezávislé uvažování. Zatímco AI může pomoci s administrativními nebo navrhovacími úkoly, nemůže nahradit osobní zapojení rozhodce do skutečností, důkaz, a zákon.
Stejně důležitá je transparentnost. Kde rozhodci používají nástroje AI, Měli by to sdělit stranám a, potenciálně, hledat jejich předchozí souhlas. Pokyny, jako jsou pokyny vydané SVAMC a CIARB, objasňují, že rozhodci nesou konečnou odpovědnost za přesnost, integrita, a lidské autorství jejich ocenění.
The Lapaglia Případ se také zaměřuje na objevující se vydání: Jak mohou večírky dokázat, že cena - nebo jeho část - byla vypracována AI? Jsou nástroje pro detekci AI spolehlivé, A jak by měly soudy zacházet s takovými důkazy? Co když rozhodce používá AI jednoduše ke zvýšení jasnosti než k nahrazení uvažování?
Protože se nástroje AI stávají sofistikovanějšími a široce adoptivními, Tyto otázky budou stále důležitější. Soudy, arbitrážní instituce, a večírky se budou muset potýkat s příslušnými standardy pro použití AI, mechanismy pro zveřejnění, a důsledky zneužití. Zda Lapaglia Petice uspěje, již se podařilo vyvolat širší konverzaci, které se rozhodčí řízení již nemůže vyhnout.
[1] Petice za uvolnění rozhodčího řízení; Memorandum o bodech a úřadech na jejich podporu na 2, Lapaglia v. Valve Corp.., Ne. 3:25-životopis-00833 (S.D.. CAL. Duben. 8, 2025).
[2] Id. v 2- 3.
[3] Id. v 3.
[4] Id. v 4.
[5] Id. v 4.
[6] Id. v 2. Navrhovatel rovněž napadl cenu na základě toho, že rozhodce údajně neoprávněně upevnil nárok žadatele s 22 jiní v rozporu s rozhodčí smlouvou a odmítli dovolit žadateli, aby předložil odbornou zprávu, která údajně prokáže držení respondenta s monopolním tržním podílem.
[7] Id. v 9.
[8] Id. v 9.
[9] Id. v 9.
[10] Id. v 10.
[11] Id. v 9.
[12] Id. v 10.
[13] Pohyb, Inc. proti. Citigroup Global MKTS., 840 F.3d 1152, 1159 (9th Cir. 2016).
[14] Id. v 10.
[15] Id. v 10.
[16] A. Singh Chauhan, Budoucnost AI v rozhodčím řízení: Jemná hranice mezi fikcí a realitou, 26 září 2020, https://arbitrationblog.kluwerarbitration.com/2020/09/26/future-of-ai-in-arbitration-the-fine-line-between-fiction-and-reality/.
[17] M. Magal et al., Umělá inteligence v rozhodčím řízení: Problémy a vyhlídky důkazů, 12 říjen 2023, https://globalarbitrationreview.com/guide/the-guide-evidence-in-international-arbitration/2nd-edition/article/artificial-intelligence-in-arbitration-evidentiary-issues-and-prospects.
[18] Pokyny SVAMC, Úvod.
[19] Pokyny SVAMC, Pokyny 6.
[20] Pokyny SVAMC, Pokyny 7.
[21] Pokyny CIARB, Úvod.
[22] Pokyny CIARB, Články 8.1, 8.2.
[23] Pokyny CIARB, Článek 8.3.
[24] Pokyny CIARB, Článek 8.4.
[25] Pokyny CIARB, Články 9.1-9.2.
[26] Pokyny SVAMC, Pokyny 6; Pokyny CIARB, Článek 8.
[27] Petice za uvolnění rozhodčího řízení; Memorandum o bodech a úřadech na jejich podporu na 9, Lapaglia v. Valve Corp.., Ne. 3:25-životopis-00833 (S.D.. CAL. Duben. 8, 2025).
[28] Pokyny SVAMC, Pokyny 7.
[29] Petice za uvolnění rozhodčího řízení; Memorandum o bodech a úřadech na jejich podporu na 9, Lapaglia v. Valve Corp.., Ne. 3:25-životopis-00833 (S.D.. CAL. Duben. 8, 2025).
[30] Pokyny SVAMC, Pokyny 6; Pokyny CIARB, Článek 8.
[31] Pokyny SVAMC, Pokyny 6.
[32] Pokyny CIARB, Články 9.1-9.2.