เป็นปัญญาประดิษฐ์ (“AI”) เครื่องมือได้รวมเข้ากับการปฏิบัติตามกฎหมายมากขึ้นเรื่อย ๆ, การใช้งานโดยอนุญาโตตุลาการไม่ใช่ความเป็นไปได้ทางทฤษฎีอีกต่อไป แต่เป็นความจริงในทางปฏิบัติ. จากการร่างคำสั่งขั้นตอนไปจนถึงการจัดหลักฐานหรือแม้กระทั่งการช่วยเหลือในการเตรียมรางวัล, AI เสนอสัญญาที่มีประสิทธิภาพมากขึ้น, ความสม่ำเสมอ, และคุ้มค่า. แต่จะเกิดอะไรขึ้นเมื่อประสิทธิภาพนั้นมาจากค่าใช้จ่ายในการตัดสินของมนุษย์?
กรณีล่าสุดยื่นในสหรัฐอเมริกา. ศาลรัฐบาลกลาง, Lapaglia V. Valve Corp., ตั้งคำถามนี้อย่างแม่นยำ. ผู้เรียกร้องได้ยื่นคำร้องให้ออกจากรางวัลอนุญาโตตุลาการโดยอ้างว่าอนุญาโตตุลาการถูกกล่าวหาว่าพึ่งพา AI ในระดับที่เขา "เอาท์ซอร์สบทบาทการตัดสินของเขา.”[1] ในขณะที่ผลลัพธ์ของคดียังคงไม่แน่นอน, มันนำเสนอจุดเริ่มต้นที่เหมาะสำหรับการตรวจสอบขีด จำกัด ของการใช้ AI ในอนุญาโตตุลาการและความรับผิดชอบทางกฎหมายและจริยธรรมที่มาพร้อมกับมัน.
บทความนี้สำรวจประเด็นสำคัญที่เกิดขึ้นโดย Lapaglia, วางไว้ในบริบทของแนวทางที่เกิดขึ้นใหม่เกี่ยวกับ AI ในอนุญาโตตุลาการ. พิจารณาว่าจุดช่วยเหลือ AI นั้นไปไกลเกินไปและความโปร่งใสของบทบาทใด, ความคาดหวังของพรรค, และความเป็นธรรมขั้นตอนควรเล่นในการนำทางชายแดนใหม่นี้.
Lapaglia V. Valve Corp.
ใน Lapaglia V. Valve Corp., ผู้บริโภคเกมพีซี, นาย. Lapaglia (“โจทก์”) ยื่นข้อเรียกร้องในอนุญาโตตุลาการที่ดำเนินการโดย สมาคมอนุญาโตตุลาการอเมริกัน (“AAA”) เรียกร้องค่าตอบแทนสำหรับราคาที่สูงขึ้นที่เขาจ่ายไปอันเป็นผลมาจากการละเมิดการต่อต้านการผูกขาดที่ถูกกล่าวหาโดย Valve Corp. (“ตอบแบบสอบถาม”), เจ้าของร้านค้าเกมออนไลน์ Steam, เช่นเดียวกับการละเมิดการรับประกันที่เกิดจากเกมพีซีที่มีข้อบกพร่องที่เขาซื้อมา.[2]
การเรียกร้องของผู้เรียกร้องจะได้ยินก่อนอนุญาโตตุลาการเพียงผู้เดียว (“อนุญาโตตุลาการ”) ในเดือนธันวาคม 2024 การได้ยิน.[3] การได้ยินเกิดขึ้น 10 วัน, และตามผู้เรียกร้อง, ในระหว่างการหยุดพักในการดำเนินคดี, อนุญาโตตุลาการถูกกล่าวหาว่าบอกกับฝ่ายต่างๆว่าเขาต้องการตัดสินใจอย่างรวดเร็วเพราะเขามีการเดินทางที่จะเกิดขึ้นกับกาลาปากอส.[4]
บทสรุปหลังการได้ยินครั้งสุดท้ายถูกส่งไป 23 ธันวาคม 2024, ด้วยรางวัล (29 หน้ายาว) ออก 7 มกราคม 2025 (“รางวัล”), เมื่ออนุญาโตตุลาการถูกกล่าวหาว่ามีกำหนดจะออกเดินทางในการเดินทางของเขา.[5]
บน 8 เมษายน 2025, ผู้เรียกร้องได้ยื่นคำร้องเพื่อออกจากการตัดสินอนุญาโตตุลาการ (“คำร้อง”) ก่อนที่ศาลแขวงสหรัฐฯสำหรับเขตทางใต้ของแคลิฟอร์เนีย (“ศาลแขวง”) ตาม 9 U.S.C. - 10(ก)(3), (ก)(4), บนพื้นฐานนั้น, อนึ่ง, อนุญาโตตุลาการถูกกล่าวหาว่า“เอาต์ซอร์ซบทบาทการตัดสินของเขาต่อปัญญาประดิษฐ์ ('AI').”[6]
ผู้เรียกร้องสรุปว่าอนุญาโตตุลาการใช้ AI เพื่อร่างรางวัลของเขาบนพื้นฐานขององค์ประกอบที่เป็นข้อเท็จจริงต่อไปนี้:
- อนุญาโตตุลาการ”เล่าเรื่องราวเกี่ยวกับวิธีที่เขาได้รับมอบหมายให้เขียนบทความสั้น ๆ เกี่ยวกับสโมสรการบินที่เขาเป็นส่วนหนึ่งของ, และเขาใช้ CHATGPT เพื่อเขียนเพื่อประหยัดเวลา.”[7]
- อนุญาโตตุลาการ”บันทึกสำหรับฝ่ายที่เขาออกเดินทางไปกาลาปากอสในไม่ช้าและต้องการทำคดีก่อนหน้านั้น.”[8]
- รางวัลที่ถูกกล่าวหาว่ามี“สัญญาณบอกเล่าของรุ่น AI” และอ้างถึงข้อเท็จจริงที่ว่า“เป็นทั้งความไม่จริงและไม่ได้นำเสนอในการทดลองหรืออยู่ในบันทึก” ไม่มีการอ้างอิงที่เกี่ยวข้อง.[9]
- เสมียนกฎหมายที่ปรึกษาของผู้เรียกร้องถาม CHATGPT ว่าเชื่อว่ามีย่อหน้าที่ถูกเขียนโดยมนุษย์หรือ AI, และ Chatgpt ระบุว่า“วลีที่น่าอึดอัดใจของย่อหน้า, ความซ้ำซ้อน, ความไม่ต่อเนื่องกัน, และ overgeneralization ‘แนะนำว่าข้อความนั้นถูกสร้างขึ้นโดย AI แทนที่จะเขียนโดยมนุษย์”[10]
ผู้เรียกร้องพึ่งพาส่วน 10(ก)(4) ของ FAA, อันไหน“อนุญาตให้ vacatur ที่อนุญาโตตุลาการ ‘เกินอำนาจของพวกเขา[]’” โดยทำหน้าที่นอกขอบเขตของข้อตกลงตามสัญญาของคู่สัญญา.[11]
ผู้เรียกร้องยืนยันว่ารางวัลจะต้องว่างเพราะ, โดยถูกกล่าวหาว่าอาศัย AI, อนุญาโตตุลาการเกินอำนาจของเขาตามขอบเขตของข้อตกลงอนุญาโตตุลาการของคู่สัญญา, ซึ่งให้อำนาจ“อนุญาโตตุลาการเป็นกลาง” เพื่อแก้ไขข้อพิพาทระหว่างพวกเขากับการผูกมัดอนุญาโตตุลาการกล่าวเพื่อให้“การตัดสินใจเป็นลายลักษณ์อักษร” และ“คำแถลงเหตุผล” สำหรับการถือครอง.[12] ในกรณีที่อนุญาโตตุลาการอาศัย AI, ผู้เรียกร้องส่งสิ่งนี้“การทรยศความคาดหวังของฝ่ายต่างๆเกี่ยวกับการตัดสินใจที่มีเหตุผลอย่างดีโดยอนุญาโตตุลาการของมนุษย์.”
จากนั้นผู้เรียกร้องจะเปรียบเทียบระหว่างกรณีปัจจุบันและสหรัฐอเมริกาอื่น ๆ. กรณี, เช่น เคลื่อนไหว, Inc. โวลต์. Citigroup Global MKTS.,[13] ในกรณีที่ศาลออกจากรางวัลอนุญาโตตุลาการซึ่งอนุญาโตตุลาการปลอมแปลงข้อมูลประจำตัวของพวกเขาหรือทำตัวแทนปลอมอื่น ๆ. ศาลในกรณีเหล่านี้ระบุว่ารางวัลควรจะว่างเปล่า”ในกรณีที่ 'ไม่มีทางที่จะตรวจสอบได้ว่า' 'imposter' ที่ไม่มีเงื่อนไขในแผงอนุญาโตตุลาการ 'ได้รับอิทธิพลจากสมาชิกคนอื่น ๆ ของคณะกรรมการหรือว่าผลลัพธ์ของอนุญาโตตุลาการได้รับผลกระทบจากการมีส่วนร่วมของเขา'”.[14] ตามที่ผู้เรียกร้อง, เช่นเดียวกับที่ศาลได้รับรางวัลเมื่อการตัดสินใจถูกเอาต์ซอร์ซให้กับบุคคลอื่นที่ไม่ใช่อนุญาโตตุลาการที่ได้รับการแต่งตั้ง, ดังนั้นศาลก็ต้องออกจากรางวัลเมื่อการตัดสินใจถูกเอาต์ซอร์ซไปยัง AI.[15]
ศาลแขวงยังไม่ได้ปกครองคำร้องของผู้เรียกร้อง, แต่, แม้จะมีข้อโต้แย้งใด ๆ หรือข้อโต้แย้งทางกฎหมายที่อาจเกิดขึ้นกับการเรียกร้องของผู้เรียกร้อง, กรณีนี้ทำให้เกิดคำถามสำคัญเกี่ยวกับอนาคตของอนุญาโตตุลาการ: อนุญาโตตุลาการควรพึ่งพา AI? ถ้าเป็นเช่นนั้น, ในระดับใด?
AI ในอนุญาโตตุลาการ
ได้อย่างรวดเร็วก่อน, AI ดูเหมือนจะเป็นการพัฒนาที่น่ายินดีสำหรับอนุญาโตตุลาการ. มันมีศักยภาพในการเร่งดำเนินการโดยการจัดระเบียบและสรุปข้อมูลจำนวนมากอย่างรวดเร็ว,[16] จึงช่วยลดภาระงานของอนุญาโตตุลาการ. ประสิทธิภาพที่เพิ่มขึ้นนี้สามารถทำได้, ในทางกลับกัน, ลดต้นทุนโดยรวมของอนุญาโตตุลาการ, โดยเฉพาะอย่างยิ่งในกรณีที่อนุญาโตตุลาการได้รับค่าตอบแทนเป็นรายชั่วโมง.
อย่างไรก็ตาม, การใช้ AI ในอนุญาโตตุลาการไม่ได้ไม่มีความเสี่ยง. หัวหน้ากลุ่มนี้คือการกัดเซาะที่อาจเกิดขึ้นจากความเป็นอิสระของอนุญาโตตุลาการและความรับผิดชอบในการตัดสินใจ, โดยเฉพาะอย่างยิ่งในกรณีที่ AI เป็นพึ่งพาเพื่อประเมินข้อเท็จจริง, ถูกกฎหมาย, หรือเรื่องหลักฐาน. ระบบ AI มีแนวโน้มที่จะเกิดภาพหลอน - นั่นคือ, สร้างข้อมูลที่เป็นไปได้ แต่ไม่ถูกต้องหรือเป็นเท็จทั้งหมด.[17] หากไม่ได้รับการตรวจสอบและตรวจสอบอย่างรอบคอบโดยอนุญาโตตุลาการ, ความไม่ถูกต้องดังกล่าวอาจส่งผลกระทบต่อคุณภาพและความน่าเชื่อถือของรางวัล, การบ่อนทำลายหน้าที่ของอนุญาโตตุลาการในการตัดสินใจที่มีเหตุผลและถูกต้อง.
แม้ว่ากฎของสถาบันอนุญาโตตุลาการที่สำคัญที่สุด (ICC, เซียส์, SIAC, HKIAC, เป็นต้น) ขณะนี้เงียบไปกับการใช้ AI ของอนุญาโตตุลาการ, เครื่องมือกฎหมายที่อ่อนนุ่มล่าสุดได้เริ่มเติมช่องว่างนี้, ให้คำแนะนำเกี่ยวกับการรวม AI ที่รับผิดชอบและเหมาะสมในกระบวนการอนุญาโตตุลาการ.
แนวทาง AI สำหรับอนุญาโตตุลาการ
ตัวอย่างหนึ่งของสิ่งนี้คืออนุญาโตตุลาการ Silicon Valley & ศูนย์ไกล่เกลี่ย (“สแวมซี”) แนวทางการใช้ปัญญาประดิษฐ์ ในอนุญาโตตุลาการ (“แนวทาง SVAMC”), ซึ่งเผยแพร่เมื่อ 30 เมษายน 2024. แนวทาง SVAMC "แนะนำกรอบการทำงานตามหลักการสำหรับการใช้ปัญญาประดิษฐ์ (AI) เครื่องมือในการอนุญาโตตุลาการในช่วงเวลาที่เทคโนโลยีดังกล่าวมีพลังและเป็นที่นิยมมากขึ้นเรื่อย ๆ. พวกเขามีวัตถุประสงค์เพื่อช่วยเหลือผู้เข้าร่วมในการอนุญาโตตุลาการด้วยการนำทางแอปพลิเคชันที่มีศักยภาพของ AI.”[18]
ส่วนหนึ่ง 3 ของแนวทาง SVAMC กำหนดแนวทางสำหรับอนุญาโตตุลาการโดยเฉพาะ, รวมถึงแนวทาง 6 (การไม่บอกความรับผิดชอบในการตัดสินใจ) และ 7 (เคารพกระบวนการที่ครบกำหนด).
ตามแนวทาง 6, “อนุญาโตตุลาการจะไม่มอบหมายส่วนใดส่วนหนึ่งของคำสั่งส่วนตัวของพวกเขาให้กับเครื่องมือ AI ใด ๆ. หลักการนี้จะใช้กับกระบวนการตัดสินใจของอนุญาโตตุลาการเป็นพิเศษ. การใช้เครื่องมือ AI โดยอนุญาโตตุลาการจะไม่แทนที่การวิเคราะห์อย่างอิสระของข้อเท็จจริง, กฎหมาย, และหลักฐาน.”[19]
แนวทาง 7 ให้: “อนุญาโตตุลาการจะไม่พึ่งพาข้อมูล AI ที่สร้างขึ้นนอกบันทึกโดยไม่ต้องเปิดเผยข้อมูลที่เหมาะสมกับคู่กรณีล่วงหน้าและ, เท่าที่ใช้ในทางปฏิบัติ, อนุญาตให้ฝ่ายต่างๆแสดงความคิดเห็น. ในกรณีที่เครื่องมือ AI ไม่สามารถอ้างถึงแหล่งข้อมูลที่สามารถตรวจสอบได้อย่างอิสระ, อนุญาโตตุลาการจะไม่สันนิษฐานว่าแหล่งข้อมูลดังกล่าวมีอยู่หรือมีลักษณะอย่างถูกต้องโดยเครื่องมือ AI.”[20]
อีกตัวอย่างล่าสุดเล็กน้อยคือสถาบันอนุญาโตตุลาการ Chartered (“ciarb”) แนวทางการใช้ AI ในอนุญาโตตุลาการ (“แนวทาง Ciarb”), ตีพิมพ์ใน 2025. เช่นเดียวกับแนวทาง SVAMC, แนวทาง Ciarb”พยายามที่จะให้คำแนะนำเกี่ยวกับการใช้ AI ในลักษณะที่อนุญาตให้ผู้แก้ไขข้อพิพาท, ตัวแทนของพวกเขา, และผู้เข้าร่วมคนอื่น ๆ เพื่อใช้ประโยชน์จากประโยชน์ของ AI, ในขณะที่สนับสนุนความพยายามในทางปฏิบัติเพื่อลดความเสี่ยงบางอย่างต่อความสมบูรณ์ของกระบวนการ, สิทธิขั้นตอนของฝ่ายใดฝ่ายหนึ่ง, และความสามารถในการบังคับใช้ของรางวัลหรือข้อตกลงการตั้งถิ่นฐานที่ตามมา.”[21]
ส่วนที่สี่ของแนวทาง CIARB ระบุถึงการใช้ AI โดยอนุญาโตตุลาการและ, เช่นเดียวกับแนวทาง SVAMC, มีสองบทความ: บทความ 8 (ดุลยพินิจในการใช้ AI โดยอนุญาโตตุลาการ) และบทความ 9 (ความโปร่งใสมากกว่าการใช้ AI โดยอนุญาโตตุลาการ).
บทความ 8 บันทึกว่าอนุญาโตตุลาการอาจพิจารณาใช้เครื่องมือ AI เพื่อปรับปรุงกระบวนการอนุญาโตตุลาการ, รวมถึงประสิทธิภาพของการดำเนินการและคุณภาพของการตัดสินใจของอนุญาโตตุลาการ, แต่อนุญาโตตุลาการนั้น”ไม่ควรละทิ้งอำนาจการตัดสินใจของพวกเขาไปยัง AI” และ“ควรหลีกเลี่ยงการมอบหมายงานใด ๆ ให้กับเครื่องมือ AI [...] หากการใช้งานดังกล่าวมีอิทธิพลต่อการตัดสินใจขั้นตอนหรือสำคัญ.”[22] บทความ 8 นอกจากนี้ยังเตือนผู้ตัดสินว่าพวกเขาควรตรวจสอบความถูกต้องและความถูกต้องของข้อมูลที่ได้รับผ่าน AI อย่างอิสระ, ในขณะที่ยังคงรักษามุมมองที่สำคัญเพื่อป้องกันอิทธิพลที่ไม่เหมาะสมในการตัดสินใจของพวกเขา.[23] ในที่สุด, บทความ 8 ให้อนุญาโตตุลาการนั้น“จะรับผิดชอบทุกด้านของรางวัล, ไม่ว่าจะใช้ AI ใด ๆ เพื่อช่วยในกระบวนการตัดสินใจ.”[24]
บทความ 9 ส่งเสริมให้อนุญาโตตุลาการปรึกษากับฝ่ายต่างๆ, เช่นเดียวกับอนุญาโตตุลาการอื่น ๆ ในศาลเดียวกัน, พวกเขาอาจใช้เครื่องมือ AI ตลอดระยะเวลาของการดำเนินคดีอนุญาโตตุลาการ.[25]
บันทึกนี้จะกลับไปที่ไฟล์ Lapaglia กรณีที่จะตรวจสอบความประพฤติที่ถูกกล่าวหาของอนุญาโตตุลาการด้วยแนวทาง AI เหล่านี้ในใจ.
การวิเคราะห์: Lapaglia ตามแนวทาง AI
ตรวจสอบความประพฤติที่ถูกกล่าวหาของอนุญาโตตุลาการ Lapaglia V. Valve Corp. (สมมุติอย่างหมดจด) ผ่านเลนส์ของแนวทาง, ไม่ใช่กรณีขาวดำของการใช้ AI ที่ไม่เหมาะสม/เหมาะสม, แม้ว่าข้อเท็จจริงทั้งหมดที่ถูกกล่าวหาโดยผู้เรียกร้องจะถูกนำมาเป็นจริง.
ตัวอย่างเช่น, ตามแนวทาง SVAMC 6 และบทความ Ciarb 8, หากอนุญาโตตุลาการใช้ AI, เช่น CHATGPT, ขณะร่างรางวัล, นี่ไม่ใช่ ต่อ se ไม่เหมาะสม, ตราบใดที่เขายังคงอำนาจการตัดสินใจของเขาและไม่ได้รับอิทธิพลจาก AI ในการทำตามขั้นตอนใด ๆ, เป็นข้อเท็จจริง, หรือการตัดสินใจทางกฎหมาย.[26]
อย่างไรก็ตาม, ถ้า, ตามที่อ้างสิทธิ์, อนุญาโตตุลาการได้อ้างถึงข้อเท็จจริงและหลักฐานที่ไม่ได้เป็นจริง”ในบันทึกหรือเป็นหลักฐานหรือแม้แต่ถกเถียงกัน”,[27] แนวทาง SVAMC 7 แสดงให้เห็นว่าสิ่งนี้อาจไม่เหมาะสมหากอนุญาโตตุลาการไม่สามารถทำได้”การเปิดเผยที่เหมาะสมกับฝ่ายต่างๆล่วงหน้าและ, เท่าที่ใช้ในทางปฏิบัติ, อนุญาตให้ฝ่ายต่างๆแสดงความคิดเห็น”, [28] ซึ่งอาจทำให้เกิดความกังวลเกี่ยวกับกระบวนการที่ร้ายแรง.
ต่อไป, แนวทาง SVAMC 7 และบทความ Ciarb 8 ทั้งสองจำได้ว่าอนุญาโตตุลาการมีหน้าที่ตรวจสอบความถูกต้องของข้อความใด ๆ ในรางวัลของพวกเขาอย่างอิสระ. ดังนั้น, หาก AI ใช้โดยอนุญาโตตุลาการอ้างอิงข้อเท็จจริงที่ว่า "เป็นทั้งความไม่จริงและไม่ได้นำเสนอในการทดลองหรืออยู่ในบันทึก”, ตามที่อ้างสิทธิ์,[29] เป็นหน้าที่ของอนุญาโตตุลาการในการตรวจสอบความถูกต้องของพวกเขา, และเห็นได้ชัดว่าล้มเหลวในการทำเช่นนั้น (ขณะที่พวกเขาถูกกล่าวหาว่าจบลงด้วยรางวัลสุดท้าย), อนุญาโตตุลาการอาจใช้ AI อย่างไม่เหมาะสม.
นอกจากนี้, ในขณะที่คำร้องของผู้เรียกร้องไม่ได้ชี้แจงในบริบทของข้อเท็จจริงที่ประดิษฐ์เหล่านี้, ความไม่ต่อเนื่องกันและการทำเกินจริงถูกกล่าวหาว่ามีรายละเอียดในรางวัลหรือว่าพวกเขาดูเหมือนจะมีผลต่อการตัดสินใจของอนุญาโตตุลาการ, การปรากฏตัวของพวกเขาในรางวัลนั้นดูเหมือนจะถามคำถามว่าอนุญาโตตุลาการไม่ได้มอบหมายอำนาจการตัดสินใจใด ๆ ของเขา, โดยเฉพาะอย่างยิ่งเกี่ยวกับการวิเคราะห์ข้อเท็จจริงของรางวัล, ถึง AI, ตรงกันข้ามกับแนวทาง SVAMC 6 และบทความ Ciarb 8, ดังกล่าวข้างต้น.[30]
ไม่ว่าในกรณีใด, ขึ้นอยู่กับคำร้องของผู้เรียกร้อง, ยังไม่ชัดเจนว่าอนุญาโตตุลาการทำอะไรได้หรือไม่เป็นการเปิดเผยเกี่ยวกับการใช้ AI ใด ๆ ตลอดการดำเนินคดี. อย่างไรก็ตาม, ทั้งแนวทาง SVAMC และแนวทาง CIARB แนะนำว่า, อนุญาโตตุลาการควรใช้ AI จำนวนเท่าใดก็ได้, เขาหรือเธอควรเปิดเผยการใช้งานกับฝ่ายต่างๆ,[31] หากไม่ขออนุมัติก่อน.[32]
ข้อสรุป
เดอะ Lapaglia V. Valve Corp. กรณี-แม้ว่าจะยังคงรอดำเนินการและขึ้นอยู่กับข้อกล่าวหาที่ยังไม่ได้รับการประเมินอย่างศาล-ทำให้เกิดคำถามที่สำคัญและทันเวลาเกี่ยวกับบทบาทของปัญญาประดิษฐ์ในการตัดสินใจอนุญาโตตุลาการ. แม้ว่าพื้นฐานข้อเท็จจริงสำหรับคำร้องของผู้เรียกร้องยังคงไม่แน่นอน, กรณีนี้แสดงให้เห็นถึงประเภทของความท้าทายและความซับซ้อนที่อาจเกิดขึ้นเมื่ออนุญาโตตุลาการพึ่งพา, หรือสงสัยว่าพึ่งพา, บนเครื่องมือ AI ในการร่างรางวัล.
ดังที่การวิเคราะห์ข้างต้นแสดงให้เห็น, หลักการหลักจะต้องเป็นแนวทางในการพิจารณาการใช้ AI โดยอนุญาโตตุลาการ: การไม่ส่งผล. อนุญาโตตุลาการไม่สามารถเอาต์ซอร์ซการทำงานของพวกเขาไปยังบุคคลที่สาม - มนุษย์หรือเครื่องจักร - และไม่อนุญาตให้เทคโนโลยีประนีประนอมการใช้เหตุผลอิสระของพวกเขา. ในขณะที่ AI อาจช่วยในการดูแลหรือร่างงาน, ไม่สามารถแทนที่การมีส่วนร่วมส่วนตัวของอนุญาโตตุลาการด้วยข้อเท็จจริง, หลักฐาน, และกฎหมาย.
ความสำคัญไม่แพ้กันคือความโปร่งใส. โดยที่อนุญาโตตุลาการใช้เครื่องมือ AI, พวกเขาควรเปิดเผยเรื่องนี้ต่อฝ่ายต่างๆและ, อาจจะ, ขออนุมัติล่วงหน้า. แนวทางเช่นที่ออกโดย SVAMC และ CIARB ทำให้ชัดเจนว่าอนุญาโตตุลาการมีความรับผิดชอบสูงสุดเพื่อความถูกต้อง, ความสมบูรณ์, และการประพันธ์รางวัลของมนุษย์.
เดอะ Lapaglia กรณียังสปอตไลท์ปัญหาที่เกิดขึ้นใหม่: ฝ่ายต่างๆจะพิสูจน์ได้อย่างไรว่ารางวัลหรือส่วนหนึ่งของมันถูกร่างขึ้นโดย AI? เครื่องมือตรวจจับ AI มีความน่าเชื่อถือ, และศาลควรปฏิบัติต่อหลักฐานดังกล่าวอย่างไร? จะเกิดอะไรขึ้นถ้าอนุญาโตตุลาการใช้ AI เพียงเพื่อเพิ่มความชัดเจนแทนที่จะใช้เหตุผลแทนการใช้เหตุผล?
เนื่องจากเครื่องมือ AI มีความซับซ้อนและนำมาใช้อย่างกว้างขวางมากขึ้น, คำถามเหล่านี้จะมีความสำคัญมากขึ้นเรื่อย ๆ. ศาล, สถาบันอนุญาโตตุลาการ, และฝ่ายต่าง ๆ จะต้องต่อสู้กับมาตรฐานที่เหมาะสมสำหรับการใช้งาน AI, กลไกสำหรับการเปิดเผยข้อมูล, และผลที่ตามมาจากการใช้ในทางที่ผิด. ไม่ว่า Lapaglia คำร้องสำเร็จ, มันประสบความสำเร็จในการกระตุ้นการสนทนาที่กว้างขึ้นซึ่งอนุญาโตตุลาการไม่สามารถหลีกเลี่ยงได้อีกต่อไป.
[1] คำร้องเพื่อออกจากรางวัลอนุญาโตตุลาการ; บันทึกข้อตกลงของคะแนนและหน่วยงานที่สนับสนุน 2, Lapaglia V. Valve Corp., ไม่. 3:25-ประวัติย่อ-00833 (S.D. ตกลูก. เมษายน. 8, 2025).
[2] รหัส. ที่ 2- 3.
[3] รหัส. ที่ 3.
[4] รหัส. ที่ 4.
[5] รหัส. ที่ 4.
[6] รหัส. ที่ 2. ผู้เรียกร้องยังท้าทายรางวัลบนพื้นฐานที่อนุญาโตตุลาการถูกกล่าวหาว่ารวมการเรียกร้องของผู้อ้างสิทธิ์อย่างผิดกฎหมายด้วย 22 คนอื่น ๆ ในการละเมิดข้อตกลงอนุญาโตตุลาการและปฏิเสธที่จะอนุญาตให้ผู้เรียกร้องส่งรายงานผู้เชี่ยวชาญโดยอ้างว่าการครอบครองส่วนแบ่งการตลาดผูกขาดของผู้ตอบแบบสอบถาม.
[7] รหัส. ที่ 9.
[8] รหัส. ที่ 9.
[9] รหัส. ที่ 9.
[10] รหัส. ที่ 10.
[11] รหัส. ที่ 9.
[12] รหัส. ที่ 10.
[13] เคลื่อนไหว, Inc. โวลต์. Citigroup Global MKTS., 840 F.3d 1152, 1159 (9ที่ Cir. 2016).
[14] รหัส. ที่ 10.
[15] รหัส. ที่ 10.
[16] ก. ซิงห์ Chauhan, อนาคตของ AI ในอนุญาโตตุลาการ: เส้นแบ่งระหว่างนิยายและความเป็นจริง, 26 กันยายน 2020, https://arbitrationblog.kluwerarbitration.com/2020/09/26/future-of-ai-in-arbitration-the-fine-line-between-fiction-and-reality/.
[17] เอ็ม. Magal และคณะ, ปัญญาประดิษฐ์ในอนุญาโตตุลาการ: ปัญหาและลูกค้าเป้าหมาย, 12 ตุลาคม 2023, https://globalarbitrationreview.com/guide/the-guide-evidence-in-international-arbitration/2nd-edition/article/artificial-intelligence-in-arbitration-evidentiary-issues-and-prospects.
[18] แนวทาง SVAMC, บทนำ.
[19] แนวทาง SVAMC, แนวทาง 6.
[20] แนวทาง SVAMC, แนวทาง 7.
[21] แนวทาง Ciarb, บทนำ.
[22] แนวทาง Ciarb, บทความ 8.1, 8.2.
[23] แนวทาง Ciarb, บทความ 8.3.
[24] แนวทาง Ciarb, บทความ 8.4.
[25] แนวทาง Ciarb, บทความ 9.1-9.2.
[26] แนวทาง SVAMC, แนวทาง 6; แนวทาง Ciarb, บทความ 8.
[27] คำร้องเพื่อออกจากรางวัลอนุญาโตตุลาการ; บันทึกข้อตกลงของคะแนนและหน่วยงานที่สนับสนุน 9, Lapaglia V. Valve Corp., ไม่. 3:25-ประวัติย่อ-00833 (S.D. ตกลูก. เมษายน. 8, 2025).
[28] แนวทาง SVAMC, แนวทาง 7.
[29] คำร้องเพื่อออกจากรางวัลอนุญาโตตุลาการ; บันทึกข้อตกลงของคะแนนและหน่วยงานที่สนับสนุน 9, Lapaglia V. Valve Corp., ไม่. 3:25-ประวัติย่อ-00833 (S.D. ตกลูก. เมษายน. 8, 2025).
[30] แนวทาง SVAMC, แนวทาง 6; แนวทาง Ciarb, บทความ 8.
[31] แนวทาง SVAMC, แนวทาง 6.
[32] แนวทาง Ciarb, บทความ 9.1-9.2.