به عنوان هوش مصنوعی ("هوش مصنوعی") ابزارها به طور فزاینده ای در عمل قانونی ادغام می شوند, استفاده آنها توسط داوران دیگر یک امکان نظری نیست بلکه یک واقعیت عملی است. از تهیه دستورالعمل های رویه ای گرفته تا سازماندهی شواهد یا حتی کمک به تهیه جوایز, هوش مصنوعی وعده کارآیی بیشتر را ارائه می دهد, ثبات, و مقرون به صرفه. اما چه اتفاقی می افتد که این کارآیی به هزینه قضاوت بشر می رسد?
پرونده اخیر در ایالات متحده ثبت شده است. دادگاه فدرال, لاپاگلیا پنجم. دریچه دریچه., دقیقاً این سوال را مطرح می کند. مدعی درخواست کرده است که یک جایزه داوری را خالی کند به این دلیل که گفته می شود داور به حدی به او اعتماد کرده است که او "نقش داوری خود را برون سپاری کرد."[1] در حالی که نتیجه پرونده نامشخص است, این یک نقطه شروع ایده آل برای بررسی محدودیت های استفاده هوش مصنوعی در داوری و مسئولیت های حقوقی و اخلاقی که با آن همراه است ، ارائه می دهد.
در این مقاله به بررسی موضوعات کلیدی مطرح شده توسط لاپاگلیا, قرار دادن آنها در زمینه دستورالعمل های تازه ظهور در مورد هوش مصنوعی در داوری. این در نظر دارد که کمک های AI در چه نقطه ای بیش از حد پیش می رود و شفافیت چه نقشی است, انتظارات مهمانی, و انصاف رویه باید در پیمایش این مرز جدید بازی کند.
لاپاگلیا پنجم. دریچه دریچه.
که در لاپاگلیا پنجم. دریچه دریچه., مصرف کننده بازی های رایانه ای, آقای. لاپاگلیا ("شاکی") ادعایی را در داوری انجام داد که توسط انجمن داوری آمریکا ("AAA") خواستار جبران خسارت برای قیمت های بالاتر که وی در نتیجه تخلفات ضد انحصاری توسط Valve Corp پرداخت کرده است. ("پاسخ دهنده"), صاحب فروشگاه بازی آنلاین Steam, و همچنین برای نقض گارانتی ناشی از بازی معیوب رایانه شخصی که او خریداری کرده بود.[2]
ادعاهای مدعی قبل از یک داور تنها شنیده می شد ("داور") در دسامبر 2024 شنیدن.[3] جلسه رسیدگی بیش از حد انجام شد 10 روزها, و به گفته مدعی, در حین استراحت در دادرسی, گفته می شود که داور به طرفین گفته است که می خواهد به سرعت تصمیمی را صادر کند زیرا او یک سفر آینده را به سمت گالاپاگوس برنامه ریزی کرده بود.[4]
خلاصه نهایی بعد از شنوایی ارسال شد 23 دسامبر 2024, با جایزه (29 صفحات طولانی) صادر شده در 7 ژانویه 2025 ("جایزه"), هنگامی که گفته می شد داور در سفر خود را ترک کند.[5]
بر 8 آوریل 2025, مدعی دادخواستی را برای خالی کردن جایزه داوری ارائه داد ("دادخواست") قبل از دادگاه منطقه ای ایالات متحده برای منطقه جنوبی کالیفرنیا ("دادگاه منطقه") مطابق 9 ایالات متحده. §§ 10(آ)(3), (آ)(4), بر این اساس که, از جمله, داور ظاهراً "نقش داوری خود را به هوش مصنوعی برون سپاری کرد ("AI")."[6]
مدعی نتیجه گرفت که داور از هوش مصنوعی برای تهیه جایزه خود بر اساس عناصر واقعی زیر استفاده کرده است:
- داور "داستانی در مورد چگونگی نوشتن مقاله کوتاه در یک باشگاه هواپیمایی که او بخشی از آن بود ، گفت, و اینکه او برای صرفه جویی در وقت از Chatgpt برای نوشتن آن استفاده کرده بود."[7]
- داور "برای طرفین خاطرنشان كرد كه او به زودی برای سفر به گالاپاگوس عزیمت می كرد و می خواست قبل از آن پرونده را انجام دهد."[8]
- گفته می شود این جایزه شامل "علائم Telltale از نسل AI"و ظاهراً حقایقی را ذکر می کند که"هم نادرست هستند و هم در دادگاه ارائه نشده اند یا در سابقه حضور ندارند"بدون هیچ استناد مربوطه.[9]
- منشی قانون مشاور مدعی از چتپ پرسید که آیا معتقد است یک پاراگراف خاص توسط انسان نوشته شده است یا AI, و چتگ اظهار داشت که "عبارات ناخوشایند پاراگراف, افزونگی, عدم رعایت, و بیش از حد ، نشان می دهد که این گذر توسط AI ایجاد شده است نه اینکه توسط یک انسان نوشته شود. ""[10]
مدعی به بخش اعتماد کرد 10(آ)(4) از FAA, کدام "Vacatur را در جایی که یک داور از قدرت آنها فراتر می رود اجازه می دهد[]""با اقدام به خارج از محدوده توافق نامه قرارداد طرفین.[11]
مدعی ادعا کرد که این جایزه باید خالی شود زیرا, با اتهام تکیه بر هوش مصنوعی, داور از اختیارات خود فراتر از محدوده توافق نامه داوری طرفین بود, که قدرت می دهد "داور خنثی"برای حل و فصل اختلافات بین آنها و اتصال داور برای تأمین"یک تصمیم کتبی"و"بیان دلایل"برای برگزاری آنها.[12] در مواردی که یک داور به هوش مصنوعی متکی است, مدعی اظهار داشت که این "خیانت به انتظارات طرفین از یک تصمیم خوب فصلی که توسط یک داور انسانی ارائه شده است."
متقاضی سپس بین پرونده حاضر و سایر ایالات متحده قیاس کرد. موارد, مانند حرکت, وارز. v. Citigroup Global Mkts.,[13] جایی که دادگاه ها جوایز داوری را خالی کردند که داوران اعتبار خود را جعل می کردند یا سایر نمایندگی های دروغین را ساختند. دادگاه ها در این موارد خاطرنشان کردند که جوایز باید خالی شوند "جایی که "هیچ راهی برای تعیین اینکه آیا" یک "تحمیل کننده" غیرقابل قبول در هیئت داوری - تحت تأثیر سایر اعضای هیئت مدیره یا اینکه نتیجه داوری تحت تأثیر مشارکت وی تأثیر گذاشته است "وجود ندارد.".[14] مطابق شاکی, درست همانطور که دادگاه ها جوایز را خالی کرده اند که تصمیم گیری به شخص دیگری غیر از داور تعیین شده برون سپاری می شود, پس از آنکه تصمیم گیری به هوش مصنوعی برون سپاری شود ، باید یک دادگاه جایزه را خالی کند.[15]
دادگاه ولسوالی هنوز در مورد دادخواست مدعیان حکومت نکرده است, ولی, با وجود هر استدلال واقعی یا حقوقی که ممکن است علیه ادعای مدعی مطرح شود, این مورد سؤالات مهمی در مورد آینده داوری ایجاد می کند: باید داوران به هوش مصنوعی اعتماد کنند? اگر چنین باشد, تا چه حد?
هوش مصنوعی در داوری
در نگاه اول, AI به نظر می رسد یک توسعه خوش آمدید برای داوری است. این پتانسیل را برای تسریع در مراحل سریع با سازماندهی سریع و جمع بندی حجم زیادی از داده ها فراهم می کند,[16] بدین ترتیب بار کاری داور را کاهش می دهد. این افزایش کارایی می تواند, به نوبه خود, هزینه کلی داوری را کاهش دهید, به ویژه در جایی که داور به صورت ساعتی پاداش می گیرد.
با این حال, استفاده از هوش مصنوعی در داوری بدون خطر نیست. مهمترین آنها فرسایش بالقوه استقلال و تصمیم گیری داور است, به خصوص در مواردی که به AI برای ارزیابی واقعی اعتماد دارد, قانونی, یا موارد اثبات. سیستم های AI مستعد توهم هستند - یعنی, تولید اطلاعات قابل قبول اما نادرست یا کاملاً نادرست.[17] اگر با دقت توسط داور بررسی و تأیید شود, چنین نادرستی ها ممکن است کیفیت و قابلیت اطمینان این جایزه را به خطر بیاندازد, تضعیف وظیفه داور برای تصمیم گیری استدلال و دقیق.
اگرچه قوانین اصلی ترین نهادهای داوری (ICC, LCIA, SIAC, HKIAC, و غیره.) در حال حاضر در مورد استفاده داوران از هوش مصنوعی ساکت هستند, ابزارهای حقوقی نرم اخیر شروع به پر کردن این شکاف کرده اند, ارائه راهنمایی در مورد ادغام مسئول و مناسب AI در فرآیند داوری.
دستورالعمل های AI برای داوران
یک نمونه از این داوری دره سیلیکون است & مرکز مراقبت ("SVAMC") رهنمودهای مربوط به استفاده از هوش مصنوعی در داوری ("دستورالعمل های SVAMC"), که در 30 آوریل 2024. دستورالعمل های SVAMC "یک چارچوب مبتنی بر اصل برای استفاده از هوش مصنوعی را معرفی کنید (هوش مصنوعی) ابزارهای داوری در زمانی که چنین فناوری هایی به طور فزاینده ای قدرتمند و محبوب می شوند. آنها برای کمک به شرکت کنندگان در داوری با پیمایش برنامه های بالقوه هوش مصنوعی در نظر گرفته شده اند."[18]
قسمت 3 از دستورالعمل های SVAMC به طور خاص دستورالعمل های داوران را تعیین می کند, از جمله دستورالعمل ها 6 (عدم تظاهرات مسئولیت های تصمیم گیری) و 7 (احترام به مراحل مقرر).
طبق دستورالعمل 6, "یک داور هیچ بخشی از دستورالعمل شخصی خود را به هر ابزار هوش مصنوعی واگذار نمی کند. این اصل به ویژه در مورد روند تصمیم گیری داور اعمال می شود. استفاده از ابزارهای AI توسط داوران نباید جایگزین تجزیه و تحلیل مستقل آنها از واقعیت ها شود, قانون, و شواهد."[19]
راهنما 7 فراهم می کند: "یک داور نباید بدون ایجاد افشای مناسب برای طرفین ، به اطلاعات تولید شده توسط AI در خارج از سوابق اعتماد کند و, تا آنجا که عملی است, به طرفین اجازه می دهد تا درباره آن اظهار نظر کنند. جایی که یک ابزار AI نمی تواند منابعی را که می توانند به طور مستقل تأیید شوند ، استناد کنند, یک داور نباید فرض کند که چنین منابعی وجود دارد یا با ابزار AI به طور دقیق مشخص می شوند."[20]
نمونه کمی دیگر که جدیدترین آن است ، مؤسسه داوران منشور است ("سجده") راهنما در مورد استفاده از هوش مصنوعی در داوری ("راهنمای CIARB"), منتشر شده در 2025. مانند دستورالعمل های SVAMC, دستورالعمل CIARB "به دنبال راهنمایی در مورد استفاده از هوش مصنوعی به روشی است که به حل کننده های اختلاف اجازه می دهد, نمایندگان آنها, و سایر شرکت کنندگان برای استفاده از مزایای هوش مصنوعی, ضمن حمایت از تلاشهای عملی برای کاهش برخی از خطر برای یکپارچگی روند, حقوق رویه ای هر طرف, و قابلیت اجرای هرگونه توافقنامه یا توافق نامه تسویه حساب متعاقب آن."[21]
قسمت چهارم دستورالعمل CIARB به استفاده از هوش مصنوعی توسط داوران و, مانند دستورالعمل های SVAMC, شامل دو مقاله است: مقاله 8 (اختیار بیش از استفاده از هوش مصنوعی توسط داوران) و مقاله 9 (شفافیت بیش از استفاده از هوش مصنوعی توسط داوران).
مقاله 8 یادداشت هایی که داوران ممکن است استفاده از ابزارهای AI را برای تقویت روند داور در نظر بگیرند, از جمله کارآیی دادرسی و کیفیت تصمیم گیری داور, اما آن داوران "نباید قدرت تصمیم گیری خود را به هوش مصنوعی واگذار کند"و"باید از واگذاری هرگونه کار به ابزارهای AI خودداری کند [...] اگر چنین استفاده ای بتواند بر تصمیمات رویه ای یا اساسی تأثیر بگذارد."[22] مقاله 8 همچنین به داوران یادآوری می کند که آنها باید به طور مستقل صحت و صحت اطلاعات به دست آمده از طریق AI را تأیید کنند, در حالی که یک دیدگاه مهم را برای جلوگیری از تأثیر ناعادلانه در تصمیمات خود حفظ می کند.[23] سرانجام, مقاله 8 داوران را فراهم می کند "مسئولیت همه جنبه های یک جایزه را بر عهده خواهد گرفت, صرف نظر از هرگونه استفاده از هوش مصنوعی برای کمک به روند تصمیم گیری."[24]
مقاله 9 داوران را ترغیب به مشورت با طرفین می کند, و همچنین سایر داوران در همان دادگاه, در مورد اینکه آیا ابزارهای AI ممکن است توسط آنها در طول دوره دادرسی داوری استفاده شود.[25]
این نت اکنون به لاپاگلیا موردی برای بررسی رفتار ادعایی داور با این دستورالعمل های هوش مصنوعی در ذهن.
تحلیل و بررسی: لاپاگلیا طبق دستورالعمل های هوش مصنوعی
بررسی رفتار ادعایی داور در لاپاگلیا پنجم. دریچه دریچه. (کاملاً فرضی) از طریق لنز دستورالعمل ها, این یک مورد سیاه و سفید از استفاده نامناسب/مناسب از هوش مصنوعی نیست, حتی اگر تمام حقایق ادعا شده توسط مدعی به عنوان صحیح تلقی شود.
مثلا, طبق دستورالعمل SVAMC 6 و مقاله CIARB 8, اگر داور از AI استفاده می کرد, مثل chatgpt, هنگام تهیه جایزه, این نیست به خودی خود نامناسب, تا زمانی که او قدرت تصمیم گیری خود را حفظ کرد و تحت تأثیر هوش مصنوعی در انجام هرگونه رویه ای قرار نگرفت, واقعی, یا تصمیمات قانونی.[26]
با این حال, اگر, همانطور که مدعی ادعا می کند, داور در واقع حقایق و شواهدی را ذکر کرد که "در سوابق یا در غیر این صورت مشهود یا حتی بحث شده است",[27] راهنمای SVAMC 7 نشان می دهد که اگر داور نتوانست بسازد ، این ممکن است نامناسب باشد "افشای مناسب برای طرفین از قبل و, تا آنجا که عملی است, به طرفین اجازه می دهد تا درباره آن اظهار نظر کنند", [28] که ممکن است نگرانی های جدی در مورد روند موقت را ایجاد کند.
به علاوه, راهنمای SVAMC 7 و مقاله CIARB 8 هر دو به یاد می آورند که داوران وظیفه دارند به طور مستقل صحت هرگونه اظهارات را در جوایز خود تأیید کنند. بدین ترتیب, اگر هوش مصنوعی مورد استفاده داور به حقایقی اشاره می کرد که "هم نادرست هستند و هم در دادگاه ارائه نشده اند یا در سابقه حضور ندارند", همانطور که مدعی ادعا می کند,[29] این وظیفه داوری بود که صحت آنها را تأیید کند, و ظاهراً در انجام این کار (همانطور که گفته می شود آنها در جایزه نهایی به پایان رسیدند), داور ممکن است از AI نامناسب استفاده کند.
بعلاوه, در حالی که دادخواست مدعیان در چه زمینه ای این حقایق جعلی را روشن نمی کند, گفته می شود که ناسازگاری ها و مراکز بیش از حد در این جایزه شرح داده شده اند یا اینکه آیا به نظر می رسد که هیچ تصمیمی بر تصمیم داور دارند, به نظر می رسد که حضور آنها در این جایزه این سوال را مطرح می کند که آیا داور هیچ یک از قدرت تصمیم گیری خود را نمایندگی نکرده است, به ویژه در مورد تجزیه و تحلیل واقعی این جایزه, به هوش مصنوعی, برخلاف دستورالعمل SVAMC 6 و مقاله CIARB 8, همانطور که در بالا گفته شد.[30]
در هر رویدادی, براساس دادخواست مدعی, مشخص نیست که آیا داور هر نوع دیگری را ایجاد کرده است ، افشای هرگونه استفاده از هوش مصنوعی در طول دادرسی است. با این حال, هر دو دستورالعمل SVAMC و دستورالعمل CIARB این را نشان می دهد, در صورت استفاده از داور از هر مقدار AI, او باید استفاده از آن را برای طرفین فاش کند,[31] اگر از قبل به دنبال تأیید آنها نباشید.[32]
نتیجه
را لاپاگلیا پنجم. دریچه دریچه. پرونده-اگرچه هنوز در انتظار و بر اساس ادعاهایی است که هنوز از نظر قضایی مورد ارزیابی قرار نمی گیرد-سؤالات قابل توجهی و به موقع در مورد نقش هوش مصنوعی در تصمیم گیری داوری ایجاد می کند. حتی اگر مبنای واقعی دادخواست مدعیان نامشخص باشد, این مورد به طور مفید انواع چالش ها و پیچیدگی هایی را که ممکن است هنگام اتکا به داوران ایجاد شود نشان می دهد, یا مظنون به تکیه هستند, در ابزارهای هوش مصنوعی در تهیه جوایز.
همانطور که تجزیه و تحلیل بالا نشان می دهد, یک اصل اصلی باید هرگونه توجه به استفاده از هوش مصنوعی توسط داوران را راهنمایی کند: عدم تظاهرات. داوران نمی توانند عملکرد حکایت خود را به شخص ثالث - انسان یا ماشین - برون سپاری کنند - و همچنین نمی توانند به فناوری اجازه دهند استدلال مستقل خود را به خطر بیاندازد. در حالی که AI ممکن است در کارهای اداری یا تهیه پیش نویس کمک کند, این نمی تواند تعامل شخصی داور را با حقایق جایگزین کند, شواهد, و قانون.
به همان اندازه مهم شفافیت است. جایی که داوران از ابزارهای AI استفاده می کنند, آنها باید این را به طرفین فاش کنند و, بالقوه, تأیید قبلی خود را جستجو کنید. دستورالعمل هایی مانند موارد صادر شده توسط SVAMC و CIARB روشن می کند که داوران مسئولیت نهایی را بر عهده دارند, تمامیت, و تألیف انسانی جوایز آنها.
را لاپاگلیا مورد همچنین یک مسئله اثبات در حال ظهور را مورد توجه قرار می دهد: چگونه احزاب می توانند ثابت کنند که یک جایزه - یا بخشی از آن - توسط هوش مصنوعی تهیه شده است? آیا ابزارهای تشخیص AI قابل اعتماد هستند, و چگونه دادگاه ها باید با چنین شواهدی رفتار کنند? چه می شود اگر یک داور از AI صرفاً برای تقویت وضوح استفاده کند نه اینکه استدلال را جایگزین کند?
هرچه ابزارهای هوش مصنوعی پیچیده تر و گسترده تر می شوند, این سؤالات به طور فزاینده ای مهم خواهند شد. دادگاه, موسسات داوری, و احزاب به طور یکسان باید با استانداردهای مناسب برای استفاده هوش مصنوعی دست و پنجه نرم کنند, مکانیسم های افشای, و عواقب سوء استفاده. آیا لاپاگلیا دادخواست موفق می شود, این در حال حاضر موفق شده است مکالمه گسترده تری را تحریک کند که دیگر نمی تواند از آن جلوگیری کند.
[1] دادخواست برای خالی کردن جایزه داوری; تفاهم نامه ها و مقامات در حمایت از آن در 2, لاپاگلیا پنجم. دریچه دریچه., نه. 3:25-رزومه-00833 (SD. کال. آوریل. 8, 2025).
[2] شناسه. در 2- 3.
[3] شناسه. در 3.
[4] شناسه. در 4.
[5] شناسه. در 4.
[6] شناسه. در 2. مدعی همچنین این جایزه را بر این اساس که داور گفته می شود به اشتباه ادعای مدعی را با هم ادغام کرده است ، به چالش کشید 22 دیگران در نقض توافق نامه داوری و از اجازه دادن به مدعی برای ارائه گزارش تخصصی مبنی بر اثبات داشتن سهم بازار انحصار ، از ارائه گزارش تخصصی خودداری کردند.
[7] شناسه. در 9.
[8] شناسه. در 9.
[9] شناسه. در 9.
[10] شناسه. در 10.
[11] شناسه. در 9.
[12] شناسه. در 10.
[13] حرکت, وارز. v. Citigroup Global Mkts., 840 F.3d 1152, 1159 (9سیر. 2016).
[14] شناسه. در 10.
[15] شناسه. در 10.
[16] آ. میهن, آینده هوش مصنوعی در داوری: خط خوب بین داستان و واقعیت, 26 سپتامبر 2020, https://arbitrationblog.kluwerarbitration.com/2020/09/26/future-of-ai-in-arbitration-the-fine-line-between-fiction-and-reality/.
[17] م. مگال و همکاران., هوش مصنوعی در داوری: مسائل و چشم اندازهای مشهود, 12 اکتبر 2023, https://globalarbitrationreview.com/guide/the-guide-evidence-in-international-arbitration/2nd-edition/article/artificial-intelligence-in-arbitration-evidentiary-issues-and-prospects.
[18] دستورالعمل های SVAMC, مقدمه.
[19] دستورالعمل های SVAMC, راهنما 6.
[20] دستورالعمل های SVAMC, راهنما 7.
[21] راهنمای CIARB, مقدمه.
[22] راهنمای CIARB, مقالات 8.1, 8.2.
[23] راهنمای CIARB, مقاله 8.3.
[24] راهنمای CIARB, مقاله 8.4.
[25] راهنمای CIARB, مقالات 9.1-9.2.
[26] دستورالعمل های SVAMC, راهنما 6; راهنمای CIARB, مقاله 8.
[27] دادخواست برای خالی کردن جایزه داوری; تفاهم نامه ها و مقامات در حمایت از آن در 9, لاپاگلیا پنجم. دریچه دریچه., نه. 3:25-رزومه-00833 (SD. کال. آوریل. 8, 2025).
[28] دستورالعمل های SVAMC, راهنما 7.
[29] دادخواست برای خالی کردن جایزه داوری; تفاهم نامه ها و مقامات در حمایت از آن در 9, لاپاگلیا پنجم. دریچه دریچه., نه. 3:25-رزومه-00833 (SD. کال. آوریل. 8, 2025).
[30] دستورالعمل های SVAMC, راهنما 6; راهنمای CIARB, مقاله 8.
[31] دستورالعمل های SVAMC, راهنما 6.
[32] راهنمای CIARB, مقالات 9.1-9.2.