Yapay zeka olarak (“yapay zeka”) Araçlar giderek daha fazla yasal uygulamaya entegre hale geliyor, Hakemler tarafından kullanımı artık teorik bir olasılık değil, pratik bir gerçeklik. Prosedürel emirlerin hazırlanmasından, kanıtların düzenlenmesine veya hatta ödüllerin hazırlanmasına yardımcı olmaya kadar, AI daha fazla verimlilik vaadini sunar, tutarlılık, ve maliyet etkinliği. Fakat bu verimlilik insan yargısının pahasına geldiğinde ne olur?
ABD'de açılan yeni bir dava. Federal Mahkeme, Lapaglia V. Valf Corp., tam olarak bu soruyu gündeme getiriyor. Davacı, hakemin AI'ya güvendiği iddia edildiği gibi bir hakem ödülü vermeye dilekçe verdi.yargılama rolünü dış kaynaklardan sağladı.”[1] Davanın sonucu belirsiz kalırken, Tahkimde AI kullanım sınırlarını ve onunla birlikte gelen yasal ve etik sorumlulukları incelemek için ideal bir başlangıç noktası sunar..
Bu makale, Lapaglia, Tahkimde yapay zeka üzerinde yeni ortaya çıkan yönergeler bağlamında yerleştirmek. AI yardımının hangi noktada çok ileri gittiğini ve hangi rol şeffaflığını düşünüyor, Parti Beklentileri, ve prosedürel adalet bu yeni sınırda gezinmede oynamalı.
Lapaglia V. Valf Corp.
İçinde Lapaglia V. Valf Corp., PC oyunlarından oluşan bir tüketici, Bay. Lapaglia (“davacı”) tarafından yönetilen tahkimde bir talepte bulundu Amerikan Tahkim Derneği (“ACAR”) Valve Corp tarafından antitröst ihlalleri iddiası nedeniyle ödediği daha yüksek fiyatlar için tazminat talep ediyor. (“Davalı”), Steam online oyun mağazasının sahibi, yanı sıra, arızalı bir PC oyunundan kaynaklanan garanti ihlali için.[2]
Davacının iddiaları tek bir hakemden önce duyuldu (“Hakem”) Aralık ayında 2024 işitme.[3] Duruşma bitti 10 günler, Ve davacıya göre, Bildirilerdeki molalar sırasında, Hakem, taraflara hızlı bir şekilde karar vermek istediğini söyledi çünkü Galapagos'ta planlanan yaklaşan bir yolculuk yaşadı.[4]
Son işleme sonrası özet, 23 Aralık 2024, ödülle (29 Sayfa uzunluğunda) verilen 7 Ocak 2025 (“ödül”), Hakemin yolculuğuna çıkması planlandığı iddia edildiğinde.[5]
üzerinde 8 Nisan 2025, Davacı, Tahkim Ödülü'nü boşaltmak için bir dilekçe verdi (“Dilekçe”) Amerika Birleşik Devletleri Kaliforniya'nın Güney Bölgesi Bölge Mahkemesi (“Bölge Mahkemesi”) uyarınca 9 ABD. §§ 10(bir)(3), (bir)(4), buna dayanarak, diğerleri arasında, Hakemin iddia edildiği gibi "yapay zekaya karar verdiği rolü dış kaynak ("AI").”[6]
Davacı, hakemin ödülünü aşağıdaki olgusal unsurlara dayanarak hazırlamak için yapay zeka kullandığı sonucuna varmıştır.:
- Hakem "Bir havacılık kulübü hakkında kısa bir makale yazmak için nasıl atandığına dair bir hikaye anlattı., ve zaman kazanmak için chatgpt'i yazmak için kullandığını.”[7]
- Hakem "Partiler için yakında Galapagos'a bir gezi için ayrıldığını belirtti ve o zamandan önce davayı yapmak istedi..”[8]
- Ödülün içerdiği iddia ediliyor ”AI neslinin Telltale işaretleri”Ve iddia ediliyor"hem yanlış hem de yargılamada veya kayıtta sunulmamış"İlgili alıntılar olmadan.[9]
- Davacının avukatının hukuk memuru, chatgpt'e belirli bir paragrafın insanlar veya yapay zeka tarafından yazıldığına inanıp inanmadığına sordu, Ve Chatgpt şöyle dedi.paragrafın garip ifadeleri, fazlalık, tutarsızlık, ve aşırı genelleme ‘Pasajın bir insan tarafından yazılmak yerine AI tarafından üretildiğini öne sürün.””[10]
Davacı bölüme güveniyordu 10(bir)(4) FAA, hangi "bir hakemin ‘yetkilerini aştığı vacatur'a izin verir[]'"Tarafların sözleşme anlaşmasının kapsamı dışında hareket ederek.[11]
Davacı, ödülün boşaltılması gerektiğini iddia etti çünkü, AI'ya güveniyor olduğu iddia ederek, Hakem, tarafların tahkim anlaşmasının kapsamı tarafından bağlı yetkisini aştı, bu da bir "nötr hakem"Aralarındaki anlaşmazlıkları çözmek ve söz konusu hakem sağlamak için"Yazılı bir karar”Ve“nedenlerin ifadesi"Onların tutuşları için.[12] Bir hakemin yapay zekaya dayandığı durumlarda, Davacı, bunun "Tarafların bir insan hakkanı tarafından verilen iyi mantıklı bir kararın beklentilerine ihanet eder.”
Davacı daha sonra mevcut dava ile diğer ABD arasında analog. vakalar, gibi Taşınmak, Inc. v. Citigroup Global Mkts.,[13] Mahkemelerin hakemlerin kimlik bilgilerini tahrif ettiği veya başka yanlış temsiller yaptığı tahkim ödüllerini boşalttığı durumlarda. Bu durumlardaki mahkemeler, ödüllerin boşaltılması gerektiğini belirtti ”“Tahkim panelinde niteliksiz bir 'imposter'‘ panelin diğer üyelerini etkileyip etkilemediğini veya tahkimin sonucunun katılımından etkilendiğini belirlemenin bir yolu yoktur ””.[14] Davacıya Göre, Tıpkı mahkemelerin, karar verme sürecinin atanan hakem dışındaki bir kişiye dış kaynak kullanıldığı zaman ödülleri boşalttığı gibi, Bir mahkeme, karar verme süreci yapay zekaya dış kaynak kullanıldığında da bir ödül boşaltmalıdır.[15]
Bölge Mahkemesi henüz davacının dilekçesine karar vermedi, fakat, Davacının iddiasına karşı dile getirilebilecek herhangi bir olgusal veya yasal argümana rağmen, Bu dava, tahkimin geleceği hakkında önemli soruları gündeme getirmektedir: Hakemler AI'ya güveniyor mu? Öyleyse, ne ölçüde?
Tahkimde AI
İlk bakışta, AI, tahkim için hoş bir gelişme gibi görünüyor. Büyük miktarda veriyi hızla organize ederek ve özetleyerek işlemleri hızlandırma potansiyeli sunar.,[16] böylece hakemin iş yükünü azaltmak. Bu artan verimlilik, sırayla, Tahkimin toplam maliyetini düşürün, özellikle hakemin saatlik olarak ücretlendirildiği yerlerde.
ancak, AI'nın tahkimde kullanımı risksiz değildir. Bunların başında, hakemin bağımsızlığı ve karar verme sorumluluğunun potansiyel erozyonudur, Özellikle AI'nın olguyu değerlendirmek için dayandığı yerlerde, yasal, veya delil önemlidir. AI sistemleri halüsinasyonlara eğilimlidir - yani, makul ama yanlış veya tamamen yanlış bilgi oluşturmak.[17] Hakem tarafından dikkatlice gözden geçirilmiyor ve doğrulanmıyorsa, Bu tür yanlışlıklar, ödülün kalitesini ve güvenilirliğini tehlikeye atabilir, hakemin gerekçeli ve doğru bir karar verme görevini zayıflatma.
Her ne kadar çoğu büyük hakem kurumunun kuralları (ICC, cesaret, SIAC, HKIAC, vb.) şu anda hakemlerin yapay zeka kullanımı konusunda sessiz, Son yumuşak hukuk araçları bu boşluğu doldurmaya başladı, Tahkim sürecinde AI'nın sorumlu ve uygun entegrasyonu hakkında rehberlik sunmak.
Hakemler için AI yönergeleri
Bunun bir örneği Silikon Vadisi Tahkimi & Arabuluculuk Merkezi (“SVAMC”) Yapay zekanın kullanımı üzerine yönergeler tahkimde (“SVAMC Yönergeleri”), yayınlanan 30 Nisan 2024. SVAMC Yönergeleri "Yapay Zeka Kullanımı için İlke Tabanlı Bir Çerçeve Tanıtın (yapay zeka) Bu tür teknolojilerin giderek daha güçlü ve popüler hale geldiği bir zamanda tahkimde araçlar. AI'nın potansiyel uygulamalarında gezinme konusunda tahkimlere katılımcılara yardımcı olmayı amaçlamaktadırlar..”[18]
Bölüm 3 SVAMC yönergelerinin, hakemler için yönergeler belirlemektedir., Yönergeler dahil 6 (Karar verme sorumluluklarının düşürülmemesi) ve 7 (Son sürece saygı).
Kılavuza göre 6, “Bir hakem, kişisel yetkilerinin herhangi bir bölümünü herhangi bir AI aracına devredemez.. Bu ilke özellikle hakemin karar verme süreci için geçerlidir. Hakemler tarafından yapay zeka araçlarının kullanımı, gerçeklerin bağımsız analizini değiştirmeyecek, yasa, Ve kanıt.”[19]
Kılavuz 7 sağlar: “Bir hakem, taraflara önceden uygun açıklamalar yapmadan kayıt dışında AI tarafından oluşturulan bilgilere güvenemez ve, pratik kadar, tarafların bu konuda yorum yapmasına izin vermek. Bir AI aracının bağımsız olarak doğrulanabilecek kaynakları belirtemediği yerlerde, Bir hakem, bu tür kaynakların var olduğunu veya AI aracı tarafından doğru bir şekilde karakterize edildiğini varsayamaz..”[20]
Biraz daha yeni bir örnek, kiralanan hakemler enstitüsüdür (“Ciarb”) Tahkimde AI kullanımına ilişkin kılavuz (“CIARB Kılavuzu”), yayınlanan 2025. SVAMC yönergeleri gibi, CIARB Kılavuzu "Yapay zekanın kullanımı hakkında, anlaşmazlık çözücülerine izin verecek şekilde rehberlik etmeyi amaçlamaktadır., Temsilcileri, ve diğer katılımcılar AI'nın faydalarından yararlanmak için, Sürecin bütünlüğüne yönelik risklerin bir kısmını azaltmak için pratik çabaları desteklerken, Herhangi bir partinin prosedür hakları, ve sonraki herhangi bir ödül veya uzlaşma anlaşmasının uygulanabilirliği.”[21]
CIARB kılavuzunun IV., SVAMC yönergeleri gibi, İki makale içerir: makale 8 (Hakemler tarafından yapay zeka kullanımı konusunda takdir yetkisi) ve Makale 9 (Hakemler tarafından yapay zeka kullanımı üzerindeki şeffaflık).
makale 8 Hakemlerin hakem sürecini geliştirmek için AI araçlarını kullanmayı düşünebileceğini not edin, hem yargılamanın verimliliği hem de hakemin karar alma sürecinin kalitesi dahil, Ama bu hakemler "karar verme yetkilerini AI'ya bırakmamalı" ve "AI araçlarına herhangi bir görevi devretmekten kaçınmalısınız [...] Böyle bir kullanım prosedürel veya önemli kararları etkileyebilirse.”[22] makale 8 Ayrıca hakemlere yapay zeka aracılığıyla elde edilen bilgilerin doğruluğunu ve doğruluğunu bağımsız olarak doğrulamaları gerektiğini hatırlatır., aynı zamanda kararları üzerinde gereksiz etkiyi önlemek için kritik bir bakış açısı korurken.[23] En sonunda, makale 8 hakemlerinBir ödülün tüm yönleri için sorumluluk üstlenecektir, karar verme sürecine yardımcı olmak için yapay zeka kullanımı ne olursa olsun.”[24]
makale 9 hakemleri taraflara danışmaya teşvik eder, aynı mahkemedeki diğer hakemlerin yanı sıra, AI araçlarının tahkim işlemleri boyunca kullanılıp kullanılamayacağı konusunda.[25]
Bu not şimdi geri dönecek Lapaglia Hakemin iddia edilen davranışını bu AI yönergeleri göz önünde bulundurarak inceleme davası.
analiz: Lapaglia AI yönergelerine göre
Hakemin iddia edilen davranışını incelemek Lapaglia V. Valf Corp. (tamamen) Yönergelerin merceğinden, AI'nın uygunsuz/uygun kullanımı ile ilgili siyah beyaz bir durum değildir, Davacı tarafından iddia edilen tüm gerçekler doğru olarak alınsa bile.
Örneğin, SVAMC kılavuzuna göre 6 ve Ciarb makalesi 8, Hakem AI kullanmışsa, chatgpt gibi, Ödülü hazırlarken, Bu değil kendi başına uygunsuz, Karar verme gücünü koruduğu ve herhangi bir prosedürel yapmada AI'dan etkilenmediği sürece, gerçek, veya yasal kararlar.[26]
ancak, Eğer, Davacının iddia ettiği gibi, Hakem gerçekten de olmayan gerçekleri ve kanıtları belirtti ”kayıtta veya başka bir şekilde kanıtlanmış veya hatta tartışılmış”,[27] SVAMC Kılavuzu 7 Hakem yapamazsa bunun uygunsuz olabileceğini öne sürüyor “Taraflara önceden uygun açıklamalar ve, pratik kadar, tarafların bu konuda yorum yapmasına izin vermek”, [28] ciddi gerekli süreç endişelerini artırabilir.
Daha ileri, SVAMC Kılavuzu 7 ve Ciarb makalesi 8 Her ikisi de hakemlerin ödüllerinde yapılan herhangi bir ifadenin doğruluğunu bağımsız olarak doğrulama görevi olduğunu hatırlayın. Böylece, Hakem tarafından kullanılan AI, gerçeklere atıfta bulunursa, “hem yanlış hem de yargılamada veya kayıtta sunulmamış”, davacının iddia ettiği gibi,[29] Hakemin doğruluğunu doğrulamak göreviydi, Ve görünüşe göre bunu başaramıyor (İddiaya göre final ödülüne ulaştıkları gibi), Hakem uygunsuz bir şekilde kullanmış olabilir.
bunlara ek olarak, Davacının dilekçesi, bu fabrikasyon gerçekleri hangi bağlamda açıklığa kavuşturmazken, Tutarsızlıklar ve aşırı generalizasyonların, ödülte veya hakemin kararında herhangi bir etkisi olduğu görüldükleri iddia edildi., Ödüldeki varlıkları, hakemin karar verme gücünün hiçbirini devredip devretmediğini sorgulamıyor gibi görünüyor., özellikle ödülün gerçek analizi ile ilgili olarak, AI'ya, SVAMC kılavuzunun aksine 6 ve Ciarb makalesi 8, yukarıda belirtildiği gibi.[30]
Herhangi bir olayda, Davacının dilekçesine dayanarak, Hakemin herhangi bir tür yapılıp, yargılamalar boyunca AI'nın herhangi bir kullanımı ile ilgili açıklanıp açıklanmadığı belirsizdir.. ancak, Hem SVAMC yönergeleri hem de CIARB kılavuzu, Bir hakem herhangi bir miktarda AI kullanmalı mı, Kullanımını taraflara açıklamalıdır,[31] Önceden onaylarını almazsa.[32]
Sonuç
Bu, Lapaglia V. Valf Corp. dava-hala beklemede ve henüz adli olarak değerlendirilmeyen iddialara dayanmasına rağmen-yapay zekanın hakem karar vermesinde rolü hakkında önemli ve zamanında sorular ortaya çıkarır.. Davacının dilekçesinin olgusal temeli belirsiz kalsa bile, Dava, hakemler güvendiğinde ortaya çıkabilecek zorluk ve karmaşıklık türlerini yararlı bir şekilde göstermektedir., veya güvenmekten şüpheleniliyor, AI Tools'da Ödüller Çıkarma.
Yukarıdaki analizin gösterdiği gibi, Temel bir ilke: tahliye etmeme. Hakemler, yargılama işlevlerini üçüncü bir tarafa - insan veya makineye - dış kaynak kullanamazlar, ne de teknolojinin bağımsız akıl yürütmelerini tehlikeye atmasına izin veremezler. Yapay zeka idari veya çizim görevlerine yardımcı olabilirken, Hakemin kişisel katılımını gerçeklerle değiştiremez, kanıt, ve hukuk.
Aynı derecede önemli olan şeffaflıktır. Hakemlerin yapay zeka araçlarını kullandığı yer, Bunu taraflara ifşa etmelidirler ve, potansiyel olarak, önceden onaylarını arayın. SVAMC ve CIARB tarafından verilenler gibi yönergeler, hakemlerin doğruluk için nihai sorumluluk üstlendiğini açıkça ortaya koymaktadır., bütünlük, ve ödüllerinin insan yazarlığı.
Bu, Lapaglia Case ayrıca ortaya çıkan bir delil sorunu da vurguluyor: Taraflar bir ödülün - veya bir kısmının - AI tarafından hazırlandığını nasıl kanıtlayabilir?? AI algılama araçları güvenilir mi, Ve mahkemeler bu tür kanıtları nasıl ele almalı? Ya bir hakem, akıl yürütmenin yerine geçmek yerine netliği artırmak için yapay zeka kullanırsa?
AI araçları daha sofistike ve yaygın olarak kabul edildikçe, Bu sorular giderek daha önemli olacak. Mahkemeler, tahkim kurumları, ve tarafların yapay zeka kullanımı için uygun standartlarla uğraşmaları gerekecek, ifşa mekanizmaları, ve kötüye kullanımın sonuçları. Olsun ya da olmasın Lapaglia dilekçe başarılı, Tahkimin artık kaçınamayacağı daha geniş bir konuşmayı kışkırtmayı başardı..
[1] Tahkim Ödülü'nü boşaltmak için dilekçe; Puan ve Yetkililer Mutabakatı 2, Lapaglia V. Valf Corp., Hayır. 3:25-Özgeçmiş-00833 (SD. Kal. Nisan. 8, 2025).
[2] İD. en 2- 3.
[3] İD. en 3.
[4] İD. en 4.
[5] İD. en 4.
[6] İD. en 2. Davacı ayrıca, hakemin davacının talebini yanlış bir şekilde pekiştirdiği iddia edilen ödüle itiraz etti. 22 Tahkim Anlaşmasını ihlal eden diğerleri ve davacının, davacının tekel pazar payına sahip olduğunu kanıtlayan bir uzman raporu sunmasına izin vermeyi reddetti..
[7] İD. en 9.
[8] İD. en 9.
[9] İD. en 9.
[10] İD. en 10.
[11] İD. en 9.
[12] İD. en 10.
[13] Taşınmak, Inc. v. Citigroup Global Mkts., 840 F.3d 1152, 1159 (9sir. 2016).
[14] İD. en 10.
[15] İD. en 10.
[16] bir. Singh Chauhan, Tahkimde yapay zekanın geleceği: Kurgu ve gerçeklik arasındaki ince çizgi, 26 Eylül 2020, https://arbitrationblog.kluwerarbitration.com/2020/09/26/future-of-ai-in-arbitration-the-fine-line-between-fiction-and-reality/.
[17] M. Magal ve ark., Tahkimde yapay zeka: Delil sorunları ve beklentileri, 12 Ekim 2023, https://globalarbitrationreview.com/guide/the-guide-evidence-in-international-arbitration/2nd-edition/article/artificial-intelligence-in-arbitration-evidentiary-issues-and-prospects.
[18] SVAMC Yönergeleri, Giriş.
[19] SVAMC Yönergeleri, Kılavuz 6.
[20] SVAMC Yönergeleri, Kılavuz 7.
[21] CIARB Kılavuzu, Giriş.
[22] CIARB Kılavuzu, Nesne 8.1, 8.2.
[23] CIARB Kılavuzu, makale 8.3.
[24] CIARB Kılavuzu, makale 8.4.
[25] CIARB Kılavuzu, Nesne 9.1-9.2.
[26] SVAMC Yönergeleri, Kılavuz 6; CIARB Kılavuzu, makale 8.
[27] Tahkim Ödülü'nü boşaltmak için dilekçe; Puan ve Yetkililer Mutabakatı 9, Lapaglia V. Valf Corp., Hayır. 3:25-Özgeçmiş-00833 (SD. Kal. Nisan. 8, 2025).
[28] SVAMC Yönergeleri, Kılavuz 7.
[29] Tahkim Ödülü'nü boşaltmak için dilekçe; Puan ve Yetkililer Mutabakatı 9, Lapaglia V. Valf Corp., Hayır. 3:25-Özgeçmiş-00833 (SD. Kal. Nisan. 8, 2025).
[30] SVAMC Yönergeleri, Kılavuz 6; CIARB Kılavuzu, makale 8.
[31] SVAMC Yönergeleri, Kılavuz 6.
[32] CIARB Kılavuzu, Nesne 9.1-9.2.