Fransız hükümeti bakanları yapay zeka sohbet botu Grok’un X platformunda ürettiği içerikler nedeniyle hukuki süreç başlattı. Bakanlar, söz konusu içeriklerin cinsel nitelik taşıdığı ve açık biçimde yasa dışı olduğu gerekçesiyle savcılığa başvuruda bulundu. Aynı içerikler, Fransa’nın medya düzenleyici kurumu Arcom’a da iletildi.
YAPAY ZEKâ DAVALARI
Kararları algoritmalar aldığında, sorumluluk kime ait olur? Hukuk dünyası, otomasyon, etik kurallar, ceza hukuku ve yapay zekâ etiği arasında bir denge kurmaya çalışıyor.
sürücüsüz araç kaza yaparsa
Sürücüsüz bir araç kaza yaptığında veya bir yapay zekâ sistemi yanlış bir teşhis koyduğunda, cezai yükümlülük nasıl belirlenir? Şu an için robotlar, hukuki bir özne değil ama teknoloji geliştikçe bu tartışma daha da büyüyor.
yapay zeka Hukuki Özne Olabilir mi?
Bir insan, hukuk önünde birey olarak kabul edilir. Peki, bir yapay zekâ veya robot da aynı haklara sahip olabilir mi? Şirketler, tüzel kişilik statüsüne sahiptir ve mahkemelerde taraf olabilir. Benzer bir model, otonom sistemler için de düşünülebilir mi?
Bazı hukukçular, yapay zekânın tüzel kişilik statüsü kazanabileceğini öne sürüyor. Eğer bir yazılım bağımsız kararlar alabiliyor ve ekonomik bir varlık oluşturabiliyorsa, hukuk önünde bir taraf olarak kabul edilmesi gerekmiyor mu?
Ama buradaki en büyük sorun, sorumluluk zinciri. Bir algoritmanın kararlarını kimin denetleyeceği belirsiz. Üreticiler mi? Yazılım geliştiricileri mi? Kullanıcılar mı?
Suç ve Ceza: Yapay Zekâ Mahkemede
Bugün bir suç işlendiğinde fail ve kast kavramları devreye giriyor. Bir insan bilinçli olarak hareket ettiğinde, cezai sorumluluk üstlenir. Fakat bir yapay zekâ, bu bilinç düzeyine sahip değil. Bir örnek: Otonom bir araç yanlış hesaplama sonucu bir kazaya sebep oldu. Şimdi sorumlu kim? Araç sahibinin mi? Üretici firmanın mı? Yazılım ekibinin mi? Benzer İçerik: Dijital Ortamda Fikri Mülkiyet Haklarımı Nasıl Koruyabilirim?
Hukuk burada üç temel yaklaşım üzerinde duruyor: Birincisi üretici sorumluluğu: Sistemi geliştiren şirket hatalıysa, tazminat ödemeli. İkincisi kullanıcı sorumluluğu: Yapay zekâyı yöneten kişi hatalıysa, cezai yaptırımla karşılaşabilir. Üçüncüsü ise bağımsız sorumluluk modeli: Yapay zekâya tüzel kişilik verilirse, kendi eylemlerinden doğrudan sorumlu tutulabilir.
Bu üçüncü model robot hukuku kavramını doğuruyor. Fakat bu etik, felsefi ve teknik açılardan büyük bir tartışma konusu.
Bugün için tam anlamıyla yapay zekâ odaklı bir hukuk sistemi bulunmuyor.
YAPAY ZEKÂ SANIK OLABİLKİR Mİ?
Birkaç örnek dikkat çekici:
ABD’de bir yapay zekâ, patent sahibi olarak kabul edilmedi.
Estonya, basit davaları çözen bir yapay zekâ yargıç sistemi test etti.
Suudi Arabistan, bir robota vatandaşlık verdi, ancak hukuki statüsünü netleştirmedi.
Bu gelişmeler robot hukuku alanında büyük bir değişim olacağını gösteriyor. Önümüzdeki yıllarda yapay zekâlar, resmi olarak birer hukuki taraf hâline gelebilir.
Belki bir gün, bir mahkeme salonunda, bir yapay zekâ sanık, bir yapay zekâ avukat, hatta bir yapay zekâ yargıç görebiliriz. O gün geldiğinde, hukuk insan mı yoksa yapay zekâ mı üstün? sorusuna bir yanıt bulmak zorunda kalacak.