Yapay Zekâ Hata Yaparsa: Sorumlu Kim?
Bir sabah uyanıyorsunuz ve yapay zekâ destekli bir sistem sizi hiç ilginiz olmayan bir suçun faili olarak işaretliyor. Kredi notunuz sıfırlanıyor, işinizi kaybediyorsunuz. Ya da otonom bir araç size çarpıyor. Dava açmak istiyorsunuz ama ortada klasik anlamda bir “fail” yok.
Bir yazılıma mı dava açacaksınız? Bir algoritmaya mı? Yoksa onu yazan mühendise, sistemi piyasaya süren şirkete mi?
Bu soru bana artık teorik gelmiyor.
Geçtiğimiz günlerde hukuki bilgisi olmayan ve bir hukukçudan destek almayan, bu yüzden dava dilekçesini yapay zekâya hazırlatan bir kişinin, yanlış dilekçe nedeniyle davasını kaybettiğini okudum. O an şunu düşündüm: Burada gerçekten hata kimde? Yazılımı geliştirenlerde mi, sistemi pazarlayan şirkette mi, yoksa onu sorgulamadan kullanan kişide mi?
Yapay zekâ artık hayatımızın içinde. Bankalar dolandırıcılığı bizden önce fark ediyor, hastanelerde algoritmalar teşhis süreçlerine katkı sunuyor, işe alım sistemleri binlerce başvuruyu saniyeler içinde eliyor. Bu hız ve verimlilik etkileyici. Ama sistem yanıldığında, mesele teknik bir aksaklıktan çıkıp hukuki bir sorumluluk sorusuna dönüşüyor.
Hukuk aslında bu tür sorulara yabancı değil. Yüzyıllardır “kişi” ile “eşya” arasındaki sınırı tartışıyor. Roma Hukuku döneminde yapılan sınıflandırmaların bile bugün hâlâ hukuk düşüncesini etkilediğini hatırlayınca, yapay zekâ için yürütülen tartışmalar bana çok da şaşırtıcı gelmiyor.
2017’de Avrupa Parlamentosu “elektronik kişilik” kavramını gündeme taşıdı. Yani ileri düzey otonom sistemlere, şirketlere benzer sınırlı bir statü verilmesi konuşuldu. Fakat bu öneri, insan aktörleri geri plana itme riski taşıdığı için ciddi eleştiriler aldı. Açıkçası ben de sorunun makineye kişilik vermekle çözüleceğini düşünmüyorum. Asıl mesele, sorumluluğu bulanıklaştırmadan yerli yerine koyabilmek.
Bugün için daha makul görünen yaklaşım, karma bir model. İlk etapta üretici ve geliştiricinin sorumluluğu ön planda tutuluyor, tıpkı bozuk bir ürün mantığında olduğu gibi. Riskin kontrolü kimdeyse yükün de orada olması gerektiği fikri ağır basıyor. Bunun yanında zorunlu sigorta sistemleri ve daha sıkı sorumluluk rejimleri de tartışılıyor.
Yapay zekâyı, kullanmayı seçtiğimiz riskli bir faaliyet olarak görmek belki de daha gerçekçi.
Ama mesele burada bitmiyor. Çünkü bazı sistemler, tasarlayan kişinin öngöremediği sonuçlar üretebiliyor, zira öğreniyor, değişiyor, farklılaşıyor. İşte o noktada klasik kusur anlayışı zorlanıyor.
Öngörülebilirlik nerede başlıyor, nerede bitiyor? Kontrol gerçekten kimde? Belki de yapay zekâ tartışmaları bizi ne kadar ileri götürürse götürsün dönüp dolaşıp aynı yere geliyoruz: Hukuk, insan onurunu ve toplumsal güveni nasıl korur?
Yapay zekâ gelişmeye devam ediyor. Hukukun rolü ise bu gelişimi engellemek değil, adalet duygusunu ve güveni zedelemeden bir çerçeve kurabilmek. Çünkü sonunda mesele teknoloji değil. Mesele, o teknolojiyi tasarlayan, kullanan ve sonuçlarına katlanan insan.
Ve belki de asıl soru şu: Yapay zekâ hata yaptığında, gerçekten ne kadarını makineye, ne kadarını kendimize yüklemeye hazırız?
Av. Dilara Yavuz