Etiket arşivi: otonom sistemler

Yapay Zeka Mahkemede: “Kara Kutu” Efsanesini Çürüten ve Hukukun Geleceğini Şekillendiren 5 Kritik Gerçek

Yapay zekânın hukuk alanındaki olumlu katkıları, hukuki süreçlerin hızlanmasından adalete erişimin kolaylaşmasına kadar geniş bir yelpazeyi kapsamaktadır. Hukuks sistemlerinin tıkandığı, adaletin insanı rahatsız edecek kadar geçikmeler, hatta insanların yanlış, bazen taraflı kararlardan geç gerçekleştiği bir dönemde yapay zeka bu sorunların aşılması için önemli katkı sağlama potansiyeline sahiptir. Ancak bu potansiyelin daha olumlu şekilde kullanılabilmesi için bu alanda gündeme getirilen bazı sorunların çözümü gerekmektedir.

Yapay zekâ destekli araştırma araçları, devasa büyüklükteki veri tabanlarını, emsal kararları, mevzuatları ve doktrinleri saniyeler içinde tarayarak avukatların en uygun içtihatları ve yasal prensipleri bulmalarını sağlar. Örneğin, “ROSS” gibi yazılımlar mevcut hukuk kaynaklarını analiz ederek sorulara doğrudan cevap verebilir ve mevzuattaki güncel değişiklikleri takip edebilir. Ayrıca yapay zekâ, büyük hacimli hukuki belgeleri özetleyerek ana temaların hızlıca anlaşılmasına olanak tanır.

Elektronik ortamda depolanan milyonlarca sayfalık bilginin (ESI) incelenmesi süreci, yapay zekâ algoritmaları sayesinde hızla ve tutarlı bir şekilde gerçekleştirilebilmektedir. Yapay zekâ, bu devasa veri yığınları arasında “samanlıktaki iğneyi” bularak uyuşmazlıkla ilgili belgeleri tespit eder, anormallikleri işaretler ve inceleme sürecindeki insan hatasını en aza indirir. Ayrıca sözleşme incelemelerinde sapmaları ve riskleri tespit ederek avukatlara yardımcı olur.

Yapay zekâ, taraflar arasındaki anlaşmazlıkların çözümünde arabulucu rolü üstlenebilmektedir. Örneğin “Modria” isimli yazılım, e-ticaret veya tüketici uyuşmazlıklarında tarafların argümanlarını toplayıp kanıtları analiz ederek adil bir çözüm yolu bulmak için kullanılmaktadır. Benzer şekilde, robotik arabulucuların tarafların teklif taktiklerini öğrenerek (gizli teklifleri ifşa etmeden) onları optimal bir anlaşmaya yönlendirdiği ve aylarca süren uyuşmazlıkları saatler içinde çözebildiği görülmüştür.

Yapay zekânın hukuk alanındaki en önemli katkılarından biri, yasal hizmetleri daha uygun maliyetli hale getirerek dezavantajlı grupların adalete erişimini sağlamasıdır. Yapay zekâ destekli sanal asistanlar ve yasal sohbet botları (chatbot), insanların otopark cezalarına itiraz etmelerine, tüketici hakları taleplerini yönlendirmelerine ve temel hukuki tavsiyeler almalarına olanak tanımaktadır. Örneğin, DoNotPay isimli uygulama yüz binlerce park cezasına başarıyla itiraz etmiştir.

Zaman alan, manuel, rutin işlerin yapay zekâ tarafından devralınması (otomasyon), hukukçuların daha karmaşık, stratejik ve analitik düşünce gerektiren üst düzey işlere odaklanmasını sağlar. Akıllı sözleşmelerin yaygınlaşmasıyla birlikte işlem maliyetleri düşerken, edimlerin çok daha hızlı ve güvenli şekilde gerçekleştirilmesi mümkün hale gelir. Bu verimlilik artışı, hukuk firmalarının işgücü maliyetlerini düşürmesine ve müvekkillerine daha fazla değer sunmasına imkân verir.

Bu olumlu katkılarının yanında günlük hayatımızın her hücresine sızan yapay zeka, artık sadece film öneren bir algoritma değil; özgürlüğümüz, haklarımız ve kaderimiz üzerinde söz sahibi olan “görünmez bir karar verici” konumundadır. Bundan dolayı mevcut riskleri de doğru analiz edip çözümü için çalışmak gerekir. Bu bağlamda hukuki tartışma konusu olan aşağıdaki olumsuzluklara da dikkat edilmesi gerekmektedir.

Mahkeme salonlarından polis merkezlerine kadar uzanan bu dijital otorite, beraberinde “toplumsal ölçekte riskler” (societal-scale risks) barındıran büyük bir gizemi, yani “kara kutu” (black box) algoritmasını getirdi. Birçok hukukçu ve teknoloji uzmanı, bu sistemlerin neden belirli bir sonuca vardığını açıklayamamasını teknolojinin kaçınılmaz bir bedeli olarak görüyor. Hukukun temel prensiplerinden olan şeffaflık olmadan; adalet, anlamadığımız bir mekanizmaya emanet edilemeyecek kadar hayati bir kavramdır.

İşte “kara kutu” gizemini sarsan ve hukukun geleceğini yeniden tanımlayan beş kritik gerçek.

1. Yanılsama: “Kara Kutu” Tablo Verilerinde Daha mı Doğru Sonuç Verir?

Yapay zeka hakkındaki en tehlikeli efsane, model ne kadar karmaşık ve anlaşılamazsa, o kadar doğru sonuç verdiği varsayımıdır. Oysa bu bir teknolojik illüzyondur. Bilgisayar bilimi araştırmaları, verileri ikiye ayırır: Görüntü ve ses gibi “ham veriler” (raw data) ve sabıka kaydı, yaş, eğitim gibi “tablo verileri” (tabular data). Hukuki süreçlerin %99’u tablo verileriyle yürür. Semenova, Rudin ve Parr gibi araştırmacıların ortaya koyduğu üzere, özellikle suçun tekrarlanması gibi “gürültülü” (noisy) ve rastlantısallık payı yüksek süreçlerde, basit ve yorumlanabilir modeller en karmaşık modellerle aynı performansı sergiler.

“İster hayranı ister eleştireni olsun, yapay zeka hakkındaki yanlış varsayım şudur: Kara kutu anlaşılamaz olabilir ama daha doğru çalışır. Oysa durum böyle değildir.”

Burada kritik bir teknik ayrım yapmamız gerekiyor: “Açıklanabilir YZ” (Explainable AI – XAI), karmaşık bir kara kutunun üzerine sonradan eklenen ve çoğu zaman hatalı olan bir “maske” veya “tahmin” iken; “Yorumlanabilir YZ” (Interpretable AI – Glass Box), tasarım gereği her adımı izlenebilir olan altın standarttır. Adaletin tecellisi için ihtiyacımız olan şey, kara kutuyu parlatmak değil, onu tamamen “cam kutu” (glass box) modellerle değiştirmektir. Özellikle hukukla bağlantılı geliştirilen teknolojilerde bunun yapılması ahlaki olmanın ötesinde hukuki bir zorunluluktur.

2. Yapay Zeka Bir “Vekil” mi Yoksa Sadece Bir “Enstrüman” mı?

Günümüzde yapay zeka ajanları (AI agents), NVIDIA gibi teknoloji devlerinin de öncülük ettiği üzere, sadece pasif içerik üretmekten çıkıp otonom kararlar alabilen sistemlere dönüştü. Hukuki açıdan bu durum, Restatement (Third) of Agency çerçevesinde değerlendirilmektedir. Ancak unutulmamalıdır ki, mevcut hukuk normlarına göre yapay zeka sistemleri yasal bir “vekil” (legal agent) değil, sadece birer “enstrüman” (instrumentality) olarak kabul edilir. Tabii ki teknolojinin gelişim göstermesi ve eleştirildiği konulardaki başarıları, yaklaşımlarda da değişime sebep olacaktır. Ancak bu durum yapay zekayı vareden insan aklı ve vicdanını aşan bir duruma ulaşamayacaktır. Çünkü yapay zeka algoritmanın esnekliği ve donamın kapasitesinin sınırları içerisinde çalışır.

Bunun temel sebebi, yapay zekanın “öznel niyet” (subjective intent) ve ceza hukukunun temel taşı olan “suç işleme kastı”ndan (mens rea) yoksun olmasıdır. Algoritma kendi kararlarını veriyor gibi görünse de, yasal sorumluluk zinciri her zaman o sistemi piyasaya süren veya kullanan “asıl” (principal) kişiye, yani insana veya kurumsal yapıya uzanır. Bir yapay zeka ajanı hata yaptığında, bu bir “vekâlet ihlali” değil, kullanılan bir aracın “arıza yapması” olarak görülmelidir. Bu alandaki yeni gelişmeler bağlı bazı açılımlar olsa da henüz genel durum değişmiş değildir.

3. Veri Kirliliği: “MNAR” ve Algoritmik Adaletsizlik

Algoritmik kararların tarafsız olduğu inancı, verinin kusursuz olduğu yanılgısına dayanır. Oysa ceza adaleti verileri doğası gereği “kirli” ve eksiktir. İstatistiki olarak “Rastlantısal Olmayan Kayıp Veri” (MNAR – Missing Not At Random) olarak tanımlanan bu durum, sistemin sistematik olarak belirli grupları (örneğin azınlıkları) cezalandırmasına yol açar.

Virginia İnfaz Komisyonu’nun paylaştığı rakamlar bu kirliliğin boyutunu açıkça gözler önüne seriyor:

  • Vakaların %45’inde cinsiyet verisi eksiktir.
  • Sabıka kayıtlarının %35’inde ırk bilgisi girilmemiştir.
  • Hırsızlık vakalarının %68’inde çalınan eşyanın değeri belirtilmemiştir.
  • Uyuşturucu davalarının %49’unda madde türü verisi yoktur.

“Bias in, bias out” (Yanlılık girerse, yanlılık çıkar) ilkesi gereği, bu hatalı veriler yapay zeka tarafından devasa bir sistematik adaletsizliğe dönüştürülür. New York’taki DNA analiz yazılımı (FST) örneğinde olduğu gibi; kodlar ancak bağımsız uzmanlarca açılıp incelendiğinde, yazılımın ırk gruplandırmasında ve hesaplamalarında korkunç hatalar yaptığı anlaşılmış ve kullanımı derhal durdurulmuştur. Buna rağmen bu alandaki gelişmeler, sınırları zorlamaya devam etmektedir.

4. AB Yapay Zeka Yasası: Risk Basamakları ve Uygulayıcı Sorumluluğu

Avrupa Birliği Yapay Zeka Yasası (EU AI Act), bu riskleri yönetmek için net bir hiyerarşi kurar. Yasada “Geliştiriciler” (Providers) ve “Uygulayıcılar/Deployers” (Polis, mahkeme vb.) arasında keskin bir görev ayrımı vardır. Yasanın Annex III (Ek III) maddesinde listelenen şu uygulamalar doğrudan “Yüksek Riskli” kabul edilir ve sıkı denetime tabidir:

  • Poligraflar (Yalan makineleri).
  • Ceza soruşturmalarında delil güvenilirliğinin değerlendirilmesi.
  • Geçmiş verilere dayanarak bir kişinin suç işleme riskinin analizi.

Buna karşılık, sosyal puanlama (social scoring) ve iş yerinde duygu tespiti gibi uygulamalar “Kabul Edilemez Risk” kapsamında tamamen yasaklanmıştır. Yasa, yüksek riskli sistemlerin tasarım aşamasından itibaren şeffaf, denetlenebilir ve insan gözetimine açık olmasını bir tercih değil, hukuki bir zorunluluk olarak tanımlar.

5. Adil Yargılanma Hakkı: “Cam Kutu” Bir Anayasal Gerekliliktir

Hukuk sistemimizde “ticari sır” (trade secret) savunması, genellikle sanığın savunma hakkının önüne bir set olarak çekilir. Loomis davasında mahkeme algoritmik gizliliği korumaya meyletmiş olsa da, güncel içtihatlar bu eğilimi sarsmaktadır. State v. Chun (alkolmetre kod hataları), State v. Pickett ve State v. Arteaga gibi davalar, mülkiyet haklarının, bireyin özgürlüğünden daha üstün olamayacağını vurgular.

Savunma makamının aleyhindeki delili (kaynak kodu, veri setini ve algoritma mantığını) sorgulayamaması, doğrudan anayasal savunma hakkını felç eder. Stability AI v. Getty Images davasında görüldüğü üzere, modellerin izinsiz verilerle eğitilmesi mülkiyet krizlerine yol açarken; mahkemelerde kullanılan “kara kutu” modeller, adil yargılanma hakkı üzerinde telafisi imkansız hasarlar bırakmaktadır. Eğer bir model, cam kutu (yorumlanabilir) yaklaşımıyla aynı doğruluğu sağlayabiliyorsa, mülkiyet haklarını gerekçe göstererek şeffaflıktan kaçınmak hukuken kabul edilemez bir “tercihtir.”

Sonuç: Algoritmik Adaletin Şafağında Bir Soru

Yapay zekanın hukuktaki varlığı artık bir tercih değil, bir olgudur. Ancak bu varlık, sadece cam kutu şeffaflığıyla güvenli hale getirilebilir. Bu konular üzerine çalışan birisi olarak görüşüm nettir: “Yorumlanabilirlik” teknik bir detay değil, anayasal bir zorunluluktur. Hukukta şeffahlık, savunma hakkı, bilgi edinme hakkı gibi temel hakları içerir. Bunlar hukuk devleti ve de ahlakı için zorunlu niteliklerdir. Özgürlüğünüzü, hayatınızı veya haklarınızı etkileyen bir sistemin, bu kararı neden verdiğini sizinle aynı mantık silsilesi içinde paylaşamaması adaletin ruhuna aykırıdır. Bu teknoloji karar gerekçeleri ile beraber, karar usulünü/mekanizmasını da açıklayabilmelidir. Bu ayrıca savunma hakkı için de zorunlu bir durumdur.

Hukukun geleceği şekillenirken kendimize şu can alıcı soruyu sormalıyız: “Özgürlüğünüz hakkında karar veren bir zekanın, neden ve nasıl bu kararı verdiğini açıklayamaması, teknolojik bir imkansızlık ve/veya eksiklik mi yoksa, stratejik bir hamlemidir?”