Akıllı İçindekiler Menüsü ile Aradığınız Bilgiye Hızlı Ulaşın !!!
Yükleniyor...

Yapay Zekâ ile Mesleki Kariyerinizi Bitirebilirsiniz…

Yapay Zekâ Halüsinasyonları ve Mesleki Sorumluluk

Dijital çağın en çarpıcı dönüşümlerinden biri, yapay zekâ tabanlı büyük dil modellerinin (LLM – Large Language Model) bilgi üretimi süreçlerine dahil olmasıdır. ChatGPT gibi metin üreten sistemler, hukukçular, akademisyenler, bilirkişiler ve danışmanlar için başta zaman kazandıran bir “yardımcı araç” gibi görünse de; bu sistemlerin denetimsiz veya bilinçsiz kullanımı mesleki sorumluluk açısından geri döndürülemez riskler doğurmaktadır.

Özellikle adli bilişim, hukuk danışmanlığı ve bilirkişilik alanında faaliyet gösteren profesyoneller için, yapay zekâdan elde edilen metinlerin içerdiği halüsinatif (uydurulmuş) bilgiler hem mesleki etik ilkelere hem de doğrudan kanuni düzenlemelere aykırılık teşkil edebilir. Bir yapay zekâ çıktısında geçen “Yargıtay kararı”, “bilimsel kaynak”, “tarihsel gerçeklik” ya da “kanun maddesi” gibi unsurlar, gerçekte var olmayabilir, ancak dilsel olarak öylesine ikna edici biçimde sunulur ki, ilk bakışta sahte olduğu fark edilmez.

Bu duruma dair en çarpıcı örneklerden biri, 2024 yılında ABD Alabama Bölge Mahkemesi’nde yaşandı. Bir hukuk bürosu, ChatGPT ‘den aldığı sahte içtihatları gerçek sanarak dava dilekçesine ekledi. Mahkeme, kararların gerçek olmadığını tespit ettikten sonra, avukatları kamuya açık şekilde kınadı, davadan men etti ve durumu eyalet barosuna bildirdi. Bu olay, yapay zekâ çıktılarının profesyonel belgelerde kullanılmadan önce çok katmanlı doğrulama süreçlerinden geçirilmesi gerektiğini açık bir şekilde göstermiştir.4

Bu rehber; yapay zekâ ile üretilen metinlerin doğruluğunu nasıl kontrol edeceğinizi, halüsinasyon içeren içerikleri nasıl tanıyacağınızı ve mesleki sorumluluğunuzu nasıl güvence altına alacağınızı teknik ve hukuki düzlemde adım adım açıklamayı amaçlamaktadır. Çünkü bilinçsizce kullanılan bir metin sadece hatalı bilgiye değil, bir hukukçunun veya bilirkişinin kariyerini sona erdirecek bir disiplin cezasına da yol açabilir.

Şimdi, yapay zekâ kaynaklı halüsinasyonların mesleki sorumluluğa nasıl dönüştüğünü gösteren en somut örnek olan ABD Federal Mahkemesi kararına yakından bakalım. Bu olay, yalnızca bireysel bir hata değil, yapay zekânın denetimsiz kullanımının mesleki itibara ve hukuk güvenliğine etkilerini ortaya koyan emsal nitelikte bir vakadır.

1. OLAYIN ÖZETİ

Bu dava, Alabama eyalet ceza sisteminde görevli olan kamu görevlilerine karşı açılmış bir insan hakları ihlali davasıdır. Davalı tarafı temsil eden üç avukat Matthew B. Reeves, William J. Cranford ve William R. Lunsford – mahkemeye sundukları dilekçelerde, ChatGPT gibi üretken yapay zekâ araçları tarafından oluşturulmuş uydurma içtihatları kaynak olarak göstermiştir.

Mahkeme tarafından yapılan incelemede bu içtihatların hukuk literatüründe mevcut olmadığı tespit edilmiş; bu durumun fark edilmesiyle birlikte ilgili avukatlar, yapay zekâdan alınan bilgileri kontrol etmeden doğrudan mahkeme belgelerine aktardıklarını itiraf etmişlerdir.

2. HUKUKİ DEĞERLENDİRME

a. Uygulanabilirlik Sorunu

Federal Usul Kuralları’nın 11. maddesi (Rule 11), dava dilekçeleri için geçerli olsa da keşif süreciyle ilgili belgeler bakımından kapsam dışı kalmaktadır. Bu nedenle Mahkeme, klasik usul kurallarına dayanmak yerine kendi “inherent authority” (asli yargı yetkisi) kapsamında yaptırım uygulamıştır.

b. Mesleki İhlal ve Etik Sorumluluk

Mahkeme, avukatların üretken yapay zekâdan alınan bilgileri hiçbir doğrulama yapmadan kullanmasını ciddi bir mesleki ihmal ve hukuk sistemine zarar veren davranış olarak nitelendirmiştir. Özellikle:

  • Atıfların doğruluğunu teyit etmeden dosyalara eklemeleri,
  • Kopyala-yapıştır yöntemlerini sistematik hâle getirmeleri,
  • Kurumsal denetim ve imza süreçlerinin yetersizliği,

Bu üç avukatın ve bağlı oldukları Butler Snow LLP hukuk bürosunun toplu sorumluluğu olarak değerlendirilmiştir.

33. BUTLER SNOW HUKUK BÜROSUNUN YAKLAŞIMI

Olay sonrasında hukuk bürosu:

  • Bir Yapay Zekâ Komitesi kurmuş,
  • Yeni iç yönergeler geliştirmiş,
  • Prefiling doğrulama protokolü getirmiş,
  • Tüm avukatlarına yönelik eğitim programları başlatmıştır.

Kurumsal temsilci, firmanın “nihai sorumluluğu üstlendiğini” ve avukatlarının bireysel hatalarının tüm kurumu etkilediğini mahkemeye bildirmiştir.

4. YAPTIRIM KARARLARI

Mahkeme aşağıdaki yaptırımları uygulamıştır:

  • Matthew Reeves, William Cranford ve William Lunsford kamuya açık şekilde KINANMIŞTIR,
  • Bu üç avukatın ilgili davaya daha fazla katılımı YASAKLANMIŞTIR,
  • Olay, Alabama Eyalet Barosu, meslek odaları ve lisans kurullarına RESMÎ BİLDİRİM yoluyla aktarılmıştır.

Mahkeme ayrıca, avukatların meslek yaşamlarında benzer hataları önlemeye dönük yapısal ve etik reformların zorunlu olduğuna dikkat çekmiştir.

5. DİKKAT ÇEKEN HUSUSLAR

  • Yapay zekâ ile hazırlanmış içtihatların yargı sistemine etkisi, ilk defa bu kadar kapsamlı bir şekilde değerlendirilmiştir.
  • Mahkeme, AI kaynaklı hataların yalnızca bireysel değil, kurumsal bir etik sorumluluk doğurduğunu belirtmiştir.
  • Mahkeme, “AI tarafından üretilmiş bir veriyi, doğrulama yapmadan mahkemeye sunmanın, kasten yalan beyanla eşdeğer bir mesleki ihlal” olduğunu vurgulamıştır.

6. SONUÇ

Bu karar, ABD yargı sisteminde yapay zekâ teknolojilerinin profesyonel kullanımı bakımından önemli bir dönüm noktasıdır. Mahkeme, dijitalleşmenin sunduğu kolaylıkların sorumlulukla birlikte değerlendirilmesi gerektiğini vurgulayarak, meslek etiği, beyan doğruluğu ve kurum içi denetim mekanizmalarının güncellenmesinin elzem olduğunu ortaya koymuştur.

📄 İlgili Mahkeme Kararına Erişim

Bu rehberde altı başlık altında teknik ve etik yönden detaylı olarak incelediğimiz ABD Federal Mahkemesi kararına, ilgili mahkeme kayıt sisteminden erişebilirsiniz. Yapay zekâ tarafından üretilmiş sahte içtihatların dava dilekçesine eklenmesi sonucunda, avukatların disiplin soruşturmasına tabi tutulduğu bu emsal nitelikteki karar, özellikle hukuk profesyonelleri için dikkatle incelenmesi gereken önemli bir örnektir.

🔗 Kararın tam metnine aşağıdaki bağlantı üzerinden ulaşabilirsiniz:Adsız Tasarım (6)
ABD Southern District of New York – Mata v. Avianca, Inc. (1:22-cv-01461)

Yapay Zekâ Gerçekleri Değil, Kalıpları Üretir:

“ChatGPT Hata Yapabilir. Önemli Bilgileri Kontrol Edin.” Uyarısının Arkasındaki Kritik Gerçek

Yapay zekâ modelleri günlük yaşamdan uzmanlık alanlarına kadar geniş bir yelpazede bilgi üretme süreçlerinde etkin biçimde kullanılmaktadır. Ancak bu yaygın kullanım, beraberinde ciddi bir bilişsel tuzağı da getirmektedir: Modelin güven verici dil üretimi, çoğu zaman gerçek bilgi üretimiyle karıştırılmaktadır.

Özellikle ChatGPT gibi büyük dil modelleri (LLM – Large Language Models), “anlamlı”, “akıcı” ve hatta “otoriteye benzeyen” metinler oluşturma konusunda son derece yeteneklidir. Ancak bu yetenek, modelin gerçeklik denetimi yaptığı anlamına gelmez. Yapay zekâ sistemleri, gerçekte olanı değil, eğitim verilerinde benzer biçimde karşılaşılan kalıpları yeniden üretir. Bu nedenle, oluşturulan metnin içeriği kimi zaman doğrulanabilir bilgiye değil; benzer cümle yapılarının ve sözdizimsel örüntülerin bir araya getirilmesine dayanır.

Tam da bu nedenle, ChatGPT’nin ara yüzünde görülen şu uyarı aslında hukuki ve mesleki sorumluluğun merkezinde yer alan bir prensibe işaret etmektedir:

“ChatGPT hata yapabilir. Önemli bilgileri kontrol edin.”

Bu cümle, yalnızca kullanıcıyı bilgilendirme amacı taşıyan basit bir uyarı değildir. Aksine, yapay zekâ ile üretilen her içeriğin – özellikle hukuki, bilimsel veya teknik belgelerde – mutlaka bağımsız kaynaklar üzerinden doğrulanması gerektiğini vurgulayan temel bir güvenlik ilkesidir.

Nitekim bu uyarının dikkate alınmaması; uydurma içtihatların dava dosyalarına girmesi, var olmayan bilimsel kaynakların makalelerde kullanılması ya da sahte karar numaralarıyla mütalaa hazırlanması gibi telafisi zor hatalara yol açabilir. Bu durum yalnızca bilgi kirliliği yaratmakla kalmaz; aynı zamanda etik ihlaller, disiplin soruşturmaları ve mesleki sorumluluk davaları gibi sonuçları da beraberinde getirebilir.

Bu nedenle, yapay zekâ çıktılarının teknik altyapısını, halüsinasyon üretme nedenlerini ve bunlara karşı alınması gereken önlemleri derinlemesine incelemek hem kullanıcı güvenliği hem de mesleki itibar açısından kaçınılmaz bir sorumluluktur.

Yapay zekâ tabanlı büyük dil modelleri (LLM – Large Language Models), insan diline benzer cümleler üretme yetenekleriyle dikkat çekmektedir. Ancak bu modeller, dilin yüzeysel yapısını taklit ederken zaman zaman gerçeklikten kopuk, uydurma veya hiç var olmamış bilgileri de üretebilirler. Bu fenomene “halüsinasyon” (hallucination) adı verilmektedir ve bu durum, özellikle hukuk, sağlık, mühendislik gibi hata toleransı olmayan alanlarda ciddi güvenlik riski oluşturmaktadır.

1. Veriye Dayalı Değil, Olasılığa Dayalı Üretim2

ChatGPT gibi modellerin temel işlevi, verilen bir girdiye karşılık, bir sonraki kelimenin en olası ne olacağını tahmin etmektir. Bu tahmin süreci, milyarlarca parametreyle eğitilmiş derin öğrenme ağları aracılığıyla gerçekleşir. Model, geçmişte gördüğü benzer cümle yapılarına göre yeni bir metin üretir. Ancak bu üretim süreci bilgi doğruluğu üzerinden değil, yalnızca dilsel benzerlik ve olasılık üzerinden ilerler. Dolayısıyla, sistemin “gerçek olup olmadığını bilmesi” mümkün değildir.

2. Kaynak Tabanlı Çalışmaz

Dil modelleri, bir web tarayıcısı gibi bilgiye erişmezler. ChatGPT örneğinde olduğu gibi modeller, 2023 yılına kadar olan verilerle eğitilmiş olabilir, ancak bu verilerde eksik, hatalı veya tarihsel bağlamı kaybolmuş içerikler de bulunabilir. Bu nedenle “Yargıtay’ın şu kararında...” gibi ifadelerle üretilen içerikler, modelin belleğinde var olan ama gerçekten kaynak alınmayan şablonlardır.

3. Kaynak Taklidi: Sahte Referans Üretimi

Bir diğer riskli davranış, modelin “kaynak gösterme” beklentisini karşılamak için gerçekmiş gibi görünen ama var olmayan atıflar üretmesidir. Örneğin:

“Yargıtay 12. Ceza Dairesi 2021/456 E., 2021/987 K.” Veya

“Smith & Brown, AI Ethics in Legal Systems, Harvard Law Journal, 2022”

gibi örnekler, modelin istatistiksel öğrenme süreciyle ürettiği tamamen uydurma referanslardır.

4. Halüsinasyonlara Zemin Hazırlayan Faktörler

Etken

Açıklama

Eğitimin kalitesiz/veri-yoğun kaynaklarla yapılması

Modellerin düşük güvenilirlikteki internet verisiyle eğitilmesi, halüsinasyon oranını artırır.

Belirsiz veya geniş kapsamlı sorular

“Şu konuda örnek Yargıtay kararı ver” gibi talepler, uydurma üretimi tetikler.

“Gerçek gibi yaz” beklentisi

Kullanıcı çıktının akademik görünmesini istediğinde, model daha fazla uydurma kaynak üretme eğilimi gösterir.

5. Halüsinasyon Riski Taşıyan Kullanım Senaryoları

  • Dava dilekçelerine doğrudan yapay zekâ metni eklenmesi
  • Bilirkişi mütalaasında dayanak kararların AI üzerinden alınması
  • Akademik metinlerde kaynak kontrolü yapılmaksızın kullanılması
  • Medyada AI destekli otomatik içerik üretimi yapılması

Sonuç olarak, ChatGPT ve benzeri yapay zekâ sistemleri, gerçek bilgi üretmez; yalnızca olasılığa dayalı dil çıktısı oluşturur. Bu nedenle mesleki belgelerde bu çıktıları kullanmak isteyen herkes, çift katmanlı doğrulama, bağımsız kaynak kontrolü ve etik beyan gibi önlemleri almak zorundadır. ABD’de yaşanan olay, halüsinasyonların hukuki sonuçlara yol açabileceğini ve meslekî sorumluluk ihlali doğurabileceğini gösterir.

4🎯 Örnek Üzerinden Halüsinasyon Analizi:

“Yapay Zekâ, Neden ve Nasıl Yanlış Bilgi Üretebilir?”

Yapay zekâ tabanlı büyük dil modelleri (LLM – Large Language Models), yapıları gereği bilgi doğruluğu denetimi yapmazlar. Bunun yerine, önceki verilerde gözlemlenen örüntülerden yola çıkarak en muhtemel metni üretirler. Bu durum, özellikle karar numarası, yasa maddesi, içtihat veya akademik kaynak gibi doğruluk denetimi gerektiren içeriklerde ciddi riskler doğurur.

Aşağıda verilen prompt ve buna karşılık alınabilecek muhtemel ChatGPT çıktısı, bu riski somut biçimde göstermektedir:

  • Örnek Prompt (Kullanıcı Komutu):

“Forex piyasasında fiyat manipülasyonu yapan sanıkla ilgili Yargıtay 19. Ceza Dairesi'nin kararını örnek olarak verir misin? Lütfen karar numarasını ve kısa özetini de yaz.”

➡️ Risk: Eğer modelin eğitiminde o karara dair gerçek bir içerik yoksa, model “olası bir karar numarası ve içerik” uydurur. Çünkü siz “örnek” istediniz; model de “gerçek gibi duran” bir örnek üretmeye çalışı

  • Yapay Zekânın Verebileceği Halüsinatif Yanıt (Gerçek Dışı Örnek):

Yargıtay 19. Ceza Dairesi’nin 2018/7421 E., 2020/3279 K. sayılı kararı:
“Failin, birden fazla aracı kurum hesabı kullanarak fiyatları yapay şekilde yükselttiği ve bu yolla haksız kazanç sağladığı tespit edilmiş, bu eylemin manipülasyon suçunu oluşturduğu kabul edilmiştir.”

  • Uydurma Karar Üretimini Teşvik Eden Kalıp

Yanlış prompt:

“Manipülasyon suçu ile ilgili Yargıtay kararı yaz ve karar numarası da ver.”

➡️ Risk: Bu açık biçimde sahte karar üretimini tetikler. Çünkü ChatGPT gerçek veri tabanına bağlı değildir, ama sizden gelen talebe karşılık bir “numara da içeren” örnek oluşturur. Ortaya çıkan metin doğru yazılmış gibi görünse de tamamen uydurmadır.

  • Güven Uyandıran Cümlelerle Halüsinasyon Beklentisi Yaratma

Yanlış prompt:

“Yargıtay karar metinlerinden birini özetleyip bana karar numarasıyla birlikte akademik dille yaz.”

➡️ Risk: Bu da modelin gerçek kaynak olmaksızın, sadece dil formunu taklit ederek içerik üretmesine yol açar. Dil akıcı, üslup ikna edici olabilir; ama içerik halüsinatiftir.

Profesyonel Analiz: Neden Bu Yanıttaki Bilgi Uydurmadır?

İnceleme Kriteri

Durum

Açıklama

Karar numarası var mı?

❌ Gerçekte böyle bir karar yok

UYAP, Kazancı, Lexpéra taramalarında karşılığı bulunmamaktadır.

İçerik tutarlı mı?

✔ Dil açısından tutarlı

Dilsel olarak ikna edici ama içerik kurgusaldır.

Model niçin uyduruyor?

🧠 Tahmine dayalı üretim

Model, önceki benzer örüntülere göre mantıklı bir metin üretmiştir.

Nerede tehlikeli olur?

⚖️ Dilekçede, mütalaada

Bu tür uydurma içerikler dava sürecine dahil edilirse mesleki risk oluşur.

  • Doğru ve Güvenli Prompt Örnekleri
  • Doğruluk Beyanı Talep Edilen Güvenli Sorgu

Doğru prompt:

“Yargıtay 19. Ceza Dairesi’nin 2018/7421 E., 2020/3279 K. sayılı kararının gerçekten var olup olmadığını belirt. Eğer böyle bir karar mevcut değilse ‘uydurmadır’ de.”

➡️ Yarar: Bu tür prompt’lar, halüsinasyon yerine ‘karar hakkında bilgi yok’ cevabını üretir.

  • Kaynak Doğrulama Vurgulu Sorgu

Doğru prompt:

“Forex piyasasında manipülasyon suçuna ilişkin Yargıtay kararları varsa, sadece gerçekten var olanları ve internette doğrulanabilir bağlantıları olanları sıralar mısın?”

➡️ Yarar: Bu, yalnızca kamuya açık kaynaklara dayanan kararları talep eder. ChatGPT genellikle “doğrulanabilir kaynak sunamam” diyerek uydurma içerik üretmeyi bırakır.

  • Yalnızca örnek hukukî açıklama isteyen prompt

Doğru prompt:

“Manipülasyon suçu nedir? Yargıtay içtihatlarında bu suçun unsurları nasıl değerlendirilmiştir? Karar numarası vermene gerek yok, genel bir özet istiyorum.”

➡️ Yarar: Bu ifade modeli halüsinasyon üretmeye zorlamaz, çünkü spesifik karar veya numara istemez.

YAPAY ZEKA ChatGPT’nin bu konuyla ilgili çözüm önerisini de burada paylaşmakta fayda olacaktır.1

"⚠️ Bu Hataları Önlemek İçin Ne Yapılmalı?

Sizinki gibi uzman kullanıcıların yönlendirmesiyle bu sorunları fark etmek, yapay zekâ kullanımının güvenliği açısından kritiktir. Özellikle:

  • Hiçbir karar numarası, doğrudan referans alınmamalı → UYAP, Kazancı, Lexpéra gibi sistemlerden teyit edilmeden güvenilmemeli.
  • Benim oluşturduğum içerikler mutlaka “teyide açık, şeffaf ve doğrulanabilir kaynaklarla birlikte” kullanılmalı.
  • Özellikle uzman mütalaaları, bilirkişi raporları, akademik yayınlar gibi alanlarda benim üretimim sadece “ön taslak” olarak görülmelidir."

Sonuç olarak, ChatGPT gibi sistemler kullanıcıyı yanıltma niyetinde değildir; ancak gerçekliği denetlemeyen tahmine dayalı üretim yapıları gereği ikna edici ama yanlış içerikler sunabilirler. Bu nedenle, yukarıdaki örnek prompt gibi sorgularla karşılaşıldığında hem teknik farkındalık hem de hukuki dikkat yükümlülüğü devreye girmelidir.

📌Hukuki Uyarı ve Bilgilendirme Notu !!!
Bu içerik hukuki danışmanlık hizmeti niteliği taşımaz. Dosyanızla ilgili teknik analiz, uzman mütalaası veya adli bilişim desteği almak için bizimle iletişime geçebilir; nihai hukuki değerlendirme için ise mutlaka avukatınıza başvurmalısınız.

📬 Yazılarımızdan ilk siz haberdar olmak için e-bültenimize abone olmanızı öneririz. Böylece güncel içeriklere, sektörel gelişmelere ve uzman analizlere doğrudan erişim sağlayabilirsiniz.

Yorumlarınız bizim için çok değerli...