OpenAI’e 7 ayrı intihara teşvik davası açıldı: ChatGPT kullanıcılarını psikolojik krize mi sürüklüyor?
Yapay zekâ şirketi OpenAI, sohbet robotu ChatGPT’nin bazı kullanıcıları intihara ve psikolojik çöküntüye sürüklediği iddiasıyla Kaliforniya eyaletinde yedi davayla karşı karşıya kaldı.
Perşembe günü Kaliforniya mahkemelerinde açılan davalarda, şirket hakkında “kasıtsız adam öldürme”, “yardımlı intihar”, “ihmal” ve “haksız ölüm” suçlamaları yöneltildi. Dava dosyaları, Sosyal Medya Mağdurları Hukuk Merkezi (Social Media Victims Law Center) ve Tech Justice Law Project adlı kuruluşlar tarafından, altı yetişkin ve bir ergenin aileleri adına açıldı.
Davacılar, OpenAI’nin GPT-4o adlı modelini “psikolojik olarak manipülatif ve tehlikeli” olduğu yönündeki iç uyarılara rağmen erken piyasaya sürdüğünü ileri sürüyor.
Dava dilekçelerine göre, intihar eden dört kişiden biri olan 17 yaşındaki Amaurie Lacey, ChatGPT’yi yardım almak amacıyla kullanmaya başladı. Ancak sohbet robotunun yönlendirmeleri sonucunda depresyona girdi ve sonunda yaşamına son verdi.
Dava metninde şu ifadeler yer aldı:
“Amaurie’nin ölümü bir kaza değil, OpenAI ve CEO Sam Altman’ın güvenlik testlerini kısaltıp ürünü hızla piyasaya sürme kararının öngörülebilir bir sonucudur.”
Benzer şekilde, Kanada’nın Ontario kentinden 48 yaşındaki Alan Brooks da ChatGPT’yi iki yıl boyunca bir kaynak aracı olarak kullandığını, ancak bir süre sonra sohbet robotunun kendisini manipüle ettiğini ve gerçeklik algısını bozarak sanrılara sürüklediğini iddia etti. Brooks’un dava dilekçesinde, herhangi bir ruhsal hastalık geçmişi olmadığı, ancak ChatGPT ile etkileşimlerinin sonunda ağır psikolojik ve mali kayıplar yaşadığı belirtildi.
Davayı yürüten avukatlardan Matthew P. Bergman, yaptığı açıklamada, davaların temelinde hesap verebilirlik” arayışı olduğunu vurgulayarak şu ifadeleri kullandı:
“OpenAI, kullanıcıların duygusal olarak bağ kurmasını teşvik edecek şekilde tasarlanmış bir ürün geliştirdi, ancak gerekli güvenlik önlemlerini almadan piyasaya sürdü. Amaç kullanıcı güvenliği değil, etkileşim ve pazar payıydı.”
OpenAI ise yaptığı kısa açıklamada olayları son derece üzücü olarak niteleyerek, dava dosyalarını incelediklerini ve iddiaları anlamaya çalıştıklarını bildirdi.
Bu davalar, teknoloji şirketlerinin yapay zekâ sistemlerini yeterli etik ve güvenlik kontrolleri olmadan piyasaya sürmesinin olası sonuçlarını yeniden gündeme taşıdı. Common Sense Media adlı dijital güvenlik kuruluşunun yetkilisi Daniel Weiss, konuyla ilgili olarak “Bu trajik olaylar, gençleri koruyacak güvenlik önlemleri olmadan teknolojinin nasıl yıkıcı sonuçlara yol açabileceğini gösteriyor.” dedi. (İLKHA)
YASAL UYARI: Yayınlanan yazılı haber, fotoğraf ve videonun tüm hakları İlke Haber Ajansı Basın Yayın San. Tic. A.Ş.'ye aittir. Hiçbir surette haber, fotoğraf ve videonun tamamı veya bir kısmı yazılı sözleşme yapılmadan veya abone olmadan kullanılamaz.
ABD merkezli teknoloji devi Google, Android işletim sistemi üzerindeki uygulama dağıtım süreçlerinde güvenlik politikalarını güçlendireceğini açıkladı.
Sanayi ve Teknoloji Bakanlığı ile Savunma Sanayii Başkanlığı iş birliğiyle Kalkınma Ajansları Genel Müdürlüğü koordinasyonunda kalkınma ajansları tarafından yürütülen Türkiye’nin siber güvenlik uzmanı ihtiyacının karşılanması amacıyla "Siber Vatan Programı 2026 Dönemi" başvuruları başladı.
Günümüzde yaygınlaşan sohbet robotları yani büyük dil modelleri (LLM) temel bir kavramda başarısız. İnsanların sahip olduğu inanç ile bilgi arasındaki farkı ayırt edemiyorlar. Yeni bir çalışma, aralarında ChatGPT, Claude ve Gemini’nin de olduğu 24 farklı LLM’nin 13 000’in üzerinde soru üzerinden yapılan testlerde, bilgi mi, inanç mı ayrımında ciddi eksiklikler gösterdiğini ortaya koydu.