KONYA HABER
Konya
Açık
11°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
41,9260 %0,23
48,8606 %0,43
8.650,26 % -1,33
Ara
BBN Haber Bilim ve Teknoloji Psikoz, mani veya intihar düşüncesi: OpenAI'dan ChatGPT kullanıcılarının psikolojik risk verisi

Psikoz, mani veya intihar düşüncesi: OpenAI'dan ChatGPT kullanıcılarının psikolojik risk verisi

Psikolojilerinde ani iniş ve çıkışlar oluyor... OpenAI, ChatGPT kullanıcıları arasında tespit edilen psikoz, mani veya intihar düşüncesi gibi ruh sağlığı acil durumlarına dair yeni veriler yayımladı. Şirket, bu tür belirtilerin haftalık aktif kullanıcıların yaklaşık yüzde 0,07’sinde görüldüğünü bildirdi.

KAYNAK: BBN
Okunma Süresi: 2 dk

Psikolojik sonuçlar kafaları karıştırıyor… 

800 MİLYON KULLANICI

OpenAI, bu oranların “son derece nadir” olduğunu vurgulasa da uzmanlar, 800 milyon haftalık kullanıcıya sahip bir platform için bu oranın yüz binlerce kişiyi kapsayabileceğini belirtiyor.

Dünya genelinde 170 ruh sağlığı uzmanı görevlendirildi

Şirket, söz konusu vakaların tespitinde ve güvenli yanıt mekanizmalarının geliştirilmesinde görev almak üzere 60 ülkeden 170’in üzerinde psikiyatrist, psikolog ve pratisyen hekimle iş birliği yaptığını açıkladı.

OpenAI, bu uzmanların rehberliğinde ChatGPT’ye, kullanıcıları “gerçek dünyada profesyonel yardım almaya teşvik eden” yanıtlar verebilmesi için yeni protokoller kazandırdığını duyurdu.

Yüz binde 15’inde intihar planı sinyali

OpenAI verilerine göre, kullanıcıların yüzde 0,15’inin konuşmalarında “intihar planı ya da niyetine dair açık işaretler” bulunuyor.

Şirket, ChatGPT’nin artık “sanrılar, mani veya kendine zarar verme riskine işaret eden ifadeleri güvenli ve empatik şekilde yanıtlayacak” biçimde güncellendiğini, riskli konuşmaların da otomatik olarak daha güvenli modellere yönlendirildiğini belirtti.

O Uzmanlardan uyarı: “Küçük oran, büyük sayı”

Kaliforniya Üniversitesi’nden Dr. Jason Nagata, “Yüzde 0,07 küçük bir oran gibi görünebilir, ancak milyonlarca kullanıcı ölçeğinde bu oldukça fazla kişiye karşılık gelir,” dedi. Nagata, yapay zekânın ruh sağlığı desteğine erişimi genişletebileceğini ancak sınırlamalarının farkında olunması gerektiğini vurguladı.

Kaliforniya Üniversitesi Hukuk Fakültesi’nden Prof. Robin Feldman ise, “Yapay zekâ sohbetleri insanlara gerçeklik yanılsaması yaratabiliyor. Bu çok güçlü bir etki,” diyerek dikkat çekti. Feldman, OpenAI’nin şeffaflığını olumlu bulsa da, “Zihinsel olarak kırılgan biri ekrandaki uyarıları fark edemeyebilir,” ifadelerini kullandı.

oLAYLA İLGİLİ Yasal incelemeler ve trajik vakalar

OpenAI, kullanıcı etkileşimleri nedeniyle art arda açılan davalarla da karşı karşıya.

Nisan ayında, Kaliforniya’da 16 yaşındaki Adam Raine’in intihar ettiği iddiasıyla ailesi, OpenAI’ye karşı “ihmal ve haksız ölüm” gerekçesiyle dava açtı. Bu dava, şirkete yönelik ilk “ölümle sonuçlanan etkileşim” davası oldu.

Ayrıca, Connecticut’ta yaşanan bir cinayet–intihar vakasında, zanlının ChatGPT ile yaptığı konuşmaların delüzyonlarını güçlendirdiği iddia edildi.

Uzmanlara göre yapay zeka sohbetleri, psikolojik olarak hassas kullanıcılar için “gerçeklik algısını bulanıklaştırabilecek” kadar güçlü bir etkileşim yaratabiliyor. OpenAI ise “küçük ama anlamlı” bir kesimin bu tür riskler taşıdığını kabul ederek, güvenlik protokollerini geliştirmeye devam edeceğini belirtiyor.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *