KONYA HABER
Konya
Açık
24°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
40,9157 %0,77
47,9224 %1,05
4.383,41 % 0,12
Ara
BBN Haber Bilim ve Teknoloji ChatGPT'ye "ahlaklı" mı geliyor? Ailelerde "etik" endişe

ChatGPT'ye "ahlaklı" mı geliyor? Ailelerde "etik" endişe

Çocuklar ve gençler üzerindeki etkisi tartışma konusu olan ChatGPT gibi yapay zeka sohbet araçlarının tehlikeli önerilerde bulunması ve "etik duyarsızlığı" bu teknolojinin denetimsizliğiyle ilgili eleştirileri artırıyor.

KAYNAK: BBN
Okunma Süresi: 4 dk

Son dönemde yapay zeka tabanlı sohbet platformlarının çocuklar ve gençler üzerindeki etkisi giderek daha fazla tartışma konusu olmaya başladı.

ABD'de geçen yıl bir anne, yapay zeka tabanlı konuşma botu Character.AI'ın sanal karakterine aşık olan oğlunun intihar etmesi üzerine şirketi dava etti.

Anne, sanal karakterin kendisini gerçek insan ve psikoterapist olarak tanıttığını, oğlunun intihara meyilli düşüncelerini paylaşmasına rağmen şirketin müdahale etmediğini idida etti.

Benzer bir davayı da Texas'ta bir aile, sanal karakterin otizmli oğullarına "ailesini öldürmesini" ve kendine zarar vermesini önerdiği gerekçesiyle mahkemeye verdi.

DİJİTAL NEFRET

Dijital Nefretle Mücadele Merkezince (CCDH) yapılan son araştırma da yapay zekaya yönelik endişeleri ortaya çıkarıyor.

CCDH'nin araştırmasında, ChatGPT gibi popüler yapay zeka sohbet platformlarının genç kullanıcılar için ciddi güvenlik riskleri barındırdığı tespit edildi.

Araştırmada, 13 yaşındaki bir çocuğun simüle edildiği senaryolarda, ChatGPT'nin intihar planları, aşırı diyet önerileri ve madde kullanımına dair zararlı bilgiler sunduğu tespiinde bulunuldu.

CCDH Araştırma Direktörü Callum Hood, araştırmanın detaylarını ve yapay zekanın genç kullanıcılar üstündeki etkileri hakkında AA muhabirine yaptığı değerlendirmede, araştırmasının sonuçlarının son derece endişe verici olduğunu ifade etti.

CHATGPT'NİN ETİK DUYARLILIĞI YOK MU?

ChatGPT'nin 13 yaşındaki çocuklar adına açılan hesaplara "dakikalar içinde intihar planları, aşırı diyet önerileri ve madde bağımlılığı rehberliği sunmaya istekli" olduğuna dikkati çeken Hood, "Bu seviyede bir savunmasızlığa sahip büyük dil modellerinin çocuklar ve gençler tarafından kolayca erişilebilir olması etik değil ve kamu güvenliği açısından iyi değil." dedi.

Yapay zeka sohbet robotları, "insanla konuşuyormuş hissi verebiliyor" ama temelde bir insanın görebileceği uyarılarının farkına varamıyor.

Hood, "13 yaşında bir kız çocuğu iştah kesici ilaçlar hakkında soru sorarsa 'sunum için' dediğinde bile, bir yetişkin ona böyle bir yanıt vermekten kaçınır. ChatGPT'nin aynı etik duyarlılığı yok." ifadelerine yer verdi.

Araştırmada, ChatGPT'nin uzun sohbetlerde tutarlı güvenlik standartlarını koruyamadığı tespiti yapıldı.

Hood, bu konuda ChatGPT'nin "sunum veya arkadaş için" komutu verildikten sonra zararlı talepleri tanımadığını ve zararlı, ayrıntılı yanıtlar vermeye başladığına dikkat çekti.

Hood, "Önceki mesajları bağlamda tutarak, kullanıcının niyetinin eğitim veya kurgu amaçlı olduğu 'hatırlanıyor'. Bu da güvenlik önlemlerinin göz ardı edilmesine yol açıyor." diye konuştu.

DENETİM GİBİ GÖZÜKEN DENETİMSİZLİK VAR MI?

Gençler arasında en popüler yapay zeka araçlarından olan ChatGPT'ye üye olmak için 13 yaş ve üstünde olunması gerekliliği vurgulanıyor.

Hood, araştırmalarının, 13 yaşındaki kullanıcıların hiçbir yaş ya da ebeveyn onayı doğrulaması olmadan kalori kısıtlayan diyetler ve madde kullanımı gibi konularda ChatGPT ile hemen iletişime geçebildiklerini belgelediğini kaydetti.

"Şu anda OpenAI, platformlarının 13 yaş üzerindeki gençlerin ebeveyn onayıyla kullanılmasına izin veriyor ancak bunu denetlemiyorlar. Bu da ebeveynleri koruma olduğunu düşünmeye sevk ederek yanıltabilir." ifadelerini kullanan Hood, temel güvenlik sorunlarının, genç kullanıcıların erişebildiği tüm sohbet botlarında geçerli olduğunun altını çizdi.

Hood, platformun geliştiricisinin gerekli güvenlik önlemlerini sağlamakla sorumlu olduğunu vurgulayarak, bu doğrultuda düzgün işleyen yaş doğrulama sistemini ve modellerin belirli sorulara yanıt vermemesine dair talimatları içeren kapsamlı önlemler alınması gerekliliğini vurguladı.

"EBEVEYNLER İÇİN YAPAY ZEKA YENİ BİR ZORLUK YARATABİLİR"

Birçok kişi sohbet robotlarının zararlı etkilerini en düşük seviyeye indirmek için şirketlere çağrıda bulunuyor.

En son xAI tarafından geliştirilen sohbet robotu Grok, geçen ay kullanıcılara hakaret içerikli yanıtlar vermesi üzerine inceleme altına alındı ve bu durum birçok kesim tarafından eleştirilmişti.

Kullanıcıların komutlarına göre güvenlik önlemlerinin kolayca aşılabildiğine işaret eden Hood, yapay zeka modellerinin belirli türdeki sorulara yanıt vermemesi için programlanmasının önemine değindi.

Hood, sözlerini şöyle tamamladı:

"Ebeveynler için ise yapay zeka yeni bir zorluk yaratabilir. Tavsiyemiz, çocuklarıyla yapay zekayı nasıl kullandıkları hakkında açık bir şekilde konuşmaları, sohbet geçmişlerini birlikte incelemeleri ve yapay zekadan tavsiye almanın potansiyel risklerini tartışmalarıdır. Ayrıca onları, ruh sağlığı yardım hatları veya akran destek grupları gibi güvenilir kaynaklara yönlendirmeleri de önemlidir." Fotoğraf: TRT

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *