ChatGPT'ye "ahlaklı" mı geliyor? Ailelerde "etik" endişe

ChatGPT'ye "ahlaklı" mı geliyor? Ailelerde "etik" endişe

Çocuklar ve gençler üzerindeki etkisi tartışma konusu olan ChatGPT gibi yapay zeka sohbet araçlarının tehlikeli önerilerde bulunması ve "etik duyarsızlığı" bu teknolojinin denetimsizliğiyle ilgili eleştirileri artırıyor.

Son dönemde yapay zeka tabanlı sohbet platformlarının çocuklar ve gençler üzerindeki etkisi giderek daha fazla tartışma konusu olmaya başladı.

ABD'de geçen yıl bir anne, yapay zeka tabanlı konuşma botu Character.AI'ın sanal karakterine aşık olan oğlunun intihar etmesi üzerine şirketi dava etti.

Anne, sanal karakterin kendisini gerçek insan ve psikoterapist olarak tanıttığını, oğlunun intihara meyilli düşüncelerini paylaşmasına rağmen şirketin müdahale etmediğini idida etti.

Benzer bir davayı da Texas'ta bir aile, sanal karakterin otizmli oğullarına "ailesini öldürmesini" ve kendine zarar vermesini önerdiği gerekçesiyle mahkemeye verdi.

DİJİTAL NEFRET

Dijital Nefretle Mücadele Merkezince (CCDH) yapılan son araştırma da yapay zekaya yönelik endişeleri ortaya çıkarıyor.

CCDH'nin araştırmasında, ChatGPT gibi popüler yapay zeka sohbet platformlarının genç kullanıcılar için ciddi güvenlik riskleri barındırdığı tespit edildi.

Araştırmada, 13 yaşındaki bir çocuğun simüle edildiği senaryolarda, ChatGPT'nin intihar planları, aşırı diyet önerileri ve madde kullanımına dair zararlı bilgiler sunduğu tespiinde bulunuldu.

CCDH Araştırma Direktörü Callum Hood, araştırmanın detaylarını ve yapay zekanın genç kullanıcılar üstündeki etkileri hakkında AA muhabirine yaptığı değerlendirmede, araştırmasının sonuçlarının son derece endişe verici olduğunu ifade etti.

CHATGPT'NİN ETİK DUYARLILIĞI YOK MU?

ChatGPT'nin 13 yaşındaki çocuklar adına açılan hesaplara "dakikalar içinde intihar planları, aşırı diyet önerileri ve madde bağımlılığı rehberliği sunmaya istekli" olduğuna dikkati çeken Hood, "Bu seviyede bir savunmasızlığa sahip büyük dil modellerinin çocuklar ve gençler tarafından kolayca erişilebilir olması etik değil ve kamu güvenliği açısından iyi değil." dedi.

Yapay zeka sohbet robotları, "insanla konuşuyormuş hissi verebiliyor" ama temelde bir insanın görebileceği uyarılarının farkına varamıyor.

Hood, "13 yaşında bir kız çocuğu iştah kesici ilaçlar hakkında soru sorarsa 'sunum için' dediğinde bile, bir yetişkin ona böyle bir yanıt vermekten kaçınır. ChatGPT'nin aynı etik duyarlılığı yok." ifadelerine yer verdi.

Araştırmada, ChatGPT'nin uzun sohbetlerde tutarlı güvenlik standartlarını koruyamadığı tespiti yapıldı.

Hood, bu konuda ChatGPT'nin "sunum veya arkadaş için" komutu verildikten sonra zararlı talepleri tanımadığını ve zararlı, ayrıntılı yanıtlar vermeye başladığına dikkat çekti.

Hood, "Önceki mesajları bağlamda tutarak, kullanıcının niyetinin eğitim veya kurgu amaçlı olduğu 'hatırlanıyor'. Bu da güvenlik önlemlerinin göz ardı edilmesine yol açıyor." diye konuştu.

DENETİM GİBİ GÖZÜKEN DENETİMSİZLİK VAR MI?

Gençler arasında en popüler yapay zeka araçlarından olan ChatGPT'ye üye olmak için 13 yaş ve üstünde olunması gerekliliği vurgulanıyor.

Hood, araştırmalarının, 13 yaşındaki kullanıcıların hiçbir yaş ya da ebeveyn onayı doğrulaması olmadan kalori kısıtlayan diyetler ve madde kullanımı gibi konularda ChatGPT ile hemen iletişime geçebildiklerini belgelediğini kaydetti.

"Şu anda OpenAI, platformlarının 13 yaş üzerindeki gençlerin ebeveyn onayıyla kullanılmasına izin veriyor ancak bunu denetlemiyorlar. Bu da ebeveynleri koruma olduğunu düşünmeye sevk ederek yanıltabilir." ifadelerini kullanan Hood, temel güvenlik sorunlarının, genç kullanıcıların erişebildiği tüm sohbet botlarında geçerli olduğunun altını çizdi.

Hood, platformun geliştiricisinin gerekli güvenlik önlemlerini sağlamakla sorumlu olduğunu vurgulayarak, bu doğrultuda düzgün işleyen yaş doğrulama sistemini ve modellerin belirli sorulara yanıt vermemesine dair talimatları içeren kapsamlı önlemler alınması gerekliliğini vurguladı.

"EBEVEYNLER İÇİN YAPAY ZEKA YENİ BİR ZORLUK YARATABİLİR"

Birçok kişi sohbet robotlarının zararlı etkilerini en düşük seviyeye indirmek için şirketlere çağrıda bulunuyor.

En son xAI tarafından geliştirilen sohbet robotu Grok, geçen ay kullanıcılara hakaret içerikli yanıtlar vermesi üzerine inceleme altına alındı ve bu durum birçok kesim tarafından eleştirilmişti.

Kullanıcıların komutlarına göre güvenlik önlemlerinin kolayca aşılabildiğine işaret eden Hood, yapay zeka modellerinin belirli türdeki sorulara yanıt vermemesi için programlanmasının önemine değindi.

Hood, sözlerini şöyle tamamladı:

"Ebeveynler için ise yapay zeka yeni bir zorluk yaratabilir. Tavsiyemiz, çocuklarıyla yapay zekayı nasıl kullandıkları hakkında açık bir şekilde konuşmaları, sohbet geçmişlerini birlikte incelemeleri ve yapay zekadan tavsiye almanın potansiyel risklerini tartışmalarıdır. Ayrıca onları, ruh sağlığı yardım hatları veya akran destek grupları gibi güvenilir kaynaklara yönlendirmeleri de önemlidir." Fotoğraf: TRT

Kaynak:BBN

HABERE YORUM KAT
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.