KONYA HABER
Konya
Parçalı bulutlu
21°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
41,9880 %0,23
48,6809 %0,43
8.995,11 % -1,18
Ara
BBN Haber Bilim ve Teknoloji Yapay zekâ zehirliyor: Bilerek yanlış bilgi veriyor

Yapay zekâ zehirliyor: Bilerek yanlış bilgi veriyor

Bilinçli zehirleme yapay zekanın yeni olumsuzluğu olarak gündeme geldi... Yapay zekâ artık sadece hatalı cevaplar üretme riski değil, bilinçli olarak zehirlenme tehlikesini de içeriyor. İşte detaylar...

KAYNAK: BBN
Okunma Süresi: 2 dk

Yapay zeka insanları zehirleyebilir mi?  İngiltere Yapay Zekâ Güvenlik Enstitüsü, Alan Turing Enstitüsü ve Anthropic’in ortak araştırmasına göre, milyonlarca verinin yer aldığı bir eğitim setine sadece 250 zararlı dosya eklemek, bir modeli gizlice zehirleyebilir.

YAPAY ZEKA ZEHİRLEMESİ NEDİR?

Yapay zeka zehirleme, bir modele bilerek yanlış bilgi öğretilmesi anlamına geliyor. Amaç, modelin davranışını bozmak, hatalı sonuçlar üretmesini sağlamak veya gizli kötü niyetli komutlar yerleştirmek.

Örneğin, bir saldırgan eğitim verisine fark edilmeyecek şekilde özel bir tetikleyici kelime ekliyor. Model, bu kelimeyle karşılaştığında otomatik olarak saldırganın istediği yönde cevap veriyor. Bu yöntem “arka kapı” (backdoor) saldırısı olarak biliniyor.

SİBER TEHDİT VE Misinformasyondan 

Bazı saldırılar modelin genel performansını düşürmeyi hedefliyor. Buna “konu yönlendirme” (topic steering) deniyor. Saldırganlar, örneğin “marul kanseri iyileştirir” gibi yanlış bilgileri binlerce sahte siteye yayarak modelin bu bilgiyi doğruymuş gibi öğrenmesini sağlayabiliyor.

Araştırmalar, bu tür veri zehirlemenin gerçek dünyada uygulanabilir olduğunu ve ciddi sonuçlara yol açabileceğini gösteriyor. Ocak ayında yapılan bir deneyde, yalnızca eğitim verisinin yüzde 0.001’inin yanlış bilgiyle değiştirilmesi, modelin tıbbi konularda hatalı yanıtlar verme olasılığını artırdı.

Sanatçılardan ters hamle

Bazı sanatçılar ise yapay zeka modellerinin izinsiz içerik toplamasına karşı kendi eserlerine “zehir” yerleştiriyor. Böylece bu içerikleri kullanan modeller bozuk veya işe yaramaz sonuçlar üretiyor.

Uzmanlara göre bu durum, yapay zeka teknolojisinin dışarıdan göründüğü kadar sağlam olmadığını kanıtlıyor. “Zehirli” modeller, gelecekte hem yanlış bilgi yayılımı hem de siber güvenlik açıkları açısından en ciddi tehditlerden biri haline gelebilir.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *