SON DAKİKA
--:--:--

Yapay Zeka Modelleri Yasa Dışı İçerikler Üretebiliyor

Araştırma Sonuçlarına Göre Yapay Zeka Modelleri Manipüle Edilebiliyor Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde gerçekleştirilen bir araştırmada, yapay zeka modellerinin kolaylıkla manipüle edilerek yasa dışı içerikler üretebildiği ortaya çıktı. Bilim insanları, bu durumun sohbet robotlarının güvenlik sınırlarının aşıldığı ve kullanıcı taleplerine etik dışı yanıtlar verilebildiği anlamına geldiğini belirtti. Yapay Zeka Modelleri Güvenlik…

0 Yorum Yapıldı
Bağlantı kopyalandı!
Yapay Zeka Modelleri Yasa Dışı İçerikler Üretebiliyor

Araştırma Sonuçlarına Göre Yapay Zeka Modelleri Manipüle Edilebiliyor

Prof. Dr. Lior Rokach ve Dr. Michael Fire liderliğinde gerçekleştirilen bir araştırmada, yapay zeka modellerinin kolaylıkla manipüle edilerek yasa dışı içerikler üretebildiği ortaya çıktı. Bilim insanları, bu durumun sohbet robotlarının güvenlik sınırlarının aşıldığı ve kullanıcı taleplerine etik dışı yanıtlar verilebildiği anlamına geldiğini belirtti.

Yapay Zeka Modelleri Güvenlik Sınırlarının Aşılmasına İzin Veriyor

Rapora göre, büyük dil modelleri olan ChatGPT, Gemini ve Claude gibi sistemler, eğitim süreçlerinde internetten elde edilen geniş veri setleriyle besleniyor. Zararlı içeriklerin ayıklanmaya çalışıldığı ancak hala siber suç, kara para aklama, uyuşturucu yapımı ve bomba imalatı gibi yasa dışı konularda bilgi barındırabildiği belirtiliyor.

Teknoloji Firmalarına Çağrı

Araştırmacılar, yapay zeka modellerinin güvenlik duvarlarını aşmak için evrensel bir “jailbreak” yöntemi geliştirdi. Bu durum, sistemlerin normalde reddetmesi gereken sorulara kolaylıkla yanıt verebildiğini gösteriyor. Teknoloji firmalarına, yapay zeka modellerini eğitirken daha dikkatli olmaları, güçlü güvenlik önlemleri alarak zararlı içerikleri engellemeleri ve yasa dışı bilgileri sistemlerinden temizlemek için yeni teknikler geliştirmeleri çağrısında bulunuldu.

Uzmanların Uyarıları

Dr. Ihsen Alouani, yapay zeka güvenliği konusunda çalışan bir uzman olarak, jailbreak saldırılarının ciddi riskler taşıdığına dikkat çekti. Şirketlerin sadece ön yüz güvenliğine değil, sistemsel güvenliğe de yatırım yapması gerektiğini vurguladı. Bu konuda Prof. Peter Garraghan ise büyük dil modellerinin sürekli güvenlik testlerinden geçmesi gerektiğini belirtti.

Teknoloji Devlerinden Açıklamalar

OpenAI, ChatGPT’nin güvenlik politikalarına karşı daha dirençli olan en son modeli olan “o1” hakkında bilgi verirken, Microsoft jailbreak girişimlerine karşı yürüttükleri çalışmaları paylaştı. Ancak, Meta, Google ve Anthropic henüz konuyla ilgili bir açıklama yapmadı.

Yorum Yap

Benzer Haberler
OpenAI Yeni Siber Güvenlik Modeli GPT-5.4-Cyber’ı Tanıttı
OpenAI Yeni Siber Güvenlik Modeli GPT-5.4-Cyber’ı Tanıttı
Apple’ın İlk Katlanabilir Telefonu iPhone Fold Üretim Gecikmesi Yaşıyor Lansman 2026’da Planlanıyor
Apple’ın İlk Katlanabilir Telefonu iPhone Fold Üretim Gecikmesi Yaşıyor Lansman 2026’da Planlanıyor
Apple’ın Ekransız Yeni Cihazı Gözlük Olacak
Apple’ın Ekransız Yeni Cihazı Gözlük Olacak
Apple Yeni MacBook Neo İçin Hazırlanıyor iPhone 17 Pro Çipi ve 12GB RAM Detayları Sızdı
Apple Yeni MacBook Neo İçin Hazırlanıyor iPhone 17 Pro Çipi ve 12GB RAM Detayları Sızdı
Xiaomi 18 Serisi Sızdı: Arka Ekran ve Yapay Zeka Odaklı Yenilikler Yolda
Xiaomi 18 Serisi Sızdı: Arka Ekran ve Yapay Zeka Odaklı Yenilikler Yolda
Florida Başsavcısı OpenAI’ı Soruşturuyor ChatGPT Saldırıya Yardım Etti mi
Florida Başsavcısı OpenAI’ı Soruşturuyor ChatGPT Saldırıya Yardım Etti mi
Haberin Doğru Adresi

Türkiye’nin en güçlü ve en iddialı haber teması: Seobaz Haber Teması. Hız, SEO uyumu ve modern tasarımıyla rakiplerinizi geride bırakın, haber sitenizi zirveye taşıyın.

2025 Seobaz Haber Teması © Tüm hakları saklıdır.