Anthropic'ten Çin'e sert suçlama: Claude'dan 16 milyon sorguyla veri çaldılar
ABD merkezli yapay zeka şirketi Anthropic, Çinli DeepSeek, Moonshot AI ve MiniMax'in 24 binden fazla sahte hesap oluşturarak Claude modelinden 16 milyondan fazla sorguyla veri sızdırdığını açıkladı. "Damıtma" adı verilen bu yöntemle Çinli şirketlerin kendi yapay zeka modellerini çok düşük maliyet ve süreyle geliştirdiği ileri sürülürken Anthropic, söz konusu faaliyetlerin ABD ulusal güvenliğini tehdit ettiği uyarısında bulundu. Daha önce OpenAI da aynı yöntemle DeepSeek tarafından taklit edildiğini iddia etmişti.
ABD'li yapay zeka şirketi Anthropic, Çinli DeepSeek, Moonshot AI ve MiniMax'in Claude modeline karşı organize bir veri sızıntısı operasyonu yürüttüğünü açıkladı.
Şirketin yayımladığı blog yazısına göre üç Çinli şirket, 24 binden fazla sahte hesap üzerinden toplamda 16 milyonun üzerinde sorgu gerçekleştirdi.
Etkileşim sayılarına göre MiniMax 13 milyon, Moonshot 3,4 milyon, DeepSeek ise 150 bin kez sisteme erişti.
"Damıtma" nedir ve neden tehlikeli?
Damıtma, büyük ve güçlü bir yapay zeka modelinin bilgi ve yeteneklerinin çok daha küçük bir modele aktarılması işlemidir.
Bu yöntemle küçük modeller, büyük modellerin performansına çok daha az maliyet ve işlem gücüyle ulaşabiliyor.
Anthropic, bu tekniğin rakip ürünleri "zamanın ve maliyetin küçük bir kısmıyla" kopyalamak için kötüye kullanıldığına dikkat çekti.
OpenAI da aynı suçlamayı yapmıştı
Anthropic'ten önce rakibi OpenAI da DeepSeek'i damıtma yöntemiyle kendi modellerini taklit etmekle suçlayarak ABD Temsilciler Meclisi'ne resmi bir not iletmişti.
DeepSeek ise teknik raporunda sentetik veri kullanmadığını, bazı web verilerinin dolaylı yolla OpenAI çıktılarını içermiş olabileceğini savunmuştu.
Ulusal güvenlik uyarısı
Anthropic, Çinli şirketlerin bu faaliyetlerinin yalnızca ticari bir rakabet sorunu olmadığını, aynı zamanda ABD ulusal güvenliğini de tehdit ettiğini vurguladı.
Şirket, damıtmayla elde edilen yeteneklerin askeri, istihbarat ve gözetleme sistemlerine aktarılabileceği uyarısında bulundu.
Yorumlar 0
Habere düşünceni bırak, yanıtlarla sohbeti devam ettir.
Yorum yapabilmek ve yanıt verebilmek için giriş yapın.