Uzmanlar, DeepSeek Yapay Zeka Modelinin Google’ın Gemini Verilerinden Eğitildiğine Dair İddiaları Araştırıyor
Yapay zeka uzmanları ve geliştiriciler, son olarak Çinli laboratuvar DeepSeek tarafından yayınlanan R1 akıl yürütme yapay zeka modelinin eğitim verilerinin bir kısmının Google’ın Gemini yapay zeka ailesinden geldiğine dair şüphelerini dile getiriyor.
Geçtiğimiz hafta piyasaya sürülen bu güncellenmiş model, matematik ve kodlama kriterlerinde oldukça yüksek performans sergiledi. Ancak modelin eğitiminde kullanılan veri kaynağı hakkında şirketten net bir açıklama gelmedi. Bazı yapay zeka araştırmacıları, verilerin en azından bir bölümünün Google’ın Gemini yapay zeka ailesine ait olabileceğini speküle ediyor.
Melbourne merkezli yapay zeka geliştiricisi Sam Paech, DeepSeek’in son modelinin Google’ın Gemini verilerinden eğitildiğini iddia ediyor. Paech, modelin tercih ettiği kelime ve ifadelerin, Gemini 2.5 Pro’nun benzer ifadelerine dayandığını belirtiyor.
Bu iddialar kesin bir kanıt niteliği taşımıyor olsa da SpeechMap adlı “duygusal zeka” değerlendirme aracını oluşturan bir başka geliştirici, DeepSeek modelinin “Gemini izleri gibi okunduğunu” ifade ediyor.
DeepSeek’in Geçmişteki Veri Kullanımı Tartışmaları
DeepSeek, daha önce de rakip yapay zeka modellerinden veri toplamakla suçlanmıştı. Geliştiriciler, V3 modelinin OpenAI’ın ChatGPT isimli sohbet botu platformu üzerinde eğitilmiş olabileceğini gözlemlemişti.
Aralık ayında, OpenAI ile ilişkilendirilen Microsoft, büyük miktarda verinin sızdırıldığını tespit etti ve bu verilerin DeepSeek ile ilişkilendirilmesi üzerine soruşturma başlatıldı. Bu durum, yapay zeka modellerinin eğitiminde “distilasyon” yönteminin kullanılmasıyla bağlantılıydı.
Buna rağmen, OpenAI’nin hizmet koşulları, müşterilerin rakip yapay zeka oluşturmak için şirketin model çıktılarını kullanmasını yasaklıyor.
Veri Kirliliği ve Yapay Zeka Şirketlerinden Alınan Önlemler
Yapay zeka şirketleri, artan veri kirliliği ve distilasyon yöntemi ile eğitim verilerine ulaşma sorunlarıyla mücadele etmek için güvenlik önlemlerini artırıyor.
OpenAI’nin belirli gelişmiş modellere erişimine kimlik doğrulama süreci koyarak güvenliği sağlamaya çalışması, yapay zeka alanında yeni bir dönemi başlatabilir. Aynı şekilde Google ve Anthropic gibi şirketler, model izlerini koruma altına almak için çeşitli önlemler almaya başladı.
Yapay zeka alanındaki gelişmeleri yakından takip etmeye devam edeceğiz. Haberimizi güncellemelerle sizlere aktarmaya devam edeceğiz.