Google’ın Gemini’ı geliştirmek için Anthropic tarafından geliştirilen model Claude’u kullandığı öne sürüldü.
TechCrunch tarafından ulaşılan yazışmalara göre Google’ın Gemini’ı geliştirmek için çalışanlar, onun yanıtlarını Anthropic’in Claude’u tarafından üretilen yanıtlarla karşılaştırıyor.
Teknoloji şirketleri, daha iyi yapay zeka modelleri geliştirmek için sürekli bir yarış içinde olduğunu söylemez yanlış sayılmaz. Bu modellerin performansı çoğunlukla rakiplere karşı değerlendirilir. Çoğunlukla geliştiricilerin rakiplerinin yapay zeka yanıtlarını detaylı bir şekilde değerlendirmek yerine kendi modellerini endüstri karşılaştırmalarından geçirerek değerlendirilir.
Modelin çıktılarının doğruluğunu değerlendirmekle görevli ekibin gördüğü her yanıtı doğruluk ve lafı gereksiz yere uzatma gibi birden fazla kritere göre puanlamaları gerekiyor.
TechCrunch tarafından ulaşılan yazışmaya göre ekibin kimin cevabının daha iyi olduğunu belirlemeleri için her bir istem başına 30 dakikaya kadar süre tanınıyor. Ekibe sunulan çıktılardan en az birinde açıkça şu ifade de yer aldı: “Ben Claude. Anthropic tarafından geliştirildim.”
Claude, Güvenlik Ayarları En Katı Model
Yazışmalarda çalışanların Claude’un yanıtlarının Gemini’dan daha fazla güvenliğe vurgu yaptığını fark ettiği görüldü. Bir çalışan, yapay zeka modelleri arasında Claude’un güvenlik ayarlarının en katı olanı olduğunu keşfetti.
Anthropic’in ticari hizmet koşullarına göre müşterilerin şirketin onayı olmadan rakip bir ürün ya da hizmet geliştirmek veya rakip yapay zeka modellerini eğitmek için Claude’u kullanmasına izin verilmiyor.
Google DeepMind’ın sözcüsü Shira McNamara, değerlendirmeler için model çıktılarının karşılaştırıldığını ama Gemini’ı Anthropic modelleri üzerinden eğitilmediğini söyledi. “Gemini’ı eğitmek için Anthropic modelleri kullandığımıza yönelik her türlü iddia yanlıştır” dedi.
Yorum Yap