Çin merkezli yapay zekâ laboratuvarı DeepSeek, büyük dil modeli yarışında yeni bir dönemi başlatacak yeniliklerle karşımızda. Şirketin tanıttığı DeepSeek-GRM adlı yeni model ailesi, kendi performansını değerlendirme ve bu doğrultuda kendini geliştirme yeteneğine sahip. Bu özellik, mevcut büyük dil modellerinden önemli ölçüde ayrışıyor. DeepSeek’in amacı, yalnızca daha güçlü bir model sunmak değil, aynı zamanda sürekli iyileşebilen bir yapay zekâ mimarisi kurmak.
DeepSeek-GRM Kendi Hatalarını Tanıyıp Düzeltebiliyor
DeepSeek’in GRM modeli, geleneksel eğitim yöntemlerinin ötesine geçerek “öz-düzeltme” adını verdiği bir yaklaşım benimsiyor. Bu sistemde yapay zekâ, verdiği yanıtları tekrar değerlendiriyor ve hatalı ya da eksik olduğu kısımları düzeltiyor. Modelin eğitimi sırasında 10 trilyon token kullanıldığı belirtilirken, bu miktar onun bilgi kapasitesini ve yanıt doğruluğunu ciddi ölçüde artırıyor. Ayrıca, DeepSeek bu modeli açık kaynaklı olarak sunmayı planlıyor.
Modelin bir diğer dikkat çekici yönü, farklı görevlerde özelleşmiş “ajanslar” sistemine sahip olması. Bu ajanslar, belirli görevlerde daha yüksek performans sağlamak için modellenmiş ve bir orkestrasyon katmanı tarafından yönetiliyor. Kullanıcıdan gelen bir sorgu, sistemin içindeki farklı ajanslara yönlendirilerek en iyi sonuç elde ediliyor. Bu yapı, modülerlik sayesinde daha fazla esneklik ve geliştirme imkânı sağlıyor.
DeepSeek-GRM’nin tanıtımı, yapay zekâ topluluğunda şimdiden heyecan yaratmış durumda. Şirket, bu yeni sistemle birlikte sadece mevcut modellerle rekabet etmekle kalmayıp, onları yeniden tanımlamayı hedefliyor. Kendi kendini geliştirme özelliğiyle DeepSeek, yapay zekâ alanında yeni bir standardın öncüsü olabilir. İlk örneklerin açık kaynaklı olarak paylaşılmasıyla daha fazla geliştiriciye ulaşılması bekleniyor.
Yorum Yap