DeepSeek, Tsinghua Üniversitesi ile iş birliği yaparak büyük dil modellerinde (LLM) yeni yöntemlere dayalı gelişmeler sunmayı hedefliyor. Üniversitedeki araştırmacıların katkılarıyla geliştirilen teknik, üretken ödül modellemesi (GRM) ve öz ilkeli eleştiri ayarlamasını birleştiriyor.
Bu yenilik, DeepSeek – GRM modelinin güçlü kamu ödül modelleriyle rekabetçi performans elde etmesine olanak tanıyor; böylece mevcut modellere kıyasla daha üstün sonuçlar elde ediliyor. Ödül modelleme, bir LLM’nin insan tercihlerine uygun şekilde yönlendirilmesi sürecidir. DeepSeek, geliştirdiği GRM modellerini açık kaynaklı hale getirerek, yapay zeka topluluğunun bu alandaki gelişmelere katkıda bulunmasını amaçlıyor. Reuters raporuna göre, DeepSeek bu ay R2 modelini piyasaya sürecek; ancak henüz Çin merkezli girişimden resmi bir onay alınamadı.
DeepSeek, 2023 yılında Liang Wenfeng tarafından kurulan girişimiyle, maliyet açısından verimli R1 modeliyle dikkatleri üzerine çekmişti. Geçtiğimiz ay ise DeepSeek-V3-0324 adlı V3 modelini yükselterek, geliştirilmiş muhakeme yetenekleri, optimize edilmiş ön uç web geliştirme ve artırılmış Çince yazma yeterliliğini kullanıcılarına sundu.
Ayrıca, Şubat ayında kod depolarından beş tanesini açık kaynaklı hale getirerek geliştiricilerin ve araştırmacıların yazılım geliştirme sürecine katkıda bulunmasına olanak tanıyan platform, “tam şeffaflıkla samimi ilerleme” vizyonunu benimsiyor. Yapay zeka teknolojisinin sürekli evrildiği bu dönemde, OpenAI ve Anthropic gibi rakiplerle yaşanan kıyasıya rekabet; nihai performans, hız, doğruluk, çeşitlilik ve maliyet gibi etkenlere bağlı olarak, yapay zeka sohbet robotlarının küresel güven ve kabulünü belirleyecek.