Google, yapay zeka modellerinin bellek ihtiyacını en az 6 kat azaltan ve hızı %8 artıran TurboQuant algoritmasını tanıttı. Doğruluk kaybı yaşanmıyor.
Yapay zeka modellerinin ihtiyaç duyduğu devasa bellek ve işlem gücü darboğazını aşmaya aday Google’ın yeni algoritması TurboQuant, yapay zeka verimliliğinde çığır açıyor. Google Research tarafından duyurulan bu teknoloji, büyük dil modellerinin (LLM) bellek kullanımını önemli ölçüde azaltırken hız artışı sağlıyor.
Google’ın “TurboQuant” adını verdiği yeni sıkıştırma algoritması, yapay zeka modellerinin anahtar-değer önbelleği (key-value cache) belleğini en az 6 kat azaltmayı hedefliyor. Bu gelişme, aynı zamanda modellerin performansını %8’e kadar hızlandırırken, doğruluk kaybını sıfırda tutmayı amaçlıyor. Bu teknoloji, 2014-2019 yılları arasında yayınlanan “Silicon Valley” dizisindeki Pied Piper’ın dosya sıkıştırma algoritmasını anımsatıyor.
Google Research, bu yöntemin yapay zekanın çalışma belleğini küçültürken performansını koruduğunu belirtiyor. Bu sayede yapay zeka sistemleri, daha az bellek kullanarak daha fazla bilgiyi hatırlayabilecek ve doğruluğunu sürdürebilecek.
Araştırmacılar, TurboQuant’ı mümkün kılan PolarQuant ve QJL adlı iki yöntemi önümüzdeki ay ICLR 2026 konferansında sunacak. Algoritmanın gerçek dünyada başarılı olması durumunda, yapay zeka modellerinin çalıştırılma maliyetlerini önemli ölçüde düşürmesi bekleniyor. Cloudflare CEO’su Matthew Prince, bu gelişmeyi “Google’ın DeepSeek anı” olarak nitelendirerek, verimlilik sıçramasına dikkat çekti.
Yorum Yap