Microsoft, üretken yapay zeka uygulamaları için optimize edilmiş daha az parametreyle eğitilen ve küçük dil modellerinden (SLM) oluşan Phi isimli yapay zeka ailesinin yeni üyesi Phi-4'ü gün yüzüne çıkardı.
Şirketin mevcut SLM modellerine kıyasla birçok alanda daha iyi performasyon gösterdiği söylenen modelin, daha kaliteli veriler kullanılarak eğitildiği için özellikle matematik problemlerini çözmede gelişme gösterdiği öne sürülüyor.
Microsoft'un en son tanıttığı küçük dil modeli olan Phi-4, teknoloji devinin yaptığı açıklamaya göre 14 milyar parametreyle eğitildi ve GPT-4o mini, Gemini 2.0 Flash ve Claude 3.5 Haiku gibi diğer küçük dil modelleriyle rekabet edecek.
Phi-4, perşembe günü itibarıyla yalnızca Microsoft'un yakın zamanda tanıttığı Azure AI Foundry platformu üzerinden sınırlı sayıda geliştiriciye araştırma amaçlı olarak erişime sunuldu.
Küçük dil modelleri (SLM) ne vadediyor❓
Küçük dil modelleri (SLM), büyük dil modellerine kıyasla eğitim ve kullanım sırasında daha az işlemci gücü ve enerji tüketiyor. Daha az karmaşık oldukları için genellikle daha hızlı bir şekilde işlem yapıyor ve daha düşük bir gecikme süresi sunuyorlar.
Gerçek zamanlı uygulamalar için esneklik ve düşük gecikme süresi sağlamalarına ek olarak depolama alanı ve bellek açısından daha az yer kaplıyorlar. Buna ek olarak geliştiricilere belirli bir görev ya da veri kümesi için özelleştirmek için daha hızlı ve ucuz bir alternatif oluşturuyorlar.
Büyük dil modelleri (LLM) daha pahalı GPU'lar gerektirirken küçük modeller CPU tabanlı cihazlarda bile çalışabiliyor. Bu da gelişmekte olan ülkelerdeki veya sınırlı altyapıya sahip ortamlardaki geliştiriciler ve işletmeler için daha erişilebilir bir seçenek sunuyor.
Popüler İçerikler