
Küçük AI modellerinin haftası gibi görünüyor.
Geçtiğimiz Perşembe günü, kar amacı gütmeyen AI araştırma enstitüsü Ai2, Olmo 2 1B adını verdiği 1 milyar parametreli modelini tanıttı. Ai2, bu modelin Google, Meta ve Alibaba gibi devlere ait benzer boyuttaki modellerden daha iyi performans sergilediğini iddia ediyor. Parametreler, bir modelin davranışını yönlendiren iç bileşenlerdir.
Olmo 2 1B, AI geliştirici platformu Hugging Face‘te Apache 2.0 lisansı altında erişime sunuldu. Çoğu modelin aksine, Olmo 2 1B sıfırdan çoğaltılabilir; Ai2, bu modelin geliştirilmesinde kullanılan kod ve veri setlerini sağlamıştır.
Küçük modeller, devasa muadilleri kadar yetenekli olmasa da, önemli bir avantajları var: Çalıştırmaları için güçlü donanımlar gerektirmiyorlar. Bu durum, daha düşük seviyedeki ve tüketici makineleriyle mücadele eden geliştiriciler ve meraklılar için büyük bir erişilebilirlik sağlıyor.
Son günlerde, Microsoft’un Phi 4 akıl yürütme ailesinden Qwen’in 2.5 Omni 3B modeline kadar birçok küçük model tanıtıldı. Bu modellerin çoğu — Olmo 2 1B ile birlikte — modern bir dizüstü bilgisayarda veya hatta bir mobil cihazda kolayca çalıştırılabiliyor.
Ai2, Olmo 2 1B’nin 4 trilyon token’lık bir veri seti üzerinde eğitildiğini belirtiyor. Token’lar, modellerin işlediği ve ürettiği ham veri parçalarıdır; 1 milyon token, yaklaşık 750,000 kelimeye eşdeğerdir.
Aritmetik akıl yürütmeyi ölçen GSM8K testinde, Olmo 2 1B, Google’ın Gemma 3 1B’si, Meta’nın Llama 3.2 1B’si ve Alibaba’nın Qwen 2.5 1.5B’sinden daha iyi bir puan almıştır. Ayrıca, Olmo 2 1B, bu üç modelin performansını TruthfulQA testiyle değerlendirildiğinde de geride bırakmaktadır.
Ancak Ai2, Olmo 2 1B’nin bazı riskler taşıdığını da vurguluyor. Diğer tüm AI modellerinde olduğu gibi, bu model de zararlı ve “hassas” içerikler gibi “problemli çıktılar” üretebilir. Bu nedenlerle, Ai2, Olmo 2 1B’nin ticari ortamlarda kullanılmasını önermiyor.