Google'ın Yeni Açık Kaynak Yapay Zekası: Gemma 4 Nedir, Neden Önemli?
Geçen hafta teknoloji dünyasında bir şey oldu. Sessizce, büyük bir tanıtım töreni olmadan. Google, Gemma 4'ü bıraktı ortaya — ve açıkçası, rakamları görünce biraz duraksadım. 31 milyar parametreli bir model, 671 milyar parametreli DeepSeek'i Arena AI sıralamasında geçiyor. Yanlış okumadınız. Bu nasıl mümkün olabiliyor? Biraz açmaya çalışayım.
Google Gemma 4 — Açık ağırlıklı yapay zeka modellerinin yeni devi
Gemma 4 Tam Olarak Ne?
Kısa cevap: Google'ın ücretsiz dağıttığı, kendi bilgisayarınızda çalıştırabileceğiniz bir yapay zeka ailesi.
Ama bu tanım biraz eksik kalıyor. Şöyle düşünün: ChatGPT veya Claude kullandığınızda, siz bir kutuya yazıyorsunuz, kutunun içinde ne döndüğünü bilmiyorsunuz, ve o servis bir gün kapatılabilir ya da fiyatlandırması değişebilir. Gemma'da ise modelin kendisini — ağırlıkları, parametreleri — indirip kendi sunucunuzda çalıştırıyorsunuz. Kimseye bağımlılık yok. 2 Nisan 2026'da duyurulan Gemma 4, bu ailenin dördüncü ve şimdiye dek en güçlü versiyonu. Apache 2.0 lisansıyla geliyor; yani ticari projelerinizde de hiçbir kısıt olmadan kullanabilirsiniz.
Dört Model, Dört Farklı Dünya
Gemma 4 tek bir ürün değil — dört farklı boyutta geliyor ve her biri farklı bir sorunu çözüyor. E2B ve E4B'den başlayalım. Bunlar 'edge' modeller yani uç cihaz modelleri. Telefonda, tablette, hatta Raspberry Pi üzerinde çalışacak şekilde tasarlanmışlar. 128K token bağlam penceresi var — uzun bir PDF'i bile tek seferde işleyebiliyorlar. Ses girişi de destekli; sadece bu iki model için geçerli bu özellik, büyük kardeşlerde yok.
Sonra 26B MoE var. MoE yani 'Mixture of Experts' — her soruda modelin tamamını değil, ilgili uzman bölümlerini aktive eden bir mimari. Sonuç? Çok daha az enerji harcayarak çok daha büyük modeller gibi davranıyor. 256K token bağlam penceresi ve son olarak 31B Dense. Ailenin en güçlüsü. Benchmark listelerinde adını en çok bu model duyuruyor.
Hepsinin ortak özelliği: görüntü ve video anlıyor, 140'tan fazla dil biliyor, function calling destekliyor.
Yapay zeka modelleri artık çok daha küçük cihazlarda çalışabiliyor
MacBook'unuzda mı? Evet, Gerçekten
Apple Silicon konusunda biraz şüpheciydim açıkçası. 'Çalışıyor' demek kolay, ama kaç token/saniye?
Sonuçlar beklenenden iyi çıktı. M1 Ultra Mac Studio'da 26B MoE modeli, llama.cpp ile 60-70 token/saniye üretiyor. Bu, gerçek kullanım için yeterli bir hız. M3 Pro gibi daha yeni cihazlarda daha da iyi sonuçlar alındığı bildiriliyor. Neden Apple Silicon bu kadar iyi performans veriyor? 'Unified memory' denen mimari sayesinde. CPU ve GPU aynı bellek havuzunu paylaşıyor — bu da büyük modelleri RAM üzerinde çalıştırmayı olağandışı ölçüde verimli kılıyor. Nvidia GPU'su olmayanlar için bu gerçekten önemli bir fark. E2B/E4B modelleri için 16GB RAM'li bir Mac mini bile başlangıç noktası olabilir.
Kurulum tarafında da zorluk yok: Ollama'yı yükleyin, terminale ollama run gemma4 yazın. Beş dakika içinde çalışıyor.
Sayılar: Arena AI'da Gerçekte Nerede Duruyor?
Arena AI, yapay zeka modellerini karşılaştırmanın en ilginç yollarından biri. Kullanıcılar, hangi modelin kim olduğunu bilmeden iki yanıtı karşılaştırıyor ve birini seçiyor. Yüz binlerce böyle etkileşimden bir elo puanı çıkıyor — satranç turnuvalarındaki gibi.
Nisan 2026 itibarıyla açık kaynak modeller sıralaması şöyle:
#1 Kimi K2.5 Thinking (Moonshot) — 1.471 elo
#2 Kimi K2.5 (Moonshot) — 1.456 elo
#3 Kimi K2 (Moonshot) — 1.452 elo
#4 Gemma 4 31B (Google) — 1.451 elo ✅
#5 Qwen 3.5 397B (Alibaba) — 1.447 elo
#11 DeepSeek V3 — 1.425 elo
#12 DeepSeek R1 — 1.424 elo
Bu listeye bakınca şu soruyu sormak gerekiyor: 397 milyar parametreli Qwen, neden 31 milyarlık Gemma'nın gerisinde? Cevabın bir kısmı mimari verimlilikte, bir kısmı Gemini 3 araştırmasından gelen bilgi transferinde. Google buna 'intelligence-per-parameter' diyor — parametre başına düşen zeka.
Resmi benchmark'lardan birkaç rakam:
AIME 2026 matematik: %89.2
GPQA Diamond bilim: %84.3
LiveCodeBench kodlama: %80.0
MMLU çok dilli: %85.2
Not: Arena AI sıralaması her gün güncelleniyor, o yüzden anlık konumu için direkt siteye bakın.
Çin'den Gelen Rakipler: Durumu Olduğu Gibi Görmek
Dürüst olmak gerekirse, açık kaynak yapay zeka dünyasında son iki yılın gerçek sürprizi Çin'den geldi. Ve bu tablonun Gemma için hem zorluğu hem de başarısını ortaya koyuyor.
Kimi K2.5 (Moonshot AI)
Ocak 2026'da sessizce piyasaya çıktı, Arena AI'ı sildi süpürdü. Metin, görsel, video işleyebiliyor. Alibaba ve eski Sequoia China (şimdi HongShan) bu projeye yatırım yapmış. Sıralama açısından Gemma'nın önünde — bunu kabul etmek gerekiyor. Ama çalıştırmak için gereken donanım bambaşka bir boyut; Apple Silicon'da sorunsuz çalışmıyor.
DeepSeek R1 ve V3 (MIT lisansı)
2025 başında yapay zeka dünyasını sarsmıştı. 671 milyar parametre, matematik ve kodlamada gerçekten güçlü. Ama Arena AI'da #11-12 sırasında — Gemma 4'ün çok gerisinde. Ve onu çalıştırmak için ihtiyacınız olan donanım, Gemma 4'e kıyasla tartışmasız daha büyük. DeepSeek Hugging Face
Qwen 3.5 (Alibaba, Apache 2.0)
Bu aile ilginç. 2B'den 397B'ye kadar uzanan geniş bir yelpaze. Özellikle dil desteğinde Gemma'yı geride bırakıyor: 201 dil ve lehçe vs. Gemma'nın 140+. Fiyat rekabetçi. Benchmark tablolarında bazı kategorilerde öne geçiyor. Ama Arena AI sohbet tercihlerinde 31B'lik Gemma karşısında kaybediyor — bu fark, son kullanıcı deneyimi açısından önemli. Qwen Hugging Face
GLM-4.7 (Zhipu AI / Z.ai, MIT)
Çince görevlerde çarpıcı. Açık kaynak olarak sunuluyor. İngilizce ve genel çok dilli senaryolarda Gemma'nın gerisinde kalıyor.
MiniMax M2.5 (Modified MIT)
Radara çok girmiyor ama Arena AI'daki sırası dikkat çekiyor. Uzun bağlam işlemede güçlü. Lisans 'Modified MIT' olduğu için ticari kullanımda kontrol etmek lazım.
Açık kaynak yapay zeka yarışında Çinli modeller güçlü bir konumda
Batılı Rakiplerle Karşılaştırma
Llama 4 (Meta)
Meta'nın en büyük silahı Scout modeli: 10 milyon token bağlam penceresi. Uzun belge analizi, büyük kod tabanları için bu gerçekten önemli. Maverick ise 400 milyar toplam parametreyle devasa — ama taşımak zor. Gemma 4 31B, boyutun sağladığı rahatlıkla benzer skor yakalıyor.
Mistral Small 4 (Apache 2.0)
Fransızlar kompakt modellerde hep iyi iş çıkarmıştı. Arena AI'da #25 civarı, 1.415 elo. Gemma 4 ses ve görsel işleme tarafında fark açıyor.
Llama 3.1 405B
Meta'nın önceki nesil devi, Arena AI'da #67-68 bandında. Gemma 4 31B onu kendi boyutunun yüzde yedisiyle geçiyor. Bu verimliliğin kağıt üzerinde ne anlama geldiğini bir düşünün: sunucu maliyeti, enerji, kurulum kolaylığı — hepsi değişiyor.
Kime Göre Ne İşe Yarıyor?
Geliştiriciler için:
Kendi ürününüze yapay zeka katmanı eklemek istiyorsanız ve OpenAI'ye bağımlı kalmak istemiyorsanız, Gemma 4 gerçek bir alternatif. Function calling var, JSON output var, Apache 2.0 lisansı var. Entegrasyon nispeten düzgün.
Apple Silicon kullanıcıları için:
Nvidia GPU olmadan güçlü bir yerel model çalıştırmak artık mümkün. M1 veya üzeri bir Mac'iniz varsa ve 16GB+ RAM'iniz varsa, denemeye değer. MLX backend'i özellikle fark yaratıyor.
Araştırmacılar için:
Buluta veri çıkarmak istemiyorsanız bu kritik. Yale Üniversitesi'nin Google ile yürüttüğü kanser tedavisi araştırmasında Gemma kullanılmış — bu tür hassas veri gerektiren projelerde yerel model avantajı çok somut.
Kurumsal kullanım için:
Apache 2.0 lisansı, ekstra ücret veya izin almadan üretim ortamına almanıza izin veriyor. Veri egemenliği konusunda hassas sektörler (finans, sağlık, kamu) için bu ciddi bir artı.
📌 Tüm Gemma 4 modelleri — Hugging Face
📌 Google DeepMind sayfası
Son Söz
Açık kaynak yapay zeka modelleri uzun süredir 'neredeyse iyi' kategorisindeydi. Kapalı kaynak alternatiflere yaklaşıyor ama bir türlü tam olarak yetişemiyordu. Gemma 4 bu farkı kapattı mı? Tamamen değil. Kimi K2.5 önde, bazı benchmark'larda Qwen öne geçiyor. Ama şunu söyleyebilirim: 31B parametreyle Arena AI'da #4 olmak, ve bunu kendi bilgisayarınızda çalıştırabilmek — bu bir yıl önce hayal bile edilemezdi.
400 milyonu aşan indirme, 100.000'den fazla türev model. Bu rakamlar bize bir şeyi gösteriyor: geliştiriciler Gemma'nın üzerine inşa etmeye başladı bile.
📌 Google AI Studio üzerinde hemen deneyin
Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!


Yorum Yazın