article/comments
article/share
Haberler
Google'ın Yeni Açık Kaynak Yapay Zekası: Gemma 4 Nedir, Neden Önemli?

Google'ın Yeni Açık Kaynak Yapay Zekası: Gemma 4 Nedir, Neden Önemli?

Geçen hafta teknoloji dünyasında bir şey oldu. Sessizce, büyük bir tanıtım töreni olmadan. Google, Gemma 4'ü bıraktı ortaya — ve açıkçası, rakamları görünce biraz duraksadım. 31 milyar parametreli bir model, 671 milyar parametreli DeepSeek'i Arena AI sıralamasında geçiyor. Yanlış okumadınız. Bu nasıl mümkün olabiliyor? Biraz açmaya çalışayım.

İçeriğin Devamı Aşağıda chevron-right-grey
Reklam

Google Gemma 4 — Açık ağırlıklı yapay zeka modellerinin yeni devi

Google Gemma 4 yapay zeka modeli görseli

Gemma 4 Tam Olarak Ne?

Kısa cevap: Google'ın ücretsiz dağıttığı, kendi bilgisayarınızda çalıştırabileceğiniz bir yapay zeka ailesi.

Ama bu tanım biraz eksik kalıyor. Şöyle düşünün: ChatGPT veya Claude kullandığınızda, siz bir kutuya yazıyorsunuz, kutunun içinde ne döndüğünü bilmiyorsunuz, ve o servis bir gün kapatılabilir ya da fiyatlandırması değişebilir. Gemma'da ise modelin kendisini — ağırlıkları, parametreleri — indirip kendi sunucunuzda çalıştırıyorsunuz. Kimseye bağımlılık yok. 2 Nisan 2026'da duyurulan Gemma 4, bu ailenin dördüncü ve şimdiye dek en güçlü versiyonu. Apache 2.0 lisansıyla geliyor; yani ticari projelerinizde de hiçbir kısıt olmadan kullanabilirsiniz.

📌 Resmi duyuru

📌 Google AI for Developers

Dört Model, Dört Farklı Dünya

Gemma 4 tek bir ürün değil — dört farklı boyutta geliyor ve her biri farklı bir sorunu çözüyor. E2B ve E4B'den başlayalım. Bunlar 'edge' modeller yani uç cihaz modelleri. Telefonda, tablette, hatta Raspberry Pi üzerinde çalışacak şekilde tasarlanmışlar. 128K token bağlam penceresi var — uzun bir PDF'i bile tek seferde işleyebiliyorlar. Ses girişi de destekli; sadece bu iki model için geçerli bu özellik, büyük kardeşlerde yok.

Sonra 26B MoE var. MoE yani 'Mixture of Experts' — her soruda modelin tamamını değil, ilgili uzman bölümlerini aktive eden bir mimari. Sonuç? Çok daha az enerji harcayarak çok daha büyük modeller gibi davranıyor. 256K token bağlam penceresi ve son olarak 31B Dense. Ailenin en güçlüsü. Benchmark listelerinde adını en çok bu model duyuruyor.

Hepsinin ortak özelliği: görüntü ve video anlıyor, 140'tan fazla dil biliyor, function calling destekliyor.

📌 Hugging Face

Yapay zeka modelleri artık çok daha küçük cihazlarda çalışabiliyor

Mobil cihazda yapay zeka kullanımı

MacBook'unuzda mı? Evet, Gerçekten

Apple Silicon konusunda biraz şüpheciydim açıkçası. 'Çalışıyor' demek kolay, ama kaç token/saniye?

Sonuçlar beklenenden iyi çıktı. M1 Ultra Mac Studio'da 26B MoE modeli, llama.cpp ile 60-70 token/saniye üretiyor. Bu, gerçek kullanım için yeterli bir hız. M3 Pro gibi daha yeni cihazlarda daha da iyi sonuçlar alındığı bildiriliyor. Neden Apple Silicon bu kadar iyi performans veriyor? 'Unified memory' denen mimari sayesinde. CPU ve GPU aynı bellek havuzunu paylaşıyor — bu da büyük modelleri RAM üzerinde çalıştırmayı olağandışı ölçüde verimli kılıyor. Nvidia GPU'su olmayanlar için bu gerçekten önemli bir fark. E2B/E4B modelleri için 16GB RAM'li bir Mac mini bile başlangıç noktası olabilir.

Kurulum tarafında da zorluk yok: Ollama'yı yükleyin, terminale ollama run gemma4 yazın. Beş dakika içinde çalışıyor.

İçeriğin Devamı Aşağıda chevron-right-grey
Reklam

Sayılar: Arena AI'da Gerçekte Nerede Duruyor?

Arena AI, yapay zeka modellerini karşılaştırmanın en ilginç yollarından biri. Kullanıcılar, hangi modelin kim olduğunu bilmeden iki yanıtı karşılaştırıyor ve birini seçiyor. Yüz binlerce böyle etkileşimden bir elo puanı çıkıyor — satranç turnuvalarındaki gibi.

Nisan 2026 itibarıyla açık kaynak modeller sıralaması şöyle:

  • #1 Kimi K2.5 Thinking (Moonshot) — 1.471 elo

  • #2 Kimi K2.5 (Moonshot) — 1.456 elo

  • #3 Kimi K2 (Moonshot) — 1.452 elo

  • #4 Gemma 4 31B (Google) — 1.451 elo ✅

  • #5 Qwen 3.5 397B (Alibaba) — 1.447 elo

  • #11 DeepSeek V3 — 1.425 elo

  • #12 DeepSeek R1 — 1.424 elo

Bu listeye bakınca şu soruyu sormak gerekiyor: 397 milyar parametreli Qwen, neden 31 milyarlık Gemma'nın gerisinde? Cevabın bir kısmı mimari verimlilikte, bir kısmı Gemini 3 araştırmasından gelen bilgi transferinde. Google buna 'intelligence-per-parameter' diyor — parametre başına düşen zeka.

Resmi benchmark'lardan birkaç rakam:

  • AIME 2026 matematik: %89.2

  • GPQA Diamond bilim: %84.3

  • LiveCodeBench kodlama: %80.0

  • MMLU çok dilli: %85.2

Not: Arena AI sıralaması her gün güncelleniyor, o yüzden anlık konumu için direkt siteye bakın.

📌 Arena AI leaderboard

📌 Model kartı

Çin'den Gelen Rakipler: Durumu Olduğu Gibi Görmek

Dürüst olmak gerekirse, açık kaynak yapay zeka dünyasında son iki yılın gerçek sürprizi Çin'den geldi. Ve bu tablonun Gemma için hem zorluğu hem de başarısını ortaya koyuyor.

Kimi K2.5 (Moonshot AI)

Ocak 2026'da sessizce piyasaya çıktı, Arena AI'ı sildi süpürdü. Metin, görsel, video işleyebiliyor. Alibaba ve eski Sequoia China (şimdi HongShan) bu projeye yatırım yapmış. Sıralama açısından Gemma'nın önünde — bunu kabul etmek gerekiyor. Ama çalıştırmak için gereken donanım bambaşka bir boyut; Apple Silicon'da sorunsuz çalışmıyor.

DeepSeek R1 ve V3 (MIT lisansı)

2025 başında yapay zeka dünyasını sarsmıştı. 671 milyar parametre, matematik ve kodlamada gerçekten güçlü. Ama Arena AI'da #11-12 sırasında — Gemma 4'ün çok gerisinde. Ve onu çalıştırmak için ihtiyacınız olan donanım, Gemma 4'e kıyasla tartışmasız daha büyük.  DeepSeek Hugging Face

Qwen 3.5 (Alibaba, Apache 2.0)

Bu aile ilginç. 2B'den 397B'ye kadar uzanan geniş bir yelpaze. Özellikle dil desteğinde Gemma'yı geride bırakıyor: 201 dil ve lehçe vs. Gemma'nın 140+. Fiyat rekabetçi. Benchmark tablolarında bazı kategorilerde öne geçiyor. Ama Arena AI sohbet tercihlerinde 31B'lik Gemma karşısında kaybediyor — bu fark, son kullanıcı deneyimi açısından önemli.  Qwen Hugging Face

GLM-4.7 (Zhipu AI / Z.ai, MIT)

Çince görevlerde çarpıcı. Açık kaynak olarak sunuluyor. İngilizce ve genel çok dilli senaryolarda Gemma'nın gerisinde kalıyor.

MiniMax M2.5 (Modified MIT)

Radara çok girmiyor ama Arena AI'daki sırası dikkat çekiyor. Uzun bağlam işlemede güçlü. Lisans 'Modified MIT' olduğu için ticari kullanımda kontrol etmek lazım.

Açık kaynak yapay zeka yarışında Çinli modeller güçlü bir konumda

Yapay zeka model karşılaştırması ve rekabet

Batılı Rakiplerle Karşılaştırma

Llama 4 (Meta)

Meta'nın en büyük silahı Scout modeli: 10 milyon token bağlam penceresi. Uzun belge analizi, büyük kod tabanları için bu gerçekten önemli. Maverick ise 400 milyar toplam parametreyle devasa — ama taşımak zor. Gemma 4 31B, boyutun sağladığı rahatlıkla benzer skor yakalıyor.

Mistral Small 4 (Apache 2.0)

Fransızlar kompakt modellerde hep iyi iş çıkarmıştı. Arena AI'da #25 civarı, 1.415 elo. Gemma 4 ses ve görsel işleme tarafında fark açıyor.

Llama 3.1 405B

Meta'nın önceki nesil devi, Arena AI'da #67-68 bandında. Gemma 4 31B onu kendi boyutunun yüzde yedisiyle geçiyor. Bu verimliliğin kağıt üzerinde ne anlama geldiğini bir düşünün: sunucu maliyeti, enerji, kurulum kolaylığı — hepsi değişiyor.

Kime Göre Ne İşe Yarıyor?

Geliştiriciler için:

Kendi ürününüze yapay zeka katmanı eklemek istiyorsanız ve OpenAI'ye bağımlı kalmak istemiyorsanız, Gemma 4 gerçek bir alternatif. Function calling var, JSON output var, Apache 2.0 lisansı var. Entegrasyon nispeten düzgün.

Apple Silicon kullanıcıları için:

Nvidia GPU olmadan güçlü bir yerel model çalıştırmak artık mümkün. M1 veya üzeri bir Mac'iniz varsa ve 16GB+ RAM'iniz varsa, denemeye değer. MLX backend'i özellikle fark yaratıyor.

Araştırmacılar için:

Buluta veri çıkarmak istemiyorsanız bu kritik. Yale Üniversitesi'nin Google ile yürüttüğü kanser tedavisi araştırmasında Gemma kullanılmış — bu tür hassas veri gerektiren projelerde yerel model avantajı çok somut.

Kurumsal kullanım için:

Apache 2.0 lisansı, ekstra ücret veya izin almadan üretim ortamına almanıza izin veriyor. Veri egemenliği konusunda hassas sektörler (finans, sağlık, kamu) için bu ciddi bir artı.

📌 Tüm Gemma 4 modelleri — Hugging Face

📌 Google DeepMind sayfası

İçeriğin Devamı Aşağıda chevron-right-grey
Reklam

Son Söz

Açık kaynak yapay zeka modelleri uzun süredir 'neredeyse iyi' kategorisindeydi. Kapalı kaynak alternatiflere yaklaşıyor ama bir türlü tam olarak yetişemiyordu. Gemma 4 bu farkı kapattı mı? Tamamen değil. Kimi K2.5 önde, bazı benchmark'larda Qwen öne geçiyor. Ama şunu söyleyebilirim: 31B parametreyle Arena AI'da #4 olmak, ve bunu kendi bilgisayarınızda çalıştırabilmek — bu bir yıl önce hayal bile edilemezdi.

400 milyonu aşan indirme, 100.000'den fazla türev model. Bu rakamlar bize bir şeyi gösteriyor: geliştiriciler Gemma'nın üzerine inşa etmeye başladı bile.

📌 Google AI Studio üzerinde hemen deneyin

Yorumlar ve Emojiler Aşağıda chevron-right-grey
Reklam

Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!

category/test-white Test
category/gundem-white Gündem
category/magazin-white Magazin
category/video-white Video
Onedio.com'nun teknoloji lideri olarak görev yapıyor; aynı zamanda Yemek.com ve Webtekno.com markalarının kararlarında da aktif rol alıyor. Yazılım ve altyapı tarafındaki yılların deneyimini, karmaşık teknolojileri sade bir dille anlatmaya ayırıyor: yapay zekâ modelleri, makine öğrenmesi, bulut mimarisi, açık kaynak ekosistemi, reklam teknolojileri ve dijital medyanın teknik perde arkası en sevdiği konular arasında. İşten arta kalan zamanda Macbook'u üzerinde yerel LLM'ler çalıştırıyor, analog Hi-Fi sistemleri üzerinde ince ayarlar yapıyor, makroekonomik döngüler ile teknoloji devlerinin finansalları arasındaki bağı takip ediyor. Boş hafta sonları ise ya bir ev aletini söküp takmakla ya da seyahat rotaları planlamakla geçiyor.
Tüm içerikleri
right-dark
category/eglence BU İÇERİĞE EMOJİYLE TEPKİ VER!
0
0
0
0
0
0
0
Yorumlar Aşağıda chevron-right-grey
Reklam
ONEDİO ÜYELERİ NE DİYOR?
Yorum Yazın