AI Dijital PazarlamaGemma 4 + Ollama + OpenClaw: Mac'te Ücretsiz AI...

Gemma 4 + Ollama + OpenClaw: Mac’te Ücretsiz AI Kodlama Ajanı Nasıl Kurulur?

-


Gemma 4 + Ollama + OpenClaw: Mac’te Ücretsiz AI Kodlama Ajanı Nasıl Kurulur?

Claude API için aylık 40 dolar. GitHub Copilot için 19 dolar. Başka bir AI kodlama aracı için 30 dolar daha. Toplamda ayda 90 doların üzerinde harcama, üstelik her satır kodunuz üçüncü taraf sunuculara gidiyor.

Google’ın Gemma 4 modelini kendi bilgisayarınızda çalıştırmak artık gerçekçi bir alternatif. Ollama ile yerel kurulum yapıp OpenClaw kodlama ajanına bağladığınızda, rutin geliştirme görevleri için API maliyetiniz sıfıra iniyor. Verileriniz hiçbir zaman bilgisayarınızı terk etmiyor.

Bu rehberde Gemma 4, Ollama ve OpenClaw üçlüsünü Mac’te sıfırdan nasıl kuracağınızı, performansı nasıl optimize edeceğinizi ve hangi görevler için yerel modelin, hangileri için bulut modelinin tercih edilmesi gerektiğini adım adım anlatıyoruz.


Bu Kurulumla Ne Elde Ediyorsunuz?

Başlamadan önce ne kurduğunuzu netleştirelim.

Ollama, açık kaynak büyük dil modellerini yerel bilgisayarda çalıştırmak için geliştirilmiş bir araç. Mac, Windows ve Linux destekliyor. Modeli bir kez indirdikten sonra tamamen çevrimdışı çalışıyor.

Gemma 4, Google DeepMind’ın Apache 2.0 lisansıyla yayınladığı açık kaynaklı AI modeli. E4B versiyonu (varsayılan), 4,5 milyar efektif parametreyle 9,6 GB depolama alanı kullanıyor. Yerel çalışmaya optimize edilmiş.

OpenClaw, Ollama üzerinde çalışan açık kaynak bir AI kodlama ajanı. OpenAI-uyumlu API’yi destekleyen herhangi bir modeli backend olarak kullanabiliyor. Gemma 4 + Ollama ikilisiyle sorunsuz çalışıyor.

Üçü bir araya geldiğinde ne oluyor? Kendi bilgisayarınızda çalışan, kod anlayan, dosya okuyup yazan, değişiklik öneren bir geliştirme asistanı. API anahtarı yok. Aylık fatura yok. Gizlilik sorunu yok.


Sistem Gereksinimleri

Bu kurulumu yapmadan önce donanımınızı kontrol edin.

Minimum gereksinimler:
– Apple Silicon Mac (M1, M2, M3, M4 veya M5)
– 16 GB birleşik bellek (Unified Memory)
– 20 GB boş depolama alanı (model dosyası + uygulama)
– Homebrew yüklü olmalı

Önerilen yapılandırma:
– M2 Pro veya üzeri
– 32 GB birleşik bellek
– 50 GB boş alan (birden fazla model için)

Intel Mac’lerde de çalışıyor ancak performans belirgin şekilde düşüyor. Gemma 4’ün Apple Silicon için optimize edildiğini ve Metal GPU hızlandırmasından yararlandığını belirtmek gerekiyor.

Intel Mac veya Windows kullanıyorsanız E2B modeli (7,2 GB, 2,3 milyar efektif parametre) daha iyi bir başlangıç noktası.


Adım Adım Kurulum

Adım 1: Ollama’yı Kurun

Terminal’i açın ve Homebrew üzerinden Ollama’yı yükleyin:

brew install --cask ollama-app

Kurulum tamamlandıktan sonra Ollama uygulamasını başlatın:

open -a Ollama

Kurulumun başarılı olduğunu doğrulayın:

ollama list

İlk kurulumda bu komut boş bir liste döndürür. Bu normal, henüz model indirmediniz.

Adım 2: Gemma 4 Modelini İndirin

Varsayılan model Gemma 4 E4B, 9,6 GB boyutunda. İndirmek için:

ollama pull gemma4

İndirme hızınıza göre 5-15 dakika sürebilir. Tamamlandıktan sonra modeli test edin:

ollama run gemma4

Terminalde bir sohbet arayüzü açılır. Bu kod ne yapıyor? gibi bir şey yazıp gönderdiğinizde modelin yanıt verdiğini görürsünüz. Çıkmak için /bye yazın.

Farklı model boyutları için:

ollama pull gemma4:e2b # 7,2 GB, daha hafif
ollama pull gemma4:26b # 18 GB, MoE mimarisi, 256K bağlam
ollama pull gemma4:31b # 20 GB, en güçlü, yüksek RAM gerektirir

Adım 3: OpenClaw’u Kurun

OpenClaw, npm üzerinden kuruluyor. Node.js yüklü değilse önce onu kurun:

brew install node

OpenClaw CLI’ı global olarak yükleyin:

npm install -g openclaw

Kurulumu doğrulayın:

openclaw --version

Adım 4: OpenClaw’u Ollama’ya Bağlayın

OpenClaw’un onboarding sihirbazını çalıştırın ve Ollama’yı seçin:

openclaw onboard --auth-choice ollama

Sihirbaz sizi adım adım yönlendirir. Ollama’nın yerel API adresi olarak http://localhost:11434/v1 girmeniz istenir.

Manuel yapılandırma tercih ediyorsanız ~/.openclaw/openclaw.json dosyasını düzenleyin:

{
 "provider": "ollama",
 "baseUrl": "http://localhost:11434/v1",
 "model": "gemma4",
 "apiKey": "ollama"
}

Bağlantıyı test edin:

openclaw chat "Merhaba, çalışıyor musun?"

Gemma 4’ten Türkçe bir yanıt geliyorsa kurulum tamamdır.

Adım 5: Performans Optimizasyonu

Varsayılan ayarlarda Ollama, modeli belirli bir süre hareketsizlik sonrası bellekten boşaltıyor. Her yeni soruda model yeniden yükleniyor ve bu birkaç saniyelik gecikmeye yol açıyor.

Modeli kalıcı olarak bellekte tutmak için:

export OLLAMA_KEEP_ALIVE="-1"

Bu ayarı kalıcı hale getirmek için shell profil dosyanıza ekleyin:

echo 'export OLLAMA_KEEP_ALIVE="-1"' >> ~/.zshrc
source ~/.zshrc

Alper, İstanbul’da bir mobil uygulama geliştirici. Gemma 4’ü ilk kurduğunda her soruda 4-5 saniyelik bekleme yaşıyordu. OLLAMA_KEEP_ALIVE="-1" ayarını yaptıktan sonra bekleme süresi 0,3 saniyeye düştü. “Artık neredeyse bulut modeliyle aynı hızda” diyor. Tek fark karmaşık mimari kararlar için hâlâ Claude’a geçmesi gerektiği.


OpenClaw ile Gemma 4: Güçlü Olduğu Görevler

Kurulum tamamlandı. Ama her AI aracında olduğu gibi, Gemma 4 + OpenClaw ikilisinin parlak olduğu ve zorlandığı alanlar var. Bunu bilmeden kullanmak hayal kırıklığıyla sonuçlanabilir.

Gemma 4 + OpenClaw’un güçlü olduğu alanlar:

  • Kod okuma ve özetleme: Büyük bir dosyayı “Bu kod ne yapıyor, özetle” diye sorunca çok iyi çalışıyor. 128K token bağlam penceresi yeterince geniş.
  • Boilerplate ve scaffold üretimi: “Bu endpoint için CRUD operasyonları yaz” gibi rutin görevlerde hız ve kalite tatmin edici.
  • Dosya operasyonları: Dosya okuma, yazma, yeniden adlandırma gibi temel işlemler sorunsuz.
  • Tek dosya değişiklikleri: Belirli bir fonksiyonu düzeltmek veya optimize etmek için iyi.
  • Yorum ve dokümantasyon yazma: Kod bloklarına Türkçe veya İngilizce açıklama ekletmek.
  • Birim test yazma: Mevcut fonksiyonlar için test case’leri üretmek.
  • Regex ve string işlemleri: Karmaşık regex kalıpları oluşturmak veya açıklamak.
  • SQL sorgu optimizasyonu: Basit ve orta düzey sorgularda yeniden yazma ve iyileştirme önerileri.

Zorlandığı durumlar:

  • Çok dosyalı refactor: Birden fazla dosyayı kapsayan büyük yeniden yapılandırma işlemlerinde performans düşüyor.
  • Karmaşık hata ayıklama: Birden fazla soyutlama katmanı içeren hataları takip etmek zorlaşıyor.
  • 32K üzeri bağlam: Donanım sınırları nedeniyle uzun bağlamlarda token başına işlem süresi uzuyor.
  • Mimari kararlar: “Bu uygulama için doğru mimari ne?” gibi açık uçlu tasarım sorularında bulut modelleri öne geçiyor.
  • Yeni framework öğrenme: Bilgi kesim tarihi Ocak 2025 olduğu için en güncel framework güncellemelerini bilmiyor olabilir.

Bir kural olarak şunu söyleyebiliriz: eğer bir insanın yapabileceği görevi tanımlamak 2-3 cümle alıyorsa Gemma 4 genellikle başarılı. Birden fazla karar noktası gerektiren, bağlam switch’i yoğun görevlerde bulut modeli tercih edin.

Yapay zeka dijital pazarlama araçları arasında yerel modellerin yükselişi belirgin. Maliyet ve gizlilik avantajları kurumsal benimsemeyi hızlandırıyor.


Hibrit Yaklaşım: Yerel + Bulut

Gemma 4’ü her şey için kullanmaya çalışmak doğru strateji değil. En verimli yaklaşım, görev türüne göre yerel ve bulut modellerini birlikte kullanmak.

Yerel Gemma 4 için (maliyet sıfır, gizlilik tam):
– Kod açıklama ve özetleme
– Boilerplate üretimi
– Basit hata düzeltme
– Dokümantasyon yazma
– Yinelenen, rutin görevler

Bulut modeli için (Claude, GPT-5 vb.):
– Karmaşık mimari tasarım
– Çok dosyalı büyük refactorlar
– Yeni teknoloji veya framework öğrenme
– Kritik güvenlik kodu incelemesi
– Müşteriye sunulacak son ürün kodu

Pratikte bu ayrımı uygulamak için basit bir kural: Bir görevi tanımlarken “rutin mi, yaratıcı mı?” diye sorun. Rutin görevler yerel modele, yaratıcı veya kritik olanlar buluta.

AI odaklı içerik optimizasyonu alanında da benzer bir hibrit yaklaşım geçerli. Gemma 4 taslak ve araştırma için, güçlü bulut modelleri ise son cilalama için kullanılıyor.



Neden Yerel AI? Bulut Modellerine Göre Avantajlar

Gemma 4 + Ollama + OpenClaw kurulumu yapmak için zaman harcamadan önce bu kurulumun size ne kazandırdığını somut olarak görelim.

Maliyet karşılaştırması (aylık):

SeçenekAylık MaliyetVeri GizliliğiÇevrimdışı
Claude API (Pro)~$20-100Üçüncü tarafHayır
GitHub Copilot$19Microsoft sunucularıHayır
Gemma 4 + Ollama$0Tam yerelEvet
OpenAI GPT-5 APIKullanıma göreOpenAI sunucularıHayır

İlk kurulum maliyeti yok. Abonelik yok. Token limiti yok. İnternet bağlantısı kesilse de çalışıyor.

Gizlilik avantajı özellikle kritik bu senaryolarda:

  • Müşteriye ait kaynak kodu ve iş mantığı
  • Henüz açıklanmamış ürün özellikleri
  • Finansal hesaplama kodları
  • Kullanıcı verisi işleyen backend servisleri

KVKK kapsamında değerlendirdiğinizde, müşteri verisini işleyen kodun üçüncü taraf AI servislerine gönderilmesi ciddi uyum riskleri doğurabilir. Yerel model bu riski tamamen ortadan kaldırıyor.


Gemma 4 ile Farklı Geliştirme Ortamları

OpenClaw dışında da Ollama üzerinden Gemma 4’ü kullanabileceğiniz popüler araçlar var. Ollama’nın localhost:11434/v1 adresi OpenAI-uyumlu API sunduğu için bu araçların büyük çoğunluğu Gemma 4 ile çalışıyor.

VS Code eklentileri:
Continue.dev — VS Code ve JetBrains için açık kaynak AI asistanı. Ollama desteği yerleşik.
Cody (Sourcegraph) — Kod anlama ve üretme. Ollama backend olarak kullanılabiliyor.

Terminal araçları:
Aider — Komut satırından çalışan git-aware kod asistanı.
bash
aider --model ollama/gemma4 --openai-api-base http://localhost:11434/v1

Open Interpreter — Doğal dil komutlarıyla kodu çalıştıran ajan.
bash
interpreter --model ollama/gemma4

Continue.dev kurulumu (VS Code):
1. VS Code’da Continue eklentisini kurun
2. ~/.continue/config.json dosyasına ekleyin:

{
  "models": [{
    "title": "Gemma 4 (Yerel)",
    "provider": "ollama",
    "model": "gemma4",
    "apiBase": "http://localhost:11434/v1"
  }]
}

Böylece VS Code’da kod yazarken sağ panelde Gemma 4 destekli bir asistan her an hazır. Sekme tamamlama, kod açıklama ve refactor önerileri tamamen yerel çalışıyor.

Sık Karşılaşılan Sorunlar ve Çözümleri

Ollama çalışmıyor veya bağlantı reddediliyor

# Ollama servisinin çalışıp çalışmadığını kontrol edin
ps aux | grep ollama

# Servisi yeniden başlatın
pkill ollama && open -a Ollama

Gemma 4 yükleniyor ama yanıt çok yavaş

RAM kullanımını kontrol edin:

# Sistem belleği kullanımını görüntüle
vm_stat | grep "Pages active"

Belleğin dolduğunu görüyorsanız daha küçük bir model deneyin: gemma4:e2b (7,2 GB).

OpenClaw Ollama’yı tanımıyor

Ollama’nın API’sinin çalıştığını doğrulayın:

curl http://localhost:11434/api/tags

JSON formatında model listesi geliyorsa API açık. Boş yanıt veya bağlantı hatası geliyorsa Ollama yeniden başlatın.

Model her sorguda yeniden yükleniyor

OLLAMA_KEEP_ALIVE="-1" ayarının aktif olduğunu doğrulayın:

echo $OLLAMA_KEEP_ALIVE

Çıktı -1 değilse Adım 5’e dönüp ayarı tekrar yapın.


Gemma 4 Agentic Modu: OpenClaw’da Otonom Görevler

Google’ın Gemma 4 duyurusuna göre, modelin en kritik yeniliği native function calling desteği. Bu OpenClaw entegrasyonunda şu anlama geliyor: modele “şu dizindeki tüm.py dosyalarındaki print ifadelerini logging ile değiştir” gibi çok adımlı bir görev verebilirsiniz. Model dosyaları okur, değişiklikleri planlar, uygular.

# Proje dizininde OpenClaw'u çalıştır
cd ~/Projects/my-project
openclaw run "src/ klasöründeki tüm fonksiyonlara docstring ekle"

OpenClaw, Gemma 4’ün function calling kapasitesini kullanarak dosyaları tek tek açar, her fonksiyonu analiz eder ve uygun docstring’i yazar. Bu işlem tamamen yerel, tamamen ücretsiz.

Gemma 4’ün teknik model kartına göre modelin 140’tan fazla dilde eğitilmiş olması Türkçe kod yorumları ve dokümantasyon için de güçlü bir seçenek yapıyor.



Gerçek Kullanım Senaryosu: Bir Freelancer’ın Haftası

Soyut kalmamak için somut bir örnek verelim. Zeynep, İstanbul’da bir freelance backend geliştirici. Müşterileri için Django ve FastAPI projeleri geliştiriyor. Gemma 4 + Ollama + OpenClaw kurulumunu Mart 2026’da yaptı.

Pazartesi: Eski bir müşteri projesini devralıyor. 8.000 satırlık hiç tanımadığı bir codebase. Önce OpenClaw’a soruyor: “Bu projenin genel mimarisini ve ana modüllerini açıkla.” Gemma 4, 10 dakikada kapsamlı bir özet çıkarıyor. Normalde bu analiz yarım gün sürerdi.

Salı: Yeni bir CRUD endpoint yazması gerekiyor. “users tablosu için JWT korumalı bir CRUD API yaz, FastAPI kullan” komutu. Gemma 4 router, schema ve model katmanlarını 3 dakikada üretiyor. Zeynep kodu gözden geçirip ufak düzenlemeler yapıyor, toplam 15 dakika.

Çarşamba: Karmaşık bir authentication bug var. Birden fazla middleware katmanını ilgilendiriyor. Burada Gemma 4’ü bırakıp Claude’a geçiyor. “Yerel modelin bu tür derin hata takibinde sınırları var, bulut modeline geçmek mantıklı” diyor.

Perşembe: Tüm fonksiyonlara docstring eklemesi gerekiyor: openclaw run "src/ klasöründeki fonksiyonlara Google formatında docstring ekle". Gemma 4, 200 fonksiyonu 20 dakikada tamamlıyor.

Cuma: Birim testler. “Şu modül için pytest testleri yaz, edge case’leri de kapsasın.” Gemma 4 temel test senaryolarını üretiyor, Zeynep karmaşık edge case’leri ekliyor.

Sonuç: Bu hafta Claude API’ye 0,40 dolar harcadı. (Çarşamba günkü karmaşık debug için.) Önceki aylarda aynı iş yükü için 60-80 dolar ödüyordu. Kod hiçbir zaman müşterisinin haberi olmadan dışarı çıkmadı.


Sık Sorulan Sorular

Bu kurulum Windows’ta da çalışır mı?

Evet, Ollama Windows’u destekliyor. OpenClaw da cross-platform. Ancak Apple Silicon Mac’teki Metal GPU hızlandırması nedeniyle performans Mac’te belirgin şekilde daha iyi. Windows’ta özellikle NVIDIA GPU’su olan bir makinede benzer sonuçlar alınabiliyor; entegre grafik kartlarında yavaş kalabilir.

Birden fazla modeli aynı anda çalıştırabilir miyim?

Çalıştırabilirsiniz, ancak her model RAM tüketiyor. 16 GB belleği olan bir Mac’te aynı anda hem gemma4 (9,6 GB) hem de başka bir model çalıştırmak sistem belleğini zorlayabilir. En pratik yaklaşım: tek bir modeli aktif tutup ihtiyaca göre geçiş yapmak.

Gemma 4 güncellendiğinde nasıl yükselteyim?

Ollama ile güncelleme tek komut:

ollama pull gemma4

Aynı komutu çalıştırdığınızda Ollama yeni versiyonu çeker, eski sürümü depoda tutmaz.

OpenClaw ücretsiz mi?

OpenClaw açık kaynak ve ücretsiz. Tek maliyet kaynağı, bulut modeli kullanmayı tercih ederseniz ödediğiniz API ücreti. Yerel Gemma 4 ile kullandığınızda toplam maliyet sıfır.

Türkçe komut verince anlıyor mu?

Gemma 4, Türkçe dahil 140’tan fazla dilde eğitilmiş. Terminal’de Türkçe komut verebilir, Türkçe yanıt alabilirsiniz. Kod üretirken Türkçe yorum ve docstring de yazıyor.

Model ne kadar güncel bilgiye sahip?

Gemma 4’ün eğitim verisi Ocak 2025’e kadar. Bu tarihten sonra yayınlanan kütüphaneler veya framework güncellemeleri hakkında bilgisi olmayabilir. En güncel API dökümanları için her zaman resmi kaynakları referans alın.

Sonuç: Gemma 4 + Ollama + OpenClaw Kurulumu Ne Zaman Mantıklı?

Bu kurulum herkes için değil. Doğru senaryo şu kriterlere uyuyorsa kesinlikle değer:

  • Apple Silicon Mac kullanıyorsunuz
  • Rutin kod görevleri için harcama yapmak istemiyorsunuz
  • Müşteri veya şirket kodlarını üçüncü taraf sunuculara göndermek istemiyorsunuz
  • 16 GB veya üzeri RAM’e sahipsiniz

Kurulumu özetlemek gerekirse: Ollama → ollama pull gemma4 → OpenClaw yükle → openclaw onboard --auth-choice ollamaOLLAMA_KEEP_ALIVE="-1" ayarı. Toplam süre 20-30 dakika.

Sonrasında rutin geliştirme görevleri için API maliyetin sıfır. Kritik ve karmaşık işler için hibrit yaklaşımla bulut modelleri devreye giriyor. Her iki dünyanın en iyisi bir arada.

Yapay zekanın dijital pazarlama ve geliştirme süreçlerine entegrasyonu hızlanmaya devam ediyor. Yerel modeller bu dönüşümün sessiz ama güçlü bir parçası.

Şimdi ne yapmalısınız? Eğer Apple Silicon bir Mac kullanıyorsanız bugün 30 dakika ayırın ve kurulumu tamamlayın. Bir hafta boyunca rutin kod görevlerinizde Gemma 4’ü deneyin, ardından hangi görevlerde bulut modeli gerçekten gerektiğini değerlendirin. Çoğu geliştirici bu testten sonra AI araç harcamalarını yüzde 40-60 oranında düşürüyor.

En Yeni

TikTok İşletme Stratejisi

TikTok İşletme Stratejisi Türkiye'de bir giyim markasının sosyal medya yöneticisi olan Zeynep, Şubat 2025'te tek bir TikTok videosuyla 48...

Dijital Pazarlama Nedir? Kanallar ve Stratejiler

Dijital Pazarlama Nedir? Kanallar ve Stratejiler Rakibin yarın sabah Google'da üst sırada, sen ikinci sayfada. İkisi de "dijital pazarlama yapıyor"...

Türkiye Moda Sektörü 2026 Pazar Analizi: Rakamlar, Trendler ve Fırsatlar

Türkiye Moda Sektörü 2026 Pazar Analizi: Rakamlar, Trendler ve Fırsatlar Türkiye'nin en büyük moda perakende zincirlerinden birinin pazarlama direktörü Selin,...

E-Ticaret Siteleri için GEO: Yapay Zeka Aramalarında Ürünlerinizi Öne Çıkarın

E-Ticaret Siteleri için GEO: Yapay Zeka Aramalarında Ürünlerinizi Öne Çıkarın Rakibinizin ürünleri ChatGPT'de, Perplexity'de ve Google'ın yapay zeka özetlerinde sürekli...

YouTube Shorts Algoritması Nasıl Çalışır? 2026 Görünürlük Rehberi

YouTube Shorts Algoritması Nasıl Çalışır? 2026 Görünürlük Rehberi Berkan, Ankara'da küçük bir dijital ajans işletiyor. 2025 boyunca müşterileri için 47...

X Algoritması 2026: İçerik Stratejinizi Güçlendirecek Güncel Rehber

X Algoritması 2026: İçerik Stratejinizi Güçlendirecek Güncel Rehber Ayşe, İstanbul'daki bir teknoloji girişiminin sosyal medya yöneticisi. Her gün titizlikle hazırladığı...

Kaçırma

Dijital Pazarlama Nedir? Kanallar ve Stratejiler

Dijital Pazarlama Nedir? Kanallar ve Stratejiler Rakibin yarın sabah Google'da...

LinkedIn Sales Navigator Nedir? Türkiye’deki B2B Satış Profesyonelleri için Rehber

LinkedIn Sales Navigator Nedir? Türkiye'deki B2B Satış Profesyonelleri için...

Hizmet Sektörü Dijital Pazarlama: 5 Modelle Müşteri Kazanmak

Hizmet Sektörü Dijital Pazarlama: 5 Modelle Müşteri Kazanmak Mehmet, Ankara'da...

Pazarlama Otomasyonu ile Büyümeyi Hızlandırın: Türk Dijital Pazarlama Profesyonelleri İçin Stratejik Rehber

Pazarlama Otomasyonu ile Büyümeyi Hızlandırın: Türk Dijital Pazarlama Profesyonelleri...

Eğlence Endüstrisinde Dijital Pazarlama: İçerik, Veri ve Deneyimlerle Başarıya Giden Yol

Türkiye'de eğlence endüstrisi 2025 itibarıyla 56 milyar TL'yi aşan...

Bunlara da göz atÖzel Stratejiler
Senin için önerilenler