ChatMultimodal
Llama 4 Scout
Meta
💻 Bu model yerel bilgisayarında çalıştırılabilir — internet bağlantısı veya API ücreti gerekmez.
- ■RAM: En az 8 GB RAM önerilir
- ■GPU: Önerilir ama zorunlu değil (CPU ile de çalışır, daha yavaş)
- ■Depolama: Modele göre 5–150 GB boş alan
Ollama ile çalıştır — ücretsiz, açık kaynak yerel model yöneticisi.
ollama run llama4:scoutkomutuyla terminalden çalıştırLM Studio ile aç — görsel arayüzlü yerel model yöneticisi (Windows, Mac, Linux).
💻 LM Studio'da Nasıl Kullanılır?Meta'nın 10 milyon token bağlam penceresine sahip açık kaynak modeli. Tek bir seferde tüm bir kod tabanını veya yüzlerce sayfalık belgeyi okuyabiliyor. LM Studio ve Ollama üzerinden yerel olarak çalıştırılabilir.
Bağlam uzunluğu
10M token
API giriş (1M token)
$0.15
API çıkış (1M token)
$0.6
Kullanıcı planı
Sadece API
Ücretsiz plan mevcut
Türkçe destek
Orta
Çok modlu
Evet
Hızı
Hızlı
Bilgi kesim tarihi
Ağustos 2024
OpenAI uyumlu
Evet
Ne İçin Kullanılır?
- ✓Çok uzun belge ve kod tabanı analizi
- ✓Yerel (local) kurulum ile gizlilik odaklı projeler
- ✓Çok dosyalı repo inceleme
- ✓Fine-tuning projeleri
Güçlü Yönler
- ↑10M token — piyasanın en geniş bağlam penceresi
- ↑Açık kaynak, LM Studio/Ollama ile yerel çalışır
- ↑API maliyeti çok düşük
- ↑Multimodal (görsel anlama)
Dikkat Edilecekler
- ↓Türkçe desteği orta seviye
- ↓Çıktı token limiti düşük (16K)
- ↓Yerel çalıştırmak güçlü GPU gerektiriyor