KVKK ve Veri Gizliliği İçin Local LLM Kullanımı
KVKK ve GDPR çerçevesinde verilerini şirket içinde tutmak isteyenler için local LLM rehberi: Ollama, LM Studio, GPT4All, LocalAI ve Jan ile Llama 4, Qwen3, Gemma 3 modellerini yerel olarak çalıştırma.
KVKK ve GDPR çerçevesinde verilerini şirket içinde tutmak isteyenler için local LLM rehberi: Ollama, LM Studio, GPT4All, LocalAI ve Jan ile Llama 4, Qwen3, Gemma 3 modellerini yerel olarak çalıştırma.
Türkiye'de kişisel verilerin korunmasını düzenleyen KVKK ve Avrupa'daki GDPR gibi yasalar, verilerin hangi ülkede işlendiği ve nasıl saklandığı konusunda katı kurallar getiriyor. Bulut tabanlı yapay zeka hizmetleri, kullanıcı verilerini yurt dışındaki sunuculara gönderdiği için ek izin süreçleri ve veri ihraç riskleri ortaya çıkar. Bu nedenle kurumlar, verilerini içeride tutabilecek local LLM çözümlerine yöneliyor.
2026'da local LLM ekosistemi olgunlaşmış durumda. Yerel modellerin öne çıkan avantajları şöyle:
Bu avantajlar, KVKK kapsamındaki şirketlerin kişisel veriyi yurt dışına aktarmadan yapay zeka kullanmasını kolaylaştırır; uyum süreci yine de erişim kontrolü, log yönetimi ve veri saklama politikalarıyla bütünlüklü kurulduğunda sağlanır. Yerel kurulum sayesinde verinin işlendiği yer bellidir; gerektiğinde silinmesi ve denetlenmesi daha kolaydır.
Ollama, komut satırı üzerinden bir komutla model indirip çalıştırmanıza olanak tanır. Tercih edilme nedenleri şunlardır: minimal kurulum, kolay model değişimi, Windows/macOS/Linux desteği ve yerel API entegrasyonu. Örneğin ollama run llama4:scout komutu ile Llama 4 Scout modelini (17B aktif parametreli MoE) çalıştırabilirsiniz. Ollama, hem kişisel kullanım hem de geliştirme için uygun bir seçenek olup, komut satırıyla programatik çağrılar yapılmasına imkan verir.
CLI'ye alışkın olmayan kullanıcılar için LM Studio pratik bir masaüstü uygulamasıdır. Modelleri keşfetme, indirme, sohbet etme ve sıcaklık veya maksimum token gibi ayarları görsel olarak değiştirme imkanı sunar. Uygulama içinde API sunucusunu açarak diğer uygulamalarınızdan çağrı yapabilirsiniz. LM Studio macOS, Windows ve Linux'ta açık modelleri destekler ve ücretsizdir. Sunucu kurulumlarında ise GUI'ye ihtiyaç duymadan lms komut satırı aracı ve llmster daemon paketiyle headless çalıştırılabilir; bu sayede CI ortamlarında veya iç sunucularda servis olarak ayağa kaldırılabilir.
Text-Generation WebUI (oobabooga/textgen) adlı açık kaynak uygulama, masaüstünde veya tarayıcı üzerinden çalışabilen güçlü bir arayüzdür. Öne çıkan özellikleri:
Kullanımı kolay taşınabilir paketleri sayesinde indirip zip'i açarak doğrudan çalıştırabilirsiniz.
Nomic AI'nin GPT4All uygulaması; Windows, macOS ve Linux üzerinde açık kaynak modellerle yerel sohbet sunar. Resmi sayfada "GPT4All, bulut gerektirmeden yüksek performanslı yapay zekayı cihazınızda çalıştırır; verileriniz asla makinenizi terk etmez" ifadesi yer alır. Uygulama, LocalDocs özelliğiyle kendi dokümanlarınız üzerinde arama ve sohbet yapmanıza izin verir. Binlerce modeli desteklemesi ve basit kurulumuyla geliştiriciler ve ekipler için kullanışlıdır.
LocalAI, uygulamalarını OpenAI API'ye bağlamış geliştiriciler için yerel ve bulut dışı bir alternatif sunar. Tercih edilme nedenleri şu şekilde özetlenir: birden fazla çalışma zamanı ve model mimarisi desteği, Docker ilk yaklaşımı ve OpenAI API uyumluluğu. Konteynerden çalıştırmak için örnek komut:
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12LocalAI özellikle kurumsal iç araçlar ve API entegrasyonları için uygundur.
Jan, ChatGPT'ye alternatif olarak geliştirilmiş açık kaynak bir masaüstü asistandır. Resmi sitesinde "Kişisel zeka sadece size cevap verir" sloganıyla tanıtılır. Açık kaynak felsefesine vurgu yapan platform; kullanıcıların açık modeller arasından seçim yapmasına veya dış API'lere bağlanmasına olanak tanır. Bu sayede bulut bağlantısı olmadan tam ekran bir sohbet deneyimi elde edebilirsiniz.
iletiMerkezi olarak müşterilerimizin SMS gönderim verilerini, OTP kayıtlarını ve İYS izin loglarını Türkiye'deki sunucularda tutuyoruz. SMS API'si üzerinden geçen mesaj içeriği üçüncü taraf bulut servislerine aktarılmaz; bu, KVKK kapsamında özellikle finans, sağlık ve kamu sektörü müşterilerimiz için kritik bir gereksinim. Local LLM yaklaşımının arkasındaki mantık aynı: kişisel veriyi işleyen sistem, verinin yetki alanından çıkmamalı. Eğer bir SaaS ekibiyseniz ve LLM tabanlı destek veya onboarding akışlarını OTP, bildirim katmanıyla birleştirmeyi düşünüyorsanız, iletiMerkezi MCP Server ile yerel LLM istemcinizden doğrudan SMS gönderebilir, panele veri sızdırmadan entegrasyon kurabilirsiniz.
Local LLM'ler, KVKK ve GDPR çerçevesinde verileri kurum içinde tutmak isteyen şirketler için güçlü bir araçtır; doğru süreçlerle (erişim kontrolü, log yönetimi, veri saklama/silme politikaları) birlikte kurgulandığında uyum gerekliliklerini karşılamayı kolaylaştırır. Ollama, LM Studio, Text-Generation WebUI, GPT4All, LocalAI ve Jan gibi araçlar sayesinde geliştiriciler ve SaaS ekipleri kolayca model indirip çalıştırabilir; API'ler ile entegrasyon kurabilir ve verilerin şirket dışına çıkmasını engelleyebilir.
Detaylı dokümantasyon ve örnek kodlarla dakikalar içinde entegre edin.
Geliştiriciler
Local LLM'leri yüksek hacimli sorgu altında verimli sunmak için vLLM, PagedAttention ve continuous batching tekniklerini kullanın; KV cache israfını yüzde 4'ün altına çekerek 2-4x throughput sağlayın.
Devamını okuGeliştiriciler
FLUX.2, LTX-2 4K, HunyuanVideo 1.5, CogVideoX, Wan 2.1, Open-Sora ve Stable Diffusion gibi açık kaynak modellerle yerel olarak video ve görsel üretmek; donanım planlaması ve KVKK uyumlu içerik akışı.
Devamını okuDuyurular
iletiMerkezi SMS API'sini Claude Desktop, Cursor ve Cline gibi MCP destekli LLM istemcilerine bağlayan resmi açık kaynak sunucu yayında. 11 tool, manifest auto-discovery, npm üzerinde tek komutla kurulum.
Devamını oku