Sağlık verisi deyince işin rengi değişiyor. Bir şikâyet listesi, ilaç adı, yaş bilgisi ya da basit bir semptom notu bile baya hassas olabilir. İşte tam burada klasik bulut mimarisi biraz tökezliyor; çünkü veriyi bir sunucuya gönderdiğiniz an, güven. Gecikme meselesi masaya geliyor. Bu yüzden son dönemde tarayıcı içinde çalışan yapay zekâ fikri bayağı ilgi çekiyor.
Ben açık konuşayım, bu konuyu ilk gördüğümde “tarayıcıda LLM mi olur?” diye hafif burun kıvırdım. Ama 2024 sonbaharında İstanbul’daki bir demo etkinliğinde WebGPU tabanlı küçük bir model çalıştırınca fikrim değişti. Cevaplar kusursuz değildi, evet. Ama veri cihazdan çıkmadan, üstelik neredeyse beklemeden sonuç alabilmek… hani bazı şeyler kağıt üstünde değil de ekranda görünce oturuyor ya, tam öyle oldu işte.
Bu yazıda mevzuyu teknik tarafıyla ama günlük dile yakın şekilde ele alacağım: WebLLM ne işe yarıyor, WebGPU neden kritik, tarayıcı içi sağlık taraması hangi senaryoda mantıklı olur ve nerede frene basmak gerekir. Bakın şimdi, işin aslı şu ki bu yaklaşım bir doktorun yerini almıyor. Hani ne farkı var diyorsunuz, değil mi? Daha çok hızlı ön değerlendirme yapan, gizli bir danışman gibi çalışıyor.
Neden Tarayıcı İçinde Yapay Zekâ?
Önce temel sorudan başlayalım. Neden modeli buluta yollamak yerine kullanıcı cihazında çalıştırıyoruz? Çünkü sağlık gibi alanlarda gecikme sadece “yavaşlık” değil; bazen doğrudan kullanıcı deneyimini mahvediyor. Kullanıcı belirtilerini yazıp 8-10 saniye beklediğinde sistem sönük kalıyor. Oysa yerel çıkarımda yanıt akmaya başlıyor… bu küçük fark bazen ürünü kurtarıyor. Gerçekten.
Bir de mahremiyet var tabii. Mesela küçük bir klinik düşünün; hasta şikâyetlerini ön elemeden geçirmek istiyor ama her şeyi üçüncü taraf sunucuya aktarmak istemiyor. Burada browser tabanlı yaklaşımın cazibesi netleşiyor. Veriler cihazdan çıkmıyor, altyapı maliyeti azalıyor ve offline çalışma ihtimali de cabası — bu üçü bir arada pek az mimaride buluşuyor.
Evet, doğru duydunuz.
Ha bu arada avantajlar kadar sınırlar da var. Büyük modelleri herkesin dizüstünde koşturamazsınız. Hele bir de eski CPU’larda performans hayal kırıklığına dönebilir ve “her yerde çalışır” demek kolay ama pratikte GPU desteği yoksa deneyim hızla sıradanlaşıyor.
Tarayıcı içinde çalışan AI’ın en güçlü tarafı hız değil sadece; asıl mesele kontrol hissi verip veriyi elde tutmasıdır.
Mimari Nasıl Kuruluyor?
Kafanızda şöyle canlandırın: Kullanıcı semptomları giriyor, uygulama önce WebGPU desteğine bakıyor… sonra uygunsa WebLLM motorunu başlatıp modeli indiriyor ve yerel çıkarımı açıyor. Tüm süreç tarayıcının içinde dönüyor. Dışarıdan bakana bu sıradan bir web uygulaması gibi görünüyor ama arkada GPU epey ter döküyor.
Bunu yaşayan biri olarak söyleyeyim, Ben bunu geçen ay Kadıköy’deki kendi test ortamımda denerken en çok yükleme aşamasına takıldım doğrusu. İlk model indirimi yavaş gelince insan sabrı sınırlı oluyor. Fakat ikinci açılışta durum bambaşka hale geldi çünkü cache devreye girdi ve akış belirgin biçimde hızlandı. İşte o an dedim ki… tamam, bu işin geleceği var.
TVM.js burada orkestrasyon katmanı gibi davranıyor denebilir. Elindeki parçaları düzgün sıraya koyan sahne yöneticisi gibi düşünün. Model ağırlıkları kuantize ediliyor ki dosya boyutu küçülsün, bellek baskısı azalsın ve orta seviye cihazlarda nefes alsın.
| Bileşen | Rolü | Sahadaki etkisi |
|---|---|---|
| WebGPU | GPU erişimi | Daha hızlı yerel çıkarım |
| WebLLM | Model yönetimi | Tarayıcı içinde LLM çalıştırma |
| TVM.js | Kod yürütme orkestrasyonu | Ağırlıkların doğru zamanda yüklenmesi |
| Kuantize model | Daha hafif ağ yapısı | Daha düşük indirme boyutu ve RAM kullanımı |
Peki ne kazanıyoruz?
Kazanç net. Düşük gecikme, veri mahremiyeti ve internet kesilse bile temel işlevlerin sürebilmesi — özellikle saha ekipleri için bu bayağı önemli olabilir. Mesela acil servis olmayan ama ilk yönlendirmeyi yapan portallar için ideal görünüyor (şaşırtıcı ama gerçek). Gerçekten iş görüyor.
Peki ne kaybediyoruz?
Kayıt defterine dürüstçe yazalım: Model kapasitesi buluttaki dev sistemler kadar geniş değil. Bazı cihazlarda performans dalgalanabiliyor (şaşırtıcı ama gerçek). Ayrıca ilk kurulumda büyük dosyalar indireceğiniz için kullanıcı sabrını iyi yönetmeniz gerekiyor… bunu atlamak mümkün değil, atlamaya kalkmayın da.
Küçük Ürünlerde ve Kurumsalda Fark Nerede?
Küçük startup’lar için tablo oldukça çekici çünkü API maliyetleri düşer, veri aktarımı azalır. MVP daha güven veren bir hikâyeye dönüşür (kendi tecrübem). Benzer bir tartışmayı Şubat 2025’te İzmir’deki bir bir düşüneyim… SaaS ekibiyle yaptığım görüşmede bizzat duydum; ekip “ilk versiyonumuzda müşteri datasını dış servise taşımak istemiyoruz” diyordu ve haklılardı. Bence haklılardı. Bu konuyla ilgili Nylas Audit Konfigürasyonu: Log Ayarlarını Anında Görün yazımıza da göz atmanızı tavsiye ederim. Bu konuyla ilgili Butterfly CSS: 2026’da Dikkat Çeken Hafif Bir Seçenek yazımıza da göz atmanızı tavsiye ederim.
Açık konuşayım, Eğer kurumsal taraftaysanız konu biraz sertleşiyor — normal bu arada. Güvenlik politikaları, uyumluluk gereksinimleri ve model güncelleme prosedürleri devreye giriyor (şaşırtıcı ama gerçek). Burada tarayıcı içi AI tek başına yetmez; loglama stratejisi, kullanıcı onayı metni ve fallback mekanizması da ister istemez pakete dahil oluyor. Daha fazla bilgi için Telegram Kanalı Kazıma Rehberi: API’siz, Şifresiz Yöntemler yazımıza bakabilirsiniz. Amazon deposunda bir ölüm: Güvenlik soruları yeniden masada yazımızda bu konuya da değinmiştik. Bu konuyla ilgili PDF Dünyasında Bir Nefes: Ücretsiz ve Limitsiz Araçlar yazımıza da göz atmanızı tavsiye ederim.
Küçük startup için mantıklı mı?
- Evet, eğer bütçe sıkışıksa ve mahremiyet önemliyse.
- Evet, eğer kullanım yoğunluğu orta seviyedeyse.
- Ama hayır… her şeyi buna emanet etmek doğru olmaz. (bence en önemlisi)
- Nedeni basit: donanım çeşitliliği fazlaysa destek yükü artar.
Büyük kurum için mantıklı mı?
Bence evet ama kontrollü şekilde. Kurumsalda en iyi senaryo şu olur: Tarayıcı içi AI ön triage yapar, kritik vakalarda kullanıcıyı gerçek uzmana yönlendirir veya güvenilir backend servisine geçirir (yanlış duymadınız)
// Basitleştirilmiş kontrol akışı
async function initAssistant() {
const supported = await isWebGPUSupported();
if (!supported) {
return "CPU/WASM fallback";
}
const engine = await CreateMLCEngine("Phi-3-mini");
return engine;
}
Dikkat Edilmesi Gereken İnce Noktalar
Size bir şey söyleyeyim, Lafı gevelemeden söyleyeyim. Böyle projelerde teknik romantizm tehlikelidir. Model güzel görünür (belki yanılıyorum ama) ama yanlış uyarılar verebilir ya da bağlamı eksik okuyabilir (ki bu çoğu kişinin gözünden kaçıyor). Ciddi sağlık kararlarında bu tür araçlar yalnızca ön bilgilendirme yapmalı. Aksi halde hem etik hem hukuki tarafta başınız ağrıyabilir — biraz sert oldu biliyorum ama gerekliydi.
Bir başka detay da açıklama dili. Kullanıcıya “AI doktorunuzdur” havası vermek kötü fikir. Hem beklentiyi şişirir hem de yanlış anlaşılmaya yol açar. Ben olsam ekranda net bir uyarı kullanırım: “Bu araç tıbbi teşhis koymaz, sadece ilk yönlendirmeyi destekler.” Bu cümle kısa (buna dikkat edin). Etkili. Fazlası süs olur zaten.
Şimdi, bunu yaşayan biri olarak söyleyeyim, Bunun yanında girdi temizliği de önemli. Semptom metni serbest bırakılırsa saçma sapan prompt enjeksiyonları, gereksiz uzunluklar ya da anlamsız tekrarlarla karşılaşırsınız. Burada karakter sınırı, kategori seçimi ve yapılandırılmış form alanları hayat kurtarır. Yani ürün tasarımı kod kadar önemli. Hatta bazen daha önemli.
Bir de hız yanılsaması var. Demo sırasında lokal inference uçuyor gibi görünür ama gerçek dünyada model yükleme, paket boyutu, cache warming ve mobil cihaz kısıtları can sıkabilir. Geçen yıl Ekim ayında Berlin’de test ettiğim benzer prototipte en büyük sorun CPU sıcaklığı olmuştu. Model cevap veriyordu evet. Ama cihaz adeta çay demliyordu.
Zaman Kazandıran Pratik İpuçları
Neyse, uzatmayalım — birkaç somut ipucuyla bitirelim:
- Kuantize modeli erken seçin; indirme boyutu küçülür.
- WebGPU varsa göster” mantığını ilk ekrana taşıyın.
- Cihaz yeterliyse streaming response kullanın. (bu kritik)
- Büyük uyarıları sade tutun; kimse duvar gibi metin okumak istemez.
Bu içerik işinize yaradı mı?
Benzer içerikleri kaçırmamak için beni sosyal medyada takip edin.



