Eğitim

Claude Code 101: Dil Modellerini Söküp Takıyoruz

Bakın şimdi, yapay zekâ deyince çoğu kişi hâlâ “sihir” tarafına takılıyor. Oysa işin aslı şu: modelin arkasında epey mekanik bir düzen var. Geçen ay, 2026 Şubat’ında İstanbul’daki bir editör toplantısında bu konuyu anlatırken şunu fark ettim — insanlar en çok “neden bazen saçmalıyor?” sorusuna odaklanıyor. Güzel soru bu arada. Çünkü cevabı token’dan context window’a kadar uzanıyor ve açık konuşayım, mesele sadece dil değil; aynı zamanda sınırlı alan, olasılık hesabı ve hafif bir kumar masası dinamiği.

Claude Code 101 serisinin bu ayağında ben konuyu LEGO üzerinden okumayı seviyorum. Her şey küçük parçalar gibi — tek tek diziliyor, sonra ortaya anlamlı görünen bir yapı çıkıyor. Ama bazı parçalar eksikse ya da fazla güç uygularsanız dağılıyor. LLM’ler de böyle işte. Çalışıyorlar, tamam. Ama insan gibi düşünmüyorlar. Bu ayrımı kaçırınca hem beklenti şişiyor hem de hayal kırıklığı kapıyı çalıyor.

Token nedir, neden cebinizi yakar?

Şunu fark ettim: Token kelimesi ilk bakışta teknik geliyor. Ama günlük hayatta karşılığı baya basit: modelin gördüğü küçük metin parçaları. Bir kelime bazen tek token olur, bazen üçe bölünür, bazen de noktalama işareti ayrı sayılır — yani “merhaba” ile “merhabalar” arasında maliyet farkı bile çıkabiliyor, inanılır gibi değil ama öyle. İşte burada aklınıza şu soru geliyor muhtemelen: nasıl yani, aynı cümle daha pahalı olabilir mi? Evet. Olabilir.

Ben bunu ilk kez 2023 Kasım’ında Ankara’da bir fintech ekibiyle test ederken net gördüm. Türkçe rapor özetleri gönderiyorduk ve İngilizce versiyonla kıyaslayınca tüketim bariz artmıştı. Sebebi romantik değil: Türkçe kelimeler daha çok parçalanıyor, bu kadar (yanlış duymadınız). Tahmin eder misiniz? Modelin gözünde uzun ve eklemeli diller, lego setinin kutusuna sığmayan parçalar gibi duruyor biraz (yanlış duymadınız)

Evet, doğru duydunuz.

Dur, şöyle de anlatayım: tokenizasyon meselesi sadece fiyat değil, bağlam kapasitesi meselesi de aynı anda gündeme geliyor. Prompt’a daha çok içerik sıkıştırdıkça modelin elindeki pencere daralıyor. Kısa cevap mı istiyorsunuz? Ucuz olabilir. Uzun analiz mi? Cüzdan biraz terliyor.

💡 Bilgi: Token sayısı arttıkça maliyet yükselir ve modelin aynı oturumda taşıyabildiği bilgi miktarı azalır gibi hissedilir. Bilhassa de Türkçe içerikte bu etki daha görünür olur.

BPE mantığı neden önemli?

BPE — yani Byte Pair Encoding — modelin kelimeleri hazır paketler halinde değil, tekrar eden parçalara bölerek öğrenmesini sağlıyor. Bu yöntem İngilizce’de fena çalışmıyor çünkü eğitim verisi büyük ölçüde oradan besleniyor. Hani ne farkı var diyorsunuz, değil mi? Türkçe’de durum biraz yamuk yumuk; ekler işin içine girince parçalanma artıyor, bu da hem maliyeti hem de modelin anlamayı ne kadar iyi kurduğunu etkiliyor. Daha fazla bilgi için Huawei ICT Day 2026: Dijital Dönüşümün Nabzı yazımıza bakabilirsiniz. Butterfly CSS: 2026’da Dikkat Çeken Hafif Bir Seçenek yazımızda bu konuya da değinmiştik.

Mesela “çalıştırılabilecekmişsiniz” gibi uzun bir kelimeyi düşünün — evet, abarttım, bilerek. İnsan okur geçer. Model ise onu birkaç tokene ayırıyor ve her parça için ayrı hesap yapıyor (evet, doğru duydunuz). İlginç, değil mi? Bazen komik bazen can sıkıcı, ikisi bir arada. GLM-5.1 neden bu kadar konuşuluyor? Sekiz saatlik yapay zekâ işi yazımızda bu konuya da değinmiştik.

Context window: Masadaki yer sınırlıysa ne olur?

Vallahi, Context window’u ben genelde çalışma masasına benzetiyorum. Masada defteriniz var, kahveniz var, klavyeniz — en azından ben öyle düşünüyorum — var; daha fazlasını koyarsanız ya düşer ya da karışır, üçüncü seçenek yok. Model için de aynısı geçerli: belirli bir oturumda yalnızca belli miktarda metni aktif tutabiliyor, kalanı gözünden kayıyor.

Küçük startup’larda bu fark bazen gözden kaçıyor çünkü testlerde her şey şahane görünüyor. Binlerce satırlık doküman yok, karmaşık bağlam yok. Ama kurumsal projede işler değişiyor. 2025 Mart’ında İstanbul’da çalışan bir ekip bana şunu söylemişti: “Özet iyi. Son bölüm hep unutuluyor.” Tabii unutuluyor. Pencere dolmuş. Ex-Apple mühendislerinden iPod Shuffle benzeri AI düğmesi: Neden? yazımızda bu konuya da değinmiştik.

Neyse, uzatmayalım. Context window büyüdükçe model daha fazla şeyi aynı anda görebiliyor — bu güzel, evet. Yine de büyük pencere otomatik olarak daha akıllı demek değil. İçeriğin tamamını gerçekten “anladığını” sanmak hata olur, bunu baştan söyleyeyim.

Kavram Kısaca ne işe yarar? Sahadaki etkisi
Token Metnin en küçük işlem parçası Maliyet ve hız üzerinde doğrudan etkili
Context window Aynı anda tutulabilen bilgi alanı Uzun konuşmalarda hatırlama kalitesini belirler
BPE Kelimeleri alt parçalara bölen sistem Diller arası verim farkı yaratır
Attention Kritik kısımlara ağırlık verme yöntemi Cümlenin neresine odaklanacağını etkiler

Peki model metni nasıl üretiyor?

Lafı gevelemeden söyleyeyim: model cümleyi baştan sona planlamıyor. Sonraki en uygun token’ı tahmin ediyor, onu takip eden başka bir tahmin yapıyor, zincir böyle gidiyor (buna dikkat edin). Konuşma hissi oluşuyor, güzel. Ama altında yatan şey esasen ardışık olasılık hesabı — romantik bir yani yok. PDF Dünyasında Bir Nefes: Ücretsiz ve Limitsiz Araçlar yazımızda bu konuya da değinmiştik.

Bunu ilk test ettiğimde şaşırmıştım doğrusu. 2024 Haziran’ında Bursa’daki bir ürün demosunda aynı prompt’u üç kez verdik; çıkan yanıtların tonu ufak tefek oynuyordu. Neden? Çünkü seçim mekanizması tamamen deterministik değil diyoruz da pratikte o kadar temiz değil işte. Biraz kumarhane dinamiği var, az da olsa.

# Basit fikir:
# giriş metni → tokenize et → bağlamdan en olası sonraki token'ı seç
# sonra bunu tekrar et
input_text = "Bugün hava"
next_token = model.predict_next_token(input_text)
output = input_text + next_token

Sadece en yüksek ihtimali seçseydi ne olurdu?

Kısa cevap: sonuçlar aşırı sıkıcı olurdu. Tek tip. Model hep en güvenli yolu seçseydi yaratıcılık diye bir şey kalmazdı, makul bir gazete özeti bile çıkmaz aslında. Bu yüzden sıcaklık gibi parametrelerle seçim biraz esnetiliyor — biraz rastgelelik ekleniyor sisteme.

Sıcakkanlılık mı, belirsizlik mi?

Tam burada ince çizgi var. Fazla rastgelelik saçmalamaya götürüyor, az rastgelelik ise robotik yanıtlara. İkisi arasında denge kurmak gerekiyor ve açıkçası herkes bunu iyi yapamıyor — ben de dahil bazen.

Dikkat mekanizması neden olayın kalbi?

Attention mekanizmasını ben hep şuna benzetiyorum: on kişinin konuştuğu bir toplantıda doğru kişiye bakmak. Herkese eşit dikkat verirseniz kritik detayı kaçırırsınız. Model de bazı token’lara diğerlerinden fazla önem veriyor — işte o seçim, attention mekanizmasıyla oluyor.

Şahsen, Teoride çok temiz görünüyor bu. Pratikte? Mükemmel değil. Bilhassa uzun içerikte uzak ilişkilendirmeler bozulabiliyor — bir cümlenin başındaki isim ile sondaki zamiri eşleştirme işi bazen çatlıyor. Beklediğim kadar iyi değildi dediğim noktalardan biri tam da burasıdır (kendi tecrübem)

Model güçlü görünür ama her şeyi hatırlamaz; sadece elindeki pencerede kalan parçaları tartar ve ona göre hamle yapar.

Neleri yapamaz? Burası önemli!

Bu kısmı atlayanlar sonra üzülüyor. Model inatçı biçimde gerçeklik duygusuna sahip değil — yani dış dünyayı canlı canlı izlemiyor. İnternete bağlı değilse güncel bilgiyi bilemez; bağlı olsa bile eriştiği kaynakları doğrulamak yine sizin derdiniz olur. Pratik mi? Değil. Ama gerçek bu.

Matematiksel kesinlik konusunda da sınırları var. Basit işlemleri hallediyor ama karmaşık doğrulamalarda hata çıkarabiliyor — beklenmedik anlarda. Bir arkadaşımın Dubai’deki SaaS şirketinde yaşadığı olay hâlâ aklımdadır: müşteri desteğinde yanlış tarih önerisi yüzünden iki bilet boşa gitmişti. Güldük ama aslında ciddi bir dersti.

Evet, doğru duydunuz.

  • Çoğu zaman doğruyu söylemez;
  • Emin olmadığı yerde bile özgüvenli konuşabilir;
  • Eğitim verisindeki önyargıları taşıyabilir;
  • Uzun bağlamlarda detay kaçırabilir;
  • Maliyet tarafını küçümseyip büyütebilirsiniz. (bu kritik)

Maliyet meselesi niye sessizce büyüyor?

Aşkın KILIÇ

20+ yıl deneyimli Azure Solutions Architect. Microsoft sertifikalı bulut mimari ve DevOps danışmanı. Azure, yapay zekâ ve bulut teknolojileri üzerine Türkçe teknik içerikler üretiyor.

AZ-305AZ-104AZ-500AZ-400DP-203AI-102

Bu içerik işinize yaradı mı?

Benzer içerikleri kaçırmamak için beni sosyal medyada takip edin.

Haftalık Bülten

Her pazar özenle seçilmiş teknoloji yazıları doğrudan e-postanıza gelsin.

← Onceki Yazi
Meta’nın 21 Milyar Dolarlık AI Hamlesi: Ne Anlama Geliyor?
Sonraki Yazi →
Tesla’nın Ucuz SUV Hamlesi: Küçük Gövde, Büyük Etki

Yorum Yaz

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Haftalık Bülten

Azure, DevOps ve Yapay Zeka dünyasındaki en güncel içerikleri her hafta doğrudan e-postanıza alın.

Spam yok. İstediğiniz zaman iptal edebilirsiniz.
📱
Uygulamayı Yükle Ana ekrana ekle, çevrimdışı oku
Kategoriler
Ara
Paylaş
İçindekiler
← Meta’nın 21 Milyar Dolarlık AI...
Tesla’nın Ucuz SUV Hamlesi: Kü... →
📩

Gitmeden önce!

Her pazar özenle seçilmiş teknoloji yazıları ve AI haberleri doğrudan e-postanıza gelsin. Ücretsiz, spam yok.

🔒 Bilgileriniz güvende. İstediğiniz zaman ayrılabilirsiniz.

📬 Haftalık bülten: Teknoloji + AI haberleri