Programlama

LCEL Nedir? LangChain’te Akış Kurmanın Temiz Yolu

Yapay zekâ uygulamaları son iki yılda garip bir noktaya geldi. Herkes model konuşuyor. Ama asıl dert — modeli işe yarar bir ürüne çevirmek. İşin zoru prompt yazmak değil; veriyi hazırlamak, çıktıyı toparlamak, hata olursa sistemi ayakta tutmak. Kullanıcıya neredeyse hiç bekletmeden cevap verebilmek. Hani tam burada LCEL devreye giriyor, ilk bakışta biraz teknik duruyor evet… ama işin içine girince aslında bayağı düzenli bir sistem kurduğunu, adımların birbirini beslediğini ve her şeyin nerede olduğunun görünebildiğini fark ediyorsunuz.

Geçen ay Kadıköy’de bir ekip toplantısında benzer bir konu açılmıştı. Küçük bir SaaS projesinde “tek satırda çalışan” demo ile “gerçek hayatta nefes alan” uygulama arasındaki farkı tartışıyorduk. Herkes model seçimine takılmıştı. Ben ise akışı gösteren katmanların daha hayati olduğunu söyledim. Çünkü model iyi olsa bile zincir dağınıksa ürün de dağınık kalıyor. LCEL’in güzel tarafı tam burada başlıyor.

Bir dakika — bununla bitmedi.

💡 Bilgi: LCEL, LangChain Expression Language’ın kısaltması. Kısaca söylemek gerekirse; prompt, model çağrısı, çıktı dönüştürme ve hata yönetimi gibi parçaları tek bir akış içinde birleştirmenizi sağlıyor.

LCEL Tam Olarak Ne Yapıyor?

Lafı gevelemeden söyleyeyim. LCEL bir tür yapay zekâ boru hattı kurma dili gibi çalışıyor —. Klasik anlamda “boru hattı” deyince gözünüzde sıkıcı DevOps şemaları canlanmasın, çünkü burada mesele daha canlı. Girdiyi alıyorsunuz, metni şekillendiriyorsunuz, modele yolluyorsunuz, sonra çıkan cevabı parlatıp geri veriyorsunuz.

Ben bunu mutfak tezgâhına benzetiyorum. Malzeme var, bıçak var, tava var. Ama hepsi ortada dağınıksa yemek çıkmıyor. LCEL size o — en azından ben öyle düşünüyorum — tezgâhta düzen veriyor; bir parça başka parçayı besliyor, sonuç olarak zincirin her halkası görünür oluyor. “bu nerede bozuldu?” sorusuna cevap bulmak saatler değil dakikalar alıyor.

Hmm, bunu nasıl anlatsamdı…

Austin Vance’in yazısındaki ana fikir de zaten bu: AI uygulaması kurarken asıl değer sadece “LLM’e soru sormak” değil, o soruyu nasıl paketlediğinizde gizli. Açık konuşayım — çoğu ekip ilk aşamada prompt’u büyütüyor ama akışı büyütmeyi unutuyor. Sonra üretimde tuhaf şeyler oluyor.

Neden eski yöntemler yetmiyor?

Klasik chain mantığında kod bazen kablo yumağına dönüyor. En çok da birkaç farklı adım eklenince neyin nerede kırıldığını anlamak zorlaşıyor; bir gün çıktının tonu bozuluyor, ertesi gün veri formatı kayıyor, sonra gece yarısı log bakmaya başlıyorsunuz. Tanıdık mı geliyor?

LCEL burada biraz ferahlık getiriyor çünkü hem okunabilir hem de modüler ilerliyorsunuz. Bu arada küçük startup için bu çok önemli — iki geliştiriciyle koşan ekipte karmaşık soyutlamalar genelde kimseyi mutlu etmiyor. Daha fazla bilgi için Gemma 4: Google’ın Açık Model Hamlesi Neyi Değiştiriyor? yazımıza bakabilirsiniz.

Peki pratikte ne kazanıyorsunuz?

  • Streaming desteği: Kullanıcı cevabı parça parça görüyor.
  • Async çalışma: Bekleme süreleri daha iyi yönetiliyor.
  • Paralel adımlar: Aynı anda birkaç işi halledebilirsiniz.
  • Tutarlı çıktı şeması: JSON mu dönecek, düz metin mi dönecek belli olur.
  • Error handling: Bir şey patlarsa sistem tamamen çökmez.

Neden Bu Kadar Önemseniyor?

E işin aslı şu ki insanlar ChatGPT hissini sevdi. Cevap yazsın ama bekletmesin istiyoruz. Hızlı aksın, ara sıra düşünüyormuş gibi davransın, gerektiğinde kendini toparlasın. Streaming ve async desteği bu yüzden kritik hale geldi — kullanıcı psikolojisi denen şey var, onu göz ardı edemezsiniz.

Bi saniye — Bunu geçen sene Şişli’de test ettiğim küçük bir müşteri destek botunda çok net gördüm. İlk sürüm tek seferde yanıt dönüyordu ve kullanıcılar sanki sistem donmuş gibi hissediyordu. Sonra akışı parçalara ayırdık; aynı cevap süresi neredeyse değişmedi ama algılanan hız ciddi biçimde arttı. Garip geliyor ama doğru — bazen hissedilen performans gerçek performanstan daha önemli oluyor.

LCEL’in en güçlü yani modeli değil akışı merkeze almasıdır; yani “hangi LLM?” sorusundan önce “bu uygulama nasıl nefes alacak?” sorusunu sordurur.

Küçük Ekipler İçin mi Büyük Şirketler İçin mi?

Açıkçası, Küçük ekiplerde LCEL’in değeri basitlikten geliyor gibi görünüyor. Ama iş sadece bu değil. Bir startup’ta her satır kodun bakım yükü vardır; dolayısıyla sade yapı altın değerinde olur. İlginç, değil mi? Prompt zinciri ayrı dosyada mı dursun, dönüşüm katmanı nereye konulsun diye saat harcamazsınız — bu bile başlı başına büyük bir kazanım.

Büyük kurumlarda ise mevzu biraz farklılaşıyor. Orada ölçeklenebilirlik ve gözlemlenebilirlik öne çıkıyor. Bir enterprise ortamında onlarca kullanım senaryosu olur: iç bilgi tabanı sorgusu, doküman özeti çıkarma, müşteri talebi sınıflandırma (şaşırtıcı ama gerçek). Bunların hepsini aynı mantıkla yürütmek istersiniz ki ekipler birbirinin üzerine basmasın. Bu yüzden LCEL’in şema desteği ve ara sonuçları gösterebilmesi bayağı işe yarar hale geliyor.

Kriter Küçük Startup Büyük Kurum
Kod sadeliği Çok önemli Önemli ama tek başına yetmez
Streaming Kullanıcı deneyimini uçurur Standart beklenti haline geldi
Ara sonuç takibi Bazen yeterli Tam anlamıyla kritik
Error recovery Sade fallback yeter Daha sert fallback gerekir

Neyse uzatmayalım — küçük ekip hızlı kazanım isterken büyük ekip denetlenebilirlik ister. LCEL ikisini de fena olmayan şekilde karşılıyor ama sihir değil tabii. Mimariyi yine sizin kurmanız gerekiyor. Bu konuyla ilgili Butterfly CSS: 2026’da Dikkat Çeken Hafif Bir Seçenek yazımıza da göz atmanızı tavsiye ederim. Bu konuyla ilgili PDF Dünyasında Bir Nefes: Ücretsiz ve Limitsiz Araçlar yazımıza da göz atmanızı tavsiye ederim.

Zayıf tarafı yok mu?

Var elbette. Her şey pembe değil! Mesela bazı durumlarda fazla soyutlama yeni başlayanları yorabiliyor. “Bu niye böyle bağlandı?” diye baktığınızda zinciri çözmek zaman alabiliyor. Bir de ekosistem sürekli hareket halinde olduğu için bugün yaptığınız kurulumun yarın ufak uyarlama istemesi mümkün. Ben buna kötü demem… ama henüz tam cilalanmış da demem. Bu konuyla ilgili Google I/O 2026 takvimi: Asıl mesaj ne, kim önde? yazımıza da göz atmanızı tavsiye ederim.

Peki Nasıl Düşünmeli?

Bana göre LCEL’i “bir araç” diye küçümsemek de yanlış olur, onu kurtarıcı ilan etmek de. Daha çok Lego seti gibi düşünün — parçalar net, bağlantılar okunabilir,. Ortaya ne çıkacağı hâlâ sizin tasarımınıza bağlı.

Bu yaklaşım özellikle üretime giden projelerde önemli çünkü demo ile gerçek ürün arasında hep mesafe oluyor. Dur bir saniye, aslında önce şunu söyleyeyim: demo yapmak kolaydır. Zor olan sağlamlaştırmaktır. İşte LCEL o sağlamlaştırma kısmında işe yarıyor — oraya kadar götürmek sizin elinizde ama o noktada yanınızda olduğunu hissediyorsunuz. Bu konuyla ilgili Topluma Geri Vermek: Teknolojide Küçük Dokunuşların Gücü yazımıza da göz atmanızı tavsiye ederim.

Aşağıdaki yapı oldukça tipik görünür:

# Kavramsal örnek
prompt -> llm -> parser -> output
# Daha gelişmiş durumda
input
|-> context fetch
|-> prompt template
|-> model call
|-> post-processing
|-> fallback / retry
|-> final response

Böyle baktığınızda olay büyülü olmaktan çıkıyor. Gayet anlaşılır. Ha bu arada LangChain dünyasında en sevdiğim şeylerden biri şu oldu: bir şeyi değiştirirken büyük çoğunluk sistemi sökmek zorunda kalmıyorsunuz. Prompt değişir, parser değişir, fallback değişir — geri kalan yerinde kalır. Bu günlük bakım açısından müthiş rahatlık sağlıyor, özellikle tek başınıza veya iki kişilik bir ekiple koşuyorsanız.

Sahadaki Etki Nerede Hissediliyor?

Editör masasında bu haberi incelerken aklıma mart ayında Levent’te yaptığım kısa POC geldi. Orada bilgi tabanı destekli bir asistan kuruyorduk ve ilk versiyon epey kırılgandı — aynı soruya farklı tonlarda cevap dönüyor, bazen kaynakları karıştırıyor, bazen de gereksiz uzun konuşuyordu. Akışı düzenleyince kalite çok büyük artmadığı halde ürün çok daha güvenilir görünmeye başladı. Şaşırtıcı mı? Evet. Ama kullanıcı algısı gerçekten böyle çalışıyor.

İlginç olan şu ki, Bir diğer anekdot da şu: 2024 Kasım’ında Ankara’da görüştüğüm bir fintech ekibi vardı. Onlar özellikle retry ve fallback tarafına abanmıştı çünkü finans sektöründe tek hata bile moral bozuyor. “Modelden cevap gelmezse alternatif yol nedir?” (belki yanılıyorum ama) sorusuna yanıt bulamadığınız an üretim baskısı başlıyor. LCEL burada işleri toparlayan orta katman rolünü üstlenebiliyor.

Nerede iyi çalışır?

  • Müşteri destek botları (bence en önemlisi)
  • Dahili bilgi asistanları (RAG senaryoları)
  • Döküman özetleme araçları
  • Sınıflandırma ve etiketleme işleri
  • Daha sonra genişletilecek MVP projeleri
  • Sadece deneme amaçlı prototipler
💡 Bilgi: Eğer yeni başlıyorsanız önce tek hat üzerinde basit bir prompt -> model -> parser zinciri kurun; sonra streaming ve fallback ekleyin.

Sıkça Sorulan Sorular

LCEL nedir?

LCEL, LangChain içinde AI uygulamalarını parçalı ve okunabilir biçimde kurmayı sağlayan ifade dilidir.
Prompt oluşturma, model çağrısı ve çıktı işleme adımlarını tek akışta toplar.

Neden LCEL kullanmalıyım?

Hani, Eğer streaming, async çalışma veya retry/fallback gibi ihtiyaçlarınız varsa işi bayağı kolaylaştırır.
Bilhassa üretime giden projelerde bakım yükünü azaltır.

Küçük projelerde de gerekli mi?

Evet, hatta bazen daha bile gerekli olabilir. Sade yapı korumak önemli.
Ama minicik deneme projelerinde her özelliği hemen açmanız şart değil.

Cephede en büyük eksik ne?

Ekosistemin hızlı değişmesi bazen takip yükü yaratabiliyor.
Ayrıca soyutlama seviyesi yeni başlayanlara ilk etapta karmaşık gelebilir.

Kullanırken Nelere Dikkat Etmeli?

“}

<_end_of_document_>” target=”_blank” rel=”noopener”>LangChain Resmî Dokümantasyon”, “https://github.com/langchain-ai/langchain” target=”_blank” rel=”noopener”>LangChain GitHub Sayfası”, “https://docs.smith.langchain.com/” target=”_blank” rel=”noopener”>LangSmith Dokümantasyonu」

Aşkın KILIÇ

20+ yıl deneyimli Azure Solutions Architect. Microsoft sertifikalı bulut mimari ve DevOps danışmanı. Azure, yapay zekâ ve bulut teknolojileri üzerine Türkçe teknik içerikler üretiyor.

AZ-305AZ-104AZ-500AZ-400DP-203AI-102

Bu içerik işinize yaradı mı?

Benzer içerikleri kaçırmamak için beni sosyal medyada takip edin.

Haftalık Bülten

Her pazar özenle seçilmiş teknoloji yazıları doğrudan e-postanıza gelsin.

← Onceki Yazi
Gemma 4: Google’ın Açık Model Hamlesi Neyi Değiştiriyor?
Sonraki Yazi →
Fed Koltuğu ve Kripto: Portföyde Ne Var, Ne Değil?

Yorum Yaz

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Haftalık Bülten

Azure, DevOps ve Yapay Zeka dünyasındaki en güncel içerikleri her hafta doğrudan e-postanıza alın.

Spam yok. İstediğiniz zaman iptal edebilirsiniz.
📱
Uygulamayı Yükle Ana ekrana ekle, çevrimdışı oku
Kategoriler
Ara
Paylaş
İçindekiler
← Gemma 4: Google’ın Açık Model ...
Fed Koltuğu ve Kripto: Portföy... →
📩

Gitmeden önce!

Her pazar özenle seçilmiş teknoloji yazıları ve AI haberleri doğrudan e-postanıza gelsin. Ücretsiz, spam yok.

🔒 Bilgileriniz güvende. İstediğiniz zaman ayrılabilirsiniz.

📬 Haftalık bülten: Teknoloji + AI haberleri