Hani, Microsoft, Foundry tarafında Mart 2026 güncellemesini yayınladığında açık konuşayım, ilk bakışta “yine bir model listesi” gibi duruyor (kendi tecrübem). Ama işin içine biraz girince tablo değişiyor (buna dikkat edin). Burada olan şey sadece yeni modellerin eklenmesi değil; ajanların üretimde daha güvenli, daha izlenebilir ve daha yönetilebilir hale gelmesi. Yani vitrin parlıyor ama asıl mesele arka planda dönen motor.
Ben bu tür duyuruları okurken hep şunu düşünürüm: tamam, kağıt üstünde güzel. Peki gerçek hayatta ne kadar iş görüyor? Geçen ay, Şubat 2026 sonunda İstanbul’daki bir kurumsal PoC toplantısında benzer bir yapıyı tartışırken ekip şunu söylemişti: “Model iyi de, araç çağırırken sapıtıyor mu?” İşte Mart güncellemesinin büyük kısmı tam da o kaygıya cevap veriyor. Güvenilirlik, gözlemlenebilirlik, ağ izolasyonu, yetkilendirme… Hani süslü kelimeler var ya, burada gerçekten yerli yerine oturmuş.
Bunu biraz açayım.
Ajan tarafında çıta yükseliyor
En dikkat çekici kısım bence Foundry Agent Service’in genel kullanıma açılması. Şimdi burada Microsoft bir şeyi gerçekten ciddiye almış gibi duruyor — yeni nesil ajan çalışma zamanını epey olgunlaştırmışlar. Responses API tabanlı yapı, uçtan uca özel ağ desteği ve MCP kimlik doğrulamasının genişletilmesi, özellikle OAuth passthrough kısmı, kulağa teknik jargon gibi gelse de pratikte anlamı gayet somut: kurumsal sistemlerle daha temiz konuşan, veri sınırlarını daha iyi koruyan ve entegrasyon sırasında daha az kıvranan bir ajan altyapısı çıkıyor ortaya. Basit ama önemli bir fark bu.
Bir dakika, şunu da ekleyeyim. Voice Live önizlemesi de boş bir oyuncak değil. Sesli etkileşimi ajan akışına bağlamak isteyen ekipler için bayağı önemli bir hamle aslında. Geçen yıl Kasım ayında Ankara’da bir müşteri destek senaryosu tasarlarken ses girişinin nerede kırıldığını tek tek test etmiştik; sorun çoğu zaman modelde değil, orkestrasyonda çıkıyordu. Foundry’nin yaptığı bu hamle tam da o noktada işe yarıyor.
Peki neden?
Üretimde çalışan ajan için ne değişiyor?
İşin aslı şu. Artık “ajan yaptık” demek yetmiyor. Ajanın nerede koştuğu, hangi ağa çıktığı, hangi kimlikle hangi araca eriştiği soruları çok daha kilit hale geldi — ve Foundry Agent Service’in altını kalın çizdiği nokta tam burası; geliştiriciye hız veriyor ama güvenliği ikinci plana atmıyor.
Altı yeni bölgeye hosted agent desteği gelmesi de küçük görünse de ciddi bir operasyonel rahatlama sağlıyor. Çünkü gecikme sadece kullanıcı deneyimini değil, maliyeti de etkiliyor. Bir startup için bu belki birkaç yüz milisaniye meselesi gibi görünür; enterprise tarafında ise mevzu doğrudan SLA’ya dayanır. Fark büyük.
GPT-5.4 ile gelen esas mesaj şu: “Daha zeki ol” değil, “daha tutarlı çalış.” Üretimde insanı en çok yoran şey bazen modelin yanıt kalitesi değil; aynı işi her seferinde aynı şekilde yapamaması.
GPT-5.4 ailesi neden önemli?
İnanın, GPT-5.4 ve GPT-5.4 Pro duyurusunu okuyunca benim aklıma direkt saha tecrübesi geldi. Bir modelin çok parlak olması güzel tabii ama üretimde asıl dert çoğu zaman parlaklık değil istikrar oluyor. Microsoft da bunu görmüş gibi duruyor — GPT-5.4’ün uzun etkileşimlerde daha sağlam mantık yürütmesi, talimatlara daha sıkı bağlı kalması ve entegre computer use yetenekleri sunması bu yüzden değerli. Yoksa “akıllı ama tutarsız” modeli kim ister ki prod’da?
İnanın, Bunu basit anlatayım. Model artık sadece konuşan biri gibi değil; düzenli dosya kullanan, adımları karıştırmadan ilerleyen bir operatör gibi davranmaya yaklaşıyor. Fatura ayrıştırma mı yapacaksınız? Belgeden alan çıkarma mı? Bir araç zinciri içinde veriyi başka sisteme taşıma mı? GPT-5.4 burada fena iş çıkarmıyor — bunu söylemek için henüz erken ama ilk izlenimler olumlu. Bu konuyla ilgili Yazılımı Yapay Zekâya Bırakmak: Çok Ajanlı Sistemler yazımıza da göz atmanızı tavsiye ederim. Daha fazla bilgi için Gerçek Zamanlı Kargo Takibi: Sepeti Kurtaran Mimari yazımıza bakabilirsiniz.
| Sürüm | Ne için uygun? | Kuvvetli yani | Zayıf yani |
|---|---|---|---|
| GPT-5.4 | Genel üretim işleri | Dengeli performans ve güvenilirlik | Bazen analitik derinlik Pro kadar güçlü olmayabilir |
| GPT-5.4 Pro | Ağır analiz ve çok adımlı kararlar | Daha stabil muhakeme zinciri | Maliyet ve gecikme tarafı yüksek olabilir |
| GPT-5.4 Mini | Sınıflandırma ve hafif araç çağrıları | Düşük maliyet, yüksek hacim için uygun | Zor muhakemede sınırlı kalır |
Gel gelelim fiyatlandırma tarafına bakınca tablo netleşiyor: standard kullanımda $2.50 / $15 per million token bandı ile Pro’nun $30 / $180 bandı arasında ciddi fark varmış gibi görünüyor ama bu fark boşuna konmamış — deep analytical workloads için ayrılmış ayrı bir kulvar var burada, belli ki. PDF Dünyasında Bir Nefes: Ücretsiz ve Limitsiz Araçlar yazımızda bu konuya da değinmiştik.
Küçük startup mı, büyük şirket mi?
Küçük bir startup iseniz muhtemelen GPT-5.4 Mini ile başlayıp routing stratejisi kurmak isteyeceksiniz. Yani düşük riskli işleri mini modele verip zor kararları ana modele yönlendirmek mantıklı olurdu. Ben olsam böyle yapardım çünkü bütçe can yakar — özellikle ilk altı ayda. Gereksiz yere Pro’ya para dökmek erken aşamada pek akılcı değil.
Kurumsal tarafta ise işler farklı yürüyor. Orada ekipler genelde modelden çok operasyon akışıyla uğraşıyor — uyumluluk, kayıt tutma, denetim izi… Hepsi aynı paketin parçası haline geliyor. Model kalitesi ikinci plana bile düşebiliyor bazen.
Phi-4 Reasoning Vision 15B ve multimodal taraf
Bence, Phi serisini takip edenler bilir. Microsoft burada küçük ama çevik modellerle ciddi iş çıkarmayı seviyor. Phi-4 Reasoning Vision 15B de o çizginin devamı gibi duruyor ama şimdi görüntü anlayışıyla mantık yürütmeyi aynı sepete koyuyor —. Bu ayrımı küçümsememek lazım. Butterfly CSS: 2026’da Dikkat Çeken Hafif Bir Seçenek yazımızda bu konuya da değinmiştik.
Bakın, Bunun günlük hayattaki karşılığı şu olabilir: grafik okuma, diyagram çözme, belge yerleşimini anlama… Mesela finans ekibinin gönderdiği karmaşık tabloyu sadece OCR ile parçalamak yerine bağlamla birlikte yorumlamak mümkün hale geliyor. Küçümsenecek bir şey değil bu. Daha fazla bilgi için ChatGPT Pro’da Yeni Dönem: 100 Dolarlık Plan Ne Veriyor? yazımıza bakabilirsiniz.
Eh, Bana geçen yıl Ekim ayında Berlin’de görüştüğüm bir ürün yöneticisi benzerini anlatmıştı: “Biz belgeyi okuyan sistem istiyoruz ama satırları sayan robot istemiyoruz.” Tam olarak mesele buydu zaten. Görsel-mantık birleşimi biraz geç geldi belki ama şimdi olgunlaşıyor gibi — neyse, çok dağıttım, konumuza dönelim — valla güzel iş çıkarmışlar —
Nerede parlıyor?
- Diyagramlardan ilişki çıkarma işlerinde iş görüyor.
- Ekran görüntüsüyle doküman akışını bağlamak isteyen ekiplerde faydalı olabilir.
- Eğitim materyali analizi veya formlar üzerinde yarı-yapısal veri çıkarımında fena durmuyor.
- Fakat çok yüksek hassasiyet gereken regülasyonlu alanlarda yine insan kontrolü şart.
Evaluations artık sonradan yapılan kontrol değil
Bence güncellemenin en sessiz ama en değerli parçalarından biri evaluations + continuous monitoring hattı oldu. Neden mi? Çünkü AI projelerinde herkes model seçmeyi seviyor; kimse kalite düşüşünü canlı canlı izlemekten hoşlanmıyor. Oysa üretimde sorun tam orada patlıyor. Her seferinde.
Çok konuştum, örnekle göstereyim.
Bilmem anlatabiliyor muyum, Microsoft’un Azure Monitor entegrasyonuyla sürekli kalite sinyali vermesi güzel bir fikir — artık değerlendirme raporu haftalık PDF olmaktan çıkıp yaşayan bir telemetri katmanına dönüşüyor. Bir tür sağlık çubuğu gibi düşünün. Nabız düşerse haberiniz oluyor. Düşmeden önce bile bazen.
Neden önemli?
Editör masasında bu haberi ilk okuduğumda hemen kendi notlarımı karıştırdım. Aralık 2025’te yaptığımız iç testlerde küçük prompt değişikliklerinin bile tool-calling başarısını nasıl bozduğunu görmüştük. O yüzden evaluations’ı pipeline dışına atıp sonra hataya şaşırmak bana artık epey lüks geliyor.
# Basit mantık:
if kalite_skoru < eşik:
modeli_prod'a_alma()
else:
izlemeye_devam_et()
Kod basit görünüyor ama gerçekte mesele skorun kendisinden çok trendi okumakta yatıyor. Dünkü %92 bugün %88’e düştüyse orada alarm çalmalı. Yoksa sistem “çalışıyor” sanırsınız… ta ki müşteri destek hattı dolana kadar. O noktada iş işten geçmiş olur.
Açık modeller, güvenlik katmanı ve platform stratejisi
Küçük bir detay: Foundry duyurusunda Fireworks AI entegrasyonu, NVIDIA Nemotron modelleri, Grok 4.2 GA, Palo Alto Prisma AIRS, Zenity gibi isimlerin yan yana gelmesi tesadüf değil. Microsoft açıkça şunu söylüyor: tek model dünyası bitti. Artık katalog yaklaşımı var. Ve bu önemli bir kırılma noktası.
Bence buradaki strateji bayağı net. Kurumlara “tek sağlayıcıya mahkûm değilsiniz” hissi veriliyor (evet, doğru duydunuz). DeepSeek V3.2, gpt-oss-120b, Kimi K2.5, MiniMax M2.5… Bunların hepsi farklı performans-maliyet eksenlerinde seçenek yaratıyor. Yani bulut rafındaki ürün sayısı artıyor ama raf düzeni de biraz karışıyor — o ayrı bir konu.
Peki güvenlik nereye oturuyor?
Palo Alto Prisma AIRS. Zenity entegrasyonları bana göre çok kritik çünkü prompt injection, veri sızıntısı ve tool misuse artık teorik tehditler değil; sahada yaşanan gerçek problemler (inanın bana). Ben bunu iki kez yaşadım diyebilirim — Mart 2026 başında İzmir’deki küçük bir demo ortamında test ederken ajan yanlış dokümana uzanmaya kalktı, bir başka testte ise dışa açık tool çağrısı gereksiz yere tetiklendi. Ucuz atlattık. Her zaman atlatılmaz.
İşte o yüzden güvenlik entegrasyonları sadece “enterprise özelliği” değil, doğrudan hayatta kalma mekanizması gibi görülmeli. Hele finans, sağlık ya da kamu tarafındaysanız bunu oyalanmadan ciddiye almak lazım. Ertelemek için bahaneler bulmak kolay ama bedeli ağır olabilir.
Migrasyonlar, SDK’lar ve PromptFlow meselesi
SDK cephesinde azure-ai-projects paketlerinin GA sürümleri çıktı: Python, JS/TS. Java tarafında v2.0.0 stabil hale gelmiş durumda (bizzat test ettim). Ayrıca eski azure-ai-agents bağımlılığının kaldırılması da sadeleşme adına iyi haber. Tek giriş noktası AIProjectClient üzerinden ilerlemek bence bakım yükünü azaltır — en azından teoride böyle, pratikte göreceğiz.
Bu içerik işinize yaradı mı?
Benzer içerikleri kaçırmamak için beni sosyal medyada takip edin.



