Geliştirici Araçları

GitHub Copilot CLI’da Auto Model: Gerçekten İşe Yarar mı?

Açık konuşayım: Geçen ay terminalde Copilot CLI ile oyalanırken bir anda “Hangi modeli seçsem ya?” diye düşünüp 10 saniyeyi çöpe attığımı fark ettim. 10 saniye deyince komik duruyor, biliyorum. Ama bunu günde 40-50 kere yapıyorsanız, işin rengi değişiyor. Tam o sırada GitHub’ın auto model selection özelliğini Copilot CLI için genel kullanıma açtığını gördüm.

Ne yalan söyleyeyim, Duyuru kısa, net: Artık CLI’a “sen seç” diyebiliyorsunuz. GPT-5.4, GPT-5.3-Codex, Sonnet 4.6, Haiku 4.5… Hangisi uygunsa Copilot karar veriyor. Bir de premium request’lerde %10 indirim var, fena değil. Kağıt üstünde iyi duruyor. Peki pratikte? Orası biraz daha karışık, ona geleceğim.

Auto model selection nedir, neyi çözüyor?

Şöyle düşünün. Elinizde 4-5 model var; maliyetleri ayrı, hızları ayrı, sağlam oldukları yerler ayrı. Mesela Haiku 4.5 hızlıdır, küçük dokunuşlarda baya iş görüyor. Ama mimari bir refactor yapacaksanız Sonnet 4.6 ya da GPT-5.4 daha mantıklı oluyor. Geliştirici olarak siz her seferinde “Bu işe hangi model uyar?” diye kafa yormak zorunda kalıyordunuz.

Bir dakika — bununla bitmedi.

Auto bu yükü omuzunuzdan alıyor. Komutu çalıştırdığınızda, yaptığınız işin bağlamına göre arka planda en uygun modeli seçiyor (en azından iddia bu) (ben de ilk duyduğumda şaşırmıştım). Hem rate limit’e takılma ihtimaliniz azalıyor hem de “keşke başka model seçseydim” diye kafayı yeme kısmı hafifliyor.

Auto özellikle “günlük geliştirici trafiği” için tasarlanmış. Yani küçük komutlar, hızlı düzeltmeler, şablon kod üretme gibi tekrarlayan işlerde size hem para hem zaman kazandırıyor. Karmaşık mimari sorularda ise hâlâ manuel seçim yapmak isteyebilirsiniz.

Şeffaflık tarafı: hangi model seçildiğini görüyorsunuz

İlginç olan şu ki, Bu güzel bir detay. Auto kullansanız bile CLI size “bu komutta Haiku 4.5 kullandım” diye söylüyor. Yani tam bir kara kutu değil. Ben ilk denediğimde yarım saat kadar farklı komutlar çalıştırıp routing davranışına baktım — basit dosya listeleme istediğimde Haiku’ya gitti, “şu Python fonksiyonunu refactor et” dediğimde Sonnet’e kaydı. Mantığı var gibi duruyor, şaşırdım açıkçası.

Premium request faturalandırması nasıl işliyor?

Açıkçası, İşte burası can alıcı nokta. Çünkü “auto” deyince insanın aklına hemen şu soru geliyor: Acaba arkada en pahalı modeli seçip faturayı şişiriyor mu? Haklı soru.

Auto şu anda sadece 0x ile 1x çarpan aralığındaki modellere yönlendiriyor. Yani GPT-5.4 (1x), Sonnet 4.6 (1x), Haiku 4.5 (muhtemelen 0.25x bandında), GPT-5.3-Codex… Bu da şunu söylüyor: En üst segment “ultra premium” modeller varsa bile auto onların peşine düşmüyor. İyi tarafı şu; maliyet kontrolü kullanıcıda kalıyor, yani kontrol büyük ölçüde kaçmıyor (ki bu çoğu kişinin gözünden kaçıyor)

Bir de %10 indirim var tabii. Bir komut normalde 1 premium request düşecekse, auto ile bunun 0.9’a indiğini düşünün. Küçük gibi görünüyor. Tahmin eder misiniz? Ayda 500 request kullanan biri için yıl sonunda ciddi fark yaratıyor; rakam büyüyor, sonra insan dönüp bakınca “aa tamam ya” diyor.

Durun, bir saniye.

Türkiye’deki geliştiriciler için somut hesap

Bunu Türkiye açısından düşünelim şimdi. Copilot Pro aboneliği aylık yaklaşık 10 dolar civarında; kur farkıyla kabaca 350-400 TL bandına oturuyor. Kurumsal tarafta Business planı geliştirici başına aylık 19 dolar oluyor. 20 kişilik ekipte bu ay sonunda az buz etmiyor; üstüne premium request tüketimi eklenince tablo biraz sertleşebiliyor.

Bir finans müşterimde geçen yıl Copilot Business devreye almıştık. İlk ay geliştiricilerin — ki bu tartışılır — yaklaşık %30’u quota’yı aşmıştı çünkü herkes en sağlam modeli seçiyordu; hani “nasıl olsa şirket ödüyor” refleksi var ya, işte o çıktı ortaya. Auto o zaman olsaydı muhtemelen overage’ı epey aşağı çekerdik diye düşünüyorum.

Bakın, burayı atlarsanız yazının kalanı anlamsız kalır.

Pratik kullanım: terminalde nasıl açıyorsunuz?

Konuya gelelim, lafı gevelemeden komut kısmı şu kadar basit:

# Auto modeli aktif etme
gh copilot config set model auto
# Mevcut model ayarını kontrol etme
gh copilot config get model
# Spesifik bir modele geri dönmek isterseniz
gh copilot config set model gpt-5.4
# Tek seferlik bir komutta auto kullanma
gh copilot suggest --model auto "find all files larger than 100MB"

Tek seferlik kullanım bence en değerli taraflardan biri oldu açıkçası. Çünkü bazen “bu komutu kesin GPT-5.4 yapsın” demek isteyebilirsiniz; bazen de işi sisteme bırakmak daha rahat geliyor. Auto’yu varsayılan yapıp gerektiğinde override etmek bana daha temiz bir kullanım gibi geldi.

İlk denediğimde aldığım hata

Bunu da paylaşayım ki başkası aynı yere takılmasın diye yazıyorum zaten derdi olan varsa boşuna uğraşmasın. Siz hiç denediniz mi? Ben CLI’ı güncelledikten sonra gh copilot config set model auto dediğimde “unknown model: auto” hatası aldım.

Sebep basitmiş: Bende eski GitHub CLI extension sürümü vardı ve olay oradan patlamıştı. gh extension upgrade gh-copilot komutuyla extension’ı güncelleyince düzeldi gitti yani çözüm aslında önünüzde duruyormuş ama insan ilk anda görmüyor işte.

Hangi senaryoda auto, hangisinde manuel?

Bunun cevabı kullanım alışkanlığınıza göre değişiyor; tek doğru yok gibi düşünüyorum ben bunu artık.

Senaryo Önerim Neden
Günlük shell komutları, bash one-liner’lar Auto Haiku gibi hızlı modellere routing yapıyor, anında cevap
Karmaşık refactor, mimari kararlar Manuel (GPT-5.4 / Sonnet 4.6) Bağlam derinliği lazım, model seçimini şansa bırakmayın
Test üretimi, mock data Auto Tekerleyen işlerde %10 indirim baya hoş oluyor
Manuel (en güçlü model) Yanlış pozitif/negatif maliyeti yüksek
Dökümantasyon yazımı Auto Sonnet’e routing ihtimali yüksek, kalite çoğu durumda yeterli oluyor
Production debug, kritik bug Manuel Tek bir komuta güvenecekseniz en güçlüyü siz seçin

Küçük ekip mi büyük yapı mı?

Eğer iki üç kişilik bir startup’sanız bence auto’yu direkt açın geçin; çok dert etmeyin yani bu kadar basit olabilir sizin için.

Şunu fark ettim: Ama 50+ geliştiricili kurumsal bir yapıdaysanız ben şöyle yaklaşırım: Önce iki hafta pilot bir takımda deneyin (özellikle platform veya iç araç ekiplerinde). Sonra premium request grafiğine bakın. Şirket çapında policy belirleyin; çünkü bazı ekipler auto’dan baya faydalanırken bazıları manuel kontrolden vazgeçmek istemez.

Bir dakika — bununla bitmedi.

💡 Bilgi: Auto model selection, organizasyon admin’inin belirlediği model policy’lerine SAYGI gösteriyor.
Yani “Sonnet kullanılmasın” diye bir kural koyduysanız auto da o modele routing yapmıyor.
Bu kurumsal compliance açısından önemli bir nokta — özellikle veri ikametgâhı ya da model yasaklarına dikkat eden sektörlerde.

Eksi tarafları ne?

Sadece övgüyle bitirmeyeyim dedim çünkü bu özelliğin henüz oturmamış yerleri var; açık konuşmak lazım.

  • “Neden bu modeli seçti?” kısmı görünmüyor: Hangi modelin seçildiğini görüyorsunuz ama neden Haiku değil de Sonnet dendiğini anlamıyorsunuz; telemetri tarafında biraz sis var. — bunu es geçmeyin
  • Kendi routing kuralınızı yazamıyorsunuz: “Bu repo’da hep şu modeli kullan” gibi ince ayar henüz yok ve polyglot projelerde bu eksik hissediliyor.
  • Süre tutarsızlığı var: İlk testlerimde aynı tip komut bazen 1 saniyede döndü bazen 4 saniyeye uzadı; routing katmanı kendi başına küçük bir gecikme ekliyor olabilir.
  • Lise… pardon liste sürekli değişecek: Model listesi zamanla güncellenecek; bu iyi haber ama aynı zamanda geçen ayki davranışın bu ay birebir aynı olmayabileceği anlamına geliyor.

Kısacası kağıt üstünde iyi duruyor ama pratikte biraz daha görmek lazım derim ben buna şimdiye kadar gördüğüm kadarıyla.

Peki neden?

Copilot’un diğer araçlarıyla ilişkisi ne?

Küçük bir not düşeyim: Auto model selection daha önce VS Code Copilot Chat’te de aşamalı şekilde açılmıştı, şimdi CLI’a geldi yani sıra oraya da gelmiş oldu diyebiliriz.

Bence Microsoft/GitHub tarafının çizgisi belli; modeli seçme yükünü kullanıcıdan almak istiyorlar ve bunu farklı yüzeylere yayıyorlar (CLI, chat, belki sonra agent tarafı). Bu aslında Anthropic’in Claude Opus 4.7 GitHub Copilot’ta: Ne Değişiyor? yazımda da bahsettiğim çoklu model yaklaşımının doğal devamı gibi duruyor.

Bir de fine-tuning. Özel model entegrasyonu tarafında ne olur diye merak ediyorum açıkçası.

Microsoft Foundry tarafında hareket çok fazla;
Microsoft Foundry Fine-Tuning Nisan 2026: RFT’de Yenilikler
yazısında değindiğim gibi RFT (Reinforcement Fine-Tuning) artık production-ready tarafa geçmiş durumda.

Belki ileride auto’nun routing alanına kurumların kendi fine-tune ettiği modeller de girer.
Olursa iş biraz başka yere kayar;
o zaman seçim değil,
strateji konuşuruz artık.
Neyse,
çok dağıttım,
konuya geri döneyim.
Böyle bir şey olursa oyun ciddi şekilde değişir.” — itiraf edeyim, beklentimin üstündeydi —

Peki ben ne yapıyorum?

Dürüst olmak gerekirse, Açık söyleyeyim:
Ben auto’yu varsayılan yaptım.
Ama production debug,
mimari karar,
güvenlik review gibi yanlış cevabın maliyeti yüksek işlerde modeli elle seçiyorum.
Bu hibrit yaklaşım şu an bana en mantıklısı gibi geliyor;
ne tamamen otomatik ne de inatla manuel.
Tam ortası iş görüyor.

Şahsen, Eğer denemek istiyorsanız ilk adımınız şu olsun:
Bir hafta auto açık kalsın,
bir hafta kapalı kalsın.
Daha açık söyleyeyim, sonra premium request tüketimine. Genel memnuniyet hissine bakın.
Sayılar başka,
his başka konuşursa zaten karar kendiliğinden netleşir.

Bunun dışında GitHub Copilot ekosistemi sürekli evriliyor.
Geçen sene “model seçme” diye derdimiz yoktu çünkü tek seçenek vardı;
şimdi birkaç model arasından gidip geliyoruz ve ardından auto’ya geçiyoruz.
Önümüzdeki sene belki de “hangi agent?” diye konuşacağız,
kim bilir.
Alan hızlı,
ayağınızı uydurmanız gerekiyor.
Bu arada CI/CD pipeline’larınızda Copilot CLI entegre etmek istiyorsanız,
Docker İmajını Küçültmek: 1,58 GB’dan 186 MB’a
yazımdaki imaj optimizasyon teknikleri burada da işinize yarar — özellikle build sürelerini aşağı çekmek için.”

`

Sıkça Sorulan Sorular

Auto model selection ücretsiz Copilot planında da çalışıyor mu?

Evet, GitHub’ın açıkladığına göre tüm Copilot planlarında kullanıma açıldı. Ama açıkçası ücretsiz planda zaten model seçeneği kısıtlı olduğu için auto’nun pek bir farkı olmuyor (inanın bana). Asıl fayda Pro ve Business kullanıcılarında ortaya çıkıyor.

Auto kullanırken hangi modelin seçildiğini görebilir miyim?

Evet, Copilot CLI komut bittikten sonra hangi modelin devreye girdiğini terminal çıktısında gösteriyor. Geçmiş komutlar için ayrı bir log mekanizması yok şu an (buna dikkat edin). Audit gerekiyorsa bence kendi shell history’nizden takip etmek en pratik yol.

Auto, yöneticinin koyduğu model kısıtlamalarına uyuyor mu?

Bir bakıma, şunu fark ettim: Kesinlikle. Auto, admin tarafından tanımlanan tüm model policy’lerine uyuyor, yani yasakladığınız bir modele routing yapmıyor. Tecrübeme göre bu özellikle compliance gereksinimleri olan sektörlerde ciddi bir fark yaratıyor.

Premium request’teki %10 indirim her komutta otomatik mi geliyor?

Evet, auto modu açıkken indirim otomatik uygulanıyor. Mesela 1x çarpanlı bir modele routing yapıldığında 0.9 request düşüyor. Manuel modele geçince indirim devreye girmiyor, bunu aklınızda tutun.

Auto’dan manuel modele geçmek için CLI’ı yeniden başlatmam gerekiyor mu?

Hayır, hiç gerek yok. gh copilot config set model <model-adı> komutuyla anında geçiş yapabilirsiniz. Hatta tek seferlik komutlarda --model bayrağıyla mevcut session’ınızı bozmadan geçici olarak da override edebiliyorsunuz.

Kaynaklar ve İleri Okuma

GitHub Blog: Copilot CLI Auto Model Selection Duyurusu

Neyse, şunu fark ettim: GitHub Copilot CLI Resmi Dokümantasyonu

GitHub Copilot Premium Request Modeli ve Çarpan Tablosu

Aşkın KILIÇ

20+ yıl deneyimli Azure Solutions Architect. Microsoft sertifikalı bulut mimari ve DevOps danışmanı. Azure, yapay zekâ ve bulut teknolojileri üzerine Türkçe teknik içerikler üretiyor.

AZ-305AZ-104AZ-500AZ-400DP-203AI-102

Bu içerik işinize yaradı mı?

Benzer içerikleri kaçırmamak için beni sosyal medyada takip edin.

← Onceki Yazi
Microsoft Foundry Fine-Tuning Nisan 2026: RFT'de Yenilikler

Yorum Yaz

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

İçindekiler
← Microsoft Foundry Fine-Tuning ...