ChatGPT ve Perplexity Sitenizi Neden Önermiyor? 7 Hata ve Çözümleri

ChatGPT ve Perplexity Sitenizi Neden Önermiyor? 7 Hata ve Çözümleri
Problem: Rakibiniz "web tasarım istanbul" sorgusunda ChatGPT'de önerilirken siz listede yoksunuz. Bu bir kaza değil. Belirli, düzeltilebilir hatalar yapıyorsunuzdur. Sitenizin GEO analizini ücretsiz yaptırın →
Önce Kendi Kendinizi Test Edin
Herhangi bir değişiklik yapmadan önce mevcut durumunuzu ölçün. Birkaç dakikalık basit bir test:
1. Perplexity'yi açın (perplexity.ai — ücretsiz kullanılabilir).
Şu sorguları deneyin ve sonuçları not alın:
- "[Şehriniz] [hizmetiniz] ajansı önerisi" (örnek: "istanbul web tasarım ajansı önerisi")
- "[Hizmetiniz] nasıl yapılır 2026" (örnek: "kurumsal web sitesi nasıl yapılır 2026")
- "[Sektörünüzdeki yaygın soru]" (örnek: "web tasarım fiyatları ne kadar")
2. ChatGPT'yi açın ve aynı sorguları tekrarlayın (web araması açık olsun — ayarlardan kontrol edin).
3. Sonuçları değerlendirin:
- Markanız veya siteniz hiç çıkmadıysa: Teknik bir engel var, muhtemelen Hata 1 veya 2.
- Bazı sorgularda çıkıyorsunuz ama rakipler daha çok öneriliyorsa: İçerik ve otorite sorunu, Hata 3, 4, 7.
- Hiç çıkmıyorsunuz ama rakipler çıkıyorsa: Birden fazla hata bir arada var olabilir.
Testi haftada bir yapın. Bu testler GEO performansınızın en basit ölçüm aracı.
Hata 1: Yapay Zeka Botları robots.txt'te Engellenmiş
Belirti: Hiçbir yapay zeka arama motorunda görünmüyorsunuz. Test sorgularının hiçbirinde markanız çıkmıyor.
Neden oluyor: robots.txt dosyasına eklenen genel kurallar veya belirli bot isimleri, AI sistemlerinin sitenizi taramasını engelliyor. Bazı WordPress güvenlik eklentileri bunu otomatik yapıyor. Bazı ajanslar "veri koruma" gerekçesiyle tüm bilinmeyen botları kısıtlıyor.
Nasıl kontrol edersiniz: Tarayıcınızda siteniz.com/robots.txt adresini açın.
Aşağıdaki satırların herhangi birini görüyorsanız sorun var:
``` User-agent: * Disallow: /
User-agent: GPTBot Disallow: /
User-agent: Google-Extended Disallow: / ```
Çözüm: Engeli kaldırın. Tüm AI botlarına erişim izni vermek istiyorsanız:
```
Yapay zeka botlarına izin ver
User-agent: GPTBot Allow: /
User-agent: ClaudeBot Allow: /
User-agent: PerplexityBot Allow: /
User-agent: Google-Extended Allow: /
User-agent: Applebot Allow: / ```
Bu değişiklik 5 dakika içinde yapılabilir. Botlar bir sonraki tarama döngüsünde sitenizi ziyaret etmeye başlar — bu genellikle birkaç gün ile birkaç hafta arasında.
Hata 2: llms.txt Dosyanız Yok
Belirti: AI sistemleri sitenizi buluyor ama hizmetlerinizi yanlış kategorize ediyor, yanıt verirken eksik veya hatalı bilgi kullanıyor.
Neden oluyor: Yapay zeka sistemleri sitenizi tarayabiliyor ama hangi sayfaların önemli olduğunu, şirketin kim olduğunu ve hangi konularda uzman olduğunuzu anlayamıyor. Onlar için her sayfa eşit ağırlıkta.
Çözüm: llms.txt dosyası oluşturun ve sitenizin kök dizinine yükleyin.
Bu konuyu ayrıntılı ele aldık: llms.txt Nedir? Web Sitenizi Yapay Zeka İçin Hazırlamanın Yeni Yolu
Kısaca: markdown formatında, sitenizin amacını, önemli sayfalarını ve iletişim bilgilerini anlatan bir metin dosyası. Hazırlanması 30-60 dakika. Sitenize /llms.txt olarak ekleniyor.
Hata 3: İçeriğiniz AI Tarafından Çıkarılamıyor
Belirti: Bazı genel konularda görünüyorsunuz ama kendi hizmetlerinizle ilgili sorularda rakipler öneriliyorken siz çıkmıyorsunuz. Ya da çıkıyorsunuz ama yanıtın en alt satırında, belirsiz bir şekilde.
Neden oluyor: İçeriğiniz yazılı ama yapay zeka sistemlerinin "çıkarması" için uygun formatta değil. Uzun, akıcı paragraflar AI için işlenmesi zor. Net soru-cevap yapıları, numaralı listeler ve tanım blokları çok daha iyi çıkarılıyor.
Kötü örnek:
Ajansımız, yıllar içinde edindiği deneyimle müşterilerine kaliteli hizmet sunmaktadır. Web tasarım süreçlerimizde müşteri memnuniyeti ön planda tutulmakta, modern teknolojiler kullanılmaktadır.
Bu metinden AI ne alacak? Hiçbir somut bilgi yok. Rakip her bilgilerini nettir.
İyi örnek:
Web tasarım projeniz kaç günde tamamlanır? Standart kurumsal web sitesi (10-15 sayfa): 3-4 hafta. E-ticaret sitesi (50+ ürün): 6-8 hafta. Landing page: 5-7 iş günü. Süreler proje başında sözleşmeyle belirleniyor.
Bu metinden AI net bir cevap çıkarabilir.
İçeriğinizi AI-dostu hale getirme adımları:
1. En önemli 5-10 sayfanızı belirleyin (hizmet sayfaları, ana blog yazıları). 2. Her sayfada "kullanıcıların en çok sorduğu 3 soruyu" belirleyin. 3. Bu soruları H2 veya H3 başlık olarak ekleyin ve hemen altına net cevaplar yazın. 4. Her iddiayı bir kaynak veya rakamla destekleyin. 5. Sayfanın altına SSS bölümü ekleyin.
Hata 4: Yazar ve Otorite Sinyalleri Eksik
Belirti: AI sistemleri sitenizi alıntı yapmaktan kaçınıyor. Sorulara cevap olarak sitenizin içeriği kullanılmıyor, sadece rakipler kullanılıyor.
Neden oluyor: ChatGPT ve Perplexity, kaynaklarını seçerken E-E-A-T sinyallerine bakıyor. Kim yazdı? Bu kişi bu konuda gerçekten deneyimli mi? İddialar kişisel gözleme mi yoksa genel bilgiye mi dayanıyor? Yazar başka yerlerde de tanınıyor mu?
Çoğu şirket sitesinde içerik imzasız veya "Editör" gibi anonim bir imzayla yayınlanıyor. Bu sinyaller AI için yetersiz.
Çözüm:
- Her makaleye yazar profili ekleyin. İsim, unvan, kısa biyografi (2-3 cümle), LinkedIn bağlantısı. "Dijital pazarlama uzmanı" değil, "2016'dan bu yana 180'den fazla Türk şirketine SEO danışmanlığı."
- Birinci şahıs deneyim paylaşın. "Müşterilerimizden birinin…" değil, "Geçen Kasım'da yeniden yapılandırdığımız bir e-ticaret sitesinin…" Tarih, sektör, sayı — hepsini ekleyin.
- Hatayı da anlatın. AI sistemleri dürüst, deneyime dayalı içeriği sever. "Şu yaklaşım işe yaramadı, şunu denedik ve şu sonucu aldık" formatındaki içerikler yüksek otorite sinyali veriyor.
Hata 5: Schema Markup Yok veya Eksik
Belirti: Rakipler FAQ sorularına AI yanıtlarında yer alıyor, siz almıyorsunuz. "En iyi [hizmet] ajansı" sorgularında rakipler önerilirken siz görünmüyorsunuz.
Neden oluyor: Schema markup, sayfanızdaki içeriğin ne anlama geldiğini makinelere açıklayan arka plan kodudur. Bir H2 başlığınız "Web Tasarım Maliyeti Ne Kadar?" diyebilir ama schema markup olmadan sistem bu başlığın bir soru olduğunu kesin olarak bilmiyor. Schema markup "bu bir soru, şu da cevabı" diye açıklıyor.
Kritik schema türleri:
FAQPage — Sayfanızda SSS varsa mutlaka ekleyin:
``json { "@context": "https://schema.org", "@type": "FAQPage", "mainEntity": [ { "@type": "Question", "name": "Web sitesi tasarımı ne kadar sürer?", "acceptedAnswer": { "@type": "Answer", "text": "Kurumsal web sitesi 3-4 hafta, e-ticaret sitesi 6-8 hafta sürer." } } ] } ``
Article — Her blog yazısı için: ``json { "@context": "https://schema.org", "@type": "Article", "headline": "Yazı başlığı", "author": { "@type": "Person", "name": "İsmail Günaydın", "url": "https://linkedin.com/in/..." }, "datePublished": "2026-03-28", "dateModified": "2026-03-28" } ``
HowTo — Adım adım rehberler için. "Nasıl yapılır" sorgularında çok etkili.
Schema markup eklemek için Google'ın Yapısal Veri Test Aracı'nı kullanın: hata olmadığını doğrulayın.
Hata 6: JavaScript ile Render Edilen İçerik
Belirti: Siteniz görsel olarak mükemmel. Ama AI botlar içeriğinizi sanki sayfa boşmuş gibi değerlendiriyor. İçerik varmış gibi görünüyor ama AI cevaplara dahil etmiyor.
Neden oluyor: Bazı siteler içeriği JavaScript ile yüklüyor (client-side rendering). Sayfa ilk yüklendiğinde HTML'de içerik yok; tarayıcı JavaScript'i çalıştırınca içerik geliyor. Pek çok AI botu JavaScript çalıştırmıyor. Sayfanın başlangıç HTML'sini görüyorlar — içerik yok.
Nasıl kontrol edersiniz:
Terminalde veya online bir araçla sayfanızın ham HTML'sini isteyin:
```bash
| curl -s https://siteniz.com | grep -i "hizmetler\ | web tasarım\ | seo" |
|---|
Eğer bu komut sonuç vermiyorsa ama sitede bu kelimeler varsa, içerik JavaScript ile yükleniyor demektir.
Çözümler:
1. En kolay: Server-side rendering (SSR) veya static site generation (SSG) kullanın. Next.js, Nuxt.js gibi framework'ler bunu destekliyor. 2. Orta yol: En önemli sayfalarda (ana sayfa, hizmet sayfaları) içeriği doğrudan HTML'e yazın; dinamik parçaları JavaScript'e bırakın. 3. Geçici çözüm: Kritik içerik için ayrı, JavaScript'siz versiyonlar oluşturun. (Tavsiye edilmiyor; karmaşıklık artıyor.)
JavaScript render sorunu olan siteler için en sağlıklı çözüm Next.js veya benzer bir SSR framework'üne geçmek. Bu kısa vadede iş yükü, ama uzun vadede hem SEO hem GEO için doğru yatırım.
Hata 7: Dış Referans ve Marka Otoritesi Yok
Belirti: Siteniz teknik olarak sağlıklı, içeriğiniz iyi yazılmış ama yine de küçük ama daha bilinen rakipler daha sık öneriliyorlar.
Neden oluyor: AI sistemleri karar verirken sadece sitenizi değil, markanızın genel internet varlığını değerlendiriyor. Eğer başka güvenilir kaynaklar sizden bahsediyorsa — bir teknoloji blogu sizi kaynak gösterdiyse, YouTube'da kanalınız varsa, Reddit'te sorulara cevap verdiyseniz — AI sistemleri bu sinyallere güveniyor.
Bunun nedeni basit: AI sistemleri, kendi sitesinde kendi hakkında söylediklerinize sınırlı güveniyor. Ama bağımsız bir kaynak sizden bahsediyorsa bu çok daha güçlü bir sinyal.
Çözüm adımları:
1. YouTube kanalı açın. Haftada bir kısa, değer katan video. "Web sitesi ne kadar sürer?" "SEO neden önemli?" Küçük kanallar bile AI referans sinyali veriyor.
2. LinkedIn'de makale yazın. Blogunuzdaki uzun makaleleri LinkedIn makalesine dönüştürün. Orada da yayınlayın. Her ikisi de indekslenebilir.
3. Sektörel forumlarda gerçekten yardım edin. Webrazzi, DonanımHaber veya ilgili Reddit topluluklarında sorulara cevap verin. Link bırakmak zorunda değilsiniz; isminizin geçmesi yeterli.
4. Bir sektör yayınında yer alın. Webrazzi, Pazarlamasyon, ShiftDelete gibi Türk teknoloji medyasına konuk yazı teklif edin. Bir kez yer almak bile otorite sinyali olarak uzun süre çalışıyor.
5. Müşteri referanslarını yapılandırın. Müşteri referanslarını şirkete özel sayfalarda yayınlayın. "X şirketi için yaptığımız çalışma" formatındaki vaka çalışmaları hem SEO hem GEO için güçlü sinyal.
Bu adımlar zaman alıyor. 3-6 ay sonra etki görmeye başlarsınız. Ama bir kez marka otoriteniz oluştuğunda, yeni içerikleriniz de çok daha hızlı AI referansı alıyor.
Öz-Tanı Kontrol Listesi
| Hata | Nasıl Kontrol Edersiniz | Önem | Düzeltme Süresi |
|---|---|---|---|
| Bot engeli (robots.txt) | siteniz.com/robots.txt adresine gidin | Kritik | 5-15 dakika |
| llms.txt eksik | siteniz.com/llms.txt adresini test edin | Yüksek | 30-60 dakika |
| İçerik çıkarılamıyor | Manuel AI testi + içerik analizi | Yüksek | 2-8 hafta |
| E-E-A-T sinyali yok | Yazar bilgisi ve kaynak varlığını kontrol edin | Yüksek | 1-2 hafta |
| Schema markup yok | Google Rich Results Test kullanın | Orta | 2-4 saat |
| JS render sorunu | curl ile ham HTML kontrol edin | Orta-Yüksek | 1-4 hafta |
| Dış otorite yok | Marka adını Perplexity'de arayın | Orta | 3-6 ay |
Sık Sorulan Sorular
Kaç hata varsa ciddi sorun var demektir?
Tek bir kritik hata bile (özellikle bot engeli) tüm AI görünürlüğünü sıfırlayabilir. Ama genellikle birden fazla hata bir arada oluyor. 7'den 4'ünü düzeltmek bile ölçülebilir iyileşme sağlıyor.
Bu hataları kendim düzeltebilir miyim?
Hata 1 (robots.txt) ve Hata 2 (llms.txt) teknik bilgi gerektirmiyor — bir metin editörü yeterli. Hata 5 (schema markup) biraz teknik; ama WordPress kullanıyorsanız Rank Math veya Yoast gibi eklentiler bunu kolaylaştırıyor. Hata 6 (JS render) geliştirici gerektiriyor.
Düzeltmelerden sonra ne kadar sürede fark görürüm?
robots.txt düzeltmesi ve llms.txt eklenmesi: 1-4 hafta (botların yeniden tarama döngüsüne bağlı). İçerik yapısı iyileştirmeleri: 4-8 hafta. Marka otoritesi: 3-6 ay. Sabır gerekiyor; ama ölçülebilir değişimler görülüyor.
GEO uzmanı tutmak gerekli mi?
Teknik hataları (1, 2, 5) kendiniz düzeltebilirsiniz. İçerik yapısını (3, 4) biraz eğitimle kendiniz iyileştirebilirsiniz. Ama kapsamlı bir GEO stratejisi — içerik mimarisi, otorite inşası, ölçüm sistemi — uzman desteğiyle çok daha hızlı ve doğru kurulur.
Küçük bir site bu kadar çabaya değer mi?
Bu soruyu müşterilerinizin nerede arama yaptığına göre yanıtlayın. Müşterileriniz ChatGPT veya Perplexity'de araştırma yapıyorsa — bu 2026'da giderek büyüyen bir segment — o zaman değer. Müşterileriniz hâlâ yalnızca Google kullanıyorsa, önce Google SEO'yu sağlamlaştırın; sonra GEO'ya geçin.
---
İlgili makaleler:


