Yandex botunun sayfayı nasıl gördüğü. Search Console'un yeni sürümüne nasıl yükseltilir?

Eski sürüm kullanıcıları için geçiş kılavuzu

Sonunda eski hizmetin yerini alacak yeni bir Search Console sürümü geliştiriyoruz. Bu kılavuzda, eski ve yeni sürümler arasındaki temel farkları ele alacağız.

Genel değişiklikler

Search Console'un yeni sürümünde aşağıdaki iyileştirmeleri uyguladık:

  • Arama trafiği verilerini önceki üç ay yerine 16 aya ait görüntüleyebilirsiniz.
  • Search Console artık belirli sayfalar hakkında ayrıntılı bilgi sağlıyor. Bu bilgiler standart URL'leri, dizine ekleme durumunu, mobil optimizasyon derecesini ve daha fazlasını içerir.
  • Yeni sürüm, web sayfalarınızın taranmasını izlemenize, ilgili hataları düzeltmenize ve yeniden indeksleme istekleri göndermenize olanak tanıyan araçlar içerir.
  • Güncellenen hizmet, hem tamamen yeni araçlar ve raporlar hem de geliştirilmiş eski araçlar sunar. Hepsi aşağıda açıklanmıştır.
  • Servis mobil cihazlarda kullanılabilir.

Araçların ve raporların karşılaştırılması

Çeşitli Search Console araçlarını ve raporlarını modernize etmek için sürekli çalışıyoruz ve bunların birçoğunu bu hizmetin güncellenmiş sürümünde zaten kullanabilirsiniz. Aşağıda yeni rapor ve araç seçenekleri eskileriyle karşılaştırılmıştır. Liste güncellenecektir.

Raporun eski versiyonu Search Console'un yeni sürümünde analog Karşılaştırmak
Arama sorgusu analizi Yeni rapor 16 aylık veri sağlıyor ve çalışmak daha uygun hale geldi.
Faydalı ipuçları Zengin Sonuç Durum Raporlaması Yeni raporlar, hataları gidermeye yardımcı olacak ayrıntılı bilgiler sağlar ve yeniden tarama isteklerini göndermeyi kolaylaştırır.
Sitenize bağlantılar
Dahili bağlantılar
Bağlantılar İki eski raporu yeni bir raporda birleştirdik ve referans sayım doğruluğunu iyileştirdik.
İndeksleme Durumu Endeksleme Raporu Yeni rapor, eskisinden tüm verileri ve ayrıca Google dizinindeki durumla ilgili ayrıntılı bilgileri içerir.
Site haritası raporu Site haritası raporu Rapordaki veriler aynı kalıyor, ancak tasarımını iyileştirdik. Eski rapor, Site Haritasının gönderilmeden test edilmesini destekler, ancak yeni rapor desteklemez.
Hızlandırılmış Mobil Sayfalar (AMP) AMP Durum Raporu Yeni rapor, ayrıntılarını görüntüleyebileceğiniz ve yeniden tarama isteği gönderebileceğiniz yeni hata türleri ekler.
manuel işlem manuel işlem Raporun yeni sürümü, gönderilen inceleme talepleri ve inceleme sonuçları dahil olmak üzere manuel işlemlerin bir geçmişini sağlar.
Web Siteleri için Google Tarayıcı URL İnceleme Aracı URL Denetleme Aracında, dizine dahil edilen URL sürümü ve çevrimiçi olarak sunulan sürüm hakkındaki bilgileri görüntüleyebilir ve bir tarama isteği gönderebilirsiniz. Kurallı URL'ler, noindex ve nocrawl blokları ve Google dizinindeki URL'lerin varlığı hakkında bilgi eklendi.
Mobil cihazlarda görüntüleme kolaylığı Mobil cihazlarda görüntüleme kolaylığı Rapordaki veriler aynı kaldı, ancak onunla çalışmak daha uygun hale geldi. Ayrıca, mobil görüntüleme sorunları giderildikten sonra bir sayfanın yeniden taranmasını isteme özelliğini de ekledik.
Tarama hatası raporu Endeksleme Raporu ve url kontrol aracı

Site düzeyinde tarama hataları, yeni dizin oluşturma raporunda gösterilir. Sayfa düzeyindeki hataları bulmak için yeni URL Denetleme Aracını kullanın. Yeni raporlar, yaygın nedenleri belirlemek için sorunları önceliklendirmenize ve benzer sorunları olan sayfaları gruplamanıza yardımcı olur.

Eski rapor, alakasız, geçici ve küçük olanlar dahil olmak üzere son üç aya ait tüm hataları gösteriyordu. Yeni bir rapor, geçtiğimiz ay Google için önemli olan sorunları vurguluyor. Yalnızca sayfanın dizinden kaldırılmasına neden olabilecek veya dizine eklenmesini engelleyebilecek sorunları göreceksiniz.

Sorunlar önceliklere göre gösterilir. Örneğin, 404 hataları yalnızca sayfanın bir site haritası aracılığıyla veya başka bir şekilde dizine eklenmesini talep ettiyseniz hata olarak işaretlenir.

Bu değişikliklerle, Googlebot'un sitenizde bulduğu tüm hataların bir listesiyle uğraşmak yerine, sitenizin Google dizinindeki konumunu etkileyen sorunlara daha fazla odaklanabileceksiniz.

Yeni dizin oluşturma raporunda aşağıdaki hatalar dönüştürülmüş veya artık gösterilmemiştir:​

URL Hataları - Bilgisayar Kullanıcıları İçin

Eski hata türü Yeni sürümde analog
Server hatası İndeksleme raporunda, tüm sunucu hataları bayrakla belirtilir. Sunucu Hatası (5xx).
Sahte 404 hatası
  • Hata: Gönderilen URL, yanlış bir 404 hatası döndürür.
  • Hariç tutuldu: Yanlış 404 hatası.
Giriş reddedildi

Dizin oluşturma raporu, bu hata türü için işleme isteyip istemediğinize bağlı olarak aşağıdaki kategorilerden birini listeler:

  • Hata: Gönderilen URL, 401 (Yetkisiz İstek) hatası döndürür.
  • İstisna: 401 (Yetkisiz istek) hatası nedeniyle sayfa dizine eklenmedi.
Bulunamadı

Dizin oluşturma raporu, bu tür bir hata için işleme talep edip etmemenize bağlı olarak aşağıdaki yollardan biriyle belirtilir:

  • Hata: Gönderilen URL bulunamadı (404).
  • Hariç tutuldu: bulunamadı (404).
Diğer İndeksleme raporu şöyle belirtir: Tarama hatası.

URL Hataları - Akıllı Telefon Kullanıcıları İçin

Akıllı telefon hataları şu anda gösterilmiyor, ancak gelecekte bunları dahil etmeyi umuyoruz.

Site hataları

Search Console'un yeni sürümü site hatalarını göstermiyor.

Güvenlik Sorunları Raporu Yeni güvenlik sorunu raporu Yeni Güvenlik Sorunları Raporu, eski raporun işlevlerinin çoğunu korur ve bir site sorunları geçmişi ekler.
Yapılandırılmış veri Zengin Sonuç Denetleyicisi ve zengin sonuç durum raporları Tek tek URL'leri işlemek için Zengin Sonuç Denetleyicisini veya URL Denetleyicisini kullanın. Site genelindeki bilgiler, sitenizin zengin sonuç durum raporlarında bulunabilir. Zengin sonuç veri türlerinin tümü henüz mevcut değil, ancak raporların sayısı sürekli artıyor.
HTML optimizasyonu Yeni sürümde benzer bir rapor yok. Bilgilendirici başlıklar ve sayfa açıklamaları oluşturmak için yönergelerimizi izleyin.
Kilitli Kaynaklar URL İnceleme Aracı Sitenin tamamı için engellenen kaynakları görüntülemenin bir yolu yoktur, ancak URL Denetleme aracıyla her bir sayfa için engellenen kaynakları görebilirsiniz.
Android Uygulamaları Mart 2019 itibarıyla Search Console artık Android uygulamalarını desteklemeyecektir.
Kaynak Kitleri Mart 2019 itibarıyla Search Console artık kaynak kümelerini desteklemeyecektir.

Aynı bilgileri iki kez girmeyin. Search Console'un bir sürümünde bulunan veriler ve sorgular otomatik olarak başka bir sürümde çoğaltılır. Örneğin, eski Search Console'da bir yeniden doğrulama isteği veya site haritası gönderdiyseniz, yenisinde yeniden göndermeniz gerekmez.

Bilinen görevleri yapmanın yeni yolları

Search Console'un yeni sürümünde önceki işlemlerin bir kısmı farklı şekilde gerçekleştiriliyor. Ana değişiklikler aşağıda listelenmiştir.

Şu anda desteklenmeyen özellikler

Aşağıda listelenen özellikler, Search Console'un yeni sürümünde henüz uygulanmamıştır. Bunları kullanmak için önceki arayüze dönün.

  • Tarama istatistikleri (günlük taranan sayfa sayısı, indirme süreleri, günlük indirilen kilobayt sayısı).
  • robots.txt dosyasını kontrol etme.
  • Google Arama'da URL parametrelerini yönetin.
  • İşaret aracı.
  • Mesajları okuyun ve yönetin.
  • "Adresi değiştir" aracı.
  • Birincil etki alanını belirtme.
  • Bir Search Console mülkünü bir Google Analytics mülküne bağlama.
  • Bağlantıları reddet.
  • Eski verileri dizinden kaldırma.

Bu bilgi yardımcı oldu mu?

Bu makale nasıl geliştirilebilir?

İyi günler, okuyucular. Yandex.Webmaster'da görünen hatalar ve mesajlar hakkında web yöneticilerinden, site sahiplerinden ve blog yazarlarından her zaman birçok soru alıyorum. Bu mesajların çoğu korkutucu.

Ancak şunu söylemek isterim ki, tüm mesajlar site için kritik değildir. Ve sonraki makalelerde, web yöneticilerinin sahip olabileceği tüm olası soruları mümkün olduğunca eksiksiz bir şekilde ele almaya çalışacağım. Bu makale aşağıdaki bölümleri kapsayacaktır:

  1. Teşhis - Site Teşhisi
  2. Dizine Ekleme - Aramadaki Sayfalar

Bununla ilgili ve neden gerekli olduğunu birkaç yıl önce yazdım. Bu araca aşina değilseniz, lütfen önce bağlantıdaki makaleyi okuyun.

Site Tanılama

Olası sorunlar

1. Ana bilgisayar yönergesi robots.txt dosyasında ayarlanmadı

Yandex'in bu notu, Host yönergesinin standart bir yönerge olmaması, yalnızca Yandex arama motorunun desteklemesi bakımından dikkat çekicidir. Yandex site aynasını yanlış belirlerse gereklidir.

Kural olarak, bir site aynası, Yandex tarafından CMS'nin kendisi tarafından oluşturulan URL'lere ve siteye yönlendiren harici bağlantılar temelinde otomatik olarak belirlenir. Ana site aynasını belirtmek için bunu robots.txt dosyasında belirtmek gerekli değildir. Ana yol, CMS'de otomatik olarak yapılandırılan veya .htchess dosyasına gerekli kodun girildiği 301 yönlendirmesini kullanmaktır.

Yandex'in sitenin ana aynasını yanlış belirlediği durumlarda robots.txt dosyasındaki yönergeyi belirtmeniz gerektiğine ve bunu başka bir şekilde etkileyemeyeceğinize dikkatinizi çekerim.

Son zamanlarda çalıştığım CMS, WordPress, Joomla, ModX, sistem ayarları site adresini önek olmadan belirtiyorsa, varsayılan olarak adresi www'den olmadan'a yönlendirir. Tüm modern CMS'lerin bu yeteneğe sahip olduğundan eminim. En sevdiğim Blogger bile kendi etki alanında bulunan bir blogun adresini doğru şekilde yönlendirir.

2. Eksik meta etiketler

Sorun kritik değil, ondan korkmanıza gerek yok, ancak mümkünse düzeltmek, dikkat etmemekten daha iyidir. CMS'niz varsayılan olarak meta etiketlerin oluşturulmasını sağlamıyorsa, sayfa açıklamasını manuel olarak ayarlayabilmek için bir eklenti, eklenti, uzantı veya CMS'nizde ne denirse aramaya başlayın veya böylece açıklama, makalenin ilk sözcüklerinden otomatik olarak oluşturulur.

3. Robot tarafından kullanılan site haritası dosyası yok

Tabii ki, bu hatayı düzeltmek daha iyidir. Ancak sorunun hem sitemap.xml dosyasının mevcut olduğu durumlarda hem de gerçekten olmadığı durumlarda ortaya çıkabileceğini unutmayın. Dosya sizdeyse ancak Yandex dosyayı görmüyorsa, Dizine Ekleme - Site Haritası Dosyaları bölümüne gitmeniz yeterlidir. Ve dosyayı Yandex.Webmaster'a manuel olarak ekleyin. Hiç böyle bir dosyanız yoksa, kullanılan CMS'ye bağlı olarak çözümler arayın.

sitemap.xml dosyası http://your-domen.ru/sitemap.xml adresinde bulunur.

4. Robots.txt dosyası bulunamadı

Yine de, bu dosya olmalı ve eğer onu bağlama imkanınız varsa, bunu yapmak daha iyidir. Ve Host yönergesine sahip öğeye dikkat edin.

robots.txt dosyası http://your-domain.ru/robots.txt adresinde bulunur.

Bu konuda, Site Tanılama sekmesindeki hatalar çeşmesi benim için kurudu.

indeksleme

Aramadaki sayfalar

Bu noktadan başlayalım. Bu, bilgiyi yapılandırmayı kolaylaştıracaktır.

"Tüm Sayfalar" filtresinde vurgulayın
"E-tabloyu indir" sayfasında sağa doğru iniyoruz XLS'yi seçin ve dosyayı Excel'de açın.


Aramada olan sayfaların bir listesini alıyoruz, yani. Yandex bunları biliyor, sıralıyor, kullanıcılara gösteriyor.
Bakıyoruz, tabloda kaç tane kayıt var. 289 sayfam var.

Ve ne kadar olması gerektiğini nasıl anlayabilirim? Her site benzersizdir ve kaç sayfa yayınladığınızı yalnızca siz bilebilirsiniz. Örnek olarak WordPress blogumu kullanacağım.
Yazma sırasındaki blogda:

  • Girişler - 228
  • Sayfalar - 17
  • Başlıklar - 4
  • Etiketler - 41
  • + sitenin ana sayfası

Toplamda dizinde olması gereken 290 sayfamız var. Tablodaki verilerle karşılaştırıldığında aradaki fark sadece 1 sayfadır. Bunu güvenle çok iyi bir gösterge olarak düşünebilirsiniz. Ama sevinmek için çok erken. Her şey matematiksel olarak çakışıyor, ancak analiz etmeye başladığınızda tutarsızlıklar ortaya çıkıyor.

Aramada olmayan o sayfayı bulmanın iki yolu vardır. Her ikisini de düşünelim.

Birinci yöntem. İndirdiğim aynı tabloda aramayı birkaç aşamaya ayırdım. İlk önce Rubric sayfalarını seçtim. Sadece 4 bölümüm var. Çalışmanızı optimize etmek için Excel'deki metin filtrelerini kullanın.


Ardından Etiketler, Sayfalar aramadan çıkarıldı, sonuç olarak tabloda yalnızca makaleler kaldı. Ve burada, ne kadar makale olursa olsun, indekste olmayanı bulmak için her birine bakmanız gerekecek.

Her CMS'nin kendine has bir yapısı olduğuna dikkatinizi çekerim. Her web yöneticisinin kendi SEO, kurallı, robots.txt dosyası vardır.

Yine örnek olarak WordPress kullanıyorsanız sitenizin hangi bölümlerinin indekslendiğine ve hangilerinin kapalı olduğuna dikkat edin. Aylara ve yıllara göre Arşiv sayfaları, Yazarın sayfaları, sayfa sayfalaması olabilir. Tüm bu bölümleri robots meta etiketi ayarlarıyla kapattım. Sizin için farklı olabilir, bu nedenle indeksleme için yasak olmayan her şeyi düşünün.

Blogger'ı örnek alırsak, blog sahiplerinin yalnızca yayınlanmış Gönderileri, Sayfaları ve Ana Sayfayı sayması gerekir. Diğer tüm arşiv ve etiket sayfaları, ayarlara göre indeksleme için kapatılmıştır.

Yöntem iki. Web yöneticisine dönüyoruz, filtrede "Hariç tutulan sayfalar"ı seçin.

Artık aramanın dışında bırakılan sayfaların bir listesi var. Liste, aramaya dahil edilen sayfalardan çok daha büyük olabilir. Sitede bir sorun olduğundan korkmanıza gerek yok.

Yazıyı yazarken Webmaster arayüzünde çalışmayı denedim ancak istenilen işlevselliği alamadım, belki de bu geçici bir olgudur. Bu nedenle önceki sürümde olduğu gibi tablo veri ile çalışacağım, sayfanın alt kısmındaki tabloyu da indirebilirsiniz.

Yine, örnek olarak WordPress blogumu kullanarak, bir istisnanın tipik nedenlerine bakacağım.

Ortaya çıkan tabloda, öncelikle D - “httpCode” sütunuyla ilgileniyoruz. Sunucu yanıtlarının ne olduğunu bilmeyenler, wikipedia'da okuyun. Bu, aşağıdakileri anlamanızı kolaylaştıracaktır.

200 koduyla başlayalım. İnternette herhangi bir sayfaya yetkisiz olarak erişebilirseniz, böyle bir sayfanın durumu 200 olacaktır. Bu tür tüm sayfalar aşağıdaki nedenlerle arama dışında bırakılabilir:

  1. robots meta etiketi tarafından yasaklandı
  2. robots.txt dosyasında dizine eklenmesi yasaklandı
  3. Kurallı değiller, kurallı meta etiketi ayarlandı

Site sahibi olarak hangi sayfaların hangi ayarlara sahip olduğunu bilmeniz gerekir. Bu nedenle, hariç tutulan sayfaların listesini sıralamak zor olmamalıdır.

Filtreleri ayarlayın, D - 200 sütununda seçin

Şimdi E - “durum” sütunuyla ilgileniyoruz, sıralıyoruz.

BAD_QUALITY durumu- Kötü kalite. En sinir bozucu durum. Hadi parçalayalım.

Tablomda, Yeterince iyi değil durumuna sahip yalnızca 8 URL vardı. Onları sağ sütunda numaralandırdım.

URL'ler 1, 5, 7 - Besleme sayfaları, 2,3,4,5,8 - wp-json site dizinindeki hizmet sayfaları. Bu sayfaların tümü HTML belgeleri değildir ve prensipte bu listede yer almamalıdır.

Bu nedenle, sayfa listenizi dikkatlice gözden geçirin ve yalnızca HTML sayfalarını vurgulayın.

META_NO_INDEX durumu. Yazarın sayfası olan sayfalama sayfaları, robots meta etiketinin ayarları nedeniyle dizinden hariç tutulur

Ama bu listede olmaması gereken bir sayfa var. URL'yi mavi renkle vurguladım.

NOT_CANONICAL durumu. Adı kendisi için konuşur. Kanonik olmayan sayfa. Sitenin herhangi bir sayfasında, kurallı URL'yi belirttiğiniz kurallı meta etiketi ayarlayabilirsiniz.


Web sitenizin tanıtımı, arama örümceklerinin dikkatini çekmek için sayfa optimizasyonunu içermelidir. Arama motoru dostu bir web sitesi oluşturmaya başlamadan önce, botların sitenizi nasıl gördüğünü bilmeniz gerekir.

arama motorları gerçekten örümcekler değil, sayfanızın url'sini öğrendikten sonra sitenizi analiz etmek için gönderilen küçük programlar. Arama motorları, diğer İnternet kaynaklarına bırakılan web sitenize bağlantılar aracılığıyla da sitenize ulaşabilir.

Robot web sitenize gelir gelmez BODY etiketinin içeriğini okuyarak sayfaları hemen indekslemeye başlayacaktır. Ayrıca tüm HTML etiketlerini ve diğer sitelere olan bağlantıları tam olarak okur.

Ardından, arama motorları sitenin içeriğini daha sonraki indeksleme için ana veritabanına kopyalar. Tüm bu süreç üç aya kadar sürebilir.

Arama motoru optimizasyonuöyle kolay bir şey değil. Örümcek dostu bir web sitesi oluşturmalısınız. Botlar flash web tasarımına dikkat etmezler, sadece bilgi isterler. Web sitesine bir arama robotunun gözünden bakarsanız, oldukça aptalca görünecektir.

Rakip sitelerde bir örümceğin gözünden bakmak daha da ilginç. Rakipler sadece kendi alanınızda değil, aynı zamanda herhangi bir arama motoru optimizasyonuna ihtiyaç duymayabilecek popüler kaynaklar. Genel olarak, farklı sitelerin robotların gözünden nasıl göründüğünü görmek çok ilginç.

Sadece yazı

Robotları ara sitenizi daha çok metin tarayıcılarının yaptığı gibi görün. Metni severler ve resimlerdeki bilgileri görmezden gelirler. Açıklama içeren bir ALT etiketi eklemeyi hatırlarsanız, örümcekler resmi okuyabilir. Güzel resimler ve çok az metin içeriği ile karmaşık siteler oluşturan web tasarımcıları için son derece sinir bozucu.

Aslında, arama motorları herhangi bir metni sever. Yalnızca HTML kodunu okuyabilirler. Sayfada arama motorunun HTML kodunu okumasını engelleyebilecek çok sayıda form veya javascript veya başka bir şey varsa, örümcek bunu görmezden gelir.

Arama botlarının görmek istedikleri

Bir arama motoru sayfanızı taradığında, bir dizi önemli şeyi arar. Sitenizi arşivledikten sonra arama robotu kendi algoritmasına göre sıralamaya başlayacaktır.

örümcekleri ara spam gönderenlerin bunlara uyum sağlayamaması için algoritmalarını korur ve sık sık değiştirir. Tüm arama motorlarında üst sıralarda yer alacak bir web sitesi tasarlamak çok zordur, ancak aşağıdaki öğeleri tüm web sayfalarınıza dahil ederek bazı avantajlar elde edebilirsiniz:

  • anahtar kelimeler
  • Meta etiketleri
  • Başlıklar
  • Bağlantılar
  • seçilen metin

Bir arama motoru gibi okuyun

Bir site geliştirdikten sonra onu geliştirmeli ve arama motorlarında tanıtmalısınız. Ancak siteye yalnızca tarayıcıdan bakmak en iyi ve en başarılı teknik değildir. Çalışmanızı açık bir zihinle değerlendirmek kolay değil.

Yaratıcılığınıza bir arama simülatörünün gözünden bakmak çok daha iyi. Bu durumda, sayfalar ve örümceğin onları nasıl gördüğü hakkında çok daha fazla bilgi edineceksiniz.

Mütevazı görüşümüze göre fena olmayan bir arama motoru simülatörü yarattık. Web sayfasını arama örümceğinin gördüğü gibi görebileceksiniz. Ayrıca girdiğiniz anahtar kelimelerin sayısını, yerel ve giden bağlantıları vb. gösterecektir.

Web Yöneticisi Araçları, sayfanızın Googlebot'lara nasıl göründüğünü anlamanıza olanak tanır. Sunucu başlıkları ve HTML kodu, hataları ve bir saldırının sonuçlarını belirlemeye yardımcı olur, ancak bazen bunları anlamak zor olabilir. Web yöneticileri, bu tür sorunlarla uğraşmak zorunda kaldıklarında genellikle parmak uçlarındadır. Bu gibi durumlarda size yardımcı olmak için, bu özelliği, Googlebot'un kullandığı algoritmayı kullanarak sayfaya hizmet verebilmesi için geliştirdik.

Taranan sayfa nasıl görüntülenir?
Bir sayfayı işlerken, Googlebot ilgili tüm dosyaları arar ve harici kaynaklardan içe aktarır. Bunlar genellikle resimler, stil sayfaları, JavaScript öğeleri ve CSS veya JavaScript ile gömülü diğer dosyalardır. Sistem, sayfayı Googlebot'un gördüğü şekilde görüntülemek için bunları kullanır.
Bu özellik, Web Yöneticisi Araçları hesabınızın "Tara" bölümünde mevcuttur. Lütfen sayfa işlemenin ve ardından görüntülenmesinin oldukça uzun sürebileceğini unutmayın. Tamamlandığında, sonucu görüntülemek için farenizi istediğiniz URL'yi içeren satırın üzerine getirin.



robots.txt dosyasında engellenen kaynakları işleme
Googlebot, kodu işlerken robots.txt dosyasında belirtilen talimatlara uyar. Belirli öğelere erişimi yasaklarlarsa, sistem bu tür materyalleri önizleme için kullanmayacaktır. Bu, sunucu yanıt vermezse veya bir hata döndürürse de olur. İlgili veriler, Web Yöneticisi Araçları hesabınızın Tarama Hataları bölümünde bulunabilir. Ayrıca, sayfanın önizleme görüntüsü oluşturulduktan sonra bu tür hataların tam listesi görüntülenecektir.
Googlebot'un sitenizde veya düzeninizde bulunan tüm yerleşik kaynaklara erişimi olduğundan emin olmanızı öneririz. Bu, Googlebot Gibi Göz Atma deneyiminizi kolaylaştıracak, botun site içeriğinizi algılamasına ve düzgün şekilde dizine eklemesine izin verecek ve sayfalarınızın nasıl tarandığını anlamanıza yardımcı olacaktır. Sosyal medya düğmeleri, analiz aracı komut dosyaları ve yazı tipleri gibi bazı kod parçacıkları genellikle sayfa stilini tanımlamaz, dolayısıyla taranmaları gerekmez. Google'ın web içeriğini nasıl analiz ettiği hakkında daha fazla bilgiyi önceki makalede okuyun.
Yeniliğimizin, site tasarımıyla ilgili sorunları çözmenize ve Google'ın şu veya bu nedenle tarayamadığı kaynakları keşfetmenize yardımcı olacağını umuyoruz. Sorularınız varsa, lütfen Google Plus Web Yöneticisi Topluluğunda bizimle iletişime geçin veya arama yapın