چگونه ربات Yandex صفحه را می بیند. نحوه ارتقاء به نسخه جدید کنسول جستجو

راهنمای مهاجرت برای کاربران نسخه قدیمی

ما در حال توسعه نسخه جدیدی از کنسول جستجو هستیم که در نهایت جایگزین سرویس قدیمی خواهد شد. در این راهنما به تفاوت های اصلی نسخه های قدیمی و جدید خواهیم پرداخت.

تغییرات کلی

در نسخه جدید کنسول جستجو، پیشرفت‌های زیر را اعمال کرده‌ایم:

  • می توانید داده های ترافیک جستجو را به مدت 16 ماه به جای سه ماه قبلی مشاهده کنید.
  • کنسول جستجو اکنون اطلاعات دقیقی در مورد صفحات خاص ارائه می دهد. این اطلاعات شامل URL های متعارف، وضعیت نمایه سازی، درجه بهینه سازی موبایل و موارد دیگر است.
  • نسخه جدید شامل ابزارهایی است که به شما امکان می دهد خزیدن صفحات وب خود را ردیابی کنید، خطاهای مرتبط را برطرف کنید و درخواست هایی برای فهرست بندی مجدد ارسال کنید.
  • این سرویس به روز شده هم ابزارها و گزارش های کاملاً جدید و هم ابزارهای قدیمی بهبود یافته را ارائه می دهد. همه آنها در زیر توضیح داده شده است.
  • این سرویس را می توان در دستگاه های تلفن همراه استفاده کرد.

مقایسه ابزارها و گزارشات

ما دائماً در حال کار بر روی مدرن سازی ابزارها و گزارش های مختلف کنسول جستجو هستیم و شما می توانید از بسیاری از آنها در نسخه به روز شده این سرویس استفاده کنید. در زیر، گزارش جدید و گزینه های ابزار با موارد قبلی مقایسه شده است. لیست به روز خواهد شد.

نسخه قدیمی گزارش آنالوگ در نسخه جدید کنسول جستجو مقایسه
تجزیه و تحلیل پرس و جو جستجو گزارش جدید داده هایی را برای 16 ماه ارائه می دهد و کار با آن راحت تر شده است.
نکات مفید گزارش وضعیت نتایج غنی گزارش های جدید اطلاعات دقیقی را برای کمک به عیب یابی خطاها و ارسال درخواست های اسکن مجدد را آسان می کند.
لینک به سایت شما
لینک های داخلی
پیوندها ما دو گزارش قدیمی را در یک گزارش جدید ادغام کرده ایم و دقت شمارش مراجع را بهبود بخشیده ایم.
وضعیت نمایه سازی گزارش نمایه سازی گزارش جدید تمام داده های مربوط به گزارش قبلی و همچنین اطلاعات دقیق در مورد وضعیت در فهرست گوگل را دارد.
گزارش نقشه سایت گزارش نقشه سایت داده‌های گزارش ثابت می‌ماند، اما ما طراحی آن را بهبود بخشیده‌ایم. گزارش قدیمی از آزمایش نقشه سایت بدون ارسال آن پشتیبانی می کند، اما گزارش جدید اینطور نیست.
صفحات موبایل تسریع شده (AMP) گزارش وضعیت AMP گزارش جدید انواع جدیدی از خطاها را اضافه می کند که می توانید جزئیات مربوط به آنها را مشاهده کنید و همچنین درخواستی برای اسکن مجدد ارسال کنید.
اقدام دستی اقدام دستی نسخه جدید گزارش تاریخچه ای از اقدامات دستی، از جمله درخواست های بررسی ارسال شده و نتایج بررسی را ارائه می دهد.
خزنده گوگل برای وب سایت ها ابزار بازرسی URL در ابزار بازرسی URL، می توانید اطلاعات مربوط به نسخه URL موجود در فهرست و نسخه موجود آنلاین را مشاهده کنید و همچنین درخواست خزیدن ارسال کنید. اطلاعاتی در مورد URL های متعارف، بلوک های noindex و nocrawl و وجود URL ها در فهرست گوگل اضافه شده است.
سهولت مشاهده در دستگاه های تلفن همراه سهولت مشاهده در دستگاه های تلفن همراه داده های موجود در گزارش یکسان باقی ماندند، اما کار با آن راحت تر شد. ما همچنین امکان درخواست اسکن مجدد صفحه را پس از رفع مشکلات مشاهده تلفن همراه اضافه کرده ایم.
گزارش خطا اسکن گزارش نمایه سازیو ابزار بررسی آدرس اینترنتی

خطاهای خزیدن در سطح سایت در گزارش نمایه سازی جدید نشان داده شده است. برای یافتن خطاها در سطح صفحه، از ابزار جدید URL Inspection استفاده کنید. گزارش‌های جدید به شما کمک می‌کنند تا مسائل را اولویت‌بندی کنید و صفحاتی را با مشکلات مشابه گروه‌بندی کنید تا دلایل رایج را شناسایی کنید.

گزارش قدیمی تمام خطاهای سه ماه گذشته را نشان می‌دهد، از جمله نامربوط، موقت و جزئی. گزارش جدیدی مسائلی را که در ماه گذشته برای Google مهم بوده است، برجسته می‌کند. شما فقط مشکلاتی را مشاهده خواهید کرد که می تواند باعث حذف صفحه از فهرست یا جلوگیری از ایندکس شدن آن شود.

مسائل بر اساس اولویت ها نشان داده می شوند. به عنوان مثال، خطاهای 404 تنها در صورتی به عنوان خطا علامت گذاری می شوند که شما درخواست کرده باشید که صفحه از طریق نقشه سایت یا موارد دیگر ایندکس شود.

با این تغییرات، می‌توانید به جای پرداختن به فهرستی از هر خطایی که Googlebot تا به حال در سایت خود پیدا کرده است، روی مسائلی تمرکز کنید که بر موقعیت سایت شما در فهرست گوگل تأثیر می‌گذارند.

در گزارش نمایه سازی جدید، خطاهای زیر تبدیل شده اند یا دیگر نشان داده نمی شوند:​

خطاهای URL - برای کاربران کامپیوتر

نوع خطای قدیمی آنالوگ در نسخه جدید
خطای سرور در گزارش نمایه سازی، تمام خطاهای سرور با پرچم نشان داده می شوند خطای سرور (5xx).
خطای جعلی 404
  • خطا: URL ارسال شده یک خطای 404 نادرست را برمی گرداند.
  • مستثنی شده: خطای 404 نادرست.
دسترسی ممنوع است

گزارش نمایه سازی یکی از دسته بندی های زیر را فهرست می کند، بسته به اینکه آیا برای این نوع خطا درخواست پردازش کرده اید یا خیر:

  • خطا: URL ارسال شده یک خطای 401 (درخواست غیرمجاز) را برمی گرداند.
  • استثنا: صفحه به دلیل خطای 401 (درخواست غیرمجاز) ایندکس نشد.
پیدا نشد

بسته به اینکه آیا درخواست پردازش برای این نوع خطا را داشته اید، گزارش نمایه سازی به یکی از روش های زیر نشان داده می شود:

  • خطا: URL ارسالی یافت نشد (404).
  • مستثنی شده: یافت نشد (404).
دیگر در گزارش نمایه سازی آمده است خطای اسکن.

خطاهای URL - برای کاربران گوشی های هوشمند

ایرادات گوشی های هوشمند در حال حاضر نشان داده نشده اند، اما امیدواریم در آینده آن ها را لحاظ کنیم.

خطاهای سایت

نسخه جدید کنسول جستجو خطاهای سایت را نشان نمی دهد.

گزارش مسائل امنیتی جدید گزارش مشکل امنیتی گزارش جدید مسائل امنیتی بسیاری از عملکردهای گزارش قدیمی را حفظ می کند و تاریخچه مشکلات سایت را اضافه می کند.
داده های ساخت یافته بررسی کننده نتایج غنیو گزارش وضعیت نتایج غنی برای پردازش URL های فردی، از Rich Results Checker یا URL Checker استفاده کنید. اطلاعات کل سایت را می توان در گزارش های وضعیت نتایج غنی برای سایت شما یافت. همه انواع داده های نتایج غنی هنوز در دسترس نیستند، اما تعداد گزارش ها به طور مداوم در حال افزایش است.
بهینه سازی HTML در نسخه جدید گزارش مشابهی وجود ندارد. برای ایجاد عناوین آموزنده و توضیحات صفحه، دستورالعمل های ما را دنبال کنید.
منابع قفل شده ابزار بازرسی URL هیچ راهی برای مشاهده منابع مسدود شده برای کل سایت وجود ندارد، اما با ابزار URL Inspection، می توانید منابع مسدود شده را برای هر صفحه مشاهده کنید.
برنامه های اندروید از مارس 2019، کنسول جستجو دیگر از برنامه‌های اندروید پشتیبانی نخواهد کرد.
کیت منابع از مارس 2019، کنسول جستجو دیگر مجموعه‌های منابع را پشتیبانی نخواهد کرد.

یک اطلاعات را دوبار وارد نکنید.داده ها و جستجوهای موجود در یک نسخه از کنسول جستجو به طور خودکار در نسخه دیگر کپی می شوند. برای مثال، اگر درخواست اعتبارسنجی مجدد یا نقشه سایت را در کنسول جستجوی قدیمی ارسال کرده اید، نیازی به ارسال مجدد آن در کنسول جدید ندارید.

روش های جدید برای انجام کارهای آشنا

در نسخه جدید Search Console برخی از عملیات های قبلی به صورت متفاوتی انجام می شود. تغییرات اصلی در زیر ذکر شده است.

ویژگی هایی که در حال حاضر پشتیبانی نمی شوند

ویژگی های فهرست شده در زیر هنوز در نسخه جدید کنسول جستجو اجرا نشده است. برای استفاده از آنها، به رابط قبلی بازگردید.

  • آمار خزیدن (تعداد صفحات اسکن شده در روز، زمان دانلود آنها، تعداد کیلوبایت دانلود در روز).
  • بررسی فایل robots.txt.
  • پارامترهای URL را در جستجوی Google مدیریت کنید.
  • ابزار نشانگر.
  • پیام ها را بخوانید و مدیریت کنید.
  • ابزار "تغییر آدرس".
  • تعیین دامنه اصلی
  • پیوند دادن یک ویژگی کنسول جستجو به یک ویژگی Google Analytics.
  • رد لینک ها
  • حذف داده های منسوخ از فهرست

آیا این اطلاعات مفید بود؟

چگونه می توان این مقاله را بهبود بخشید؟

روز بخیر، خوانندگان. من همیشه سوالات زیادی از وب مسترها، صاحبان سایت و وبلاگ نویسان در مورد خطاها و پیام هایی که در Yandex.Webmaster ظاهر می شوند، دریافت می کنم. بسیاری از این پیام ها ترسناک هستند.

اما، می خواهم بگویم، همه پیام ها برای سایت حیاتی نیستند. و در مقالات بعدی سعی خواهم کرد تمام سوالات احتمالی که مدیران سایت ممکن است داشته باشند را به طور کامل پوشش دهم. این مقاله بخش های زیر را پوشش خواهد داد:

  1. تشخیص - تشخیص سایت
  2. نمایه سازی - صفحات در جستجو

چند سال پیش در مورد آن و چرایی نیاز به آن نوشتم. اگر با این ابزار آشنایی ندارید، لطفاً ابتدا مقاله موجود در لینک را بخوانید.

تشخیص سایت

مشکلات احتمالی

1. دستورالعمل میزبان در فایل robots.txt تنظیم نشده است

این یادداشت توسط Yandex از این جهت قابل توجه است که دستورالعمل Host یک دستورالعمل استاندارد نیست، فقط موتور جستجوی Yandex از آن پشتیبانی می کند. اگر Yandex به اشتباه آینه سایت را تعیین کند، لازم است.

به عنوان یک قاعده، آینه سایت به طور خودکار توسط Yandex بر اساس URL های تولید شده توسط خود CMS و بر اساس پیوندهای خارجی که به سایت منتهی می شوند، تعیین می شود. برای مشخص کردن آینه اصلی سایت، نیازی به نشان دادن آن در فایل robots.txt نیست. راه اصلی استفاده از ریدایرکت 301 است که یا به صورت خودکار در CMS پیکربندی می شود و یا کد لازم در فایل htachess وارد می شود.

توجه شما را به این واقعیت جلب می کنم که در مواردی که Yandex به اشتباه آینه اصلی سایت را تعیین می کند، باید دستورالعمل را در فایل robots.txt مشخص کنید و شما نمی توانید به هیچ وجه روی آن تأثیر بگذارید.

سیستم مدیریت محتوایی که اخیراً با آن کار کرده ام، وردپرس، جوملا، مد ایکس، به طور پیش فرض آدرس را از www به بدون هدایت می کند، اگر تنظیمات سیستم آدرس سایت را بدون پیشوند مشخص کند. من مطمئن هستم که تمام CMS های مدرن این قابلیت را دارند. حتی بلاگر مورد علاقه من به درستی آدرس وبلاگی را که در دامنه خودش قرار دارد تغییر مسیر می دهد.

2. تگ های متا از دست رفته است

مشکل مهم نیست، لازم نیست از آن بترسید، اما در صورت امکان، بهتر است آن را برطرف کنید تا توجه نکنید. اگر CMS شما به‌طور پیش‌فرض امکان ایجاد متا تگ‌ها را فراهم نمی‌کند، پس شروع به جستجوی یک افزونه، افزونه، افزونه یا هر چیزی که در CMS شما نامیده می‌شود، بگردید تا بتوانید توضیحات صفحه را به صورت دستی تنظیم کنید، یا به طوری که توضیحات به طور خودکار از اولین کلمات مقاله تولید می شود.

3. هیچ فایل نقشه سایت توسط ربات استفاده نمی شود

البته بهتر است این خطا را اصلاح کنید. اما توجه داشته باشید که این مشکل می تواند هم در مواردی که فایل sitemap.xml وجود دارد و هم در مواردی که واقعاً وجود ندارد رخ دهد. اگر فایل را دارید، اما Yandex آن را نمی بیند، فقط به بخش Indexing - Sitemap Files بروید. و فایل را به صورت دستی به Yandex.Webmaster اضافه کنید. اگر اصلاً چنین فایلی ندارید، بسته به CMS مورد استفاده، به دنبال راه حل باشید.

فایل sitemap.xml در http://your-domen.ru/sitemap.xml قرار دارد

4. فایل Robots.txt یافت نشد

با این وجود، این فایل باید باشد و اگر فرصتی برای اتصال آن دارید، بهتر است این کار را انجام دهید. و به آیتم با دایرکتیو Host توجه کنید.

فایل robots.txt در http://your-domain.ru/robots.txt قرار دارد

در این مورد، چشمه خطاها در تب Site Diagnostics برای من خشک شده است.

نمایه سازی

صفحات در جستجو

بیایید از این نقطه شروع کنیم. این کار ساختار اطلاعات را آسان تر می کند.

در فیلتر "همه صفحات" برجسته کنید
به سمت راست در صفحه "دانلود صفحه گسترده" XLS را انتخاب کرده و فایل را در اکسل باز می کنیم.


ما لیستی از صفحاتی را دریافت می کنیم که در جستجو هستند، به عنوان مثال. Yandex در مورد آنها می داند، آنها را رتبه بندی می کند، آنها را به کاربران نشان می دهد.
ما به چند رکورد در جدول نگاه می کنیم. من 289 صفحه گرفتم.

و چگونه می توان فهمید که چقدر باید باشد؟ هر سایت منحصر به فرد است و فقط شما می توانید بدانید که چند صفحه منتشر کرده اید. من از وبلاگ وردپرس خود به عنوان مثال استفاده خواهم کرد.
وبلاگ در زمان نوشتن دارای:

  • ورودی - 228
  • صفحات - 17
  • سرفصل ها - 4
  • برچسب ها - 41
  • + صفحه اصلی سایت

در مجموع 290 ​​صفحه داریم که باید در فهرست باشد. در مقایسه با داده های جدول، تفاوت فقط 1 صفحه است. می توانید با خیال راحت این را یک شاخص بسیار خوب در نظر بگیرید. اما برای شادی خیلی زود است. این اتفاق می افتد که همه چیز از نظر ریاضی منطبق است، اما وقتی شروع به تجزیه و تحلیل می کنید، ناسازگاری ها ظاهر می شود.

دو راه برای یافتن آن صفحه ای که در جستجو نیست وجود دارد. بیایید هر دو را در نظر بگیریم.

روش یک. توی همون جدولی که دانلود کردم سرچ رو به چند مرحله تقسیم کردم. ابتدا صفحات Rubric را انتخاب کردم. من فقط 4 بخش دارم برای بهینه سازی کار خود، از فیلترهای متنی در اکسل استفاده کنید.


سپس برچسب ها، صفحات را از جستجو حذف کردند، در نتیجه فقط مقالات در جدول باقی ماندند. و در اینجا، مهم نیست که چند مقاله وجود دارد، باید هر کدام را جستجو کنید تا مقاله ای را که در فهرست نیست پیدا کنید.

توجه شما را به این نکته جلب می کنم که هر CMS ساختار خاص خود را دارد. هر وب مستر فایل SEO، canonical و robots.txt خود را دارد.

باز هم اگر از وردپرس به عنوان مثال استفاده می کنید، توجه کنید که کدام بخش از سایت شما ایندکس شده و کدام بخش بسته شده است. ممکن است صفحاتی از آرشیو بر اساس ماه ها و سال ها، صفحات نویسنده، صفحه بندی صفحه وجود داشته باشد. من تمام این بخش ها را با تنظیمات متا تگ robots بسته ام. ممکن است برای شما متفاوت باشد، بنابراین هر چیزی را که برای نمایه سازی ممنوع نیست در نظر بگیرید.

با در نظر گرفتن Blogger به عنوان مثال، صاحبان وبلاگ فقط باید پست ها، صفحات و صفحه اصلی منتشر شده را بشمارند. تمام صفحات دیگر بایگانی ها و برچسب ها برای نمایه سازی توسط تنظیمات بسته می شوند.

روش دو ما به وب مستر برمی گردیم، "صفحات حذف شده" را در فیلتر انتخاب می کنیم.

اکنون فهرستی از صفحاتی داریم که از جستجو حذف شده اند. لیست می تواند بزرگتر باشد، بسیار بزرگتر از صفحاتی که در جستجو هستند. نیازی به ترس از مشکلی در سایت نیست.

هنگام نوشتن مقاله، سعی کردم در رابط وب مستر کار کنم، اما عملکرد مورد نظر را به دست نیاوردم، شاید این یک پدیده موقتی باشد. بنابراین، مانند نسخه قبلی، من با داده های جدولی کار خواهم کرد، همچنین می توانید جدول را در پایین صفحه دانلود کنید.

دوباره، با استفاده از وبلاگ وردپرس خود به عنوان مثال، به دلایل معمولی برای یک استثنا نگاه خواهم کرد.

در جدول حاصل، ما در درجه اول به ستون D - "httpCode" علاقه مندیم. کسی که نمی داند پاسخ های سرور چیست، در ویکی پدیا بخوانید. این کار درک مطالب زیر را برای شما آسان تر می کند.

بیایید با کد 200 شروع کنیم. اگر بتوانید بدون مجوز به صفحه ای در اینترنت دسترسی پیدا کنید، چنین صفحه ای دارای وضعیت 200 خواهد بود. همه چنین صفحاتی را می توان به دلایل زیر از جستجو حذف کرد:

  1. توسط متا تگ روبات ها ممنوع شده است
  2. ایندکس کردن در فایل robots.txt ممنوع است
  3. غیر متعارف هستند، متا تگ متعارف تنظیم شده است

شما به عنوان مالک سایت باید بدانید کدام صفحات دارای چه تنظیماتی هستند. بنابراین، مرتب کردن لیست صفحات حذف شده نباید دشوار باشد.

فیلترها را تنظیم کنید، در ستون D - 200 انتخاب کنید

اکنون ما به ستون E - "وضعیت" علاقه مندیم، آن را مرتب می کنیم.

وضعیت BAD_QUALITY- بی کیفیت آزاردهنده ترین وضعیت از همه. بیایید آن را تجزیه کنیم.

در جدول من فقط 8 URL با وضعیت به اندازه کافی خوب نبود. آنها را در ستون سمت راست شماره گذاری کردم.

URL های 1، 5، 7 - صفحات فید، 2،3،4،5،8 - صفحات خدمات در فهرست سایت wp-json. همه این صفحات اسناد HTML نیستند و در اصل نباید در این لیست باشند.

بنابراین لیست صفحات خود را با دقت مرور کنید و فقط صفحات HTML را برجسته کنید.

وضعیت META_NO_INDEX.صفحات صفحه بندی، صفحه نویسنده، به دلیل تنظیمات متا تگ robots از فهرست حذف شده اند.

اما صفحه ای در این لیست وجود دارد که نباید باشد. آدرس اینترنتی را با رنگ آبی هایلایت کردم.

وضعیت NOT_CANONICAL.نام برای خودش صحبت می کند. صفحه غیر متعارف در هر صفحه از سایت، می توانید متا تگ canonical را تنظیم کنید که در آن URL متعارف را مشخص کنید.


تبلیغ وب سایت شما باید شامل بهینه سازی صفحه باشد تا توجه عنکبوت های جستجو را جلب کند. قبل از شروع ایجاد یک وب سایت مناسب برای موتورهای جستجو، باید بدانید که ربات ها چگونه سایت شما را می بینند.

موتورهای جستجونه واقعاً عنکبوت، بلکه برنامه های کوچکی که پس از اطلاع از آدرس صفحه شما برای تجزیه و تحلیل سایت شما ارسال می شوند. موتورهای جستجو همچنین می توانند از طریق پیوندهایی به وب سایت شما که در منابع اینترنتی دیگر باقی مانده اند، به سایت شما دسترسی پیدا کنند.

به محض ورود ربات به وب سایت شما، بلافاصله با خواندن محتویات تگ BODY شروع به فهرست کردن صفحات می کند. همچنین تمام تگ های HTML و لینک های سایت های دیگر را به طور کامل می خواند.

سپس، موتورهای جستجو محتوای سایت را برای نمایه سازی بعدی در پایگاه داده اصلی کپی می کنند. کل این فرآیند می تواند تا سه ماه طول بکشد.

بهینه سازی موتور جستجوچنین چیزی آسان نیست شما باید یک وب سایت عنکبوت پسند ایجاد کنید. ربات ها به طراحی وب فلش توجهی ندارند و فقط اطلاعات می خواهند. اگر به وب سایت از چشم یک ربات جستجوگر نگاه کنید، نسبتاً احمقانه به نظر می رسد.

حتی جالب تر است که از چشم یک عنکبوت به سایت های رقبا نگاه کنید. رقبای نه تنها در زمینه شما، بلکه به سادگی منابع محبوبی هستند که ممکن است نیازی به بهینه سازی موتور جستجو نداشته باشند. به طور کلی، بسیار جالب است که ببینید سایت های مختلف از چشم ربات ها چگونه به نظر می رسند.

فقط متن

جستجو در روبات هاسایت خود را بیشتر شبیه مرورگرهای متنی ببینید. آنها متن را دوست دارند و اطلاعات موجود در تصاویر را نادیده می گیرند. اگر به یاد داشته باشید که یک برچسب ALT با توضیحات اضافه کنید، عنکبوت ها می توانند در مورد تصویر بخوانند. برای طراحان وب که سایت های پیچیده با تصاویر زیبا و محتوای متنی بسیار کم ایجاد می کنند، عمیقاً ناامید کننده است.

در واقع، موتورهای جستجو هر متنی را دوست دارند. آنها فقط می توانند کد HTML را بخوانند. اگر تعداد زیادی فرم یا جاوا اسکریپت یا هر چیز دیگری در صفحه دارید که ممکن است موتور جستجو را از خواندن کد HTML مسدود کند، عنکبوت فقط آن را نادیده می گیرد.

آنچه ربات های جستجو می خواهند ببینند

وقتی یک موتور جستجو صفحه شما را می خزد، به دنبال تعدادی چیزهای مهم می گردد. پس از آرشیو کردن سایت شما، ربات جستجوگر شروع به رتبه بندی آن مطابق با الگوریتم خود می کند.

جستجوی عنکبوت هامحافظت می کنند و اغلب الگوریتم های خود را تغییر می دهند تا هرزنامه ها نتوانند با آنها سازگار شوند. طراحی وب سایتی که در همه موتورهای جستجو رتبه بالایی داشته باشد بسیار دشوار است، اما می توانید با گنجاندن عناصر زیر در تمام صفحات وب خود از مزایایی برخوردار شوید:

  • کلید واژه ها
  • برچسب های متا
  • عناوین
  • پیوندها
  • متن انتخاب شده

مانند یک موتور جستجو بخوانید

بعد از اینکه سایتی را توسعه دادید، باید آن را توسعه دهید و در موتورهای جستجو تبلیغ کنید. اما نگاه کردن به سایت فقط در مرورگر بهترین و موفق ترین تکنیک نیست. ارزیابی کار خود با ذهن باز آسان نیست.

خیلی بهتر است که به ساخته خود از چشم یک شبیه ساز جستجو نگاه کنید. در این صورت، اطلاعات بسیار بیشتری در مورد صفحات و نحوه مشاهده آنها توسط عنکبوت به دست خواهید آورد.

ما یک شبیه ساز موتور جستجوی بد، به نظر حقیر خود، ایجاد کرده ایم. شما می توانید صفحه وب را همانطور که عنکبوت جستجو می بیند، ببینید. همچنین تعداد کلمات کلیدی وارد شده، لینک های محلی و خروجی و غیره را نشان می دهد.

Webmaster Tools به شما این امکان را می دهد که ببینید صفحه شما برای Googlebots چگونه به نظر می رسد. هدرهای سرور و کد HTML به شناسایی خطاها و عواقب هک کمک می کنند، اما گاهی اوقات درک آنها دشوار است. مدیران وب‌سایت‌ها معمولاً زمانی که باید با چنین مسائلی مقابله کنند، نگران هستند. برای کمک به شما در شرایطی مانند این، ما این ویژگی را بهبود بخشیده‌ایم تا بتواند صفحه را با استفاده از الگوریتمی که Googlebot استفاده می‌کند ارائه کند.

نحوه نمایش صفحه اسکن شده
هنگام پردازش یک صفحه، Googlebot همه فایل‌های مرتبط را از منابع خارجی جستجو و وارد می‌کند. اینها معمولاً تصاویر، شیوه نامه ها، عناصر جاوا اسکریپت و سایر فایل های تعبیه شده با CSS یا جاوا اسکریپت هستند. سیستم از آنها برای نمایش صفحه به همان صورتی که Googlebot آن را می بیند استفاده می کند.
این ویژگی در بخش «اسکن» حساب Webmaster Tools شما موجود است. لطفاً توجه داشته باشید که پردازش صفحه و نمایش بعدی آن ممکن است زمان زیادی طول بکشد. پس از اتمام، ماوس خود را روی خط حاوی URL مورد نظر ببرید تا نتیجه را مشاهده کنید.



مدیریت منابع مسدود شده در فایل robots.txt
هنگام پردازش کد، Googlebot به دستورالعمل های مشخص شده در فایل robots.txt احترام می گذارد. اگر آنها دسترسی به عناصر خاصی را ممنوع کنند، سیستم از چنین موادی برای پیش نمایش استفاده نخواهد کرد. در صورتی که سرور پاسخ ندهد یا خطایی را برگرداند این نیز اتفاق می افتد. داده‌های مربوطه را می‌توانید در بخش Crawl Errors حساب Webmaster Tools خود پیدا کنید. علاوه بر این، پس از تولید تصویر پیش‌نمایش صفحه، فهرست کاملی از این گونه خرابی‌ها نمایش داده می‌شود.
توصیه می کنیم مطمئن شوید که Googlebot به منابع جاسازی شده ای که در سایت یا طرح بندی خود دارید دسترسی دارد. این کار تجربه مرور مانند Googlebot شما را آسان‌تر می‌کند، به ربات اجازه می‌دهد محتوای سایت شما را شناسایی کرده و به درستی فهرست‌بندی کند، و به شما کمک می‌کند تا بفهمید صفحات شما چگونه خزیده می‌شوند. برخی از کدها، مانند دکمه های رسانه های اجتماعی، اسکریپت های ابزار تجزیه و تحلیل و فونت ها، معمولاً استایل صفحه را تعریف نمی کنند، بنابراین نیازی به اسکن ندارند. در مقاله قبلی درباره نحوه تجزیه و تحلیل محتوای وب توسط گوگل بیشتر بخوانید.
امیدواریم نوآوری ما به شما کمک کند تا مشکلات طراحی سایت را حل کنید و منابعی را کشف کنید که گوگل به دلایلی نمی تواند آنها را بخزد. اگر سؤالی دارید، لطفاً در انجمن وب مستر Google Plus با ما تماس بگیرید یا جستجو کنید