راهنمای مهاجرت برای کاربران نسخه قدیمی
ما در حال توسعه نسخه جدیدی از کنسول جستجو هستیم که در نهایت جایگزین سرویس قدیمی خواهد شد. در این راهنما به تفاوت های اصلی نسخه های قدیمی و جدید خواهیم پرداخت.
تغییرات کلی
در نسخه جدید کنسول جستجو، پیشرفتهای زیر را اعمال کردهایم:
- می توانید داده های ترافیک جستجو را به مدت 16 ماه به جای سه ماه قبلی مشاهده کنید.
- کنسول جستجو اکنون اطلاعات دقیقی در مورد صفحات خاص ارائه می دهد. این اطلاعات شامل URL های متعارف، وضعیت نمایه سازی، درجه بهینه سازی موبایل و موارد دیگر است.
- نسخه جدید شامل ابزارهایی است که به شما امکان می دهد خزیدن صفحات وب خود را ردیابی کنید، خطاهای مرتبط را برطرف کنید و درخواست هایی برای فهرست بندی مجدد ارسال کنید.
- این سرویس به روز شده هم ابزارها و گزارش های کاملاً جدید و هم ابزارهای قدیمی بهبود یافته را ارائه می دهد. همه آنها در زیر توضیح داده شده است.
- این سرویس را می توان در دستگاه های تلفن همراه استفاده کرد.
مقایسه ابزارها و گزارشات
ما دائماً در حال کار بر روی مدرن سازی ابزارها و گزارش های مختلف کنسول جستجو هستیم و شما می توانید از بسیاری از آنها در نسخه به روز شده این سرویس استفاده کنید. در زیر، گزارش جدید و گزینه های ابزار با موارد قبلی مقایسه شده است. لیست به روز خواهد شد.
نسخه قدیمی گزارش | آنالوگ در نسخه جدید کنسول جستجو | مقایسه | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
تجزیه و تحلیل پرس و جو جستجو | گزارش جدید داده هایی را برای 16 ماه ارائه می دهد و کار با آن راحت تر شده است. | |||||||||||||
نکات مفید | گزارش وضعیت نتایج غنی | گزارش های جدید اطلاعات دقیقی را برای کمک به عیب یابی خطاها و ارسال درخواست های اسکن مجدد را آسان می کند. | ||||||||||||
لینک به سایت شما لینک های داخلی |
پیوندها | ما دو گزارش قدیمی را در یک گزارش جدید ادغام کرده ایم و دقت شمارش مراجع را بهبود بخشیده ایم. | ||||||||||||
وضعیت نمایه سازی | گزارش نمایه سازی | گزارش جدید تمام داده های مربوط به گزارش قبلی و همچنین اطلاعات دقیق در مورد وضعیت در فهرست گوگل را دارد. | ||||||||||||
گزارش نقشه سایت | گزارش نقشه سایت | دادههای گزارش ثابت میماند، اما ما طراحی آن را بهبود بخشیدهایم. گزارش قدیمی از آزمایش نقشه سایت بدون ارسال آن پشتیبانی می کند، اما گزارش جدید اینطور نیست. | ||||||||||||
صفحات موبایل تسریع شده (AMP) | گزارش وضعیت AMP | گزارش جدید انواع جدیدی از خطاها را اضافه می کند که می توانید جزئیات مربوط به آنها را مشاهده کنید و همچنین درخواستی برای اسکن مجدد ارسال کنید. | ||||||||||||
اقدام دستی | اقدام دستی | نسخه جدید گزارش تاریخچه ای از اقدامات دستی، از جمله درخواست های بررسی ارسال شده و نتایج بررسی را ارائه می دهد. | ||||||||||||
خزنده گوگل برای وب سایت ها | ابزار بازرسی URL | در ابزار بازرسی URL، می توانید اطلاعات مربوط به نسخه URL موجود در فهرست و نسخه موجود آنلاین را مشاهده کنید و همچنین درخواست خزیدن ارسال کنید. اطلاعاتی در مورد URL های متعارف، بلوک های noindex و nocrawl و وجود URL ها در فهرست گوگل اضافه شده است. | ||||||||||||
سهولت مشاهده در دستگاه های تلفن همراه | سهولت مشاهده در دستگاه های تلفن همراه | داده های موجود در گزارش یکسان باقی ماندند، اما کار با آن راحت تر شد. ما همچنین امکان درخواست اسکن مجدد صفحه را پس از رفع مشکلات مشاهده تلفن همراه اضافه کرده ایم. | ||||||||||||
گزارش خطا اسکن | گزارش نمایه سازیو ابزار بررسی آدرس اینترنتی |
خطاهای خزیدن در سطح سایت در گزارش نمایه سازی جدید نشان داده شده است. برای یافتن خطاها در سطح صفحه، از ابزار جدید URL Inspection استفاده کنید. گزارشهای جدید به شما کمک میکنند تا مسائل را اولویتبندی کنید و صفحاتی را با مشکلات مشابه گروهبندی کنید تا دلایل رایج را شناسایی کنید. گزارش قدیمی تمام خطاهای سه ماه گذشته را نشان میدهد، از جمله نامربوط، موقت و جزئی. گزارش جدیدی مسائلی را که در ماه گذشته برای Google مهم بوده است، برجسته میکند. شما فقط مشکلاتی را مشاهده خواهید کرد که می تواند باعث حذف صفحه از فهرست یا جلوگیری از ایندکس شدن آن شود. مسائل بر اساس اولویت ها نشان داده می شوند. به عنوان مثال، خطاهای 404 تنها در صورتی به عنوان خطا علامت گذاری می شوند که شما درخواست کرده باشید که صفحه از طریق نقشه سایت یا موارد دیگر ایندکس شود. با این تغییرات، میتوانید به جای پرداختن به فهرستی از هر خطایی که Googlebot تا به حال در سایت خود پیدا کرده است، روی مسائلی تمرکز کنید که بر موقعیت سایت شما در فهرست گوگل تأثیر میگذارند. در گزارش نمایه سازی جدید، خطاهای زیر تبدیل شده اند یا دیگر نشان داده نمی شوند: خطاهای URL - برای کاربران کامپیوتر
خطاهای URL - برای کاربران گوشی های هوشمندایرادات گوشی های هوشمند در حال حاضر نشان داده نشده اند، اما امیدواریم در آینده آن ها را لحاظ کنیم. خطاهای سایتنسخه جدید کنسول جستجو خطاهای سایت را نشان نمی دهد. |
||||||||||||
گزارش مسائل امنیتی | جدید گزارش مشکل امنیتی | گزارش جدید مسائل امنیتی بسیاری از عملکردهای گزارش قدیمی را حفظ می کند و تاریخچه مشکلات سایت را اضافه می کند. | ||||||||||||
داده های ساخت یافته | بررسی کننده نتایج غنیو گزارش وضعیت نتایج غنی | برای پردازش URL های فردی، از Rich Results Checker یا URL Checker استفاده کنید. اطلاعات کل سایت را می توان در گزارش های وضعیت نتایج غنی برای سایت شما یافت. همه انواع داده های نتایج غنی هنوز در دسترس نیستند، اما تعداد گزارش ها به طور مداوم در حال افزایش است. | ||||||||||||
بهینه سازی HTML | – | در نسخه جدید گزارش مشابهی وجود ندارد. برای ایجاد عناوین آموزنده و توضیحات صفحه، دستورالعمل های ما را دنبال کنید. | ||||||||||||
منابع قفل شده | ابزار بازرسی URL | هیچ راهی برای مشاهده منابع مسدود شده برای کل سایت وجود ندارد، اما با ابزار URL Inspection، می توانید منابع مسدود شده را برای هر صفحه مشاهده کنید. | ||||||||||||
برنامه های اندروید | – | از مارس 2019، کنسول جستجو دیگر از برنامههای اندروید پشتیبانی نخواهد کرد. | ||||||||||||
کیت منابع | – | از مارس 2019، کنسول جستجو دیگر مجموعههای منابع را پشتیبانی نخواهد کرد. |
یک اطلاعات را دوبار وارد نکنید.داده ها و جستجوهای موجود در یک نسخه از کنسول جستجو به طور خودکار در نسخه دیگر کپی می شوند. برای مثال، اگر درخواست اعتبارسنجی مجدد یا نقشه سایت را در کنسول جستجوی قدیمی ارسال کرده اید، نیازی به ارسال مجدد آن در کنسول جدید ندارید.
روش های جدید برای انجام کارهای آشنا
در نسخه جدید Search Console برخی از عملیات های قبلی به صورت متفاوتی انجام می شود. تغییرات اصلی در زیر ذکر شده است.
ویژگی هایی که در حال حاضر پشتیبانی نمی شوند
ویژگی های فهرست شده در زیر هنوز در نسخه جدید کنسول جستجو اجرا نشده است. برای استفاده از آنها، به رابط قبلی بازگردید.
- آمار خزیدن (تعداد صفحات اسکن شده در روز، زمان دانلود آنها، تعداد کیلوبایت دانلود در روز).
- بررسی فایل robots.txt.
- پارامترهای URL را در جستجوی Google مدیریت کنید.
- ابزار نشانگر.
- پیام ها را بخوانید و مدیریت کنید.
- ابزار "تغییر آدرس".
- تعیین دامنه اصلی
- پیوند دادن یک ویژگی کنسول جستجو به یک ویژگی Google Analytics.
- رد لینک ها
- حذف داده های منسوخ از فهرست
آیا این اطلاعات مفید بود؟
چگونه می توان این مقاله را بهبود بخشید؟
روز بخیر، خوانندگان. من همیشه سوالات زیادی از وب مسترها، صاحبان سایت و وبلاگ نویسان در مورد خطاها و پیام هایی که در Yandex.Webmaster ظاهر می شوند، دریافت می کنم. بسیاری از این پیام ها ترسناک هستند.
اما، می خواهم بگویم، همه پیام ها برای سایت حیاتی نیستند. و در مقالات بعدی سعی خواهم کرد تمام سوالات احتمالی که مدیران سایت ممکن است داشته باشند را به طور کامل پوشش دهم. این مقاله بخش های زیر را پوشش خواهد داد:
- تشخیص - تشخیص سایت
- نمایه سازی - صفحات در جستجو
چند سال پیش در مورد آن و چرایی نیاز به آن نوشتم. اگر با این ابزار آشنایی ندارید، لطفاً ابتدا مقاله موجود در لینک را بخوانید.
تشخیص سایت
مشکلات احتمالی
1. دستورالعمل میزبان در فایل robots.txt تنظیم نشده است
این یادداشت توسط Yandex از این جهت قابل توجه است که دستورالعمل Host یک دستورالعمل استاندارد نیست، فقط موتور جستجوی Yandex از آن پشتیبانی می کند. اگر Yandex به اشتباه آینه سایت را تعیین کند، لازم است.
به عنوان یک قاعده، آینه سایت به طور خودکار توسط Yandex بر اساس URL های تولید شده توسط خود CMS و بر اساس پیوندهای خارجی که به سایت منتهی می شوند، تعیین می شود. برای مشخص کردن آینه اصلی سایت، نیازی به نشان دادن آن در فایل robots.txt نیست. راه اصلی استفاده از ریدایرکت 301 است که یا به صورت خودکار در CMS پیکربندی می شود و یا کد لازم در فایل htachess وارد می شود.
توجه شما را به این واقعیت جلب می کنم که در مواردی که Yandex به اشتباه آینه اصلی سایت را تعیین می کند، باید دستورالعمل را در فایل robots.txt مشخص کنید و شما نمی توانید به هیچ وجه روی آن تأثیر بگذارید.
سیستم مدیریت محتوایی که اخیراً با آن کار کرده ام، وردپرس، جوملا، مد ایکس، به طور پیش فرض آدرس را از www به بدون هدایت می کند، اگر تنظیمات سیستم آدرس سایت را بدون پیشوند مشخص کند. من مطمئن هستم که تمام CMS های مدرن این قابلیت را دارند. حتی بلاگر مورد علاقه من به درستی آدرس وبلاگی را که در دامنه خودش قرار دارد تغییر مسیر می دهد.
2. تگ های متا از دست رفته است
مشکل مهم نیست، لازم نیست از آن بترسید، اما در صورت امکان، بهتر است آن را برطرف کنید تا توجه نکنید. اگر CMS شما بهطور پیشفرض امکان ایجاد متا تگها را فراهم نمیکند، پس شروع به جستجوی یک افزونه، افزونه، افزونه یا هر چیزی که در CMS شما نامیده میشود، بگردید تا بتوانید توضیحات صفحه را به صورت دستی تنظیم کنید، یا به طوری که توضیحات به طور خودکار از اولین کلمات مقاله تولید می شود.
3. هیچ فایل نقشه سایت توسط ربات استفاده نمی شود
البته بهتر است این خطا را اصلاح کنید. اما توجه داشته باشید که این مشکل می تواند هم در مواردی که فایل sitemap.xml وجود دارد و هم در مواردی که واقعاً وجود ندارد رخ دهد. اگر فایل را دارید، اما Yandex آن را نمی بیند، فقط به بخش Indexing - Sitemap Files بروید. و فایل را به صورت دستی به Yandex.Webmaster اضافه کنید. اگر اصلاً چنین فایلی ندارید، بسته به CMS مورد استفاده، به دنبال راه حل باشید.
فایل sitemap.xml در http://your-domen.ru/sitemap.xml قرار دارد
4. فایل Robots.txt یافت نشد
با این وجود، این فایل باید باشد و اگر فرصتی برای اتصال آن دارید، بهتر است این کار را انجام دهید. و به آیتم با دایرکتیو Host توجه کنید.
فایل robots.txt در http://your-domain.ru/robots.txt قرار دارد
در این مورد، چشمه خطاها در تب Site Diagnostics برای من خشک شده است.
نمایه سازی
صفحات در جستجو
بیایید از این نقطه شروع کنیم. این کار ساختار اطلاعات را آسان تر می کند.
در فیلتر "همه صفحات" برجسته کنید
به سمت راست در صفحه "دانلود صفحه گسترده" XLS را انتخاب کرده و فایل را در اکسل باز می کنیم.
ما لیستی از صفحاتی را دریافت می کنیم که در جستجو هستند، به عنوان مثال. Yandex در مورد آنها می داند، آنها را رتبه بندی می کند، آنها را به کاربران نشان می دهد.
ما به چند رکورد در جدول نگاه می کنیم. من 289 صفحه گرفتم.
و چگونه می توان فهمید که چقدر باید باشد؟ هر سایت منحصر به فرد است و فقط شما می توانید بدانید که چند صفحه منتشر کرده اید. من از وبلاگ وردپرس خود به عنوان مثال استفاده خواهم کرد.
وبلاگ در زمان نوشتن دارای:
- ورودی - 228
- صفحات - 17
- سرفصل ها - 4
- برچسب ها - 41
- + صفحه اصلی سایت
در مجموع 290 صفحه داریم که باید در فهرست باشد. در مقایسه با داده های جدول، تفاوت فقط 1 صفحه است. می توانید با خیال راحت این را یک شاخص بسیار خوب در نظر بگیرید. اما برای شادی خیلی زود است. این اتفاق می افتد که همه چیز از نظر ریاضی منطبق است، اما وقتی شروع به تجزیه و تحلیل می کنید، ناسازگاری ها ظاهر می شود.
دو راه برای یافتن آن صفحه ای که در جستجو نیست وجود دارد. بیایید هر دو را در نظر بگیریم.
روش یک. توی همون جدولی که دانلود کردم سرچ رو به چند مرحله تقسیم کردم. ابتدا صفحات Rubric را انتخاب کردم. من فقط 4 بخش دارم برای بهینه سازی کار خود، از فیلترهای متنی در اکسل استفاده کنید.
سپس برچسب ها، صفحات را از جستجو حذف کردند، در نتیجه فقط مقالات در جدول باقی ماندند. و در اینجا، مهم نیست که چند مقاله وجود دارد، باید هر کدام را جستجو کنید تا مقاله ای را که در فهرست نیست پیدا کنید.
توجه شما را به این نکته جلب می کنم که هر CMS ساختار خاص خود را دارد. هر وب مستر فایل SEO، canonical و robots.txt خود را دارد.
باز هم اگر از وردپرس به عنوان مثال استفاده می کنید، توجه کنید که کدام بخش از سایت شما ایندکس شده و کدام بخش بسته شده است. ممکن است صفحاتی از آرشیو بر اساس ماه ها و سال ها، صفحات نویسنده، صفحه بندی صفحه وجود داشته باشد. من تمام این بخش ها را با تنظیمات متا تگ robots بسته ام. ممکن است برای شما متفاوت باشد، بنابراین هر چیزی را که برای نمایه سازی ممنوع نیست در نظر بگیرید.
با در نظر گرفتن Blogger به عنوان مثال، صاحبان وبلاگ فقط باید پست ها، صفحات و صفحه اصلی منتشر شده را بشمارند. تمام صفحات دیگر بایگانی ها و برچسب ها برای نمایه سازی توسط تنظیمات بسته می شوند.
روش دو ما به وب مستر برمی گردیم، "صفحات حذف شده" را در فیلتر انتخاب می کنیم.
اکنون فهرستی از صفحاتی داریم که از جستجو حذف شده اند. لیست می تواند بزرگتر باشد، بسیار بزرگتر از صفحاتی که در جستجو هستند. نیازی به ترس از مشکلی در سایت نیست.
هنگام نوشتن مقاله، سعی کردم در رابط وب مستر کار کنم، اما عملکرد مورد نظر را به دست نیاوردم، شاید این یک پدیده موقتی باشد. بنابراین، مانند نسخه قبلی، من با داده های جدولی کار خواهم کرد، همچنین می توانید جدول را در پایین صفحه دانلود کنید.
دوباره، با استفاده از وبلاگ وردپرس خود به عنوان مثال، به دلایل معمولی برای یک استثنا نگاه خواهم کرد.
در جدول حاصل، ما در درجه اول به ستون D - "httpCode" علاقه مندیم. کسی که نمی داند پاسخ های سرور چیست، در ویکی پدیا بخوانید. این کار درک مطالب زیر را برای شما آسان تر می کند.
بیایید با کد 200 شروع کنیم. اگر بتوانید بدون مجوز به صفحه ای در اینترنت دسترسی پیدا کنید، چنین صفحه ای دارای وضعیت 200 خواهد بود. همه چنین صفحاتی را می توان به دلایل زیر از جستجو حذف کرد:
- توسط متا تگ روبات ها ممنوع شده است
- ایندکس کردن در فایل robots.txt ممنوع است
- غیر متعارف هستند، متا تگ متعارف تنظیم شده است
شما به عنوان مالک سایت باید بدانید کدام صفحات دارای چه تنظیماتی هستند. بنابراین، مرتب کردن لیست صفحات حذف شده نباید دشوار باشد.
فیلترها را تنظیم کنید، در ستون D - 200 انتخاب کنید
اکنون ما به ستون E - "وضعیت" علاقه مندیم، آن را مرتب می کنیم.
وضعیت BAD_QUALITY- بی کیفیت آزاردهنده ترین وضعیت از همه. بیایید آن را تجزیه کنیم.
در جدول من فقط 8 URL با وضعیت به اندازه کافی خوب نبود. آنها را در ستون سمت راست شماره گذاری کردم.
URL های 1، 5، 7 - صفحات فید، 2،3،4،5،8 - صفحات خدمات در فهرست سایت wp-json. همه این صفحات اسناد HTML نیستند و در اصل نباید در این لیست باشند.
بنابراین لیست صفحات خود را با دقت مرور کنید و فقط صفحات HTML را برجسته کنید.
وضعیت META_NO_INDEX.صفحات صفحه بندی، صفحه نویسنده، به دلیل تنظیمات متا تگ robots از فهرست حذف شده اند.
اما صفحه ای در این لیست وجود دارد که نباید باشد. آدرس اینترنتی را با رنگ آبی هایلایت کردم.
وضعیت NOT_CANONICAL.نام برای خودش صحبت می کند. صفحه غیر متعارف در هر صفحه از سایت، می توانید متا تگ canonical را تنظیم کنید که در آن URL متعارف را مشخص کنید.
تبلیغ وب سایت شما باید شامل بهینه سازی صفحه باشد تا توجه عنکبوت های جستجو را جلب کند. قبل از شروع ایجاد یک وب سایت مناسب برای موتورهای جستجو، باید بدانید که ربات ها چگونه سایت شما را می بینند.
موتورهای جستجونه واقعاً عنکبوت، بلکه برنامه های کوچکی که پس از اطلاع از آدرس صفحه شما برای تجزیه و تحلیل سایت شما ارسال می شوند. موتورهای جستجو همچنین می توانند از طریق پیوندهایی به وب سایت شما که در منابع اینترنتی دیگر باقی مانده اند، به سایت شما دسترسی پیدا کنند.
به محض ورود ربات به وب سایت شما، بلافاصله با خواندن محتویات تگ BODY شروع به فهرست کردن صفحات می کند. همچنین تمام تگ های HTML و لینک های سایت های دیگر را به طور کامل می خواند.
سپس، موتورهای جستجو محتوای سایت را برای نمایه سازی بعدی در پایگاه داده اصلی کپی می کنند. کل این فرآیند می تواند تا سه ماه طول بکشد.
بهینه سازی موتور جستجوچنین چیزی آسان نیست شما باید یک وب سایت عنکبوت پسند ایجاد کنید. ربات ها به طراحی وب فلش توجهی ندارند و فقط اطلاعات می خواهند. اگر به وب سایت از چشم یک ربات جستجوگر نگاه کنید، نسبتاً احمقانه به نظر می رسد.
حتی جالب تر است که از چشم یک عنکبوت به سایت های رقبا نگاه کنید. رقبای نه تنها در زمینه شما، بلکه به سادگی منابع محبوبی هستند که ممکن است نیازی به بهینه سازی موتور جستجو نداشته باشند. به طور کلی، بسیار جالب است که ببینید سایت های مختلف از چشم ربات ها چگونه به نظر می رسند.
فقط متن
جستجو در روبات هاسایت خود را بیشتر شبیه مرورگرهای متنی ببینید. آنها متن را دوست دارند و اطلاعات موجود در تصاویر را نادیده می گیرند. اگر به یاد داشته باشید که یک برچسب ALT با توضیحات اضافه کنید، عنکبوت ها می توانند در مورد تصویر بخوانند. برای طراحان وب که سایت های پیچیده با تصاویر زیبا و محتوای متنی بسیار کم ایجاد می کنند، عمیقاً ناامید کننده است.
در واقع، موتورهای جستجو هر متنی را دوست دارند. آنها فقط می توانند کد HTML را بخوانند. اگر تعداد زیادی فرم یا جاوا اسکریپت یا هر چیز دیگری در صفحه دارید که ممکن است موتور جستجو را از خواندن کد HTML مسدود کند، عنکبوت فقط آن را نادیده می گیرد.
آنچه ربات های جستجو می خواهند ببینند
وقتی یک موتور جستجو صفحه شما را می خزد، به دنبال تعدادی چیزهای مهم می گردد. پس از آرشیو کردن سایت شما، ربات جستجوگر شروع به رتبه بندی آن مطابق با الگوریتم خود می کند.
جستجوی عنکبوت هامحافظت می کنند و اغلب الگوریتم های خود را تغییر می دهند تا هرزنامه ها نتوانند با آنها سازگار شوند. طراحی وب سایتی که در همه موتورهای جستجو رتبه بالایی داشته باشد بسیار دشوار است، اما می توانید با گنجاندن عناصر زیر در تمام صفحات وب خود از مزایایی برخوردار شوید:
- کلید واژه ها
- برچسب های متا
- عناوین
- پیوندها
- متن انتخاب شده
مانند یک موتور جستجو بخوانید
بعد از اینکه سایتی را توسعه دادید، باید آن را توسعه دهید و در موتورهای جستجو تبلیغ کنید. اما نگاه کردن به سایت فقط در مرورگر بهترین و موفق ترین تکنیک نیست. ارزیابی کار خود با ذهن باز آسان نیست.
خیلی بهتر است که به ساخته خود از چشم یک شبیه ساز جستجو نگاه کنید. در این صورت، اطلاعات بسیار بیشتری در مورد صفحات و نحوه مشاهده آنها توسط عنکبوت به دست خواهید آورد.
ما یک شبیه ساز موتور جستجوی بد، به نظر حقیر خود، ایجاد کرده ایم. شما می توانید صفحه وب را همانطور که عنکبوت جستجو می بیند، ببینید. همچنین تعداد کلمات کلیدی وارد شده، لینک های محلی و خروجی و غیره را نشان می دهد.
Webmaster Tools به شما این امکان را می دهد که ببینید صفحه شما برای Googlebots چگونه به نظر می رسد. هدرهای سرور و کد HTML به شناسایی خطاها و عواقب هک کمک می کنند، اما گاهی اوقات درک آنها دشوار است. مدیران وبسایتها معمولاً زمانی که باید با چنین مسائلی مقابله کنند، نگران هستند. برای کمک به شما در شرایطی مانند این، ما این ویژگی را بهبود بخشیدهایم تا بتواند صفحه را با استفاده از الگوریتمی که Googlebot استفاده میکند ارائه کند.
نحوه نمایش صفحه اسکن شده
هنگام پردازش یک صفحه، Googlebot همه فایلهای مرتبط را از منابع خارجی جستجو و وارد میکند. اینها معمولاً تصاویر، شیوه نامه ها، عناصر جاوا اسکریپت و سایر فایل های تعبیه شده با CSS یا جاوا اسکریپت هستند. سیستم از آنها برای نمایش صفحه به همان صورتی که Googlebot آن را می بیند استفاده می کند.
این ویژگی در بخش «اسکن» حساب Webmaster Tools شما موجود است. لطفاً توجه داشته باشید که پردازش صفحه و نمایش بعدی آن ممکن است زمان زیادی طول بکشد. پس از اتمام، ماوس خود را روی خط حاوی URL مورد نظر ببرید تا نتیجه را مشاهده کنید.
مدیریت منابع مسدود شده در فایل robots.txt
هنگام پردازش کد، Googlebot به دستورالعمل های مشخص شده در فایل robots.txt احترام می گذارد. اگر آنها دسترسی به عناصر خاصی را ممنوع کنند، سیستم از چنین موادی برای پیش نمایش استفاده نخواهد کرد. در صورتی که سرور پاسخ ندهد یا خطایی را برگرداند این نیز اتفاق می افتد. دادههای مربوطه را میتوانید در بخش Crawl Errors حساب Webmaster Tools خود پیدا کنید. علاوه بر این، پس از تولید تصویر پیشنمایش صفحه، فهرست کاملی از این گونه خرابیها نمایش داده میشود.
توصیه می کنیم مطمئن شوید که Googlebot به منابع جاسازی شده ای که در سایت یا طرح بندی خود دارید دسترسی دارد. این کار تجربه مرور مانند Googlebot شما را آسانتر میکند، به ربات اجازه میدهد محتوای سایت شما را شناسایی کرده و به درستی فهرستبندی کند، و به شما کمک میکند تا بفهمید صفحات شما چگونه خزیده میشوند. برخی از کدها، مانند دکمه های رسانه های اجتماعی، اسکریپت های ابزار تجزیه و تحلیل و فونت ها، معمولاً استایل صفحه را تعریف نمی کنند، بنابراین نیازی به اسکن ندارند. در مقاله قبلی درباره نحوه تجزیه و تحلیل محتوای وب توسط گوگل بیشتر بخوانید.
امیدواریم نوآوری ما به شما کمک کند تا مشکلات طراحی سایت را حل کنید و منابعی را کشف کنید که گوگل به دلایلی نمی تواند آنها را بخزد. اگر سؤالی دارید، لطفاً در انجمن وب مستر Google Plus با ما تماس بگیرید یا جستجو کنید