Kā Yandex robots redz lapu. Kā jaunināt uz jauno Search Console versiju

Migrācijas ceļvedis vecās versijas lietotājiem

Mēs izstrādājam jaunu Search Console versiju, kas galu galā aizstās veco pakalpojumu. Šajā rokasgrāmatā mēs apskatīsim galvenās atšķirības starp veco un jauno versiju.

Vispārējas izmaiņas

Jaunajā Search Console versijā esam ieviesuši šādus uzlabojumus:

  • Varat skatīt meklēšanas trafika datus par 16 mēnešiem iepriekšējo trīs mēnešu vietā.
  • Search Console tagad sniedz detalizētu informāciju par konkrētām lapām. Šī informācija ietver kanoniskos URL, indeksēšanas statusu, mobilās optimizācijas pakāpi un citus.
  • Jaunajā versijā ir iekļauti rīki, kas ļauj izsekot jūsu tīmekļa lapu pārmeklēšanai, labot saistītās kļūdas un iesniegt atkārtotas indeksācijas pieprasījumus.
  • Atjauninātais serviss piedāvā gan pilnīgi jaunus rīkus un atskaites, gan uzlabotus vecos. Visi no tiem ir aprakstīti zemāk.
  • Pakalpojumu var izmantot mobilajās ierīcēs.

Rīku un atskaišu salīdzinājums

Mēs pastāvīgi strādājam pie dažādu Search Console rīku un pārskatu modernizācijas, un jūs jau varat izmantot daudzus no tiem šī pakalpojuma atjauninātajā versijā. Zemāk jaunās atskaites un rīku opcijas ir salīdzinātas ar vecajām. Saraksts tiks atjaunināts.

Ziņojuma vecā versija Analogs jaunajā Search Console versijā Salīdzinājums
Meklēšanas vaicājumu analīze Jaunajā pārskatā sniegti dati par 16 mēnešiem, un ar to ir kļuvis ērtāk strādāt.
Noderīgi padomi Bagātināto rezultātu statusa ziņošana Jaunie pārskati sniedz detalizētu informāciju, lai palīdzētu novērst kļūdas un atvieglotu atkārtotas skenēšanas pieprasījumu iesniegšanu.
Saites uz jūsu vietni
Iekšējās saites
Saites Mēs esam apvienojuši divus vecos pārskatus vienā jaunā un uzlabojuši atsauces skaitīšanas precizitāti.
Indeksēšanas statuss Indeksēšanas ziņojums Jaunajā pārskatā ir visi dati no vecā, kā arī detalizēta informācija par statusu Google rādītājā.
Vietnes kartes pārskats Vietnes kartes pārskats Pārskatā esošie dati paliek nemainīgi, taču esam uzlabojuši tā dizainu. Vecajā pārskatā tiek atbalstīta vietnes kartes pārbaude, to neiesniedzot, bet jaunajā pārskatā tas netiek atbalstīts.
Accelerated Mobile Pages (AMP) AMP statusa pārskats Jaunajā pārskatā ir pievienoti jauni kļūdu veidi, par kuriem varat skatīt detalizētu informāciju, kā arī nosūtīt atkārtotas skenēšanas pieprasījumu.
Manuāla darbība Manuāla darbība Jaunajā pārskata versijā ir sniegta manuālo darbību vēsture, tostarp iesniegtie pārskatīšanas pieprasījumi un pārskatīšanas rezultāti.
Google rāpuļprogramma vietnēm URL pārbaudes rīks URL pārbaudes rīkā varat skatīt informāciju par rādītājā iekļauto URL versiju un tiešsaistē pieejamo versiju, kā arī iesniegt pārmeklēšanas pieprasījumu. Pievienota informācija par kanoniskajiem URL, noindex un nocrawl blokiem un vietrāžu URL klātbūtni Google rādītājā.
Ērta skatīšanās mobilajās ierīcēs Ērta skatīšanās mobilajās ierīcēs Pārskatā dati palika nemainīgi, taču ar tiem kļuva ērtāk strādāt. Mēs esam arī pievienojuši iespēju pieprasīt, lai lapa tiktu atkārtoti skenēta pēc tam, kad ir novērstas mobilās skatīšanas problēmas.
Skenējiet kļūdu ziņojumu Indeksēšanas ziņojums un URL pārbaudes rīks

Vietnes līmeņa pārmeklēšanas kļūdas ir parādītas jaunajā indeksēšanas pārskatā. Lai atrastu kļūdas lapas līmenī, izmantojiet jauno URL pārbaudes rīku. Jaunie pārskati palīdz noteikt problēmu prioritāti un grupēt lapas ar līdzīgām problēmām, lai noteiktu izplatītākos cēloņus.

Vecajā pārskatā tika parādītas visas pēdējo trīs mēnešu kļūdas, tostarp neatbilstošas, īslaicīgas un nelielas. Jaunā pārskatā ir uzsvērtas problēmas, kas uzņēmumam Google bija svarīgas pēdējā mēneša laikā. Jūs redzēsit tikai problēmas, kuru dēļ lapa var tikt noņemta no rādītāja vai novērst tās indeksēšanu.

Problēmas tiek parādītas, pamatojoties uz prioritātēm. Piemēram, 404. kļūdas tiek atzīmētas kā kļūdas tikai tad, ja esat pieprasījis lapas indeksēšanu, izmantojot vietnes karti vai kā citādi.

Izmantojot šīs izmaiņas, jūs varēsit vairāk koncentrēties uz problēmām, kas ietekmē jūsu vietnes pozīciju Google rādītājā, nevis izskatīt visas kļūdas, ko Googlebot jūsu vietnē ir atradis.

Jaunajā indeksēšanas pārskatā šādas kļūdas ir pārveidotas vai vairs netiek rādītas:​

URL kļūdas — datoru lietotājiem

Vecs kļūdas veids Analogs jaunajā versijā
servera kļūda Indeksēšanas atskaitē visas servera kļūdas ir norādītas ar karodziņu Servera kļūda (5xx).
Viltus 404 kļūda
  • Kļūda: iesniegtais URL atgriež nepatiesu 404 kļūdu.
  • Izslēgts: viltus 404 kļūda.
Pieeja liegta

Indeksēšanas pārskatā ir norādīta viena no šīm kategorijām atkarībā no tā, vai pieprasījāt šī kļūdas veida apstrādi:

  • Kļūda: iesniegtais URL atgriež kļūdu 401 (neautorizēts pieprasījums).
  • Izņēmums: lapa nav indeksēta 401 (Neatļauts pieprasījums) kļūdas dēļ.
Nav atrasts

Indeksēšanas pārskats tiek norādīts vienā no šiem veidiem atkarībā no tā, vai pieprasījāt apstrādi šāda veida kļūdas dēļ:

  • Kļūda: iesniegtais URL nav atrasts (404).
  • Izslēgts: nav atrasts (404).
Cits Indeksēšanas ziņojumā ir norādīts kā Skenēšanas kļūda.

URL kļūdas — viedtālruņu lietotājiem

Pašlaik viedtālruņa kļūdas netiek rādītas, taču mēs ceram tās iekļaut nākotnē.

Vietnes kļūdas

Jaunajā Search Console versijā vietnes kļūdas netiek rādītas.

Drošības problēmu ziņojums Jauns drošības problēmas ziņojums Jaunajā drošības problēmu pārskatā ir saglabāta liela daļa vecā pārskata funkcionalitātes un pievienota vietnes problēmu vēsture.
Strukturēti dati Bagātināto rezultātu pārbaudītājs un bagātīgu rezultātu statusa atskaites Lai apstrādātu atsevišķus URL, izmantojiet bagātināto rezultātu pārbaudītāju vai URL pārbaudītāju. Informāciju par visu vietni var atrast savas vietnes bagātinātajos rezultātu statusa pārskatos. Vēl nav pieejami visi bagātināto rezultātu datu veidi, taču pārskatu skaits nepārtraukti pieaug.
HTML optimizācija Jaunajā versijā līdzīga ziņojuma nav. Lai izveidotu informatīvus nosaukumus un lapu aprakstus, ievērojiet mūsu vadlīnijas.
Bloķēti resursi URL pārbaudes rīks Nav iespējams skatīt visas vietnes bloķētos resursus, taču, izmantojot URL pārbaudes rīku, varat skatīt bloķētos resursus katrai atsevišķai lapai.
Android lietojumprogrammas No 2019. gada marta pakalpojumā Search Console vairs netiks atbalstītas Android lietotnes.
Resursu komplekti No 2019. gada marta pakalpojumā Search Console vairs netiks atbalstītas resursu kopas.

Neievadiet vienu un to pašu informāciju divreiz. Dati un vaicājumi, kas ietverti vienā Search Console versijā, tiek automātiski dublēti citā. Piemēram, ja esat iesniedzis atkārtotas apstiprināšanas pieprasījumu vai vietnes karti vecajā Search Console versijā, jums tas nav atkārtoti jāiesniedz jaunajā.

Jauni veidi, kā veikt pazīstamus uzdevumus

Jaunajā Search Console versijā dažas iepriekšējās darbības tiek veiktas atšķirīgi. Galvenās izmaiņas ir uzskaitītas zemāk.

Funkcijas pašlaik netiek atbalstītas

Tālāk norādītās funkcijas vēl nav ieviestas jaunajā Search Console versijā. Lai tos izmantotu, atgriezieties iepriekšējā saskarnē.

  • Pārmeklēšanas statistika (dienā skenēto lapu skaits, to lejupielādes laiks, dienā lejupielādēto kilobaitu skaits).
  • Notiek faila robots.txt pārbaude.
  • Pārvaldiet URL parametrus Google meklēšanā.
  • Marķiera rīks.
  • Lasiet ziņas un pārvaldiet tās.
  • Rīks "Mainīt adresi".
  • Primārā domēna norādīšana.
  • Search Console īpašuma saistīšana ar Google Analytics īpašumu.
  • Noraidīt saites.
  • Novecojušo datu noņemšana no indeksa.

Vai šī informācija bija noderīga?

Kā šo rakstu var uzlabot?

Laba diena, lasītāji. Es vienmēr saņemu daudz jautājumu no tīmekļa pārziņiem, vietņu īpašniekiem un emuāru autoriem par kļūdām un ziņojumiem, kas parādās vietnē Yandex.Webmaster. Daudzi no šiem ziņojumiem ir biedējoši.

Taču es gribu teikt, ka ne visi ziņojumi ir vietnei kritiski. Un nākamajos rakstos es centīšos pēc iespējas pilnīgāk aptvert visus iespējamos jautājumus, kas tīmekļa pārziņiem var rasties. Šajā rakstā tiks apskatītas šādas sadaļas:

  1. Diagnostika — vietnes diagnostika
  2. Indeksēšana — lapas meklēšanā

Par to un kāpēc tas ir vajadzīgs, es rakstīju pirms dažiem gadiem. Ja neesat pazīstams ar šo rīku, lūdzu, vispirms izlasiet rakstu, kas atrodas saitē.

Vietnes diagnostika

Iespējamās problēmas

1. Failā robots.txt nav iestatīta resursdatora direktīva

Šī Yandex piezīme ir ievērojama ar to, ka Host direktīva nav standartizēta direktīva; to atbalsta tikai Yandex meklētājprogramma. Tas ir nepieciešams, ja Yandex nepareizi nosaka vietnes spoguli.

Parasti vietnes spoguli automātiski nosaka Yandex, pamatojoties uz pašas CMS ģenerētajiem URL un ārējām saitēm, kas ved uz vietni. Lai norādītu galveno vietnes spoguli, tas nav jānorāda failā robots.txt. Galvenais veids ir izmantot 301 redirect, kas vai nu tiek automātiski konfigurēts CMS, vai arī nepieciešamais kods tiek ievadīts .htachess failā.

Es vēršu jūsu uzmanību uz to, ka jums ir jānorāda direktīva failā robots.txt gadījumos, kad Yandex nepareizi nosaka vietnes galveno spoguli, un jūs to nevarat ietekmēt nekādā citā veidā.

CMS, ar kuru pēdējā laikā strādāju, WordPress, Joomla, ModX, pēc noklusējuma pāradresē adresi no www uz bez, ja sistēmas uzstādījumos ir norādīta vietnes adrese bez prefiksa. Esmu pārliecināts, ka visām mūsdienu CMS ir šī iespēja. Pat mans iecienītākais Blogger pareizi novirza tā emuāra adresi, kas atrodas savā domēnā.

2. Trūkst metatagus

Problēma nav kritiska, no tās nav jābaidās, taču, ja iespējams, labāk to novērst, nekā nepievērst uzmanību. Ja jūsu CMS pēc noklusējuma nenodrošina metatagu izveidi, sāciet meklēt spraudni, papildinājumu, paplašinājumu vai citu nosaukumu savā SPS, lai varētu manuāli iestatīt lapas aprakstu vai lai apraksts tiktu automātiski ģenerēts no raksta pirmajiem vārdiem.

3. Robots neizmanto nevienu vietnes kartes failu

Protams, labāk ir labot šo kļūdu. Taču ņemiet vērā, ka problēma var rasties gan gadījumos, kad ir fails sitemap.xml, gan gadījumos, kad tā patiešām nav. Ja jums ir fails, bet Yandex to neredz, vienkārši dodieties uz sadaļu Indeksēšana - vietnes kartes faili. Un manuāli pievienojiet failu Yandex.Webmaster. Ja jums šāda faila vispār nav, meklējiet risinājumus atkarībā no izmantotās CMS.

Fails sitemap.xml atrodas vietnē http://your-domen.ru/sitemap.xml

4. Robots.txt fails nav atrasts

Tomēr šim failam vajadzētu būt, un, ja jums ir iespēja to savienot, labāk to izdarīt. Un pievērsiet uzmanību vienumam ar Host direktīvu.

Fails robots.txt atrodas vietnē http://your-domain.ru/robots.txt

Šajā sakarā kļūdu avots cilnē Vietnes diagnostika man ir izžuvis.

Indeksēšana

Lapas meklēšanā

Sāksim no šī punkta. Tas atvieglos informācijas strukturēšanu.

Iezīmējiet filtrā "Visas lapas".
Mēs ejam uz leju pa labi lapā "Lejupielādēt izklājlapu" Atlasiet XLS un atveriet failu programmā Excel.


Mēs iegūstam lapu sarakstu, kas atrodas meklēšanā, t.i. Yandex par tiem zina, sarindo, parāda lietotājiem.
Skatāmies, cik ierakstu tabulā. Man ir 289 lappuses.

Un kā saprast, cik jābūt? Katra vietne ir unikāla, un tikai jūs varat zināt, cik lapu esat publicējis. Kā piemēru izmantošu savu WordPress emuāru.
Rakstīšanas laikā emuārā ir:

  • Ieraksti - 228
  • Lapas - 17
  • Virsraksti - 4
  • Birkas - 41
  • + vietnes galvenā lapa

Kopumā mums ir 290 lapas, kurām vajadzētu būt rādītājā. Salīdzinot ar tabulas datiem, atšķirība ir tikai 1 lapa. Varat to droši uzskatīt par ļoti labu rādītāju. Bet vēl par agru priecāties. Gadās, ka matemātiski viss sakrīt, bet, sākot analizēt, parādās neatbilstības.

Ir divi veidi, kā atrast šo lapu, kas nav iekļauta meklēšanā. Apsvērsim abus.

Pirmā metode. Tajā pašā tabulā, kuru lejupielādēju, es sadalīju meklēšanu vairākos posmos. Vispirms es izvēlējos Rubrikas lapas. Man ir tikai 4 sadaļas. Lai optimizētu savu darbu, programmā Excel izmantojiet teksta filtrus.


Pēc tam Tagi, izslēdza lapas no meklēšanas, kā rezultātā tabulā palika tikai raksti. Un šeit, lai arī cik rakstu būtu, būs jāizpēta katrs, lai atrastu to, kas nav rādītājā.

Es vēršu jūsu uzmanību uz to, ka katrai CMS ir sava struktūra. Katram tīmekļa pārzinim ir savs SEO , kanoniskais fails robots.txt.

Atkal, ja izmantojat WordPress kā piemēru, pievērsiet uzmanību tam, kuras jūsu vietnes sadaļas ir indeksētas un kuras ir aizvērtas. Var būt Arhīva lappuses pa mēnešiem un gadiem, Autora lapas, lappuses. Visas šīs sadaļas man ir aizvērtas ar robotu metatagu iestatījumiem. Jums var būt savādāk, tāpēc apsveriet visu, kas nav aizliegts indeksēt.

Piemēram, Blogger emuāru īpašniekiem ir jāskaita tikai publicētās ziņas, lapas un sākumlapa. Visas pārējās arhīvu un tagu lapas ir aizvērtas indeksēšanai pēc iestatījumiem.

Otrā metode. Mēs atgriežamies pie Webmaster, filtrā atlasiet "Izslēgtās lapas".

Tagad mums ir saraksts ar lapām, kas ir izslēgtas no meklēšanas. Saraksts var būt liels, daudz lielāks nekā ar meklēšanā iekļautajām lapām. Nav jābaidās, ka ar vietni kaut kas nav kārtībā.

Rakstot rakstu, mēģināju strādāt Webmaster interfeisā, bet nesaņēmu vēlamo funkcionalitāti, iespējams, tā ir īslaicīga parādība. Tāpēc, tāpat kā iepriekšējā versijā, es strādāšu ar tabulas datiem, jūs varat arī lejupielādēt tabulu lapas apakšā.

Atkal, izmantojot savu WordPress emuāru kā piemēru, es apskatīšu tipiskos izņēmuma iemeslus.

Iegūtajā tabulā mūs galvenokārt interesē kolonna D - “httpCode”. Kas nezina, kādas ir servera atbildes, lasiet wikipedia. Tādējādi jums būs vieglāk saprast turpmāko.

Sāksim ar kodu 200. Ja jūs varat bez atļaujas nokļūt kādā interneta lapā, tad šādas lapas statuss būs 200. Visas šādas lapas var izslēgt no meklēšanas šādu iemeslu dēļ:

  1. Aizliedz robotu metatags
  2. Aizliegts indeksēt failā robots.txt
  3. Ir nekanoniski, kanoniskais metatags ir iestatīts

Jums kā vietnes īpašniekam ir jāzina, kurām lapām ir kādi iestatījumi. Tāpēc izslēgto lapu saraksta sakārtošanai nevajadzētu būt sarežģītai.

Iestatiet filtrus, atlasiet kolonnā D - 200

Tagad mūs interesē kolonna E - “statuss”, mēs to šķirojam.

BAD_QUALITY statuss- Sliktas kvalitātes. Viskaitinošākais statuss. Izjauksim to.

Manā tabulā bija tikai 8 URL ar statusu Nepietiekami labs. Es tos numurēju labajā kolonnā.

URL 1, 5, 7 — plūsmas lapas, 2,3,4,5,8 — pakalpojumu lapas wp-json vietnes direktorijā. Visas šīs lapas nav HTML dokumenti, un principā tām nevajadzētu būt šajā sarakstā.

Tāpēc rūpīgi izskatiet savu lapu sarakstu un iezīmējiet tikai HTML lapas.

META_NO_INDEX statuss. Lapu lapas, autora lapa, tiek izslēgtas no rādītāja robotu metataga iestatījumu dēļ

Bet šajā sarakstā ir lapa, kurai nevajadzētu būt. Es iezīmēju URL zilā krāsā.

NOT_CANONICAL statuss. Nosaukums runā pats par sevi. Nekanoniska lapa. Jebkurā vietnes lapā varat iestatīt kanonisko metatagu, kurā norādāt kanonisko URL.


Lai pievērstu meklēšanas zirnekļu uzmanību, jūsu vietnes reklamēšanai ir jāiekļauj lapas optimizācija. Pirms sākat veidot meklētājprogrammai draudzīgu vietni, jums ir jāzina, kā robotprogrammatūra redz jūsu vietni.

meklētājprogrammas nav īsti zirnekļi, bet gan mazas programmas, kas tiek nosūtītas, lai analizētu jūsu vietni pēc tam, kad tās zina jūsu lapas URL. Meklētājprogrammas var arī nokļūt jūsu vietnē, izmantojot saites uz jūsu vietni, kas atstātas citos interneta resursos.

Tiklīdz robots nokļūst jūsu vietnē, tas nekavējoties sāks indeksēt lapas, nolasot BODY taga saturu. Tas arī pilnībā nolasa visus HTML tagus un saites uz citām vietnēm.

Pēc tam meklētājprogrammas kopē vietnes saturu galvenajā datu bāzē turpmākai indeksēšanai. Viss šis process var ilgt līdz trim mēnešiem.

Meklētājprogrammu optimizācija nav tik viegla lieta. Jums ir jāizveido zirnekļiem draudzīga vietne. Boti nepievērš uzmanību flash web dizainam, viņi vēlas tikai informāciju. Ja paskatītos uz vietni ar meklētāja robota acīm, tā izskatītos diezgan stulbi.

Vēl interesantāk ir skatīties ar zirnekļa acīm uz konkurentu vietām. Konkurenti ne tikai savā jomā, bet vienkārši populāri resursi, kuriem, iespējams, nav nepieciešama meklētājprogrammu optimizācija. Kopumā ir ļoti interesanti redzēt, kā dažādas vietnes izskatās ar robotu acīm.

Tikai teksts

Meklēt robotus redzēt savu vietni vairāk kā teksta pārlūkprogrammas. Viņi mīl tekstu un ignorē attēlos ietverto informāciju. Zirnekļi var lasīt par attēlu, ja atceraties pievienot ALT tagu ar aprakstu. Tas ir ļoti nomākta tīmekļa dizaineriem, kuri veido sarežģītas vietnes ar skaistiem attēliem un ļoti mazu teksta saturu.

Patiesībā meklētājprogrammas vienkārši mīl jebkuru tekstu. Viņi var lasīt tikai HTML kodu. Ja lapā ir daudz veidlapu vai javascript vai kaut kas cits, kas varētu bloķēt meklētājprogrammu no HTML koda lasīšanas, zirneklis to vienkārši ignorēs.

Ko meklēšanas roboti vēlas redzēt

Kad meklētājprogramma pārmeklē jūsu lapu, tā meklē vairākas svarīgas lietas. Pēc vietnes arhivēšanas meklēšanas robots sāks to ranžēt atbilstoši savam algoritmam.

meklēt zirnekļus sargā un bieži maina to algoritmus, lai surogātpasta izplatītāji nevarētu tiem pielāgoties. Ir ļoti grūti izveidot vietni, kas ieņemtu augstu vietu visās meklētājprogrammās, taču jūs varat iegūt dažas priekšrocības, visās savās tīmekļa lapās iekļaujot šādus elementus:

  • Atslēgvārdi
  • META tagi
  • Nosaukumi
  • Saites
  • Atlasītais teksts

Lasiet kā meklētājprogrammu

Kad vietne ir izstrādāta, tā ir jāizstrādā un jāreklamē meklētājprogrammās. Bet vietnes apskatīšana tikai pārlūkprogrammā nav labākais un veiksmīgākais paņēmiens. Nav viegli novērtēt savu darbu ar atvērtu prātu.

Daudz labāk ir skatīties uz savu darbu ar meklēšanas simulatora acīm. Šajā gadījumā jūs iegūsit daudz vairāk informācijas par lapām un to, kā zirneklis tās redz.

Mēs esam izveidojuši, pēc mūsu necilās domām, meklētājprogrammas simulatoru. Jūs varēsiet redzēt tīmekļa lapu, kā to redz meklēšanas zirneklis. Tajā tiks parādīts arī ievadīto atslēgvārdu skaits, vietējās un izejošās saites un tā tālāk.

Tīmekļa pārziņa rīki ļauj saprast, kā jūsu lapa izskatās Googlebots. Servera galvenes un HTML kods palīdz identificēt kļūdas un uzlaušanas sekas, taču dažreiz tās var būt grūti saprast. Tīmekļa pārziņi parasti ir uz pirkstiem, kad viņiem jārisina šādas problēmas. Lai palīdzētu jums šādās situācijās, esam uzlabojuši šo funkciju, lai tā varētu apkalpot lapu, izmantojot to pašu algoritmu, ko izmanto Googlebot.

Kā tiek parādīta skenētā lapa
Apstrādājot lapu, Googlebot meklē un importē visus saistītos failus no ārējiem avotiem. Parasti tie ir attēli, stila lapas, JavaScript elementi un citi faili, kas iegulti ar CSS vai JavaScript. Sistēma tos izmanto, lai parādītu lapu tā, kā to redz Googlebot.
Šī funkcija ir pieejama jūsu Webmaster Tools konta sadaļā “Skenēšana”. Lūdzu, ņemiet vērā, ka lapas apstrāde un turpmākā parādīšana var aizņemt diezgan ilgu laiku. Kad esat pabeidzis, virziet kursoru virs rindas, kurā ir vēlamais URL, lai skatītu rezultātu.



Failā robots.txt bloķēto resursu apstrāde
Apstrādājot kodu, Googlebot ievēro norādījumus, kas norādīti failā robots.txt. Ja tie aizliedz piekļuvi noteiktiem elementiem, sistēma neizmantos šādus materiālus priekšskatīšanai. Tas notiks arī tad, ja serveris nereaģē vai atgriež kļūdu. Attiecīgos datus var atrast sava Webmaster Tools konta sadaļā Rāpuļprogrammas kļūdas. Turklāt pēc lapas priekšskatījuma attēla ģenerēšanas tiks parādīts pilns šādu kļūdu saraksts.
Mēs iesakām pārliecināties, vai Googlebot var piekļūt visiem iegultiem resursiem, kas ir jūsu vietnē vai izkārtojumā. Tas atvieglos jūsu pārlūkošanas funkciju, piemēram, Googlebot, ļaus robotam noteikt un pareizi indeksēt jūsu vietnes saturu, kā arī palīdzēs jums saprast, kā jūsu lapas tiek pārmeklētas. Daži koda fragmenti, piemēram, sociālo mediju pogas, analīzes rīka skripti un fonti, parasti nenosaka lapas stilu, tāpēc tie nav jāskenē. Vairāk par to, kā Google analizē tīmekļa saturu, lasiet iepriekšējā rakstā.
Mēs ceram, ka mūsu jauninājumi palīdzēs jums atrisināt problēmas ar vietnes dizainu un atklāt resursus, kurus Google viena vai otra iemesla dēļ nevar pārmeklēt. Ja jums ir jautājumi, lūdzu, sazinieties ar mums Google Plus tīmekļa pārziņa kopienā vai meklējiet