Hogyan látja a Yandex bot az oldalt. Hogyan frissíthet a Search Console új verziójára

Migrációs útmutató a régi verzió felhasználóinak

A Search Console új verzióját fejlesztjük, amely idővel felváltja a régi szolgáltatást. Ebben az útmutatóban bemutatjuk a régi és az új verzió közötti főbb különbségeket.

Általános változások

A Search Console új verziójában a következő fejlesztéseket hajtottuk végre:

  • A keresési forgalom adatait a korábbi három helyett 16 hónapra tekintheti meg.
  • A Search Console mostantól részletes információkat biztosít bizonyos oldalakról. Ezek az információk magukban foglalják a gyűjtő URL-eket, az indexelés állapotát, a mobiloptimalizálás mértékét és egyebeket.
  • Az új verzió olyan eszközöket tartalmaz, amelyek lehetővé teszik a weboldalak feltérképezésének nyomon követését, a kapcsolódó hibák kijavítását és az újraindexelési kérelmek benyújtását.
  • A frissített szolgáltatás teljesen új eszközöket és jelentéseket, valamint továbbfejlesztett régieket kínál. Az alábbiakban mindegyiket ismertetjük.
  • A szolgáltatás mobil eszközökön használható.

Eszközök és jelentések összehasonlítása

Folyamatosan dolgozunk a Search Console különféle eszközeinek és jelentéseinek korszerűsítésén, amelyek közül sokat már a szolgáltatás frissített verziójában is használhat. Az alábbiakban az új jelentés- és eszközbeállításokat hasonlítjuk össze a régiekkel. A lista frissül.

A jelentés régi változata Analóg a Search Console új verziójában Összehasonlítás
Keresési lekérdezés elemzése Az új jelentés 16 hónapos adatokat közöl, és kényelmesebbé vált a munka.
Hasznos tippek Bővített eredmények állapotjelentése Az új jelentések részletes információkkal segítik a hibák elhárítását és megkönnyítik az újraellenőrzési kérelmek benyújtását.
Linkek az Ön webhelyére
Belső linkek
Linkek Két régi jelentést egyesítettünk egy új jelentésbe, és javítottuk a referenciaszámlálási pontosságot.
Indexelés állapota Indexelési jelentés Az új jelentés tartalmazza a régi összes adatát, valamint részletes információkat a Google indexében lévő állapotról.
Webhelytérkép jelentés Webhelytérkép jelentés A jelentésben szereplő adatok változatlanok maradnak, de javítottunk a kialakításán. A régi jelentés támogatja a webhelytérkép elküldés nélküli tesztelését, az új jelentés azonban nem.
Accelerated Mobile Pages (AMP) AMP állapotjelentés Az új jelentés új típusú hibákat tartalmaz, amelyek részleteit megtekintheti, valamint kérést küldhet az újrakeresésre.
Kézi művelet Kézi művelet A jelentés új verziója a kézi műveletek előzményeit tartalmazza, beleértve a benyújtott felülvizsgálati kérelmeket és az eredményeket.
Google feltérképező robot webhelyekhez URL-ellenőrző eszköz Az URL-ellenőrző eszközben információkat tekinthet meg az URL indexben szereplő verziójáról és az online elérhető verzióról, valamint feltérképezési kérelmet nyújthat be. Információk hozzáadva a gyűjtő URL-ekről, a noindex és nocrawl blokkokról, valamint az URL-ek jelenlétéről a Google indexében.
Könnyű megtekintés mobileszközökön Könnyű megtekintés mobileszközökön A jelentésben szereplő adatok változatlanok maradtak, de kényelmesebb lett velük dolgozni. Hozzáadtuk azt a lehetőséget is, hogy a mobilos megtekintési problémák kijavítása után kérelmezzük az oldalak újraellenőrzését.
Hibajelentés beolvasása Indexelési jelentésés URL-ellenőrző eszköz

A webhelyszintű feltérképezési hibák az új indexelési jelentésben jelennek meg. Az oldalszintű hibák kereséséhez használja az új URL-ellenőrző eszközt. Az új jelentések segítenek a problémák rangsorolásában, és csoportosíthatja a hasonló problémákkal rendelkező oldalakat a gyakori okok azonosítása érdekében.

A régi jelentés az elmúlt három hónap összes hibáját megmutatta, beleértve a lényegtelen, ideiglenes és kisebb hibákat is. Egy új jelentés kiemeli azokat a problémákat, amelyek fontosak voltak a Google számára az elmúlt hónapban. Csak azokat a problémákat fogja látni, amelyek miatt az oldal eltávolítható az indexből, vagy megakadályozhatja az indexelését.

A problémák prioritások alapján jelennek meg. Például a 404-es hibákat a rendszer csak akkor jelöli meg hibaként, ha webhelytérképen vagy más módon kérte az oldal indexelését.

Ezekkel a változtatásokkal jobban összpontosíthat azokra a problémákra, amelyek befolyásolják webhelye pozícióját a Google indexében, ahelyett, hogy a Googlebot által az Ön webhelyén valaha talált hibák listájával foglalkozna.

Az új indexelési jelentésben a következő hibák konvertálva lettek, vagy már nem jelennek meg:​

URL-hibák – számítógép-felhasználóknak

Régi hibatípus Analóg az új verzióban
szerver hiba Az indexelési jelentésben minden szerverhibát a zászló jelzi Szerverhiba (5xx).
Hamis 404-es hiba
  • Hiba: A beküldött URL hamis 404-es hibát ad vissza.
  • Kizárva: Hamis 404-es hiba.
Hozzáférés megtagadva

Az indexelési jelentés a következő kategóriák egyikét sorolja fel, attól függően, hogy kérte-e a feldolgozást ehhez a hibatípushoz:

  • Hiba: A beküldött URL 401-es (jogosulatlan kérés) hibát ad vissza.
  • Kivétel: Az oldal nincs indexelve 401-es (jogosulatlan kérés) hiba miatt.
Nem található

Az indexelési jelentés a következő módok egyikén jelenik meg, attól függően, hogy kérte-e a feldolgozást az ilyen típusú hibák miatt:

  • Hiba: A beküldött URL nem található (404).
  • Kizárva: nem található (404).
Egyéb Az indexelési jelentés a következőt írja le Szkennelési hiba.

URL-hibák – okostelefon-használóknak

Az okostelefonok hibái jelenleg nem jelennek meg, de reméljük, hogy a jövőben beépítjük őket.

Webhelyhibák

A Search Console új verziója nem jelenít meg webhelyhibákat.

Biztonsági problémák jelentés Új biztonsági probléma jelentés Az új Biztonsági problémák jelentés megőrzi a régi jelentés funkcióinak nagy részét, és hozzáadja a problémák webhelytörténetét.
Strukturált adatok Rich Results Checkerés gazdag eredmények állapotjelentései Az egyes URL-ek feldolgozásához használja a Bővített Eredmények Ellenőrzőt vagy az URL-ellenőrzőt. Az egész webhelyre vonatkozó információk megtalálhatók a webhelyére vonatkozó bővített eredmények állapotjelentéseiben. Még nem áll rendelkezésre minden bővített találati adattípus, de a jelentések száma folyamatosan növekszik.
HTML optimalizálás Az új verzióban nincs hasonló jelentés. Tájékoztató címek és oldalleírások létrehozásához kövesse irányelveinket.
Zárolt erőforrások URL-ellenőrző eszköz Nincs mód a teljes webhely blokkolt erőforrásainak megtekintésére, de az URL-ellenőrző eszközzel minden egyes oldal esetében megtekintheti a blokkolt erőforrásokat.
Android alkalmazások 2019 márciusától a Search Console már nem támogatja az Android-alkalmazásokat.
Forráskészletek 2019 márciusától a Search Console már nem támogatja az erőforráskészleteket.

Ne írja be kétszer ugyanazt az információt. A Search Console egyik verziójában található adatok és lekérdezések automatikusan megkettőződnek egy másik verzióban. Ha például a régi Search Console-ban nyújtott be újraérvényesítési kérelmet vagy webhelytérképet, akkor nem kell újra beküldenie az újban.

Új módszerek az ismert feladatok elvégzésére

A Search Console új verziójában a korábbi műveletek egy része másképp történik. A főbb változásokat az alábbiakban soroljuk fel.

Jelenleg nem támogatott funkciók

Az alább felsorolt ​​funkciók még nincsenek implementálva a Search Console új verziójában. Használatukhoz térjen vissza az előző felületre.

  • Feltérképezési statisztikák (naponta beolvasott oldalak száma, letöltési ideje, naponta letöltött kilobájtok száma).
  • A robots.txt fájl ellenőrzése.
  • URL-paraméterek kezelése a Google Keresésben.
  • Marker eszköz.
  • Üzenetek olvasása és kezelése.
  • "Cím módosítása" eszköz.
  • Az elsődleges tartomány megadása.
  • Search Console-tulajdon összekapcsolása Google Analytics-tulajdonnal.
  • Linkek elutasítása.
  • Elavult adatok eltávolítása az indexből.

Hasznos volt ez az információ?

Hogyan javítható ez a cikk?

Jó napot olvasók! Mindig sok kérdést kapok webmesterektől, webhelytulajdonosoktól és bloggerektől a Yandex.Webmasterben megjelenő hibákkal és üzenetekkel kapcsolatban. Sok ilyen üzenet ijesztő.

De azt akarom mondani, hogy nem minden üzenet kritikus az oldal számára. A következő cikkekben pedig megpróbálom a lehető legteljesebb mértékben lefedni a webmestereknek felmerülő összes lehetséges kérdést. Ez a cikk a következő részekkel foglalkozik:

  1. Diagnosztika – Helyi diagnosztika
  2. Indexelés – Oldalak a keresésben

Erről, és arról, hogy miért van erre szükség, írtam néhány éve. Ha nem ismeri ezt az eszközt, kérjük, először olvassa el a linken található cikket.

Webhely diagnosztika

Lehetséges problémák

1. A gazdagép direktíva nincs beállítva a robots.txt fájlban

A Yandex ezen megjegyzése figyelemre méltó, mivel a Host direktíva nem szabványos irányelv, csak a Yandex keresőmotorja támogatja. Szükséges, ha a Yandex helytelenül határozza meg a webhelytükröt.

A webhelytükrözést általában a Yandex automatikusan határozza meg a CMS által generált URL-ek és a webhelyre mutató külső hivatkozások alapján. A fő webhelytükör megadásához ezt nem szükséges feltüntetni a robots.txt fájlban. A fő módja a 301-es átirányítás használata, amely vagy automatikusan konfigurálódik a CMS-ben, vagy a szükséges kód bekerül a .htachess fájlba.

Felhívom a figyelmet arra, hogy a robots.txt fájlban meg kell adni a direktívát olyan esetekben, amikor a Yandex hibásan határozza meg az oldal fő tükrét, és ezt más módon nem tudja befolyásolni.

A CMS-ek, amelyekkel mostanában dolgoztam, a WordPress, Joomla, ModX alapértelmezés szerint átirányítják a címet www-ről a nélküle, ha a rendszerbeállítások előtag nélkül adják meg az oldal címét. Biztos vagyok benne, hogy minden modern CMS rendelkezik ezzel a képességgel. Még a kedvenc Bloggerem is megfelelően átirányítja a saját domainjén található blog címét.

2. Hiányzó metacímkék

A probléma nem kritikus, nem kell tőle félni, de ha lehet, jobb megoldani, mint nem figyelni. Ha az Ön CMS-je alapértelmezés szerint nem rendelkezik metacímkék létrehozásáról, akkor kezdjen el keresni egy beépülő modult, kiegészítőt, bővítményt vagy bármi mást a CMS-ben annak érdekében, hogy manuálisan beállíthassa az oldalleírást, vagy hogy a leírás automatikusan generálódjon a cikk első szavaiból.

3. A robot nem használ webhelytérkép fájlokat

Természetesen jobb ezt a hibát kijavítani. De vegye figyelembe, hogy a probléma akkor fordulhat elő, amikor a sitemap.xml fájl jelen van, és akkor is, ha valójában nincs. Ha megvan a fájl, de a Yandex nem látja, egyszerűen lépjen az Indexelés - Webhelytérkép-fájlok szakaszra. És manuálisan adja hozzá a fájlt a Yandex.Webmasterhez. Ha egyáltalán nem rendelkezik ilyen fájllal, akkor a használt CMS-től függően keressen megoldásokat.

A sitemap.xml fájl a http://your-domen.ru/sitemap.xml címen található

4. A Robots.txt fájl nem található

Ennek ellenére ennek a fájlnak lennie kell, és ha van lehetősége csatlakoztatni, akkor jobb, ha megteszi. És figyeljen a Host direktívával ellátott elemre.

A robots.txt fájl a http://your-domain.ru/robots.txt címen található

Ezen a Site Diagnostics lapon kiszáradt számomra a hibaforrás.

Indexelés

Keresésben lévő oldalak

Kezdjük ettől a ponttól. Ez megkönnyíti az információk strukturálását.

Jelölje ki az „Összes oldal” szűrőben
Jobbra megyünk a "Táblázat letöltése" oldalon. Válassza ki az XLS-t, és nyissa meg a fájlt Excelben.


Listát kapunk azokról az oldalakról, amelyek keresésben vannak, pl. A Yandex tud róluk, rangsorolja őket, megmutatja a felhasználóknak.
Megnézzük, hány rekord van a táblázatban. 289 oldalam van.

És hogyan lehet megérteni, hogy mennyinek kell lennie? Minden webhely egyedi, és csak Ön tudhatja, hány oldalt tett közzé. Példaként a WordPress blogomat használom.
A blog írásának időpontjában a következőket tartalmazza:

  • Bejegyzések - 228
  • Oldalak - 17
  • Címsorok – 4
  • Címkék - 41
  • + az oldal főoldala

Összesen 290 oldalunk van az indexben. A táblázat adataihoz képest mindössze 1 oldal a különbség. Nyugodtan tekintheti ezt egy nagyon jó mutatónak. De még korai örülni. Előfordul, hogy matematikailag minden egybeesik, de amikor elkezdi az elemzést, következetlenségek jelennek meg.

Kétféleképpen lehet megtalálni azt az oldalt, amely nem szerepel a keresésben. Tekintsük mindkettőt.

1. módszer. Ugyanabban a táblázatban, amelyet letöltöttem, a keresést több szakaszra osztottam. Először a Rubrika oldalakat választottam ki. Csak 4 szekcióm van. A munka optimalizálásához használjon szövegszűrőket az Excelben.


Ezután Címkék, oldalakat kizártak a keresésből, ennek eredményeként csak cikkek maradtak a táblázatban. És itt, nem számít, hány cikk van, mindegyiket át kell néznie, hogy megtalálja azt, amelyik nem szerepel az indexben.

Felhívom a figyelmet arra, hogy minden CMS-nek megvan a maga felépítése. Minden webmesternek saját SEO , kanonikus, robots.txt fájlja van.

Ismételten, ha a WordPress-t használja példaként, figyeljen arra, hogy webhelyének mely részei vannak indexelve és melyek zárva. Lehetnek az Archívum oldalai hónapok és évek szerint, a Szerző oldalai, oldallapozás. Ezeket a szakaszokat a robots metacímke beállításai zárják le. Lehet, hogy az Ön számára más, ezért vegye figyelembe mindazt, ami nem tilos az indexelésben.

Ha például a Bloggert vesszük, a blogtulajdonosoknak csak a közzétett bejegyzéseket, oldalakat és kezdőlapokat kell számolniuk. Az archívumok és a címkék összes többi oldala be van zárva a beállítások szerinti indexelés céljából.

Második módszer. Visszatérünk a Webmesterhez, a szűrőben válassza ki a "Kizárt oldalak" lehetőséget.

Most megvan a keresésből kizárt oldalak listája. A lista lehet nagy, sokkal nagyobb, mint a keresésben szereplő oldalak esetében. Nem kell attól tartani, hogy valami nem stimmel az oldallal.

A cikk írásakor megpróbáltam a Webmester felületen dolgozni, de nem kaptam meg a kívánt funkcionalitást, talán ez átmeneti jelenség. Ezért az előző verzióhoz hasonlóan táblázatos adatokkal fogok dolgozni, a lap alján található táblázat letölthető is.

Ismét a WordPress blogomat használva példaként, megvizsgálom a kivételek tipikus okait.

A kapott táblázatban elsősorban a D oszlopra vagyunk kíváncsiak - „httpCode”. Aki nem tudja, mik a szerver válaszai, olvassa el a wikipédián. Így könnyebben megértheti az alábbiakat.

Kezdjük a 200-as kóddal. Ha az interneten engedély nélkül eljut egy oldalra, akkor egy ilyen oldal állapota 200 lesz. Minden ilyen oldal kizárható a keresésből a következő okok miatt:

  1. A robots meta tag tiltja
  2. Tilos az indexelés a robots.txt fájlban
  3. Ha nem kanonikus, a kanonikus metacímke be van állítva

Önnek, mint webhely tulajdonosának tudnia kell, hogy mely oldalak milyen beállításokkal rendelkeznek. Ezért a kizárt oldalak listájának rendezése nem lehet nehéz.

Állítsa be a szűrőket, válassza ki a D - 200 oszlopban

Most az E oszlop érdekel - „státusz”, rendezzük.

BAD_QUALITY állapot- Gyenge minőségű. A legbosszantóbb állapot az összes közül. Bontsuk szét.

A táblázatomban csak 8 olyan URL volt, amelyek állapota nem elég jó. A jobb oldali oszlopba sorszámoztam őket.

1., 5., 7. URL - Hírcsatornaoldalak, 2,3,4,5,8 - szolgáltatási oldalak a wp-json webhelykönyvtárban. Mindezek az oldalak nem HTML-dokumentumok, és elvileg nem szerepelhetnek ezen a listán.

Tehát gondosan nézze át az oldalak listáját, és csak a HTML-oldalakat emelje ki.

META_NO_INDEX állapot. A lapozó oldalak, a szerző oldala a robots meta tag beállításai miatt kikerülnek az indexből

De van egy oldal a listában, aminek nem szabadna lennie. Kék színnel kiemeltem az url-t.

NOT_CANONICAL állapot. A név magáért beszél. Nem kanonikus oldal. A webhely bármely oldalán beállíthatja a kanonikus metacímkét, amelyben megadhatja a kanonikus URL-t.


A webhely promóciójának tartalmaznia kell az oldaloptimalizálást, hogy felhívja a keresőpók figyelmét. Mielőtt elkezdené egy keresőbarát webhely létrehozását, tudnia kell, hogyan látják a robotok az Ön webhelyét.

kereső motorok valójában nem pókok, hanem kis programok, amelyeket a webhely elemzésére küldenek, miután megismerték az oldal URL-címét. A keresőmotorok az Ön webhelyére mutató hivatkozásokon keresztül is eljuthatnak webhelyére más internetes forrásokban.

Amint a robot eljut az Ön webhelyére, azonnal elkezdi indexelni az oldalakat a BODY címke tartalmának elolvasásával. Ezenkívül teljes mértékben beolvassa az összes HTML-címkét és más webhelyekre mutató hivatkozásokat.

Ezután a keresőmotorok átmásolják a webhely tartalmát a fő adatbázisba a későbbi indexelés céljából. Ez az egész folyamat akár három hónapig is eltarthat.

Keresőoptimalizáció nem olyan könnyű dolog. Létre kell hoznia egy pókbarát webhelyet. A botok nem figyelnek a flash webdesignra, csak információra vágynak. Ha egy keresőrobot szemével nézzük a weboldalt, elég hülyén nézne ki.

Még érdekesebb egy pók szemével nézni a versenytársak helyszínein. Versenytársak nem csak az Ön szakterületén, hanem egyszerűen népszerű források, amelyekhez nem szükséges keresőoptimalizálás. Általában nagyon érdekes látni, hogyan néznek ki a különböző oldalak a robotok szemével.

Csak szöveg

Keresés robotok jobban látja webhelyét, mint a szöveges böngészők. Szeretik a szöveget, és figyelmen kívül hagyják a képeken található információkat. A pókok olvashatnak a képről, ha emlékszel hozzá egy ALT címkét egy leírással. Mélységesen frusztráló a webdesignerek számára, akik összetett webhelyeket hoznak létre gyönyörű képekkel és nagyon kevés szöveges tartalommal.

Valójában a keresőmotorok egyszerűen imádnak bármilyen szöveget. Csak HTML kódot tudnak olvasni. Ha sok űrlap vagy javascript vagy bármi más található az oldalon, ami megakadályozhatja a keresőmotort a HTML-kód beolvasásában, a pók egyszerűen figyelmen kívül hagyja.

Amit a keresőrobotok látni akarnak

Amikor egy keresőmotor feltérképezi az oldalt, számos fontos dolgot keres. A webhely archiválása után a keresőrobot elkezdi rangsorolni azt az algoritmusa szerint.

keress pókokatőrzik és gyakran megváltoztatják algoritmusaikat, hogy a spamküldők ne tudjanak alkalmazkodni hozzájuk. Nagyon nehéz olyan webhelyet tervezni, amely minden keresőmotorban előkelő helyen szerepel, de bizonyos előnyökhöz juthat, ha a következő elemeket minden weboldalán felveszi:

  • Kulcsszavak
  • META címkék
  • Címek
  • Linkek
  • A kiválasztott szöveg

Olvass mint egy kereső

Miután elkészített egy webhelyet, fejlesztenie kell, és népszerűsítenie kell a keresőmotorokban. De a webhely csak a böngészőben történő megtekintése nem a legjobb és legsikeresebb technika. Nem könnyű nyitottan értékelni a munkáját.

Sokkal jobb, ha egy keresőszimulátor szemével nézed az alkotásodat. Ebben az esetben sokkal több információt kap az oldalakról és arról, hogy a pók hogyan látja őket.

Nem rossz, szerény véleményünk szerint keresőszimulátort készítettünk. A weboldalt úgy láthatja, ahogy a keresőpók látja. Megjelenik továbbá a megadott kulcsszavak száma, a helyi és kimenő hivatkozások stb.

A Webmestereszközök segítségével megértheti, hogyan néz ki oldala a Googlebotok számára. A kiszolgálófejlécek és a HTML kód segít azonosítani a hibákat és a feltörések következményeit, de néha nehéz lehet megérteni őket. A webmesterek általában résen vannak, amikor ilyen problémákkal kell megküzdeniük. Az ehhez hasonló helyzetekben való segítségnyújtás érdekében továbbfejlesztettük ezt a funkciót, így az ugyanazt az algoritmust használja, mint a Googlebot.

Hogyan jelenik meg a beolvasott oldal
Egy oldal feldolgozása során a Googlebot megkeresi és importálja az összes kapcsolódó fájlt külső forrásokból. Ezek általában képek, stíluslapok, JavaScript-elemek és egyéb CSS- vagy JavaScript-beágyazott fájlok. A rendszer ezek segítségével jeleníti meg az oldalt úgy, ahogyan a Googlebot látja.
A funkció a Webmestereszközök-fiókja „Szkennelés” részében érhető el. Felhívjuk figyelmét, hogy az oldal feldolgozása és az azt követő megjelenítés meglehetősen hosszú ideig tarthat. Ha végzett, vigye az egeret a kívánt URL-t tartalmazó sor fölé az eredmény megtekintéséhez.



A robots.txt fájlban blokkolt erőforrások kezelése
A kód feldolgozása során a Googlebot tiszteletben tartja a robots.txt fájlban megadott utasításokat. Ha megtiltják a hozzáférést bizonyos elemekhez, a rendszer nem használja az ilyen anyagokat előnézethez. Ez akkor is megtörténik, ha a szerver nem válaszol, vagy hibát ad vissza. A releváns adatok a Webmestereszközök-fiók Feltérképezési hibák szakaszában találhatók. Ezenkívül az oldal előnézeti képének elkészítése után megjelenik az ilyen hibák teljes listája.
Javasoljuk, hogy győződjön meg arról, hogy a Googlebot hozzáfér minden beágyazott erőforráshoz, amely az Ön webhelyén vagy elrendezésén található. Ez megkönnyíti a Böngészés Googlebothoz hasonló élményét, lehetővé teszi a bot számára, hogy észlelje és megfelelően indexelje a webhely tartalmát, és segít megérteni, hogyan történik az oldalak feltérképezése. Egyes kódrészletek, például a közösségi média gombjai, az elemzőeszköz-szkriptek és a betűtípusok általában nem határozzák meg az oldal stílusát, így nem kell őket beolvasni. Az előző cikkben többet megtudhat arról, hogy a Google hogyan elemzi a webes tartalmat.
Reméljük, hogy innovációnk segít megoldani a webhely kialakításával kapcsolatos problémákat, és felfedezni olyan forrásokat, amelyeket a Google ilyen vagy olyan okból nem tud feltérképezni. Ha kérdése van, forduljon hozzánk a Google Plus webmesteri közösségében vagy keressen