Bagaimana bot Yandex melihat halaman. Cara meningkatkan ke versi baru Search Console

Panduan migrasi untuk pengguna versi lama

Kami sedang mengembangkan versi baru Search Console yang pada akhirnya akan menggantikan layanan lama. Dalam panduan ini, kami akan membahas perbedaan utama antara versi lama dan baru.

Perubahan umum

Di Search Console versi baru, kami telah menerapkan penyempurnaan berikut:

  • Anda dapat melihat data lalu lintas pencarian selama 16 bulan, bukan tiga bulan sebelumnya.
  • Search Console sekarang memberikan informasi mendetail tentang halaman tertentu. Informasi ini mencakup URL kanonis, status pengindeksan, tingkat pengoptimalan seluler, dan banyak lagi.
  • Versi baru mencakup alat yang memungkinkan Anda melacak perayapan halaman web Anda, memperbaiki kesalahan terkait, dan mengirimkan permintaan untuk pengindeksan ulang.
  • Layanan yang diperbarui menawarkan alat dan laporan yang benar-benar baru, serta yang lama yang ditingkatkan. Semuanya dijelaskan di bawah ini.
  • Layanan ini dapat digunakan di perangkat seluler.

Perbandingan alat dan laporan

Kami terus berupaya memodernisasi berbagai alat dan laporan Search Console, dan Anda sudah dapat menggunakannya dalam versi terbaru layanan ini. Di bawah ini, laporan baru dan opsi alat dibandingkan dengan yang lama. Daftar akan diperbarui.

Laporan versi lama Analog di Search Console versi baru Perbandingan
Analisis kueri penelusuran Laporan baru menyediakan data selama 16 bulan, dan menjadi lebih nyaman untuk digunakan.
Kiat yang berguna Pelaporan Status Hasil Kaya Laporan baru memberikan informasi mendetail untuk membantu memecahkan masalah kesalahan dan mempermudah pengiriman permintaan pemindaian ulang.
Tautan ke situs Anda
Tautan internal
Tautan Kami telah menggabungkan dua laporan lama menjadi satu laporan baru dan meningkatkan akurasi penghitungan referensi.
Status Pengindeksan Laporan Pengindeksan Laporan baru memiliki semua data dari yang lama, serta informasi terperinci tentang status dalam indeks Google.
Laporan peta situs Laporan peta situs Data dalam laporan tetap sama, tetapi kami telah menyempurnakan desainnya. Laporan lama mendukung pengujian Peta Situs tanpa mengirimkannya, tetapi laporan baru tidak.
Halaman Seluler yang Dipercepat (AMP) Laporan Status AMP Laporan baru menambahkan jenis kesalahan baru yang detailnya dapat Anda lihat, serta mengirimkan permintaan untuk memindai ulang.
Tindakan manual Tindakan manual Versi baru laporan menyediakan riwayat tindakan manual, termasuk permintaan peninjauan yang dikirimkan dan hasil peninjauan.
Perayap Google untuk Situs Web Alat Inspeksi URL Di Alat Inspeksi URL, Anda dapat melihat informasi tentang versi URL yang disertakan dalam indeks dan versi yang tersedia secara online, serta mengirimkan permintaan perayapan. Menambahkan informasi tentang URL kanonik, blok noindex dan nocrawl, dan keberadaan URL di indeks Google.
Kemudahan melihat di perangkat seluler Kemudahan melihat di perangkat seluler Data dalam laporan tetap sama, tetapi menjadi lebih nyaman untuk bekerja dengannya. Kami juga telah menambahkan kemampuan untuk meminta halaman dipindai ulang setelah masalah tampilan seluler diperbaiki.
Memindai laporan kesalahan Laporan Pengindeksan dan alat pemeriksaan url

Kesalahan perayapan tingkat situs ditampilkan dalam laporan pengindeksan baru. Untuk menemukan kesalahan di tingkat halaman, gunakan Alat Inspeksi URL baru. Laporan baru membantu Anda memprioritaskan masalah dan mengelompokkan halaman dengan masalah serupa untuk mengidentifikasi penyebab umum.

Laporan lama menunjukkan semua kesalahan selama tiga bulan terakhir, termasuk tidak relevan, sementara, dan kecil. Laporan baru menyoroti masalah yang penting bagi Google selama sebulan terakhir. Anda hanya akan melihat masalah yang dapat menyebabkan halaman dihapus dari indeks atau mencegahnya diindeks.

Masalah ditampilkan berdasarkan prioritas. Misalnya, kesalahan 404 hanya ditandai sebagai kesalahan jika Anda meminta agar halaman diindeks melalui peta situs atau sebaliknya.

Dengan perubahan ini, Anda akan dapat lebih fokus pada masalah yang memengaruhi posisi situs Anda di indeks Google, daripada berurusan dengan daftar setiap kesalahan yang pernah ditemukan Googlebot di situs Anda.

Dalam laporan pengindeksan baru, kesalahan berikut telah diubah atau tidak lagi ditampilkan:​

Kesalahan URL - Untuk Pengguna Komputer

Jenis kesalahan lama Analog dalam versi baru
server error Dalam laporan pengindeksan, semua kesalahan server ditunjukkan dengan bendera Kesalahan Server (5xx).
Kesalahan 404 palsu
  • Kesalahan: URL yang dikirim mengembalikan kesalahan 404 palsu.
  • Dikecualikan: Kesalahan 404 salah.
Akses ditolak

Laporan pengindeksan mencantumkan salah satu kategori berikut, bergantung pada apakah Anda meminta pemrosesan untuk jenis kesalahan ini:

  • Kesalahan: URL yang dikirim mengembalikan kesalahan 401 (Permintaan Tidak Sah).
  • Pengecualian: Halaman tidak diindeks karena kesalahan 401 (Permintaan tidak sah).
Tidak ditemukan

Laporan pengindeksan ditunjukkan dengan salah satu cara berikut, bergantung pada apakah Anda meminta pemrosesan untuk jenis kesalahan ini:

  • Kesalahan: URL yang dikirim tidak ditemukan (404).
  • Dikecualikan: tidak ditemukan (404).
Lainnya Laporan pengindeksan menyatakan sebagai Kesalahan pemindaian.

Kesalahan URL - Untuk Pengguna Ponsel Cerdas

Bug ponsel cerdas saat ini tidak ditampilkan, tetapi kami berharap dapat menyertakannya di masa mendatang.

Kesalahan situs

Versi baru Search Console tidak menampilkan kesalahan situs.

Laporan Masalah Keamanan Baru laporan masalah keamanan Laporan Masalah Keamanan baru mempertahankan sebagian besar fungsi laporan lama dan menambahkan riwayat masalah situs.
Data terstruktur Pemeriksa Hasil Kaya dan laporan status hasil kaya Untuk memproses URL individual, gunakan Pemeriksa Hasil Kaya atau Pemeriksa URL. Informasi seluruh situs dapat ditemukan di laporan status hasil kaya untuk situs Anda. Belum semua tipe data hasil kaya tersedia, tetapi jumlah laporan terus bertambah.
optimasi HTML Tidak ada laporan serupa di versi baru. Untuk membuat judul dan deskripsi halaman yang informatif, ikuti panduan kami.
Sumber Daya Terkunci Alat Inspeksi URL Tidak ada cara untuk melihat sumber daya yang diblokir untuk seluruh situs, tetapi dengan alat Inspeksi URL, Anda dapat melihat sumber daya yang diblokir untuk setiap halaman individual.
Aplikasi Android Mulai Maret 2019, Search Console tidak lagi mendukung aplikasi Android.
Kit Sumber Daya Mulai Maret 2019, Search Console tidak lagi mendukung kumpulan sumber daya.

Jangan memasukkan informasi yang sama dua kali. Data dan kueri yang terdapat dalam satu versi Search Console secara otomatis diduplikasi di versi lain. Misalnya, jika Anda mengirimkan permintaan validasi ulang atau peta situs di Search Console lama, Anda tidak perlu mengirimkannya lagi di yang baru.

Cara baru untuk melakukan tugas yang sudah dikenal

Di Search Console versi baru, beberapa operasi sebelumnya dilakukan secara berbeda. Perubahan utama tercantum di bawah ini.

Fitur saat ini tidak didukung

Fitur yang tercantum di bawah ini belum diterapkan di Search Console versi baru. Untuk menggunakannya, kembali ke antarmuka sebelumnya.

  • Statistik perayapan (jumlah halaman yang dipindai per hari, waktu pengunduhannya, jumlah kilobyte yang diunduh per hari).
  • Memeriksa file robots.txt.
  • Kelola parameter URL di Google Penelusuran.
  • Alat penanda.
  • Membaca pesan dan mengelolanya.
  • Alat "Ubah alamat".
  • Menentukan domain utama.
  • Menautkan properti Search Console ke properti Google Analytics.
  • Tolak tautan.
  • Menghapus data usang dari indeks.

Apakah informasi ini membantu?

Bagaimana artikel ini dapat diperbaiki?

Selamat siang, para pembaca. Saya selalu mendapatkan banyak pertanyaan dari webmaster, pemilik situs, dan blogger tentang kesalahan dan pesan yang muncul di Yandex.Webmaster. Banyak dari pesan-pesan ini menakutkan.

Tapi, saya ingin mengatakan, tidak semua pesan penting untuk situs. Dan di artikel berikutnya saya akan mencoba untuk menutupi semua kemungkinan pertanyaan yang mungkin dimiliki webmaster semaksimal mungkin. Artikel ini akan mencakup bagian berikut:

  1. Diagnostik - Diagnostik Situs
  2. Pengindeksan - Halaman dalam Pencarian

Tentang itu, dan mengapa itu diperlukan, saya menulis beberapa tahun yang lalu. Jika Anda tidak terbiasa dengan alat ini, silakan baca artikel di tautan terlebih dahulu.

Diagnostik Situs

Kemungkinan masalah

1. Arahan host tidak disetel dalam file robots.txt

Catatan oleh Yandex ini luar biasa karena arahan Host bukanlah arahan standar; hanya mesin pencari Yandex yang mendukungnya. Diperlukan jika Yandex salah menentukan mirror situs.

Sebagai aturan, mirror situs secara otomatis ditentukan oleh Yandex berdasarkan URL yang dihasilkan oleh CMS itu sendiri dan berdasarkan tautan eksternal yang mengarah ke situs. Untuk menentukan mirror situs utama, tidak perlu menunjukkan ini di file robots.txt. Cara utama adalah dengan menggunakan 301 redirect, yang dikonfigurasi secara otomatis di CMS, atau kode yang diperlukan dimasukkan ke dalam file .htachess.

Saya menarik perhatian Anda pada fakta bahwa Anda perlu menentukan arahan dalam file robots.txt jika Yandex salah menentukan cermin utama situs, dan Anda tidak dapat memengaruhi ini dengan cara lain apa pun.

CMS yang saya gunakan akhir-akhir ini, WordPress, Joomla, ModX, secara default mengarahkan ulang alamat dari www ke tanpa, jika pengaturan sistem menentukan alamat situs tanpa awalan. Saya yakin semua CMS modern memiliki kemampuan ini. Bahkan Blogger favorit saya dengan benar mengarahkan ulang alamat blog yang terletak di domainnya sendiri.

2. Tag meta tidak ada

Masalahnya tidak kritis, Anda tidak perlu takut, tetapi jika memungkinkan, lebih baik memperbaikinya daripada tidak memperhatikan. Jika CMS Anda tidak menyediakan pembuatan meta tag secara default, maka mulailah mencari plugin, add-on, ekstensi, atau apa pun namanya di CMS Anda, untuk dapat mengatur deskripsi halaman secara manual, atau sehingga deskripsi secara otomatis dihasilkan dari kata pertama artikel.

3. Tidak ada file peta situs yang digunakan oleh robot

Tentu saja, lebih baik untuk memperbaiki kesalahan ini. Tetapi perhatikan bahwa masalah dapat terjadi baik dalam kasus di mana file sitemap.xml ada, dan pada saat sebenarnya tidak. Jika Anda memiliki file, tetapi Yandex tidak melihatnya, buka saja bagian Pengindeksan - File Peta Situs. Dan secara manual tambahkan file ke Yandex.Webmaster. Jika Anda tidak memiliki file seperti itu sama sekali, maka, tergantung pada CMS yang digunakan, cari solusinya.

File sitemap.xml terletak di http://your-domen.ru/sitemap.xml

4. File robots.txt tidak ditemukan

Namun demikian, file ini harus, dan jika Anda memiliki kesempatan untuk menghubungkannya, lebih baik melakukannya. Dan perhatikan item dengan arahan Host.

File robots.txt terletak di http://domain-anda.ru/robots.txt

Tentang ini, sumber kesalahan pada tab Diagnostik Situs telah mengering untuk saya.

pengindeksan

Halaman dalam pencarian

Mari kita mulai dari titik ini. Ini akan memudahkan untuk menyusun informasi.

Sorot di filter "Semua Halaman"
Kami turun ke kanan di halaman "Unduh spreadsheet" Pilih XLS dan buka file di Excel.


Kami mendapatkan daftar halaman yang sedang dicari, mis. Yandex tahu tentang mereka, memberi peringkat, menunjukkannya kepada pengguna.
Kita lihat, ada berapa record dalam tabel tersebut. Saya mendapat 289 halaman.

Dan bagaimana memahami berapa banyak yang seharusnya? Setiap situs adalah unik dan hanya Anda yang dapat mengetahui berapa banyak halaman yang telah Anda terbitkan. Saya akan menggunakan blog WordPress saya sebagai contoh.
Blog pada saat penulisan memiliki:

  • Entri - 228
  • Halaman - 17
  • Judul - 4
  • Tag - 41
  • + halaman utama situs

Secara total, kami memiliki 290 halaman yang harus di indeks. Dibandingkan dengan data di tabel, perbedaannya hanya 1 halaman. Anda dapat dengan aman menganggap ini sebagai indikator yang sangat bagus. Tapi terlalu dini untuk bersukacita. Kebetulan semuanya bertepatan secara matematis, tetapi ketika Anda mulai menganalisis, ketidakkonsistenan muncul.

Ada dua cara untuk menemukan satu halaman yang tidak ada dalam pencarian. Mari kita pertimbangkan keduanya.

Metode satu. Dalam tabel yang sama yang saya unduh, saya membagi pencarian menjadi beberapa tahap. Pertama, saya memilih halaman Rubrik. Saya hanya memiliki 4 bagian. Untuk mengoptimalkan pekerjaan Anda, gunakan filter teks di Excel.


Kemudian Tag, mengecualikan Halaman dari pencarian, sebagai hasilnya, hanya artikel yang tersisa di tabel. Dan di sini, tidak peduli berapa banyak artikel yang ada, Anda harus melihat masing-masing artikel untuk menemukan artikel yang tidak ada dalam indeks.

Saya menarik perhatian Anda pada fakta bahwa setiap CMS memiliki strukturnya sendiri. Setiap webmaster memiliki file SEO, kanonik, robots.txt sendiri.

Sekali lagi, jika menggunakan WordPress sebagai contoh, perhatikan bagian mana dari situs Anda yang diindeks dan mana yang ditutup. Mungkin ada halaman Arsip berdasarkan bulan dan tahun, halaman Penulis, halaman halaman. Saya memiliki semua bagian ini ditutup oleh pengaturan tag meta robot. Mungkin berbeda untuk Anda, jadi pertimbangkan segala sesuatu yang tidak dilarang untuk pengindeksan.

Mengambil Blogger sebagai contoh, pemilik blog hanya perlu menghitung Posting, Halaman, dan Beranda yang diterbitkan. Semua halaman arsip dan tag lainnya ditutup untuk pengindeksan berdasarkan pengaturan.

Metode dua. Kami kembali ke Webmaster, pilih "Halaman yang dikecualikan" di filter.

Sekarang kami memiliki daftar halaman yang dikecualikan dari pencarian. Daftarnya bisa besar, jauh lebih besar daripada halaman yang disertakan dalam pencarian. Tidak perlu takut ada yang salah dengan situs tersebut.

Saat menulis artikel, saya mencoba bekerja di antarmuka Webmaster, tetapi tidak mendapatkan fungsionalitas yang diinginkan, mungkin ini adalah fenomena sementara. Oleh karena itu, seperti pada versi sebelumnya, saya akan bekerja dengan data tabular, Anda juga dapat mengunduh tabel di bagian bawah halaman.

Sekali lagi, menggunakan blog WordPress saya sebagai contoh, saya akan melihat alasan khas untuk pengecualian.

Di tabel yang dihasilkan, kami terutama tertarik pada kolom D - "httpCode". Siapa yang tidak tahu apa tanggapan server, baca di wikipedia. Ini akan memudahkan Anda untuk memahami apa yang berikut ini.

Mari kita mulai dengan kode 200. Jika Anda dapat membuka beberapa halaman di Internet tanpa izin, maka halaman tersebut akan memiliki status 200. Semua halaman tersebut dapat dikecualikan dari pencarian karena alasan berikut:

  1. Dilarang oleh tag meta robot
  2. Dilarang mengindeks di file robots.txt
  3. Apakah non-kanonik, tag meta kanonik disetel

Anda, sebagai pemilik situs, perlu mengetahui halaman mana yang memiliki pengaturan mana. Oleh karena itu, memilah daftar halaman yang dikecualikan seharusnya tidak sulit.

Siapkan filter, pilih di kolom D - 200

Sekarang kami tertarik pada kolom E - "status", kami mengurutkannya.

status BAD_QUALITY- Kualitas buruk. Status yang paling menyebalkan dari semuanya. Mari kita hancurkan.

Di tabel saya, hanya ada 8 URL dengan status Tidak cukup baik. Saya memberi nomor mereka di kolom kanan.

URL 1, 5, 7 - Halaman umpan, 2,3,4,5,8 - halaman layanan di direktori situs wp-json. Semua halaman ini bukan dokumen HTML dan pada prinsipnya tidak boleh ada dalam daftar ini.

Jadi, periksa daftar halaman Anda dengan hati-hati dan sorot hanya halaman HTML.

Status META_NO_INDEX. Halaman halaman, halaman penulis, dikecualikan dari indeks karena pengaturan tag meta robot

Tetapi ada halaman dalam daftar ini yang tidak seharusnya. Saya menyorot url dengan warna biru.

status NOT_CANONICAL. Nama berbicara untuk dirinya sendiri. Halaman non-kanonik. Di halaman situs mana pun, Anda dapat mengatur tag meta kanonik, di mana Anda menentukan URL kanonik.


Promosi situs web Anda harus mencakup pengoptimalan halaman untuk mendapatkan perhatian spider pencarian. Sebelum Anda mulai membuat situs web yang ramah mesin pencari, Anda perlu tahu bagaimana bot melihat situs Anda.

mesin pencari tidak benar-benar laba-laba, tetapi program kecil yang dikirim untuk menganalisis situs Anda setelah mereka mengetahui url halaman Anda. Mesin pencari juga dapat membuka situs Anda melalui tautan ke situs web Anda yang tertinggal di sumber daya Internet lainnya.

Segera setelah robot masuk ke situs web Anda, ia akan segera mulai mengindeks halaman dengan membaca konten tag BODY. Itu juga sepenuhnya membaca semua tag HTML dan tautan ke situs lain.

Kemudian, mesin pencari menyalin konten situs ke database utama untuk pengindeksan berikutnya. Seluruh proses ini bisa memakan waktu hingga tiga bulan.

Optimisasi Mesin Pencari bukan hal yang mudah. Anda harus membuat situs web yang ramah laba-laba. Bot tidak memperhatikan desain web flash, mereka hanya menginginkan informasi. Jika Anda melihat situs web melalui mata robot pencari, itu akan terlihat agak bodoh.

Bahkan lebih menarik untuk melihat melalui mata laba-laba di situs pesaing. Pesaing tidak hanya di bidang Anda, tetapi hanya sumber daya populer yang mungkin tidak memerlukan optimasi mesin pencari. Secara umum, sangat menarik untuk melihat bagaimana situs yang berbeda terlihat melalui mata robot.

Hanya teks

Cari robot melihat situs Anda lebih seperti yang dilakukan browser teks. Mereka menyukai teks dan mengabaikan informasi yang terkandung dalam gambar. Laba-laba dapat membaca tentang gambar jika Anda ingat untuk menambahkan tag ALT dengan deskripsi. Sangat frustasi bagi desainer web yang membuat situs kompleks dengan gambar yang indah dan konten teks yang sangat sedikit.

Faktanya, mesin pencari hanya menyukai teks apa pun. Mereka hanya bisa membaca kode HTML. Jika Anda memiliki banyak formulir atau javascript atau apa pun di halaman yang mungkin menghalangi mesin pencari membaca kode HTML, laba-laba akan mengabaikannya.

Apa yang ingin dilihat bot pencarian

Ketika mesin pencari merayapi halaman Anda, mesin pencari itu mencari beberapa hal penting. Setelah mengarsipkan situs Anda, robot pencari akan mulai memeringkatnya sesuai dengan algoritmenya.

cari laba-laba menjaga dan sering mengubah algoritme mereka sehingga spammer tidak dapat beradaptasi dengan mereka. Sangat sulit untuk merancang situs web yang akan berperingkat tinggi di semua mesin pencari, tetapi Anda bisa mendapatkan beberapa keuntungan dengan memasukkan elemen-elemen berikut di semua halaman web Anda:

  • Kata kunci
  • tag META
  • Judul
  • Tautan
  • Teks yang dipilih

Baca seperti mesin pencari

Setelah Anda mengembangkan situs, Anda harus mengembangkannya dan mempromosikannya di mesin pencari. Tetapi melihat situs hanya di browser bukanlah teknik terbaik dan paling sukses. Tidak mudah untuk mengevaluasi pekerjaan Anda dengan pikiran terbuka.

Jauh lebih baik untuk melihat kreasi Anda melalui mata simulator pencarian. Dalam hal ini, Anda akan mendapatkan lebih banyak informasi tentang halaman dan bagaimana laba-laba melihatnya.

Kami telah menciptakan simulator mesin pencari yang tidak buruk, menurut pendapat kami. Anda akan dapat melihat halaman web seperti yang dilihat oleh laba-laba pencarian. Ini juga akan menunjukkan jumlah kata kunci yang Anda masukkan, tautan lokal dan keluar, dan sebagainya.

Alat Webmaster memungkinkan Anda memahami tampilan halaman Anda di Googlebots. Header server dan kode HTML membantu mengidentifikasi kesalahan dan konsekuensi peretasan, tetapi terkadang sulit untuk memahaminya. Webmaster biasanya siap sedia ketika mereka harus berurusan dengan masalah seperti itu. Untuk membantu Anda dalam situasi seperti ini, kami telah meningkatkan fitur ini sehingga dapat melayani halaman menggunakan algoritme yang sama dengan yang digunakan Googlebot.

Bagaimana halaman yang dipindai ditampilkan
Saat memproses halaman, Googlebot mencari dan mengimpor semua file terkait dari sumber eksternal. Ini biasanya gambar, lembar gaya, elemen JavaScript, dan file lain yang disematkan dengan CSS atau JavaScript. Sistem menggunakannya untuk menampilkan halaman seperti yang dilihat Googlebot.
Fitur ini tersedia di bagian "Pindai" akun Alat Webmaster Anda. Harap dicatat bahwa pemrosesan halaman dan tampilan selanjutnya mungkin memakan waktu yang cukup lama. Setelah selesai, arahkan mouse Anda ke baris yang berisi URL yang diinginkan untuk melihat hasilnya.



Menangani sumber daya yang diblokir di file robots.txt
Saat memproses kode, Googlebot mematuhi instruksi yang ditentukan dalam file robots.txt. Jika mereka melarang akses ke elemen tertentu, sistem tidak akan menggunakan materi tersebut untuk pratinjau. Ini juga akan terjadi jika server tidak merespons atau mengembalikan kesalahan. Data yang relevan dapat ditemukan di bagian Kesalahan Perayapan pada akun Alat Webmaster Anda. Selain itu, daftar lengkap kegagalan tersebut akan ditampilkan setelah gambar pratinjau halaman dibuat.
Kami menyarankan Anda untuk memastikan bahwa Googlebot memiliki akses ke semua sumber daya tersemat yang Anda miliki di situs atau tata letak Anda. Ini akan membuat pengalaman Jelajah Seperti Googlebot Anda lebih mudah, memungkinkan bot untuk mendeteksi dan mengindeks konten situs Anda dengan benar, dan membantu Anda memahami bagaimana halaman Anda dirayapi. Beberapa cuplikan kode, seperti tombol media sosial, skrip alat analitik, dan font, biasanya tidak menentukan gaya halaman, sehingga tidak perlu dipindai. Baca selengkapnya tentang cara Google menganalisis konten web di artikel sebelumnya.
Kami berharap inovasi kami akan membantu Anda memecahkan masalah dengan desain situs dan menemukan sumber daya yang tidak dapat dirayapi Google karena satu dan lain alasan. Jika Anda memiliki pertanyaan, silakan hubungi kami di Komunitas Webmaster Google Plus atau cari