Headlines News :
Home » , , » Cara Mengahapus Error Crawling Google Webmasters

Cara Mengahapus Error Crawling Google Webmasters

Written By jack sparrow on Thursday, February 2, 2012 | 3:13 PM

Pada posting terdahulu saya mengulas tentang cara menghindari error crawling. Untuk session lanjutan, sekarang saya akan membahas cara menghapus error crawling webmaster tool yang sudah terlanjur ada pada blog kita. Kita menyadari bahwa penempatan link yang salah pada blog banyak sekali kemungkinan untuk terjadi. Dan selanjutnya akan terjadi error 404 not found pada saat link tersebut ditelusuri. Lalau bagaimana caranya supaya kita bisa menghapus error crawling tersebut ? untuk melakukannnya sangat mudah sobat blogger, tapi proses penghapusannya yang memakan waktu cukup lama. Sejak saya mengajukan untuk mengahpus error tersebut sampai pada saat tulisan ini dimuat kira-kira satu bulan dan sekarangpun belum dihapus oleh webmasters tool. Jadi bagi yang sudah memiliki error crawling sabar aja ya... dan berusaha untuk insyaf. Hee.... heeee....
Ada dua macam error crawling :
A.   Page not found
Error ini terjadi karena server tidak dapat menemukan halaman yang diminta pada sebuah blog/web. Penyebab error ini biasanya karena penghapusan halaman pada blog. Jadi, untuk menghindari terjadinya error not found, sebaiknya jangan menghapus postingan maupun halaman yang telah terpublish. Jika anda menemukan crawl error yang ada di blog anda, maka segeralah dihapus agar proses crawling berjalan lancar.
Untuk dapat menghapusnya lakukan dengan cara :
1.   Login ke dashboard webmasters
2.   Klik tulisan tidak ditemukan
 
Maka kita akan dibawa kehalaman crawl error. Dan akan Nampak url-url yang tidak ditemukan.
3.   Copy url-url tersebut
4.   Masuk ke konfigurasi situs > akses perayap > URL removal lalu klik buat permintaan pernghapusan baru
5.   Paste kan url not found yang telah di copy tadi
6.   Lalu akan muncul 3 pilihan
Pilih saja hapus dari pencarian dan tembolok
Klik kirim permintaan
7.   Lakukan satu persatu untuk menghapus url yang not found tersebut sampai semuanya bersih dari error
A.   Restricted by robots.txt
Robots.txt adalah file yang digunakan oleh googlebot sebagai pedoman dalam melakukan crawling terhadap semua halaman blog. Isinya merupakan perintah. Bagian mana yang harus ditelusuri dan bagian mana yang dilarang ditelusuri (restricted)
Sebenarnya seberapa banyakpun daftar restricted by robots.txt, tidak akan mempengaruhi proses pengindex halaman blog kita.
Nah seperti itulah cara menghapus error crawling google wbmasters tool, mudah bukan sobat blogger ?
Makanya ayo sekarang mulai proses tersebut supaya blog kita mudah terindex oleh google.
Sekian dulu postingan artikel kali ini semoga bermanfaat. Salam sukses selalu
Share this article :

0 komentar:

Post a Comment

 
Support : Creating Website | Johny Template | Mas Template
Copyright © 2011. Belajar blog | SEO | Dan segalanya - All Rights Reserved
Template Modify by Creating Website Inspired Wordpress Hack
Proudly powered by Blogger