baru aja liat di webmasters tools - crawler access. saya liat data ini: Blocked URLs: 140 Downloaded: 20 hours ago Status: 200 (success) itu artinya apa? apakah robots.txt saya malah ngeblok spider untuk mengindeks url-url saya? trus gimana cara benerinnya? thanks!!
aku juga ngalamain sama yang dimaksud mas bos TS, tapi blom tahu cara ngatasinnya dan kagak ngarti maksud yg sama persis dialamin sm mas bos TS.
ente coba test aja di google dengan mengetik site:namadomainagan.com klo ada hasilnya berarti ga ke block.
udah. ada kok hasilnya, tp banyak artikel yang terlempar ke halaman belakang pas dicek dengan keyword target (biasanya gk gini) yang jelas traffik anjlok drastis. artikel mengalami penurunan drastis di serp gimana caranya? saya baru aja resubmit sitemapnya....
sama gan, ane juga ngalamin hal serupa..udah resubmit sitemap berkali-kali, ganti setingan robot.txt, tapi tetp aja ke block...Para mastah, bantuin dong...
Facerank kalo seminggu belum keindex.. ... kalo yang ke block mungkin bisa bantu kalo yang belum keindex 100% patokannya facerank
Dulu pernah punya pengalaman seperti itu, kesalahan edit file robots.txt akhirnya telblokir. Kemudian ini yang saya lakukan: - Hari pertama, rubah file robots.txt agar tidak memblokir URL tersebut. - Hari kedua, submit ulang URL di Webmsters Tools (Dibagian Fetch as Googlebot, masukkan URL dan klik Fetch. Kemudian klik submit di bagian bawah). - Hari ke empat, kasih baclink (Saya dulu menggunakan social bookmarks). - Tunggu sampai kurang lebih 3-4 minggu. Kalau masih terblokir juga, lakukan langkah-langkah dari awal lagi. PS: Tidak berlaku untuk web news karena untuk news harus selalu uptodate. Semoga bisa membantu Tempat saya belajar robots.txt di sini _http://www.jevuska.com/2010/04/25/tutorial-robots-txt-berdasarkan-google-webmaster-tools (Sudah lama tidak ke situ, sepertinya ownernya sudah tidak mengurusinya lagi).
cmiiw, di webmasters tools kayaknya gk disebutin url mana aja yang diblokir. cuma dikasih tau jumlahnya aja deh....gimana cara taunya ya?