网站之前设置了robots禁止蜘蛛抓取所有页面,修改后一个星期了,还是显示限制搜索引擎抓取?(悬赏3元)

Դ51la统计

ߣ刷相关

18

2020-12-06 09:29:08

之前有几个月没打理网站就一直禁止蜘蛛抓取所有页面,最近更新了一些文章,title也修改了,但是搜索结果还是以前的。


提交了链接给百度,但一个星期了,百度搜索资源平台后台显示网站没有任何抓取和索引。


感谢大神们指点:www.chuangyeok.com

1、网站已Robots解封,恢复期建议2周内再看看;

2、先前是屏蔽整站,解封没多久,日常稳定做好提交推送,同时去百度站长反馈下;

3、robots封禁到解封,都是有响应周期,等待即可,同时百度站长持续反馈寻求协助;

4、这种需要搜索大更新的时候才能恢复你的快照,以2周为限。

答案:

最近百度改革,很慢的

答案:

这就是Robots文件还没有更新过来,还没有生效。

答案:

抓取诊断懂吧?其实这是一个手动让百度蜘蛛抓取的一个入口。

答案:

资源平台重新提交一下网站整站链接,再反馈一下吧!

答案:

去百度那边更新一下看看吧

答案:

到百度那边反馈一下 我之前也是这样

答案:

得给百度反应一段的时间,慢慢来不要着急

答案:

先去百度后台提交下 Robots 文件更新,看看反馈是否正常,然后测试下后台的抓取诊断,这些都没问题,证明网站可以被正常抓取,之后就稳定更新,提交链接,地图,发布一些外链,等待百度更新,百度判别也是有一定时间周期的,把这些步骤昨晚等恢复就好。

答案:

估计需要很长的恢复期

答案:

需要一段时间的缓冲吧!百度正常就这种速度!

答案:

多发点外链,引一下蜘蛛就好。不然就去百度人工客服找解决方案。

答案:

等百度反应过来吧

答案:

到百度站长平台进行Robots的检测更新,看看robots有没有错误

答案:

等一段时间,在看看

佭ϴý Ѷ Media8ý

在线客服

外链咨询

扫码加我微信

微信:juxia_com

返回顶部