企师爷

请上传logo 请上传logo

网站误封Robots文件如何处理

2022-01-14 16:53:09 胡斌

网站误封Robots文件应该如何处理


网站误封Robots文件处理方案:


1、把封禁Robots文件修改为允许,到百度站长后台检测并更新Robots;


2、如果百度站长后台检测显示还是为抓取失败,您可以尝试多点击几次,触发蜘蛛抓取站点;


3、百度站长后台抓取频次,申请抓取频次上调;


4、到百度反馈中心反馈问题,因为哪些问题导致误封Robots文件;


5、百度站长后台链接提交处设置数据主动推送;


6、更新Sitemap网站地图提交给百度,建议每天手工提交一次;



robots.txt


robots.txt是什么?


有没有想过,如果我们某个站点不让百度和google收录,那怎么办?


搜索引擎已经和我们达成一个约定,如果我们按约定那样做了,它们就不要收录。


这个写约定的的文件命名为:robots.txt。


robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。


关于robots.txt一般站长需要注意以下几点:


1、如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。


2、必须命名为:robots.txt,都是小写,robot后面加"s"。


3、robots.txt必须放置在一个站点的根目录下。如:通过https://www.seowhy.com/robots.txt 可以成功访问到,则说明本站的放置正确。


4、一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。


5、观察这个页面并修改为自己的:https://www.seowhy.com/robots.txt


6、有几个禁止,就得有几个Disallow函数,并分行描述。


7、至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: /  (注:只是差一个斜杆)。


补充说明:


User-agent: *  星号说明允许所有搜索引擎收录


Disallow: /search.html  说明https://www.seowhy.com/search.html 这个页面禁止搜索引擎抓取。


Disallow: /index.php?  说明类似这样的页面http://www.seowhy.com/index.php?


search=%E5%A5%BD&action=search&searchcategory=%25 禁止搜索引擎抓取。

工作时间:09:00-18:00
0731-8552-2587
关注我们

关注“柒点传媒”

关注“企师爷”

首页
产品
投资
联系