2019-01-11
264
0
禁止搜索引擎收录后网站一直有排名怎么办?这个问题可能需要从以下多个方面分析:
1、为什么要禁止搜索引擎收录网站?
2、怎么禁止搜索引擎收录网页?
3、禁止搜索引擎收录后网页仍然有排名是什么原因?
4、禁止搜索引擎收录后网站一直有排名怎么办?
下面,由北京网站制作公司金方时代来给大家一一回答吧 :
1、为什么要禁止搜索引擎收录网站?
答:这个问题一般有几种情况,常见的是:
①网站在上线初期还没有做好,内容没有填充,但需要上线测试的时候,为了防止搜索引擎收录测试的未完成页面和未调整的TDK而影响之后的优化,便会需要采取这种方式来禁止;
②第二种常见的原因是网站本身被多个域名绑定后没有做301重定向,或者有其他网站需要跟该网站一样(如做百度推广),但有一个网站要主做SEO的时候,比如像金方时代的http://www.bjjfsd.cn 和http://www.bjjfsd.com 中,.cn的域名因为是企业备案的百度竞价推广账户,主要用于百度、360付费推广,而.com则主要用于SEO,那么我们便需要屏蔽禁止掉.cn的域名搜索引擎的收录。
③第三种情况多见于大型商城类网站,如:淘宝天猫的网站,为了禁止搜索引擎收录其内容,保证网站内容的实时性,则对所有搜索引擎进行了全站禁止收录!另外还有就是百度知道、文库、经验等内容对360搜索也进行了全站禁止收录,不过这就涉及到搜索引擎之间的竞争了,我们不多讲。
2、怎么禁止搜索引擎收录网页?
常用的禁止搜索引擎收录的方式有两种:
①新建一个命名为“robots”的文本文件,robots文件是搜索引擎和网站之间的一个协议,设置搜索引擎和网站之间的协议,User-agent:* 表示和所有搜索引擎协议适用;Disallow:/ 表示禁止抓取收录全站;
如果只是禁止某一个搜索引擎抓取收录网站的某一个目录,比如要禁止百度抓取收录jinzhi目录,则:User-agent:baiduspider Disallow:/jinzhi/保存文件后,把文件上传到服务器根目录,即表示搜索引擎和网站之间的协议生效,可以禁止搜索引擎抓取收录网站内容。
②除了设置robots协议之外,还可以在网页代码里面设置。在网页<head></head>之间加入<meta name="robots" content="noarchive">代码。表示禁止所有搜索引擎抓取网站和显示快照;
如果要针对某一个搜索引擎禁止抓取,在网页<head></head>之间加入<meta name="baiduspider" content="noarchive">代码,表示禁止百度抓取,<meta name="googlebot" content="noarchive">表示禁止谷歌抓取,其他的搜索引擎一样原理。
3、禁止搜索引擎收录后网页仍然有排名是什么原因?
那么,说了那么多,不管是通过什么方式禁止搜索引擎收录之后,仍然在百度等搜索引擎有排名的原因是什么呢?当然,首先要确定robots协议是否生效一般看到搜索出来的网站标题和域名是这个网站,但描述会显示:“由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述 - 了解详情”的原因是什么呢?
还有诸如:淘宝网等网站均采用了robots协议之后,仍然能存在于各大搜索引擎,且仍然拥有很好的排名!这种情况其实在搜索引擎来说也很好理解,因为虽然网站主动提交了禁止搜索收录,但由于这类网站本身的流量非常高!网民和用户都会通过各种渠道最终进入网站,而进入网站的过程可能会有搜索引擎蜘蛛不断爬行、经过!最终因为基于搜索引擎优化和用户体验的原因,百度等均对该类网站进行了标题收录,而描述等则被隐藏。
当然造成这种结果的原因大多是因为:网站本身权重比较高,域名时间较长等,在搜索引擎的认知中这类网站属于“优质”网站。因此各搜索引擎仍然会只通过标题和域名便能阶段性的在禁止收录后仍然判定其排名!
4、禁止搜索引擎收录后网站一直有排名怎么办?
如果要解决这个问题,那首先得搞清楚我们是为了什么而要禁止搜索引擎收录网站?是因为网站临时性需求?还是因为出现了重复网站在优化的过程中需要禁止其中一个呢?或者是因为其他原因?找到问题之后,相信一定会有解决办法!如:将网站301永久重定向到其他域名或者闭站保护等都是有效的屏蔽网站排名的好办法。
当然了,大多数网站不管是在推广营销还是在优化过程中,当然排名越多越好,越靠前越好!不过其中也可能出现其他各种如禁止搜索引擎收录等的问题,我们都是有办法解决的!
原文链接出自:http://www.bjjfsd.com/index_show_catid_28_id_487.html