当前位置:首页 百家号

禁止搜索引擎抓取网站内容的方法

发布时间:2021-01-02

    大家做seo都是在千方百计的让搜索引擎抓取和收录,但是其实很多情况下我们还需要禁止搜索引擎抓取和收录比如,公司内部测试的网站,或者内部网,或者后台登录的页面,肯定不希望被外面的人搜索到,所以要禁止搜索引擎抓取。
 

      那禁止搜索引擎抓取后会有什么效果呢?给大家发张禁止搜索引擎抓取网站的搜索结果截图:大家可以看到,描述没有被抓取到,而是有句提示:由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取)。       系统无法提供该页面的内容描述所以禁止搜索引擎收录其实是通过robots.txt文件来控制的百度官方对robots.txt的解释是这样的:Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。       9月11日,百度搜索robots全新升级。升级后robots将优化对网站视频URL收录抓取情况。仅当您的网站包含不希望被视频搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。       如您的网站未设置robots协议,百度搜索对网站视频URL的收录将包含视频播放页URL,及页面中的视频文件、视频周边文本等信息,搜索对已收录的短视频资源将对用户呈现为视频极速体验页。此外,综艺影视类长视频,搜索引擎仅收录页面URL.

本文地址:禁止搜索引擎抓取网站内容的方法:/news/case/4007.html

上一篇: Econsultancy:只有1%的消费者信任广告商调查他们的数据
下一篇: 东盟兴起现代消费主义:概览

Copyright © 2012-2021(tech.sysprice.com) 版权所有 Powered by 万站群

本站部份内容来源自网络,文字、素材、图片版权属于原作者,本站转载素材仅供大家欣赏和分享,切勿做为商业目的使用。

如果侵害了您的合法权益,请您及时与我们,我们会在第一时间删除相关内容!