一个合格的织梦dedecms网站,必须在根目录下包含一下robots.txt文件,这个文件的作用对所有运营织梦dedecms网站的朋友来说并不陌生,网上也提供了很多制作robots.txt文件的方法和软件,可谓相当方便。 但是,你真的知道织梦dedecms网站的robots.txt文件设置是否合理,哪些文件或者目录需要屏蔽、哪些设置方法对织梦dedecms网站运营有好处? 那下面带着这些疑问,笔者会进行详细的解答,希望对新手站长朋友们有所帮助。 一、什么是robots.txt 笔者引用百度站长工具中后段话来解释。搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。 二、robots.txt文件对网站有什么好处 1、快速增加网站权重和访问量; 2、禁止某些文件被搜索引擎索引,可以节省服务器带宽和网站访问速度; 3、为搜索引擎提供一个简洁明了的索引环境 三、哪些网站的目录需要使用robots.txt文件禁止抓取 1)、图片目录 图片是构成网...
内容已隐藏,请关注公众号输入验证码查看
本帖支持关注公众号查看
【无套路 无套路 无套路 扫描二维码关注公众号发送【验证码】收到验证码 在上面输入点击提交查看即可显示隐藏内容】
|