郑州SEO论坛-服务郑州广大SEO爱好者!

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 2801|回复: 2
打印 上一主题 下一主题

网站robots文件的写法 [复制链接]

282

主题

0

好友

1369

积分

SEO大师兄

Rank: 8Rank: 8Rank: 8Rank: 8

  • TA的每日心情
    无聊
    2016-6-20 11:50
  • 签到天数: 2 天

    [LV.1]SEO入门

    跳转到指定楼层
    楼主
    发表于 2015-1-4 10:23:49 |只看该作者 |倒序浏览
    在大家平时site:网站的时候或者刚改版完网站的时候是不是经常遇到一些页面和死链接是你不想让搜索引擎收录的,但是却被收录了,而且数量还很多的情况,作为一个SEO在优化过程中会遇到很多这样的问题,怎么做才可以减免甚至是避免这种情况发生呢?</p>
    <p>学会写robots.txt文件就可以避免这种情况的发生,它是一个存放在网站根目录下的文件,是一个协议
    ,当搜索引擎蜘蛛访问你的网站的时候就会先寻找网站根目录下是否有这个文件,这个文件的作用是告诉搜索引擎蜘蛛网站中什么可以被查看的,什么是不能抓取,这种就给了蜘蛛很好的引导,也免去了我们的后顾之忧。</p>
    <p>robots.txt文件要怎么写?
    一些格式我们要注意文字中每一行都应该是大写字母开头的命令,后面跟“:”,“:”号后必须跟个空格,必须以特定路径“/”开头。看到这里大家肯定会觉得很抽象,那就让我们来看看具体的写法: </p>
    <p>User-agent 针对的搜索类型
    Disallow 不允许
    Allow : 允许
    / 泛指目录也泛指特定路径
    * 通配符
    sitemap: 网站地图
    $ 特定页面,特定文件类型</p>
    <p>User-agent: * ;针对所有搜索引擎</p>
    <p>Disallow: ;允许所有
    Allow: / ;允许所有
    Disallow: / ;不允许所有
    Disallow: /img ;表示不允许抓取路径中含有IMG的所有文件和文件夹
    Disallow: /img/ ;表示不允许抓取img文件夹下的所有文件和文件夹
    Allow: /54.html ;表示所有以54.html结尾的都可以抓取
    Allow: /img/54.html ;表示允许抓取img文件夹下的54.html
    Disallow: /*.jpg$ ;表示不允许抓取所有的.JPG的文件</p>
    <p>针对User-agent有以下蜘蛛类型 :</p>
    <p>1、Baiduspider 百度机器人
    2、Googlebot 谷歌机器人
    3、Yahoo Slurp 雅虎机器人
    4、Sosospider 搜搜机器人
    5、sogou spider 搜狗机器人
    6、MSNBot Live MSN机器人</p>
    <p>总结:经过上述的说明,robots.txt文件你会写了吗?对它的功能、作用及重要性也应该有了一定的认识。在做了网站改版之后要将死链接写入robots文件,避免蜘蛛抓取死链接,然后提交百度站长工具进行删除,做SEO就是从每一个小细节做起,积累起来就能够成就排名。</p>
    </div>
                                                                    郑州seo论坛:https://www.0371zl.com

    分享到: QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
    收藏收藏0 支持支持0 反对反对0

    0

    主题

    0

    好友

    1111

    积分

    禁止发言

    该用户从未签到

    沙发
    发表于 2015-1-30 02:21:11 |只看该作者
    提示: 作者被禁止或删除 内容自动屏蔽
    回复

    使用道具 举报

    0

    主题

    0

    好友

    712

    积分

    等待验证会员

    该用户从未签到

    板凳
    发表于 2015-1-31 00:10:57 |只看该作者
    看了楼主的帖子,让我陷入了严肃的思考中
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    回顶部