利用robots文件做seo优化,让蜘蛛更好的抓取网站

作者:华省省 , 分类:网络推广 , 浏览:52981 , 评论:5

  robots文件存在于网站根目录,是用来告诉百度蜘蛛那些应该抓取,那些不应该抓取。正确使用robots文件有助于做好seo优化,robots文件的核心词汇就是allow和disallow用法。百度官网是认可这个文件的,在百度站长平台上也有robots这个栏目,点击进入,就可以看到你网站robots文件是否编写正确了。

  

  百度robots文件使用说明

  

  ■1、robots.txt可以告诉百度您网站的哪些页面可以被抓取,哪些页面不可以被抓取。

  

  ■2、您可以通过Robots工具来创建、校验、更新您的robots.txt文件,或查看您网站robots.txt文件在百度生效的情况。

  

  ■3、Robots工具暂不支持https站点。

  

  ■4、Robots工具目前支持48k的文件内容检测,请保证您的robots.txt文件不要过大,目录最长不超过250个字符。

QQ截图~3.PNG


  上图我给的一个例子中,disallow语句有问题,原因是把英文的冒号写成了中文的冒号。

  

  当然直接输入网站根目录加上robtots.txt文件也可以

QQ截图~1.PNG


  User-agent:*   是用来置顶那些搜索引擎蜘蛛可以抓取的,一般默认设置

  

  Disallow:/category/*/page/ 分类目录下面翻页后的链接,比如,进入校赚网分类目录 "推广运营经验"目录后,在翻页一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了

  

  Disallow:/?s=* Disallow:/*/?s=*  搜索结果页面和分类目录搜索结果页面,这里没必要再次抓取。

  

  Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/   这三个目录是系统目录,一般都是屏蔽蜘蛛抓取

  

  Disallow:/*/trackback  trackback的链接

  

  Disallow:/feed Disallow:/*/feed Disallow:/comments/feed  订阅链接

  

  Disallow:/?p=*   文章短链接,会自动301跳转到长连接

  

  例如,朱海涛博客之前就被收录过短连接

QQ截图~2.PNG

Disallow:/*/comment-page-*   Disallow:/*?replytocom* 这两个我在之前文章有过说明,来自于评论链接,很容易造成重复收录。


在robots.txt文件的最后还可以制定sitemap文件 Sitemap:http://***.com/sitemap.txt


sitemap地址指令,主流是txt和xml格式。在这里分享一段张戈所写txt格式的simemap文件。


1.<?php
2.require('./wp-blog-header.php');
3.header("Content-type: text/txt");
4.header('HTTP/1.1 200 OK');
5.$posts_to_show = 1000; // 获取文章数量
6.?>
7.<?php echo 'http://'.$_SERVER['HTTP_HOST']; ?><?php echo "\n"; ?>
8.<?php
9./* 文章页面 */
10.header("Content-type: text/txt");
11.$myposts = get_posts( "numberposts=" . $posts_to_show );
12.foreach( $myposts as $post ) {
13.    the_permalink();
14.    echo "\n";
15.}
16.?>
17.<?php
18./* 单页面 */
19.$mypages = get_pages();
20.if(count($mypages) > 0) {
21.    foreach($mypages as $page) {
22.    echo get_page_link($page->ID);
23.    echo "\n";
24.    }
25.}
26.?>
27.<?php
28./* 博客分类 */
29.$terms = get_terms('category', 'orderby=name&hide_empty=0' );
30.$count = count($terms);
31.if($count > 0){
32.foreach ($terms as $term) {
33.    echo get_term_link($term, $term->slug);
34.    echo "\n";
35.    }
36.}
37.?>
38.<?php
39. /* 标签(可选) */
40.    $tags = get_terms("post_tag");
41.    foreach ( $tags as $key => $tag ) {
42.               $link = get_term_link( intval($tag->term_id), "post_tag" );
43.               if ( is_wp_error( $link ) ) {
44.                  return false;
45.                  $tags[ $key ]->link = $link;
46.               }
47.                  echo $link;
48.                  echo "\n";
49.    }
50.?>

将上述代码保存到txt文件,上传到根目录,并且在robots.txt文件中指定即可


这里给大家共享下我的robots.txt文件

User-agent: *

Disallow:/wp-admin/

Disallow: /*/comment-page-*

Disallow: /*?replytocom*

Disallow: /wp-content/

Disallow: /wp-includes/

Disallow: /category/*/page/

Disallow: /*/trackback

Disallow: /feed

Disallow: /*/feed

Disallow: /comments/feed

Disallow: /?s=*

Disallow: /*/?s=*\

Disallow: /attachment/

Disallow: /tag/*/page/

Sitemap: http://www.stcash.com/sitemap.xml

感谢【校赚网朱海涛】原创投稿(微信/QQ号:81433982)

版权说明:如非注明,本站文章均为 华省省 (QQ:283365526)原创,转载请注明出处和附带本文链接。

发表评论

必填

选填

选填

◎参与讨论,发表您的看法、交流您的观点,加我咱俩聊聊QQ:283365526

已有5位网友发表了看法:

1#点亮吧  2015-08-13 09:20:46 回复该评论
很不错的文章,值得参考
2#群伟伟博客  2015-08-13 11:57:29 回复该评论
文章不错,只是我已经在好多的地方看到了,不新鲜了,[嘻嘻]
大家想学更多干货的也可以来我的博客看看[嘻嘻]
3#婚嫁百科  2015-08-13 17:44:09 回复该评论
对的,robots写好了,事半功倍。。。
3#婚嫁百科  2015-08-13 17:44:58 回复该评论
向大神请教,看看baike.wed114.cn 的robots
4#老迷糊街拍  2015-10-13 18:19:08 回复该评论
我的网站今天的ip数量达到了12000,好高兴啊!
热门文章
    站长新闻
    IT创业
    好文分享
    热评文章
      华省省博客