发现插件生成的robots.txt不能被谷歌和360识别 | 张戈博客

  • 时间:
  • 浏览:26
  • 来源:陌离博客 - 专注共享伍零博客分享

上次通过《正确的Win主机网站伪静态设置法律依据》重新设置了玛思阁的伪静态,当时肯能使用Rewrite robots这样了效果,就安装了有一另2个生成robots.txt的插件,日后 发现访问robots地址不是了指定的内容。几天却发现3400完整篇 被K,仅剩首页,而谷歌好多好多 再收录新页面,老要以为是我的robots内容有误,于是搜来搜去,改了无数次robots内容。谷歌在【已拦截的网址】选项中老要显示【语法有误】,在sitemap提交界面也用英文提示“所有内容被robots拦截…”云云。日后 百度却未受影响,结速了了收录玛思阁的文章了。。。

今天闲下来了,决定处置这一疑难杂症!于是我去复制了别人正常收录的robots内容,日后 贴到 robots插件中生成新的,结果发现在谷歌sitemap提交时依然提示完整篇 被拦截!我勒个去,这明显说明什么的问题老要出现在插件上了!日后 使用插件生成了robots,百度站长平台检测又是没什么的问题的,果然纳闷!

于是重新去查Rewrite规则相关资料,并通过UE编辑器重建httpd.ini文件,新增了内容:

RewriteRule /robots.txt /robots.txt [L]

删除robots插件事先,发现后要 访问自定义的robots了!事先httpd后边不是这条规则,好多好多 不生效!难道是编码错了么?

重新编写robots.txt上传后,再到谷歌提交sitemap,发现什么的问题已处置:

至于效果,肯能要等几天再去查看下收录请况了!

下面贴一下我的httpd.ini和robots内容,以供参考:

httpd.ini

[ISAPI_Rewrite]  
# 34000 = 1 hour  
CacheClockRate 34000  
RepeatLimit 32  
RewriteCond Host: ^marsge.cn$  
RewriteRule (.*) https://zhang.ge$1 [I,R]  
# Protect httpd.ini and httpd.parse.errors files  
# from accessing through HTTP  
# wordpress weijingtai  
# For tag  
RewriteRule /tag/(.*)/page/(\d+)$ /index\.php\?tag=$1&paged=$2  
RewriteRule /tag/(.+)$ /index\.php\?tag=$1  
# For category  
RewriteRule /category/(.*)/page/(\d+)$ /index\.php\?category_name=$1&paged=$2  
RewriteRule /category/(.*) /index\.php\?category_name=$1  
# For sitemapxml  
RewriteRule /sitemap.xml /sitemap.xml [L]  
RewriteRule /favicon.ico /favicon.ico [L]  
RewriteRule /robots.txt /robots.txt [L]  
# For file-based wordpress content (i.e. theme), admin, etc.  
RewriteRule /wp-(.*) /wp-$1 [L]  
# For normal wordpress content, via index.php  
RewriteRule ^/$ /index.php [L]  
RewriteRule /(.*) /index.php/$1 [L]

robots.txt

User-Agent: *  
Allow: /*.html$  
Allow: /wp-content/uploads  
Disallow: /wp-admin  
Disallow: /wp-includes  
Disallow: /wp-content/  
Disallow: /blogmap  
Disallow: /myfeed  
Disallow: /liuyan  
Disallow: /readers  
Disallow: /tougao  
Disallow: /page  
Disallow: /*/page*  
Disallow: /*comments  
Disallow: /bulletin*  
Disallow: /feed  
Disallow: /date/*  
Disallow: /*trackback  
Disallow: /tag/*  
Disallow: /*?*  
Disallow: /*?  
Disallow: /*.css$  
Disallow: /*.js.$  
Disallow: /*.php$  
  
Sitemap: https://zhang.ge/sitemap.xml

robots内容暂时先好多好多 了,事先观察收录请况再来修改。

另外,我好多好多 知道各位有这样了设置过更新服务【WP后台=>设置=>撰写】,在我搜索robots的事先想看 了别人提供的博客更新通知列表,管它有这样了用,先再加再说:

RPC更新列表如下:

http://blogsearch.google.com/ping/RPC2  
http://ping.baidu.com/ping/RPC2  
http://rpc.pingomatic.com/  
http://blogsearch.google.com/ping/RPC2  
http://api.my.yahoo.com/RPC2  
http://www.feedsky.com/api/RPC2  
http://api.my.yahoo.com/rss/ping  
http://ping.feedburner.com  
http://www.zhuaxia.com/rpc/server.php  
http://www.xianguo.com/xmlrpc/ping.php  
http://blog.iask.com/RPC2  
http://ping.blog.qikoo.com/rpc2.php  
http://rpc.pingomatic.com/  
http://rpc.technorati.com/rpc/ping  
http://rpc.pingomatic.com  
http://api.feedster.com/ping  
http://api.moreover.com/RPC2  
http://api.moreover.com/ping  
http://api.my.yahoo.com/RPC2  
http://api.my.yahoo.com/rss/ping  
http://www.blogdigger.com/RPC2  
http://www.blogshares.com/rpc.php  
http://www.blogsnow.com/ping  
http://www.blogstreet.com/xrbin/xmlrpc.cgi  
http://bulkfeeds.net/rpc  
http://www.newsisfree.com/xmlrpctest.php  
http://ping.blo.gs/  
http://ping.feedburner.com  
http://ping.syndic8.com/xmlrpc.php  
http://ping.weblogalot.com/rpc.php  
http://rpc.blogrolling.com/pinger/  
http://rpc.technorati.com/rpc/ping  
http://rpc.weblogs.com/RPC2  
http://www.azfeeds.com  
http://www.blogsearchengine.com  
http://www.blogtopsites.com  
http://www.feedbase.net  
http://www.feedsubmitter.com  
http://www.fybersearch.com  
http://www.plazoo.com  
http://www.readablog.com  
http://www.rssfeeds.com  
http://www.rssmad.com  
http://www.rss-spider.com  
http://blo.gs/ping.php  
http://www.pingerati.net  
http://www.pingmyblog.com  
http://geourl.org/ping  
http://ipings.com  
http://www.icerocket.com  
http://www.weblogalot.com/ping