相信科技改变生活,一个老程序员的闲言碎语。

为什么我的访问统计里有来自美国google的访问者?

内容简介:这是一篇关于a,google访问统计,google 访问统计的文章。站长有时候查看访问统计的时候,会发现经常有来自美国的ip访问,一追踪来源,有时候是google总部,有的是来自西雅图微软,这些莫名其妙的访问给站长添加了不少

站长有时候查看访问统计的时候,会发现经常有来自美国的ip访问,一追踪来源,有时候是google总部,有的是来自西雅图微软,这些莫名其妙的访问给站长添加了不少麻烦,有朋友怀疑,是不是google觉得自己作弊了,特地派人访问网站?是不是微软准备收购自己的网站……

事实上,这些访问并非来自人类,其访问来自google或者微软的搜索引擎内容抓取系统,你可以把他们理解为一种蜘蛛(spider)。而可能这样的解释还不让人满意,为什么这些蜘蛛,可以在访问统计里被查看到,不是说一般情况下,蜘蛛是无法被访问统计统计到的么?

访问统计的工作原理,通常是使用一段脚本,进行调用,只有执行了脚本,访问统计程序才会正常工作。而一般的蜘蛛,它只负责抓取页面,抓取的过程并没有,或者说根本无法执行脚本,这样访问统计就记录不到蜘蛛的访问。而市场上一些监控蜘蛛抓取的程序,要么是分析web日志,要么在蜘蛛访问动态页面的时候进行记录,对于静态页面无能为力。

而这种能被访问统计监测到的蜘蛛——姑且称为模拟蜘蛛——它和它的前辈们不同的是,它能够像浏览器一样,拥有解释,执行js脚本的能力。这种蜘蛛的出现,是为了加强搜索引擎索引的深度——你用js执行后所显示的内容,也能让搜素引擎抓取到,并且,有一部分利用早期搜索引擎无法抓取js的弱点,而是用js进行作弊,包括网页隐藏文字等手段,也能够通过这种方法识别出来。

因此,还在以“搜索引擎无法运行js脚本”为战略指导思想实施黑帽seo的朋友可要多一个心眼了。

上一篇:网站优化友情链接

首页的友情链接位置有限,如果说像一般的网站一样,pr上升之后吧原来的链接移到内页或者删除,又觉得有点不好意思。。。

下一篇:discuz论坛优化手记

这是一篇关于论坛优化,a,discuz浼樺寲的文章。2、增加百度互联网论坛收录协议 dizcus本身的百度互联网论坛收录协议不符合百度的要求,自己重新进行改写,生成的sitemap应该可以定时更新,并且位于根目录,文件名必须是b