我也搜索了一下,的确是这样的,百度的确开始收录Blogspot的内容了,不过等的时间也的确太长了,Blogspot已经整整可以访问一个多月的时间了,百度才慢腾腾地收录,我倒是感觉奇怪了,百度不是自称人工干预很在行吗?为什么不在这么大的事情上人工干预一下呢。我想恐怕还是因为百度空间和Blogspot的竞争关系吧。
Google 搜索联盟
2006年9月7日星期四
百度开始收录Blogspot的内容
前几天发现有人在谴责百度不收录Blogspot,于是百度的坚定支持者博清沉就沉不住气了,发表文章说目前百度开始收录Blogspot了。
2006年8月20日星期日
nofollow标签的使用
bestroi建议说一下nofollow,所以把以前写的一篇转过来。
nofollow是一年多前(好象)由Google领头新创的一个标签属性,目的是尽量减少垃圾链接对搜索引擎的影响。
Matt Cutts说过,这个标签的意义是告诉搜索引擎这个链接不是经过作者自己编辑的,所以这个链接不是一个信任票。搜索引擎看到这个标签就可能减少或完全取消链接的投票权重。
这个标签通常是用在博客的评论或论坛帖子中,因为这些地方是最多垃圾链接出现的地方。现在主流的博客和论坛软件都自动在评论和帖子的链接中加上了这个标签。
另外一个作用是,如果你在网站上卖广告,可以使用这个标签。因为买卖网页广告的初衷应该是流量,而不是PR值或试图影响搜索引擎排名。加上这个标签完全不会影响流量,但是有可能减少对搜索引擎排名的影响。
那么加了这个标签会把链接投票权重和PR传递值降为零吗?这一点是存有一些疑问的。如果我记的不错的话,Google,Yahoo,MSN表示支持这个标签。但是他们真的把这些链接的投票权重降为零吗?并没有肯定。
可以肯定的是,nofollow+博客评论或论坛帖子,这样的链接的投票权重可以忽略。
其他搜索引擎不一定支持这个标签,比如百度。就我观察的情况看,百度很可能不考虑这个标签,因为垃圾链接在百度还是很起作用的。
除了博客或论坛,在使用nofollow时要小心。想象一下,如果一个网站的导出链接都使用了nofollow标签,这显得自然吗?你向读者介绍一些网站,却告诉搜索引擎你不推荐这些网站?不可疑吗?受伤害的是其他人的网站,还是使用这个标签的网站呢?
以前也说过,害怕链接到其他网站是很多站长的一个误区,实际上链接到其他相关网站在很多时候会帮助你本身网站的排名。
但在博客评论和论坛帖子里面的链接就不一样了,这些链接是用户和读者自己加的,而不是网站拥有人或作者加的。在很多情况下,作者也不会去看这些链接去了什么网站。所以对这些网站的质量当然是不知道,并且不应该背书的。
读者如果有感而发,欢迎留评论,也欢迎留下签名链接。但是如果是想留个链接而留评论,那就不必了,不会有什么作用。
作者: Zac 原载: 点石互动搜索引擎优化博客
nofollow是一年多前(好象)由Google领头新创的一个标签属性,目的是尽量减少垃圾链接对搜索引擎的影响。
Matt Cutts说过,这个标签的意义是告诉搜索引擎这个链接不是经过作者自己编辑的,所以这个链接不是一个信任票。搜索引擎看到这个标签就可能减少或完全取消链接的投票权重。
这个标签通常是用在博客的评论或论坛帖子中,因为这些地方是最多垃圾链接出现的地方。现在主流的博客和论坛软件都自动在评论和帖子的链接中加上了这个标签。
另外一个作用是,如果你在网站上卖广告,可以使用这个标签。因为买卖网页广告的初衷应该是流量,而不是PR值或试图影响搜索引擎排名。加上这个标签完全不会影响流量,但是有可能减少对搜索引擎排名的影响。
那么加了这个标签会把链接投票权重和PR传递值降为零吗?这一点是存有一些疑问的。如果我记的不错的话,Google,Yahoo,MSN表示支持这个标签。但是他们真的把这些链接的投票权重降为零吗?并没有肯定。
可以肯定的是,nofollow+博客评论或论坛帖子,这样的链接的投票权重可以忽略。
其他搜索引擎不一定支持这个标签,比如百度。就我观察的情况看,百度很可能不考虑这个标签,因为垃圾链接在百度还是很起作用的。
除了博客或论坛,在使用nofollow时要小心。想象一下,如果一个网站的导出链接都使用了nofollow标签,这显得自然吗?你向读者介绍一些网站,却告诉搜索引擎你不推荐这些网站?不可疑吗?受伤害的是其他人的网站,还是使用这个标签的网站呢?
以前也说过,害怕链接到其他网站是很多站长的一个误区,实际上链接到其他相关网站在很多时候会帮助你本身网站的排名。
但在博客评论和论坛帖子里面的链接就不一样了,这些链接是用户和读者自己加的,而不是网站拥有人或作者加的。在很多情况下,作者也不会去看这些链接去了什么网站。所以对这些网站的质量当然是不知道,并且不应该背书的。
读者如果有感而发,欢迎留评论,也欢迎留下签名链接。但是如果是想留个链接而留评论,那就不必了,不会有什么作用。
作者: Zac 原载: 点石互动搜索引擎优化博客
2006年8月14日星期一
Google搜索南京大屠杀的谣言背后
关于Google的这则谣言已经传播了很长时间了,我一开始对于这样的低级谣言非常不屑,但是随着这则谣言的大量传播,我发现事情开始变得开始有意思了,我现在感兴趣的事情是,对于这样一则一眼就能分辨出事实真相的谣言,为什么传播起来却有愈演愈烈的事态呢?这到底说明了什么呢?这背后的原因又是什么?
这则谣言说的是,在Google搜索引擎里,搜索“南京大屠杀”或“钓鱼岛”,出现的是:“该页无法显示”的提示,而且在以后的短时间内,将不能使用Google进行搜索,但是如果先搜索“尖阁列岛”,就可以搜到结果。因此,这是丑恶的亲日反华的美国鬼子企图从互联网上对我国进行信息封锁!用心极其险恶!
Google真的搜索不了吗?非也,使用代理即可搜索,如下图,这显然不是Google搜索引擎的问题,而是中间的线路中有某个东西阻止我们进行搜索。Google.COM不会对中国用户进行信息封锁,即使有封锁,那也是另有他人。这就是最基本的事实。
对于这么一个简单的问题,我本来觉得没有必要进行任何解释,然而令人吃惊的是,竟然有这么多年轻的网民对这则可笑的谣言深信不疑,并四处转发,这实在太出乎我的意料之外,同时我也对大量中国网民的网络知识水平竟然如此之低感到震惊,显然,太多太多的年轻小愤青对防火长城和金盾工程是一无所知,对于最基本的网络知识相当贫乏,缺少独立思考能力和判断力。这么大量的无知网民,一旦被某个公司或者某种势力利用起来,去实现某个阴谋,那么后果将不堪设想。
我相信这个事情一定会真相大白的,利用年轻人的愚昧无知来实现某个不可告人的目的,那是在玩火,愚昧无知的人是可怕的,因为愚昧无知往往给了这些人以巨大的勇气,使他们可以做一些正常人不敢或者不会去做的事情,而这些事情一旦失控,则受伤的往往可能是那些幕后主谋。
最后,对于那些整天沉迷于网络聊天或者网络游戏的无知的小朋友们,请你们在空闲时候不妨多学点知识和文化,相信这对你们只会有好处,不会有坏处的。
这则谣言说的是,在Google搜索引擎里,搜索“南京大屠杀”或“钓鱼岛”,出现的是:“该页无法显示”的提示,而且在以后的短时间内,将不能使用Google进行搜索,但是如果先搜索“尖阁列岛”,就可以搜到结果。因此,这是丑恶的亲日反华的美国鬼子企图从互联网上对我国进行信息封锁!用心极其险恶!
Google真的搜索不了吗?非也,使用代理即可搜索,如下图,这显然不是Google搜索引擎的问题,而是中间的线路中有某个东西阻止我们进行搜索。Google.COM不会对中国用户进行信息封锁,即使有封锁,那也是另有他人。这就是最基本的事实。
对于这么一个简单的问题,我本来觉得没有必要进行任何解释,然而令人吃惊的是,竟然有这么多年轻的网民对这则可笑的谣言深信不疑,并四处转发,这实在太出乎我的意料之外,同时我也对大量中国网民的网络知识水平竟然如此之低感到震惊,显然,太多太多的年轻小愤青对防火长城和金盾工程是一无所知,对于最基本的网络知识相当贫乏,缺少独立思考能力和判断力。这么大量的无知网民,一旦被某个公司或者某种势力利用起来,去实现某个阴谋,那么后果将不堪设想。
我相信这个事情一定会真相大白的,利用年轻人的愚昧无知来实现某个不可告人的目的,那是在玩火,愚昧无知的人是可怕的,因为愚昧无知往往给了这些人以巨大的勇气,使他们可以做一些正常人不敢或者不会去做的事情,而这些事情一旦失控,则受伤的往往可能是那些幕后主谋。
最后,对于那些整天沉迷于网络聊天或者网络游戏的无知的小朋友们,请你们在空闲时候不妨多学点知识和文化,相信这对你们只会有好处,不会有坏处的。
2006年8月8日星期二
有感于Google不能搜索“南京大屠杀”
有些人发现,使用Google搜索“南京大屠杀”后将不会带来返回页面,而是一个无法显示的页面,而搜索其他词会正常返回结果页。无法搜索后而且会暂时性的无法访问google,得过几分钟才能再次使用Google搜索。
有些人于是得出结论,这是Google对中国的封锁。其实这是一个误解,被屏蔽的关键字不是“南京大屠杀”,绝对不是的。只要我们搜索一下“东京大屠杀”、“北京大屠杀”、“西京大屠杀”这些关键字看看,是不是同样的结果?然后,你再搜索一下“屠杀”看看,你看到了什么?如果还不满意,那么用英文YAHOO搜索一下,你又看到了什么?
你看到了什么呢?是“该页无法显示”。
是的,被屏蔽的关键字是“屠杀”。
为什么要屏蔽“屠杀”呢,原因很简单-“凡是贼,都是心虚的。”
以前做过一些不光彩的事情,总是不希望别人知道,所以要屏蔽,屏蔽“屠杀”,只要屏蔽了,就不会有人知道,没有人知道,心里自然就踏实多了。
人的一生,不过百年。一旦死去,就一了百了。我就相信人一定会下地狱而不是上天堂。然而,作恶太多人,是不是就真的不害怕下地狱吗?这是我感兴趣的问题,或许,真正到了那一天的时候,我们就会得到答案。
有些人于是得出结论,这是Google对中国的封锁。其实这是一个误解,被屏蔽的关键字不是“南京大屠杀”,绝对不是的。只要我们搜索一下“东京大屠杀”、“北京大屠杀”、“西京大屠杀”这些关键字看看,是不是同样的结果?然后,你再搜索一下“屠杀”看看,你看到了什么?如果还不满意,那么用英文YAHOO搜索一下,你又看到了什么?
你看到了什么呢?是“该页无法显示”。
是的,被屏蔽的关键字是“屠杀”。
为什么要屏蔽“屠杀”呢,原因很简单-“凡是贼,都是心虚的。”
以前做过一些不光彩的事情,总是不希望别人知道,所以要屏蔽,屏蔽“屠杀”,只要屏蔽了,就不会有人知道,没有人知道,心里自然就踏实多了。
人的一生,不过百年。一旦死去,就一了百了。我就相信人一定会下地狱而不是上天堂。然而,作恶太多人,是不是就真的不害怕下地狱吗?这是我感兴趣的问题,或许,真正到了那一天的时候,我们就会得到答案。
2006年8月2日星期三
如何写robots.txt
在国内,网站管理者似乎对robots.txt并没有引起多大重视,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作。
robots.txt基本介绍
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
robots.txt写作语法
首先,我们来看一个robots.txt范例:http://www.csswebs.org/robots.txt
访问以上具体地址,我们可以看到robots.txt的具体内容如下:
# Robots.txt file from http://www.csswebs.org# All robots will spider the domain
User-agent: *Disallow:
以上文本表达的意思是允许所有的搜索机器人访问www.csswebs.org站点下的所有文件。
具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。
下面,我将列举一些robots.txt的具体用法:
允许所有的robot访问
User-agent: *Disallow:
或者也可以建一个空文件 “/robots.txt” file
禁止所有搜索引擎访问网站的任何部分
User-agent: *Disallow: /
禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)
User-agent: *Disallow: /01/Disallow: /02/Disallow: /03/
禁止某个搜索引擎的访问(下例中的BadBot)
User-agent: BadBotDisallow: /
只允许某个搜索引擎的访问(下例中的Crawler)
User-agent: CrawlerDisallow:
User-agent: *Disallow: /
另外,我觉得有必要进行拓展说明,对robots meta进行一些介绍:
Robots META标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots META标签也是放在页面的<head></head>中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。
Robots META标签的写法:
Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。
INDEX 指令告诉搜索机器人抓取该页面;
FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
Robots Meta标签的缺省值是INDEX和FOLLOW,只有inktomi除外,对于它,缺省值是INDEX,NOFOLLOW。
这样,一共有四种组合:
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”><META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”><META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”><META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>
其中
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>可以写成<META NAME=”ROBOTS” CONTENT=”ALL”>;
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>可以写成<META NAME=”ROBOTS” CONTENT=”NONE”>
目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。例如:
<META NAME=”googlebot” CONTENT=”index,follow,noarchive”>
表示抓取该站点中页面并沿着页面中链接抓取,但是不在GOOLGE上保留该页面的网页快照。
特别说明,本文章的写作参考了一些网络信息,robin只是按照自己的思路对信息进行整理。
http://www.dunsh.org/2006/08/02/robotstxt/
robots.txt基本介绍
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
robots.txt写作语法
首先,我们来看一个robots.txt范例:http://www.csswebs.org/robots.txt
访问以上具体地址,我们可以看到robots.txt的具体内容如下:
# Robots.txt file from http://www.csswebs.org# All robots will spider the domain
User-agent: *Disallow:
以上文本表达的意思是允许所有的搜索机器人访问www.csswebs.org站点下的所有文件。
具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。
下面,我将列举一些robots.txt的具体用法:
允许所有的robot访问
User-agent: *Disallow:
或者也可以建一个空文件 “/robots.txt” file
禁止所有搜索引擎访问网站的任何部分
User-agent: *Disallow: /
禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)
User-agent: *Disallow: /01/Disallow: /02/Disallow: /03/
禁止某个搜索引擎的访问(下例中的BadBot)
User-agent: BadBotDisallow: /
只允许某个搜索引擎的访问(下例中的Crawler)
User-agent: CrawlerDisallow:
User-agent: *Disallow: /
另外,我觉得有必要进行拓展说明,对robots meta进行一些介绍:
Robots META标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots META标签也是放在页面的<head></head>中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。
Robots META标签的写法:
Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。
INDEX 指令告诉搜索机器人抓取该页面;
FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
Robots Meta标签的缺省值是INDEX和FOLLOW,只有inktomi除外,对于它,缺省值是INDEX,NOFOLLOW。
这样,一共有四种组合:
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”><META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”><META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”><META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>
其中
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>可以写成<META NAME=”ROBOTS” CONTENT=”ALL”>;
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>可以写成<META NAME=”ROBOTS” CONTENT=”NONE”>
目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。例如:
<META NAME=”googlebot” CONTENT=”index,follow,noarchive”>
表示抓取该站点中页面并沿着页面中链接抓取,但是不在GOOLGE上保留该页面的网页快照。
特别说明,本文章的写作参考了一些网络信息,robin只是按照自己的思路对信息进行整理。
http://www.dunsh.org/2006/08/02/robotstxt/
2006年7月30日星期日
Blogger解封了吗
不知道发生了什么事情,Google的Blogger突然解封,现在blogspot.com终于可以正常访问了。
不知道这样的好事能持续多久,因为以前出现过blogspot暂时被解封,而后又继续被封的现象,如果其真的可以一直解封的话,国内的博客们就又有一个新的托管地址了。
另外值得一提的是昨天封的FeedBurner也同时被解封,希望这次解封不要是短暂的一刻,具体是什么状况还需要长期观察一下。
下午之后,发现blogspot.com又无法访问了,因此怀疑,可能是blogspot.com更改了IP地址,所以才导致简短的“解封”,然而之后又被强行封锁。
不知道这样的好事能持续多久,因为以前出现过blogspot暂时被解封,而后又继续被封的现象,如果其真的可以一直解封的话,国内的博客们就又有一个新的托管地址了。
另外值得一提的是昨天封的FeedBurner也同时被解封,希望这次解封不要是短暂的一刻,具体是什么状况还需要长期观察一下。
下午之后,发现blogspot.com又无法访问了,因此怀疑,可能是blogspot.com更改了IP地址,所以才导致简短的“解封”,然而之后又被强行封锁。
2006年7月16日星期日
百度最近有点烦
最近一段时间,关于百度的各种消息可谓是层出不穷。
7月13日,百度首次风风光光地举行“百度世界大会”,同日发布百度空间。然而更吸引人眼球的是百度大会开始前几天的裁员事件,整个企业软件事业部被裁撤。
其实,这个部门是我目前唯一接触过的百度的部门,他们主要做的是一套名为“竞争情报分析系统”的软件,几年前曾经到我公司来推销,正好由我负责协助他们进行软件安装。当然,安装的过程让我发现这和普通软件安装是多么不同-先格式化硬盘,再装了N小时的Linux系统,然后安装他们的爬虫程序,最后是Web端的系统,其原理我大概也明白,就是根据给定的关键字自动去竞争对手的网站搜索有价值的信息,我当时就有个疑问,为什么不去用搜索引擎直接去进行站内搜索,虽然时间可能会慢一些,但是效果应该差不多。我们公司试用了一段时间,发现每天收集的内容倒是不少,但是太多太杂,分拣出有价值的信息需要不少人力去完成,作用不是很明显,因此也就没有采购这个软件。后来百度推出了“邮件新闻订阅”和“RSS新闻订阅”,实际上也可以完成几乎相同的功能,而且是免费的。
或许是因为这个部门的盈利相对来说比较少,于是7月10日这一天,在全国拥有数十名员工的百度企业软件事业部被全部“清洗”,仅有极少数员工被内部转岗(约20人)或暂时留下进行ES业务的善后工作。
更令人质疑的是,整个裁员过程显得相当粗暴和突然,很多员工事先并不知情,7月10日下午召开会议后,被裁员工就被告知邮箱等帐号将会被注销,其间员工4个小时的时间来办理交接手续,将笔记本、门卡等物品交还公司,下班前必须离开公司。据称,百度对于辞退员工的赔偿方案偏低,辞退员工“损失期权达千万”,并且离职1年内不得进入竞争对手的公司工作。
百度的这种做法是否符合《劳动法》规定呢?“公司因节省成本或转型进行的裁员,必须提前30天向员工提出。”有媒体援引知名互联网法律专家于国富律师的话评论说,“这种情况下,百度应该提前30天通知员工,在几个小时内将一个部门几乎所有的员工裁掉,显然不符合《劳动法》的规定。百度所支付的‘N+1’赔偿金方案并无不妥之处,但如果被裁员工对赔偿金不满意,可以向劳动争议仲裁委员会提出仲裁要求,如胜诉则可得到(N+1)×125%的赔偿。”
更有意思的是,昨天自称“百度被裁员工”者在“向百度追债博客”上曝光的一段百度裁员录音让几天前发生的“百度闪电裁员”事件更加扑朔迷离。该人在其博客上声称,会动用法律武器让百度“把工资给我结算清楚”。该人士所提供了一段“百度裁员录音”显示,被指为“百度人力资源部门相关人士”的人在通知他“工作没有得到领导满意”时,声称将以月薪600元的待遇标准将他调动到技术支持部门,并要求他在相关的协议上签字,否则公司将无法安排合理的职位。而在此之前,该人士自称月薪为7000元。
裁员门还没过,竟然又来了一个录音门,昨天又出了一个抄袭门,就是百度CTO刘建国对记者说,其实百度也被Google抄袭了,“我们有新窗口打开功能他们没有,他们后来也学习了。从这个意义讲,他们也是抄袭。”
这位刘建国同学实在是太可爱了,看来我也要把我网站所有的“target=_blank”属性都去掉了,免得也落下一个“抄袭百度”的罪名啊。
7月13日,百度首次风风光光地举行“百度世界大会”,同日发布百度空间。然而更吸引人眼球的是百度大会开始前几天的裁员事件,整个企业软件事业部被裁撤。
其实,这个部门是我目前唯一接触过的百度的部门,他们主要做的是一套名为“竞争情报分析系统”的软件,几年前曾经到我公司来推销,正好由我负责协助他们进行软件安装。当然,安装的过程让我发现这和普通软件安装是多么不同-先格式化硬盘,再装了N小时的Linux系统,然后安装他们的爬虫程序,最后是Web端的系统,其原理我大概也明白,就是根据给定的关键字自动去竞争对手的网站搜索有价值的信息,我当时就有个疑问,为什么不去用搜索引擎直接去进行站内搜索,虽然时间可能会慢一些,但是效果应该差不多。我们公司试用了一段时间,发现每天收集的内容倒是不少,但是太多太杂,分拣出有价值的信息需要不少人力去完成,作用不是很明显,因此也就没有采购这个软件。后来百度推出了“邮件新闻订阅”和“RSS新闻订阅”,实际上也可以完成几乎相同的功能,而且是免费的。
或许是因为这个部门的盈利相对来说比较少,于是7月10日这一天,在全国拥有数十名员工的百度企业软件事业部被全部“清洗”,仅有极少数员工被内部转岗(约20人)或暂时留下进行ES业务的善后工作。
更令人质疑的是,整个裁员过程显得相当粗暴和突然,很多员工事先并不知情,7月10日下午召开会议后,被裁员工就被告知邮箱等帐号将会被注销,其间员工4个小时的时间来办理交接手续,将笔记本、门卡等物品交还公司,下班前必须离开公司。据称,百度对于辞退员工的赔偿方案偏低,辞退员工“损失期权达千万”,并且离职1年内不得进入竞争对手的公司工作。
百度的这种做法是否符合《劳动法》规定呢?“公司因节省成本或转型进行的裁员,必须提前30天向员工提出。”有媒体援引知名互联网法律专家于国富律师的话评论说,“这种情况下,百度应该提前30天通知员工,在几个小时内将一个部门几乎所有的员工裁掉,显然不符合《劳动法》的规定。百度所支付的‘N+1’赔偿金方案并无不妥之处,但如果被裁员工对赔偿金不满意,可以向劳动争议仲裁委员会提出仲裁要求,如胜诉则可得到(N+1)×125%的赔偿。”
更有意思的是,昨天自称“百度被裁员工”者在“向百度追债博客”上曝光的一段百度裁员录音让几天前发生的“百度闪电裁员”事件更加扑朔迷离。该人在其博客上声称,会动用法律武器让百度“把工资给我结算清楚”。该人士所提供了一段“百度裁员录音”显示,被指为“百度人力资源部门相关人士”的人在通知他“工作没有得到领导满意”时,声称将以月薪600元的待遇标准将他调动到技术支持部门,并要求他在相关的协议上签字,否则公司将无法安排合理的职位。而在此之前,该人士自称月薪为7000元。
裁员门还没过,竟然又来了一个录音门,昨天又出了一个抄袭门,就是百度CTO刘建国对记者说,其实百度也被Google抄袭了,“我们有新窗口打开功能他们没有,他们后来也学习了。从这个意义讲,他们也是抄袭。”
这位刘建国同学实在是太可爱了,看来我也要把我网站所有的“target=_blank”属性都去掉了,免得也落下一个“抄袭百度”的罪名啊。
订阅:
博文 (Atom)