时间:2010-05-04 18:01
seo教程第一章:搜索引擎排名原理
在讨论搜索引擎排名原理之前,我们先认识下搜索引擎的本质。搜索引擎的本质是信息聚合器。所以搜索引擎需要不断的索引更多最新的信息来满足用户的需求,这么多信息,质量有优略,与用户搜索的目标词汇的相关性有差异。这个时候,搜索引擎就需要有一个排名机制来控制信息的显示位置,哪些信息应该放在前面,哪些信息应该放在相对靠后的位置,都会有一些排名规则。
搜索引擎排名算法一直是搜索爱好者包括seo研究的热门话题,因为搞清楚一些排名算法的要点可以从中挖掘出很多商业价值。
枫林结合自己几年的研究来简单的分析下搜索引擎排名的一些规则和机制,按照上面的描述,搜索引擎旨在为用户提供最相关的信息,这样就有了信息相关性的判断,搜索引擎如何判断信息与用户输入的关键字是相关的呢?无非就是字符的匹配了,所以就有了关键字密度的概念了,关键字的密度会影响该关键字在搜索引擎的排名也就不难理解了,然而又有人会问,title和meta中包含大量的关键字密度很高啊,为什么有时候会被判作弊呢?当然为了不被人为因素利用,搜索引擎对一些区域也会做识别,如title过分堆积,meta过分堆积,alt堆积,或者肉眼看不到,spider能看到的那部分词汇。这样就有了搜索引擎反作弊这样的部门了,当然这也仅仅是作弊的一种方式,那么什么样关键字分布能使得信息与关键字达到良好匹配?这个也是我们后面要讲解的,欢迎继续关注。
另外,搜索引擎给用户提供最优质的信息,这点又如何判断呢?我们知道搜索引擎蜘蛛是机器,不具有情感,无法感性的判断信息的质量,所以只能有一个客观的条件去判断,就有了关注度的概念了,用户对这条信息的关注度越高,那么就认为他是最优质的了,那么怎么样才算是关注度最高的呢?这就有了反向链接的概念了,搜索引擎会识别一条信息(一个url)的外部链接数,都是哪些站点过来的链接(权重高低做一个划分),当然我们从外部来看就只能简单的看到链接数量越多,质量高的是关注度最高的,事实也证明了,这些信息搜索引擎都会把它们前置,当然也不是绝对的客观公证的,因为一些垃圾站点,有自己的链接资源,照样可以干预关注度,从而干预排名。有人这么比如链接与排名的关系,大致是这样的,排名就是一次选举,链接就是在投票,最终票数最多的,投票人都很有分身的会获胜。
这样我们就可以看到,决定搜索引擎自然排名两个因素:关注度和相关性,而且一般在seo界,将关注度(链接)的比重给到很高,至少在40%以上。
当然,除了自然排名,我们也会看到一些特例,如:权威站点(老域名或新闻源站点,dmoz目录收录的站点),搜索人工干预的站点(保护品牌),不过在众多网站中,这些也都算是九牛一毛了。