网站建设中搜索引擎频繁更新算法
龙兵科技 2016-05-04
要理解搜索引擎为什么频繁更新算法首先需要明确一个问题,搜索引擎为何在近些年很受用户的欢迎?这个问题要从互联网的发展说起,互联网在最近10多年的发展可谓是翻天覆地,互联网的信息量更是有了很大的提升。10多年前一个网址导航站就能囊括很多的内容,这也就是hao123等网址导航网站成功的原因,那个时候用户对互联网内容的需求不大,进入网址导航网站就能轻松解决。
随着网站数量的激增和用户需求的提升,网址导航网站已经远远不能满足这种需求,这样搜索引擎的兴起便自然而然,搜索引擎的优点在于用户只需要输入需求的关键词就能检索出用户的需求,这个检索过程就是搜索引擎算法的排序过程。
开始的几年中站长对SEO都不是特别了解,更不懂得网络营销,作者清晰的记得那个时代大家都是一味的建站,音乐站、网摘站、论坛等等,大家都很少关注SEO,当然更谈不上作弊。
网站建设算法
后面逐渐大家对SEO有了一些深入的理解,很多站长开始意识到站网页堆砌关键词能获得更好的网站排名,黑帽SEO手法便很快的开始蔓延,一时间各种低质量垃圾网站出现在了搜索引擎的搜索结果,这样一来用户便无法从搜索结果中获取需求的信息,影响了用户的体验,长此以往下去,用户会放弃这样的搜索引擎,这样的局面导致搜索引擎开始不断的升级算法。下面我们从几个方面分析现阶段搜索引擎的处境和算法升级的必要性。
当前的主流搜索引擎大多采用第二代搜索技术:关键字检索技术,是基于数学统计与计算搭建的一个数据检索模型。这一技术指导下的检索逻辑是:关键词搜索请求(用户输入并搜索)》关键字分词匹配(分词计算)》数据库备选页面筛选(搜索主程序)》权重配比排名并反馈(搜索排名程序)》返回用户搜索结果页。
现阶段影响关键字搜索结果主要有三个因素。首先是分词算法,尤其类似中文这样语法复杂容易产生语境歧义的象形语言,现有搜索技术很难精确化地判断用户的检索需求。其次是页面权重,页面权重主要是根据用户实用的反馈数据做的基础评判,如站点流量、页面人均访问时间、入站链接数量质量、域名年龄、服务器稳定性及环境质量等。最后是页面关键词匹配度:页面的标题、描述、关键词定义、语法标签的强调、文字性内容与分词判断结果的匹配,而中文检索同样存在难精确匹配数据库中的网页问题。
因为第二代搜索技术的基础算法结构已定型,这样便容易被网站运营方利用而针对搜索引擎做包装,甚至作弊:如刷流量、页面标签人为的单一针对搜索程序的目标关键词匹配优化、页面内容的翻抄伪原创、入站链接的购买升值攻击方式获取的外链。这些直接影响检索结果的环节包装作弊成本相对较低,导致很多网站运营方为获取搜索流量而人为干预搜索结果。由于这一弊端无法根除,加之网络页面几何级数的增长,导致关键字检索方式无法更好地为搜索用户提供有价值的资讯和服务。
除此之外信息量猛增也是导致的搜索质量下降的主要原因。互联网正在高速的发展,对应的主要的信息载体——网页的数量类似拓扑结构一般几何级数的增长,对搜索引擎硬件环境及搜索检索方式产生了不利的挑战,搜索服务提供商的硬软件环境的维护成本持续地增长,而搜索收入的增长不能与此成本的增长相对应,导致搜索服务商提供的搜索服务质量无法适应新环境中的搜索需求。
用户语言的复杂化导致搜索语义判定的难度提升也是导致搜索结果质量下降的原因。互联网的交流越来越广、越来越深,不同语言文化之间的交融碰撞激烈,导致用户的语言结构发生变革,加之网络热点的造词、造句,广告语的创新,输入法软件的误读拼写错误,导致用户的网络用词发生结构性的变化,而这样的变化会持续地影响到网络用户的搜索输入习惯,加大了搜索引擎的分词判定难度,进而影响关键字检索的匹配精准度。
由此可以看出二代搜索引擎正在面临着互联网的又一次变革,像Google,百度这样的搜索老大当然不愿意放弃新的机会,但是毕竟背负沉重,无法迈开大步冒险去做变革性的产品,实体产业是这样,互联网更是这样。要想面临新网络环境用户更加挑剔的检索需求,二代搜索引擎只能是在网站权重配比、关键词分词判定语义匹配关键字这两方面下手解决搜索精准度的问题。而在当前的网络技术条件下,语义分析与判定尚且无法达到与用户(人)的搜索用词语义的高度匹配,除了百度、Google等在搜索判词过程中的相似相近提示以外,搜索引擎更多的解决办法是将网站的权重分配算法做不断的调整更新。
门店小程序在线咨询