301SEO专业英文网站优化团队
为您提供专业的搜索引擎优化服务
联系我们 

谈谈谷歌针对垃圾网站的算法

2014-12-04 17:47:51[网站优化技巧]

 Google一向期望经过优化反垃圾网站算法来完善搜索引擎,让质量低、包含垃圾内容的页面排名下降,使高质量的内容得到应有的好的排名。尽管一切看起来很美很合理,可是在实践运转中它现在似乎也存在着一些难度。

    企鹅是Google许多反垃圾算法中的一种,Google通过算法来赏罚那些经过过分SEO手法取得排名的网站,同时也下降那些充满广告网站的排名。起初它的确起了一定优化搜索的作用,可是当它遇到“blackhatwebspam”,也就是一些黑客直接侵入好的原创网站,将其连接到自个的页面,借用这些网站的良好口碑,让自己的排名发现垃圾网站时,它会一起下降那些原创网站的搜索排名。

    这本来也不是一件大事,由于它反而迫使那些优质网站愈加重视本身网站管理,脱节网站上无关连接,但疑问出在Google关于企鹅长达近十个月的不更新,让那些现已做出修改的页面仍遭受排名较后的调整,尽管其中有些网站现已经过大量的人力物力爬回了排名前端,可是在整件事中它们并没有做错什么就遭到无辜的涉及。

    对于Google的反垃圾算法,Buehler也声称自己也是受害者之一。在同类查找中,排名较后的网站想要逾越排名较前的网站时,只需经过“blackhatSEO技术攻击对方页面就能迅速取得较前的排名。但经过查询后,Google以为并没有依据证实这是一个非常严峻的疑问。

咱们抽丝剥茧细心研究一下会发现Google的反垃圾算法之所以会遇到各种疑问最实质的在于Google看待疑问的办法,它陷入了一种晕轮效应,这种激烈感觉的质量或特色,就象月亮方式的光环相同,向周围充满、扩散,然后掩盖了其它质量或特色。在Google规划算法中它所期望处理的疑问是使低质量网站排名靠后,这样一来它就需求面对如上文所说的各种疑问,可是它真正需求处理的是怎么让高质量网站的排名靠前。

    这两点最大的差异在于目标,就某种程度而言它们并没有实质差异,在处理结果上它们是相同的,可是在处理疑问过程中这却是非常重要的事,Google想方设法地期望找出垃圾网站的特征然后做出赏罚,但这一个没有止境的事情,由于无论是约束关键字数量,仍是倡议运用白帽手,它们都无法阻挠黑客寻觅新的办法破解,而Google总需求不停地做出应对,可是假如Google将算法的重心放在依据基于时刻次序算法,经过时刻轴找出自创内容最早出处经过,进行查找优化,或许这样处理将它成为一件对比轻松的事。

301seo英文网站优化团队整理
相关文章:
谷歌将网站信息的真实性作为排名的一项重要依据
分析:google2014年都有哪些显着的SEO趋势?
谷歌严厉打击软文外链
Sitemap的重要作用
SEO新趋势:回顾与前瞻 2015年会发生什么?
如何系统的处理外贸网站seo软文
2014年谷歌更新,网站优化须知7点
谷歌推出深度分析的文章来提高用户体验
网站优化投入和产出比
回顾谷歌在中国:取消敏感关键字提示
google怎么对一个网页可读性的审核标准