seo陷阱有哪些 蜘蛛陷阱有什么危害

  早在2000年的时候,SEO这个行业渐渐开始发展起来,seo从一个相对冷门的行业,到现在每个网站都需要的热门行业,SEO并不是发发外链写写文章那么简单的,只要是跟网站相关的操作都可以归纳为SEO的一部分。对于SEO来说,有一些网站设计技术对搜索引擎来说很不友好,不利于蜘蛛爬行和抓取,这些技术被称为蜘蛛陷阱。那么常见的蜘蛛陷阱到底包括那些呢?

  FlaSh动画

  网站中为了实现一些必要的效果使用FlaSh是很正常的,比如用Flash做成的广告、图标等。这种小Flash和图片是一样的,只是HTML代码中的很小一部分,页面上还有其他以文字为主的内容,所以对搜索引擎抓取和收录没有影响。

蜘蛛陷阱

  但是有的网站整个首页就是一个大的Flash文件,这就构成了蜘蛛陷阱。搜索引擎抓取的HTML代码只有一个连向Flash文件的链接,没有其他文字内容。搜索引擎是无法读取Flash文件中的文字内容和链接的。这种整个就是一个大Flash的网站,可能视觉效果做得精彩异常,可惜搜索引擎看不到.不能索引出任何文字信息,也就无从判断相关性。

  链接跳转

  有些网站用户访问首页时会被自动转向到某个目录下的页面。如果是按用户地理位置转向至最适合的目录,那倒情有可原。但大部分这种首页转向看不出任何理由和目这样的转向能避免则避免。

  框架结构

  使用框架结构设计页面,在网站诞生初期曾经挺流行,因为对网站的页面更新维护有一定方便性。不过现在的网站已经很少使用框架了,不利于搜索引擎抓取是框架越来越不流行的重要原因之一。对搜索引擎来说,访问一个使用框架的网址所抓取的HTML只包含调用其他HTML文件的代码,并不包含任何文字息,搜索引擎根本无法判断这个网址的内容是什么。

  虽然蜘蛛可以跟踪框架中所调用的其他HTML文件,但是这些文件经常是不完整的页面,比如没有导航只是正文。搜索引擎也无法判断框架中的页面建容应该属于主框架,还是属于框架调用的文件。

  动态URL

  动态URL指的是数据库驱动的网站所生成的、带有问号、等号及参数的网址。目前搜素引擎抓取动态ULR都没有任何问题,但一般来说带有过多参数的动态URL还是不利于搜索引擎蜘蛛爬行,也不利于用户体验,应该尽量避免。后面对动态URL及其静态化还有更详细的讨论。

蜘蛛陷阱

  JavaScript文件

  据我观察,虽然有的搜索引擎在技术上可以获得JavaScript:脚本中包含的链接,甚至可以执行脚本并跟踪链接,但对一些权重比较低的网站,搜索引擎觉得没有必要,不会费那个劲。所以网站上的链接必须使用最简单标准的HTML链接,尤其是导航系统。用CSS做导航系统一样可以实现很多视觉效果。

  JavaScript链接在SEO中也有特殊用途,那就是站长不希望被收录的页面(比如没有排名意义的页面,重复内容页面等),不希望传递权重的链接,可以使用JavaScript脚本加上robots文件阻挡搜索引擎爬行。

  会员注册页面

  有些网站内容放在需要用户登录之后才能看到的会员区域,这部分内容搜索引擎无法看到。蜘蛛不能填写用户名、密码,也不会注册。

  SEO从来没有具体操作标准,我们应该跳出这些条条框框,应该自然而然去优化网站,有时候还能得到意想不到的收获,推广这块一定要做,而且要从以前的数量转变成质量。外链当中的锚文本不一定是精准关键词,如今搜索引擎也能很好的通过网站标题和网站内容分析出你网站优化的是什么关键词。

「SEO快排技巧」