SEO是什么意思?看这篇文章就够了

SEO全称为(Search Engine Optimization):汉译为搜索引擎优化。是一种营销方式:利用搜索引擎的规则来提高自己网站搜索引擎内的自然的排名。目的是让其在行业内占据领先地位,获得品牌与商业的收益。将自己网站往前移动,让用户能够看到。

SEO分类

搜索引擎优化技术主要分为白帽(white hat)、黑帽(black hat)、灰帽(Greyhat)等三种。

白帽:白帽手法一直被业内认为是最佳的搜索引擎优化方法,因为它的手法是规避了一切风险的情况下来操作的,而且也避免了与搜索引擎发生任何的冲突,当然,这个对seoer从业道德来说是最高标准。

黑帽:而黑帽技术,却一直被认为是违反一切准则标准,无视搜索引擎的劝告,这里需要区分的是,这里谈及的黑帽技术不是单一的spam手法.

灰帽:在搜索引擎优化业界,我们把使用作弊手段的称为黑帽blackhat,使用正当手段优化网站的称为白帽whitehat。又出现了一个新的类别。它叫做灰帽greyhat,但从字的表面上理解好像是介于白帽和黑帽之间的。这种方法其实就是一个白帽和黑帽方法的结合体,是一种多样性的SEO手段,它注重了优化的整体与局部的方方面面。

灰帽SEO与白帽SEO和黑帽SEO两种做法不同的一点是,并不单一的追求某种技术,或者说怎么去实现,而是去追求某种程度的中庸。既要考虑长期的利益,也要考虑收益问题,双管其下。这里也是灰帽的一个技术难点,很难把握,不能太过也不能没有表示。灰帽是把双刃剑,处理的好,整个网站带来的不仅仅有短线的效益还有利益的持续性,反之亦然。

SEO常见的作弊有哪些?

⑴站群手段

这个是当今用的最多的一种黑帽手段,因为这种做法非常的简单,一位新手稍微懂得原理就可以做到了,建设成本又低,一个服务器,一个域名就可以做站群了,做上成千上万个相关性的站,然后用一个站做主站,其余的全部友情链接到这个主站上,这样这个主站的关键词排名马上就上来了,这就是站群手段的原理。(最好是不同IP,不同域名的站群,当然也可以是域名解析出的其他二级域名,比如:cndns.com就是一级域名,qy.cndns.com, beian.cndns.com,whois.cndns.com这些就属于二级域名)

⑵隐藏文字

这个也是常见的一种手法,其原理是把一些关键词设置成与页面背景相同的颜色,并在这个页面上大量堆砌这些关键词,造成用户是看不到这些关键词,但搜索引擎是可以看到的,这样就不会对用户浏览影响美观,而搜索引擎可以看到就大大的增加了关键词的密度,从而使关键词的排名得到很好的提升,有些隐藏文字是很难被程序查到的,但人工是很容易发现的,所以一旦被检查到也是要受到严重的惩罚的。

⑶隐藏链接

这是黑客们用的非常多的一种做法,其原理就是入侵一些与自己网站相关的大型网站,然后在这些网站上挂上他网站的隐藏链接,我们知道,一个与我们相关的大型网站要是挂上我们的链接,那对我们网站的排名提升是很大的,其效果是我们意想不到的,这种做法需要相当高的技术了,所以就是黑客们非常喜欢的一种做法。隐藏链接在页面中是看不到的,要到网站源文件里面去找,一般黑客们会挂在首页,当然不排除挂在内容,但据我的经历是挂首页居多,这个就是隐藏链接的原理。

⑷PR劫持

这个是一些老鸟们欺负新手最常用的做法,其原理是用一些技术劫持一些大站域名的PR值到他们的域名上,从而给他们域名一下就带来很高的PR值,然后他们就把这些域名拿到交易平台上去卖,欺骗一些新手,我们知道,谷歌PR值都是3个月才更新一次,只要他们在这三个月内卖出去了,那就代表你上当受骗了,我就有几个上过这样当的朋友,我自己最开始进入这个行业的时候还差点受这样的骗,幸好我问过了老师,老师告诉了我一种检查网站PR值的方法才没有上当受骗。快照点击之后的内容和直接输入网址的内容不一样。

⑸泛解析

这个是最近这段时间看到非常多的网站受到这个的侵扰,这个方法的原理就是入侵大型网站的域名服务器,然后用这些大型网站的主域名解析出一些二级域名去给他们做站,然后达到他们盈利的目的,我们知道大型网站主域名所分出来的二级域名其权重也是不少的,所以最近发现出现这类现象的非常多,这也算是一种黑帽手段。

所以这就要求我们做网站的时候不要乱用子域名添加新的内容甚至网页这样很可能被搜索引擎认为是作弊。

(6)链接农场

其涵义是指有人将网站做成了一个养殖场,专门用于搜集网站和交换链接提升PageRank(pr值),而没有或很少有实质性的对用户有用的内容。能够快速获得好的排名,但是又会很快被K,链接农场有自助或手动的添加链接方式。

(7)负面SEO

给竞争对手制作大量的垃圾链接,因为搜索引擎会惩罚垃圾外链严重的网站;与目标网站制作大量的重复内容甚至镜像目标网站,使目标网站有一种原创度差的假象;

(8)Cloaking(隐形页面或者桥接页面)

指对某一个网页制作了两个版本,让搜索引擎和浏览者分别看到不同的网页内容(采用识别访问者身份的技术)。搜索引擎抓取这个网页时,获得的是纯粹为了优化某些关键词而组织的内容,而网页浏览者看到的是另一个截然不同的内容。Cloaking是典型的SEO作弊,搜索引擎一旦识别就会对网站进行严厉惩罚。

实现方法:

使用iis rewrite服务器伪静态工具,可以实现根据用户浏览器类别进行跳转 ,也就是当访问此页面的类型是Googlebot/2.1或Baiduspider那么执行命令跳转相应黑页:

RewriteCond %{HTTP_USER_AGENT}Java/1.6.0-oem(Java/1.6.0-oem就好比Googlebot/2.1)

RewriteRule ^/(.*)1 [F]

(9)DDOS攻击(分布式拒绝服务攻击)

DdoS的攻击方式有很多种,最基本的DoS攻击就是利用合理的服务请求来占用过多的服务资源,从而使合法用户无法得到服务的响应。单一的DoS攻击一般是采用一对一方式的,当攻击目标CPU速度低、内存小或者网络带宽小等等各项指标不高的性能,它的效果是明显的。

(10)垃圾转向

把大量垃圾域名,被惩罚的域名重定向到其他目标网站,搜索引擎惩罚网站是可以传递的。

(11)用户体验攻击

通过提高目标网站的跳出率,降低停留时间,恶意提高点击率,刷网站不存在的关键词,来误导搜索引擎去惩罚目标网站。

3、不提倡黑帽SEO优化,但是也很佩服他们。

(1)进行黑帽SEO优化的人,需要具有过硬的计算机相关技术的,他们的工作不是一般人可以完成的。

(2)有些黑帽SEO优化只是用自己的网站做尝试,并没有祸害其他网站,他只是在尝试新的优化方法。

(3)他们的尝试,会告诉我们什么是搜索引擎允许做的,什么是不允许做的。

SEO优化策略

1.主题要明确,内容要丰富

在设计制作网站之前,要清晰设定网络的主题、用途和内容。根据不同的用途来定位网站特性,可以是销售平台也可以是宣传网站,网站主题须明确突出,内容丰富饱满,以符合用户体验为原则。对于一个网站来说,优化网站的主题与实际内容才是最为重要的。一个网站需要有鲜明的主题,丰富的与主题相关的内容,专注于某些领域的变化的,及时更新。

2.引出链接要人气化

搜索引擎判断网站的好坏的一个标准是外部链接的多少以及所链接的网站质量。创建有人气化的、有意义的引出链接,提高链接广泛度,既能提高在搜索引擎的排名,同时也可以起到互相宣传的作用。研究表明:当一个网站的链接PR值达到4~6,那么这个网页的访问量比较好;当链接PR值达到7以上,那么网站的质量与知名度都很优秀了。如果一个网页被其他网页链接得越多,那么该网页越有可能有最新和最有价值的高质量网页。尽可能增加与行业网站、地区商务平台和合作伙伴网站之间的链接,被PR高的网站引用能更快地提高本站的PR,同时开发人员可以在访问量较大、PR值较高网站上发表与网站主题以及业务相关的信息,用户在别的网站看到这些信息,进而访问该网站,即通过外部链接来提高该网站的访问量。

3.关键词设定要突出

网站的关键词非常重要,它决定网站是否能被用户搜索到,因此在关键词的选择上要特意注意。关键词的选择必须突出,遵循一定的原则,如:关键词要与网站主题相关,不要一味的追求热门词汇;避免使用含义很广的一般性词汇;根据产品的种类及特性,尽可能选取具体的词;选取人们在使用搜索引擎时常用到与网站所需推广的产品及服务相关的词。5至10个关键词数量是比较适中的,密度可为2%~8%。要重视在标题(Page Title)、段落标题(Heading)这两个网页中最重要最显眼的位置体现关键词,还须在网页内容、图片的alt属性、META标签等网页描述上均可不同的程度设置突出关键词。

4.网站架构层次要清晰

网站结构上尽量避免采用框架结构,导航条尽量不使用FLASH按钮。首先要重视网站首页的设计,因为网站的首页被搜索引擎检测到的概率要比其他网页大得多。通常要将网站的首页文件放在网站的根目录下,因为根目录下的检索速度最快。其次要注意网站的层次(即子目录)不宜太多,一级目录不超过两个层次,详细目录也不要超过四个层次。最后,网站的导航尽量使用纯文字进行导航,因为文本要比图片表达的信息更多。

5.页面容量要合理化

网页分为静态网页与动态网页两种,动态网页即具有交互功能的网页,也就是通过数据库搜索返回数据,这样搜索引擎在搜索时所费的时间较长,而且一旦数据库中的内容更新,搜索引擎抓取的数据也不再准确,所以搜索引擎很少收录动态网页,排名结果也不好。而静态网页不具备交互功能,即单纯的信息介绍,搜索引擎搜索时所费时间短,而且准确,所以愿意收录,排名结果比较好。所以网站要尽量使用静态网页,减少使用动态网页。网页容量越小显示速度越快,对搜索引擎蜘蛛程序的友好度越高,因而在制作网页的时候要尽量精简HTML代码,通常网页容量不超过15kB。网页中的Java.script和CSS尽可能和网页分离。应该鼓励遵循W3C的规范使用,更规范的XHTML和XML作为显示格式。

6.网站导航要清晰化

搜素引擎是通过专有的蜘蛛程序来查找出每一个网页上的HTML代码,当网页上有链接时就逐个搜索,直到没有指向任何页面的链接。蜘蛛程序需要访问完所有的页面,需要花费很长的时间,所以网站的导航需要便于蜘蛛程序进行索引收录。可根据自己的网站结构,制作网站地图sitemap.html,在网页地图中列出网站所有子栏目的链接,并将网站中所有的文件放在网站的根目录下。网站地图可增加搜索引擎友好度,可让蜘蛛程序快速访问整个站点上的所有网页和栏目。

7.网站发布要更新

为了更好的实现与搜索引擎对话,将经过优化的企业网站主动提交到各搜索引擎,让其免费收录,争取较好的自然排名。一个网站如果能够进行有规律的更新,那么搜索引擎更容易收录。因而合理的更新网站也是搜索引擎优化的一个重要方法。

SEO的优势

1.价格优势

长期看来,相比于竞价推广来说,搜索引擎优化需要做的只是维护网站,保证网站具有关键词排名优势的过程,并不像竞价一样,用户每一次点击都付费。因此比竞价排名要便宜许多。另外,搜索引擎优化可以忽略搜索引擎之间的独立性,即使只针对某一个搜索引擎进行优化,网站在其他搜索引擎中排名也会相应提高,达到了网站在关键词推广中重复付费才能达到的效果。

2.管理简单

将网站搜索引擎优化的任务交给专业服务商,那么企业在网站管理上基本不需要再投入人力,只需不定期观察企业在搜索引擎中的排名是否稳定即可。而且,这种通过修改自身达到的自然排名效果,让企业不需担心恶意点击的问题。

3.稳定性强

企业网站进行搜索引擎优化之后,只要网站维护得当,那么在搜索引擎中排名的稳定性也非常强,很长时间都不会变动,不像竞价要是没钱了,就不会的排名。

搜索引擎访问的第一个文件(robots.txt)

注意:像做网站自然排名的,一定不要把要抓取的内容给设置为禁止抓取,这样的话搜索引擎没有办法抓取内容也就不会有排名。

robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,比如Windows系统自带的Notepad,就可以创建和编辑它 。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。
如果将网站视为酒店里的一个房间,robots.txt就是主人在房间门口悬挂的“请勿打扰”或“欢迎打扫”的提示牌。这个文件告诉来访的搜索引擎哪些房间可以进入和参观,哪些房间因为存放贵重物品,或可能涉及住户及访客的隐私而不对搜索引擎开放。但robots.txt不是命令,也不是防火墙,如同守门人无法阻止窃贼等恶意闯入者。

搜索引擎工作原理

从输入关键词,到百度给出搜索结果的过程,往往仅需几毫秒即可完成。百度是如何在浩如烟海的互联网资源中,以如此之快的速度将您的网站内容展现给用户?这背后蕴藏着什么样的工作流程和运算逻辑?事实上,百度搜索引擎的工作并非仅仅如同首页搜索框一样简单。

搜索引擎为用户展现的每一条搜索结果,都对应着互联网上的一个页面。每一条搜索结果从产生到被搜索引擎展现给用户,都需要经过四个过程:抓取、过滤、建立索引和输出结果。

抓取

Baiduspider,或称百度蜘蛛,会通过搜索引擎系统的计算,来决定对哪些网站施行抓取,以及抓取的内容和频率值。搜索引擎的计算过程会参考您的网站在历史中的表现,比如内容是否足够优质,是否存在对用户不友好的设置,是否存在过度的搜索引擎优化行为等等。

当您的网站产生新内容时,Baiduspider会通过互联网中某个指向该页面的链接进行访问和抓取,如果您没有设置任何外部链接指向网站中的新增内容,则Baiduspider是无法对其进行抓取的。对于已被抓取过的内容,搜索引擎会对抓取的页面进行记录,并依据这些页面对用户的重要程度安排不同频次的抓取更新工作。

需您要注意的是,有一些抓取软件,为了各种目的,会伪装成Baiduspider对您的网站进行抓取,这可能是不受控制的抓取行为,严重时会影响到网站的正常运作。

过滤

互联网中并非所有的网页都对用户有意义,比如一些明显的欺骗用户的网页,死链接,空白内容页面等。这些网页对用户、站长和百度来说,都没有足够的价值,因此百度会自动对这些内容进行过滤,以避免为用户和您的网站带来不必要的麻烦。

建立索引

百度对抓取回来的内容会逐一进行标记和识别,并将这些标记进行储存为结构化的数据,比如网页的tagtitle、metadescripiton、网页外链及描述、抓取记录。同时,也会将网页中的关键词信息进行识别和储存,以便与用户搜索的内容进行匹配。

输出结果

用户输入的关键词,百度会对其进行一系列复杂的分析,并根据分析的结论在索引库中寻找与之最为匹配的一系列网页,按照用户输入的关键词所体现的需求强弱和网页的优劣进行打分,并按照最终的分数进行排列,展现给用户。

综上,您若希望通过搜索引擎为用户带来更好的体验,需要您对网站进行严格的内容建设,使之更符合用户的浏览需求。需要您注意的是,网站的内容建设始终需要考虑的一个问题是,这对用户是否有价值。

总结:SEO优化是一门语言,想学习的就要一个系统的进行,而不是这里看一点,这里看一点,最后发现没有办法把网站给优化好,只有系统的过学习后,我们再去研究别的网站或文章时,你会发现不一样的地方。

想跟着柠檬老师学习SEO优化的,可以点击查看并购买,从基础到优化大型网站及网站产品设计讲解,小白都可以学习的课程。

[原创文章] 发布者:seospsa,转载抄袭请注明本站链接:http://www.spsa.cn/2430.html

发表评论

登录后才能评论