网站SEO宝典

SEO是搜索引擎优化,通过对网站本身和内容优化等方法提高网站关键词在搜索引擎中的自然排名,进而获得收益。SEO不直接付费给搜素引擎,但是在做优化的时候可能涉及到工具、服务商等费用。

所谓搜索引擎,就是根据用户需求与一定算法,运用特定策略从互联网检索出制定信息反馈给用户的一门检索技术。搜索引擎依托于多种技术,如网络爬虫技术、检索排序技术、网页处理技术、大数据处理技术、自然语言处理技术等,为信息检索用户提供快速、高相关性的信息服务。搜索引擎技术的核心模块一般包括爬虫、索引、检索和排序等,同时可添加其他一系列辅助模块,以为用户创造更好的网络使用环境。 其实搜索引擎就是人行为的模拟和延伸,搜索引擎在不停学习用户执行一次搜索行为时需要找到什么样的内容,不断优化搜索结果。国内使用较多的搜索引擎是百度、360、搜狗、神马、必应等。

SEO在执行时有两大方向:技术优化 (Technical SEO) 和内容优化 (Content Strategy)。

Technical SEO

互联网是一张大网,搜索引擎就是这张网上最常见的一种蜘蛛 (spider),也叫爬虫。而网页和超链接就是蛛丝。做SEO技术优化就是让搜索引擎爬虫能顺着蛛网容易找到网页,并且它在爬取页面时为它提供无与伦比的舒适感。所以SEO技术优化就是根据网站通用规则和搜索引擎喜好优化自己网站架构和设定,使更多的网页被收录、网站权重提高、页面及内容对用户及搜索引擎友好。涉及到的具体内容如下:

收录

由搜索引擎分析索引系统程序对收集回来的网页进行分析,提取相关网页信息(包括网页所在URL、编码类型、页面内容包含的所有关键词、关键词位置、生成时间、大小、与其它网页的链接关系等),根据一定的相关度算法进行大量复杂计算,得到每一个网页针对页面文字中及超链中每一个关键词的相关度(或重要性),然后用这些相关信息建立网页索引数据库。 所以只有被搜索引擎收录的页面,才有可能出现在搜索结果中。网上也有关于搜索引擎收录和搜索引擎索引的争论,我们这里暂且认为收录就是索引。

网站被搜索引擎收录只是工作的开始,我们最需要关注的是网页收录情况。对于一个网站,我们希望搜索引擎收录尽可能多的公开页面,这些页面包括并不仅限于首页、内容页、列表页、站内搜索结果页、标签页、功能模块页。影响收录的因素很多,包括网站和页面架构等等,稍后我们会提到。作为一个运营而非技术人员,我们更应该关注的点是保证网站有一个包含所有内容页和列表路径的sitemap,并将sitemap提交到搜索引擎站长工具中。

Sitemap 可方便网站管理员通知搜索引擎他们网站上有哪些可供抓取的网页。最简单的 Sitemap 形式,就是XML 文件,在其中列出网站中的网址以及关于每个网址的其他元数据(上次更新的时间、更改的频率以及相对于网站上其他网址的重要程度为何等),以便搜索引擎可以更加智能地抓取网站。

除了sitemap,在部署页面的时候切忌出现孤岛页面,所谓孤岛页面就是不存在任何指向这个页面的超链接入口的页面。也就是说,我们在做页面,尤其是新页面时,一定要注意做link building。这个link最好是站外链接,也就是添加在其他高权重网站的页面中,也不要忽略在自己网站的其他页面中,尤其是上层页面中添加这个新页面的超链接。这些方法都可以使搜索引擎更快发现页面,并提高权重。

权重

网站和网页被搜索引擎收录是做SEO的第一步,尤其对于一个全新的网站,收录就是0到1的突破。想要自己网站被搜索引擎收入通常有两种办法,第一个是注册各个搜索引擎站长工具,将网站主动提交给搜索引擎。第二个方法是将网站地址多暴露给搜索引擎,让它主动发现你。这个方法也是我们常说的做外链,将自己网站的url以超链接的形式放在其他网站中。早年间,PC门户网站大行其道时,常见的一种行为就是大家互加友情链接,这样做的目的就是让搜索引擎充分发现自己,并且增加自己网站的PR值。Page Rank,简称PR,级别从0到10,10级为满分。PR值越高说明该网页越受欢迎(越重要),权重越高。 每个搜索引擎对网站的评分都不一样。PR值会影响搜素结果的排序。

之所以添加链接可以提高PR值,是因为PR值具有流动性,高权重的页面会传递更多权重给它所链接的页面,这个链接不仅是站内链接,还包括我们俗称的外链。另外,页面上的链接越多,每个链接传递出的权重就越低。权重就像知识,传递后传递者不会减少,而被传递者会增多。而我们把所说的传递的权重的量叫做“Link Juice”,或者“Link Equity”。

网站权重
PageRank算法示意图,页面权重由总链入权重决定,链出时平分权重

对于为处理海量数据而设计的可扩展Web信息搜集系统,如何评定一个网页的“重要度”,目前还是一个值得研究探讨的问题。还有一个定义是网页入度 (Page Indegree),是指对于一个具体的网页,整个网络中指向该网页的超链接数目。一个网页的网页入度越大,表明其被其他网页引用的次数越多,可能价值就越高。

据经验,体现网页重要度的特征有:

  • 网页的入度大,表明被其他网页引用的次数多;
  • 某网页的父网页入度大;
  • 网页的镜像度高(被复制较多的页面),说明网页内容比较热门,从而显得重要;
  • 网页的目录深度小,易于用户浏览到。


URL目录深度为网页URL中除去域名部分的目录层次。即URL=schema://host/localpath中的localpath部分。如:URL为https://wenku.baidu.com,目录深度为0;如果是https://wenku.baidu.com/view,目录深度为1。

网页的权重可以形式化表示为:

weight(p)=f(indegree(p),indegree(father_p),mirror(p),directorydepth(p))

其中weight(p)表示网页p的权重,indegree(p)表示网页p的入度函数, indegree(father p)表示网页p的父网页的入度函数,mirror(p)表示网页p的镜像度函数,directorydepth(p)表示网页p的目录深度函数。

网页权重算法复杂,且每个搜索引擎都不尽相同。所以我们只需要记住:多和大网站及权威网站交换超链接即可。

可访问性

上面介绍了如何使搜索引擎收录网站和网页,接下来风伯继续讨论更加细化的控制,把是否允许搜索引擎抓取的权利掌握在自己手中。

首先,可以在robots文件中写明搜索引擎权限。robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。

在robots文件中,可以写清楚哪些页面和路径允许搜索引擎抓取,哪些页面不允许抓取。Robots协议(也称为爬虫协议、机器人协议等)全称是“网络爬虫排除标准” (Robots Exclusion Protocol),并不是一个强制规定,大部分国际搜索引擎都遵守这个规则,国内如百度也会遵守robots协议,但是部分国内其他搜索引擎并不遵守此协议。

比如淘宝的robots,如下(部分):

User-agent: Baiduspider
Allow: /article
Allow: /oshtml
Allow: /ershou
Allow: /$
Disallow: /product/
Disallow: /
User-Agent: Googlebot
Allow: /article
Allow: /oshtml
Allow: /product
Allow: /spu
Allow: /dianpu
Allow: /oversea
Allow: /list
Allow: /ershou
Allow: /$
Disallow: /
User-agent: Bingbot
Allow: /article
Allow: /oshtml
Allow: /product
Allow: /spu
Allow: /dianpu
Allow: /oversea
Allow: /list
Allow: /ershou
Allow: /$
Disallow: /
User-Agent: 360Spider
Allow: /article
Allow: /oshtml
Allow: /ershou
Disallow: /

我们可以看出,淘宝按照不同搜索引擎给出了不同路径权限。Allow是允许访问,Disallow是不允许访问。不同浏览器名称前都有一个“User-Agent”。User Agent在网站建设、网站运营、搜索营销Digital Marketing和竞争情报分析方面可是有大用处的。

User Agent中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统及版本、CPU 类型、浏览器及版本、浏览器渲染引擎、浏览器语言、浏览器插件等。

UA字符串说明:

  • 浏览器标识
  • 操作系统标识
  • 加密等级标识
  • 浏览器语言
  • 浏览器渲染引擎


下图是我当前UA的实例:

站内因素

SEO站内因素影响主要是网站自身性能的体现。做网站Technical SEO Audit,基本相当于给一个网站做身体检查,健康的网站SEO基本属性都会表现良好;检查出问题,说明网站本身还需要优化,这些问题不只会影响SEO。

SEO站内因素主要包括以下几方面:

W3C标准

万维网联盟(World Wide Web Consortium,简称W3C)创建于1994年,是Web技术领域最具权威和影响力的国际中立性技术标准机构。 W3C通过设立领域(Domains)和标准计划(Activities)来组织W3C的标准活动。截至2014年3月,W3C共设立5个技术领域,开展23个标准计划。包括:Web设计及应用(Web Design and Applications)、Web体系架构(Web Architecture)、语义Web(Semantic Web)、可扩展标记语言(XML Technology)、服务的Web(Web of Services)、面向各种访问设备的Web(Web of Devices)、浏览器和开发工具(Browsers and Authoring Tools)。

在搜索引擎爬虫抓取页面内容时,是按照html语句爬取和理解,所以符合W3C标准的页面能够更好的使爬虫顺利抓取内容,提高网站对搜索引擎的友好度。

在编写页面时,请按照标准使用各种技术框架、元素和标签。尤其是、<head>、<title>、<meta>、<h1>、<alt>、<strong>等,稍后我们会详细说明。有些元素不能被搜索引擎很好的收录,如ifame、js等。所以我们在编写页面时需要注意,重要元素使用标准标签,需要被搜索引擎读取到的文本内容,尽量不要使用ifram和js等元素呈现。

最后补充一句,我们添加图片时最好把图片的<alt>标签补充上关键词,这样图片搜索才能更好查找到这张图片。

URL结构

在规划网站内容结构布局时,应该以树状结构规划,不要将大量页面都放在网站根目录下,或者设置太多层级。

URL层级

在命名url时不要使用空格或特殊字符,英文单词间以”-”相连。或者以中文命名URL。百度建议URL长度去掉http(s)://之后长度不要超过256个字节,在命名url也需要注意这点。

404页面

404页面是一个网站必不可少的页面。404是http返回状态码的一种,代表服务器无法找到被请求的页面。404页面是UA在浏览网页时,服务器无法正常提供信息或无法回应,且不知道原因所返回的页面,在我们一般用户看到的就是一个404 Page not found的页面。

设定好404页面,可以减少网站坏链的出现。由于各种原因,如超链接布错、页面过期、页面删除等造成搜索引擎或用户访问到坏链,那么服务器将自动返回404页面,提示搜索引擎页面已经不存在,一段时间后搜索引擎就会停止收录这个页面,避免很多坏链或重复页面等出现在搜索引擎收录中,造成负面影响。除了对SEO的影响,404页面也是网站用户体验重要的一环,这里暂不展开解释。

页面头标签代码

页面头标签是指html代码中的<head> 标签,用于定义文档的头部,它是所有头部元素的容器。<head> 中的元素可以引用脚本、指示浏览器在哪里找到样式表、提供元信息等等。文档的头部描述了文档的各种属性和信息,包括文档的标题、在 Web 中的位置以及和其他文档的关系等。绝大多数文档头部包含的数据都不会真正作为内容显示给读者。下面这些标签可用在 head 部分:<base>、<link>、<meta>、<script>、<style>和<title>。 <link>、<meta>和<title>是对SEO关系较大的三个标签。这其中Title、Meta Description、Meta Keywords是SEO传统三大件,简称TDK,我们将在下节详细介绍。

之前我们有提到网站很多重复内容被搜索引擎全都收录后可能被降权。但是很多网站会遇到内容不可避免重复的情况,比如同一款鞋,除了颜色和型号,其他内容都一样,这样不同sku会出现十几个内容重复的页面。对于这种情况,我们就可以通过<link>标签中的rel=”canonical”值来处理。<link> 标签定义文档与外部资源的关系。rel规定当前文档与被链接文档之间的关系。alternate是rel的值之一,声明一个权威网页做为复制网页的规范版本。

<link rel=”canonical” href=”网页权威链接”/>

搜索引擎读到<head>中的link rel=”canonical”,便不会把这个页面和源页面计算成内容重复页面,而会把所有权重加到href指示的链接页面,提高其权重。所以对于内容重复的页面,我们应该设定link rel=”canonical” 把权重集中到一个母页面中。如下所示是Nike官网Jordan Jumpman Diamond Mid PF这款鞋页面的canonical信息,权重都导向了这个品类的介绍页,而非具体型号的页面(CI1205-107,白金款)。

canonical

之前提到过网站根目录可以放置Robots.txt文件告知搜索引擎哪些页面可以抓取,哪些不允许。在页面中我们也可以用标签实现。

  • all:文件可以被收录,且页面上的链接可以被查询;
  • none:文件将不可以被收录,且页面上的链接不可以被查询;
  • index:文件可以被收录;
  • follow:页面上的链接可以被查询;
  • noindex:文件将不可以被收录;
  • nofollow:页面上的链接不可以被查询。


我们可以更灵活的控制页面受否需要被收入,已经权重是否进行传递。

 
需要注意的是,link rel=”canonical”和meta name=”robots”都只是一个共识,不具有强制作用,某些搜索引擎并不遵守这些规则。

网站及页面的速度和稳定性

网站打开慢,经常无法访问是对SEO的致命打击。之前说过,搜素引擎是用户行为的一个模拟和延伸,当用户打开一个页面时,如果加载速度慢或不能打开,很多人会选择关闭页面,这些行为都可能被搜索引擎和浏览器监测到,进而反馈在网站权重排名中。

  • 47%的人希望在不到2秒的时间内完全打开网站(wired.com)
  • 如果交易过程太慢,20%的用户会放弃购物车(radware.com)
  • 亚马逊发现每降低100毫秒的网络延迟会使他们的销售成本降低1%


网站速度是一个软件和硬件相互配合作用的结果。服务器的性能是最底层的保证,对于境外或者对网络要求高的网站还需要考虑使用CDN进行加速。

在软环境层面,在制作网站时要注意编码规则,符合W3C等通用标准,保证代码简洁。不要在网站使用过多低效能插件。优化Javascript和css代码和设置。合理设置页面动效,在不影响阅读体验的前提下压缩图片大小。以上这些都可以加快网站加载时间,提高用户体验。

导航

导航功能是一个网站不可或缺的功能。不管是用户体验还是SEO,一个好的导航栏都是网站成功的基本因素。

对于SEO,导航栏的作用是增加网站中页面间的关联性。之前介绍到网页权重的传递效应,网站导航栏对于SEO来说就是一张用于传递权重的大网。

导航通常有以下几种形式:

Mega Menu:通常翻译为“大幅网页菜单”,是部署在整个网站每个页面上部的导航超链接集合,为用户指明网站大分类及常用模块的路径,一般为直接展示、下拉或折叠式。

阿里巴巴导航栏
阿里巴巴折叠式Mega Menu

Breadcrumb Navigation:面包屑导航。让用户了解当前所处位置,以及当前页面在整个网站中的位置。一般出现在页面正文上面或正文完结之后的底部。

面包屑导航
网站分析的面包屑导航

Faceted (Filtered) Navigation:侧边栏(筛选)导航。在大型网站中配合Mega Menu进行更加细致的产品或内容分类。

亚马逊侧边栏
亚马逊侧边栏导航

Internal Links:内链。通过系统或手动在文章内添加超链接。

内链
风伯的自言自语博客内链

在整个网站中,mega menu和面包屑导航分别从广度和深度两个维度编辑出一个大网,侧边栏导航是在大网基础上进行的局部细化连接,最后内链则是抛开路径限制自定义丰富了页面间的联系。所以整个导航体系保证了网站间各个页面的联系可以被用户和搜索引擎抓取到,通过沿超链接的follow爬取保证尽可能多的页面被收录,并且传递页面权重。我们在部署网站页面时,切忌孤岛页面出现。

TDK

TDK是Title、Meta Description、Meta Keywords三个元素简称。这三个标签都存在于网页head中,所以在做网页优化时,这个是必须而且优先考虑的元素。TDK虽然重要,但并不是SEO的全部,如果一个人把SEO认为就是修改TDK,那么请和他断交。

虽然我们说TDK,但其实K,即Meta Keywords已经没有优化的必要。由于Meta Keywords早就变成SEO重灾区,Google和百度等主流搜索引擎已经不再抓取这个字段信息。所以我们只需,而且必需重点关注剩下2个元素:Title和Meta Description。

如上图所示,在搜索结果页中,红色部分是网页Title,蓝色部分是Meta Description。这两部分元素只会显示在搜索引擎的搜索结果页中。在原网页的内容中不会显示Title和Meta Description。这两部分只会出现在head的代码中。Title内容还可以在浏览器打开页面的tab中看到。如下图所示,Title在代码的<title>标签中,内容和上图搜索结果页、下图中的浏览器tab中显示的一样。下图中Meta Description的内容即是显示在上图搜索结果页的简介。

Title是SEO文字元素中最重要的部分,title内容对搜索结果排名影响很大。最主要的关键词要写在Title当中。撰写Title内容时要注意:

  • 不要超过60个字符,即30个汉字
  • Title中存在1-2个关键词即可
  • 不要在Title中过多堆叠相同关键词
  • 对于网站层级,最小层级页面title在左边,然后依次向右排列。如下图,搜索“越野车”为例,不同关键词间以_分开,网站名称放在最后,以-分隔。

大家在写Title时也需要注意,不要因为要堆叠关键词而使用很多”-“、”_”、”,”等符号,使Title看起来很丑,让人没有点击欲望。毕竟我们把排名做上去就是希望有人点击,但是title很丑的链接往往让人没欲望点击。

Meta Description不会影响页面关键词排名,但是会显示在搜索结果页中。所以优化Meta Description的目的是让用户看到介绍后会点击我们的链接进到网站。在优化Meta Description时无需考虑关键词,虽然在搜索结果页中看到Title和Meta Description如果match关键词都会高亮显示,其实Meta Description中的关键词没有任何排名帮助。因此优化时,我们要站在用户角度考虑这段文字怎么能吸引他点击。一般Meta Description要控制在120个字符,60个汉字以内,超出的部分将会以”…”显示,不同搜索引擎对Meta Description字符数有不同限制,但是大致差不太多。

关于TDK,最后需要强调的是一定要关注每个搜索引擎的公告。比如百度在2018年就发布《百度搜索网页标题规范》。为保证搜索用户的体验,百度搜索将会对部分易造成用户误导的页面标题进行相应的改写,包括但不限于以下几种情况:对于标题堆砌等过度优化的站点首页,百度搜索会将过度优化的标题直接改写为站点名称或公司名称; 对于部分表意模糊的页面,百度搜索将会从页面中提取页面关键信息补充在标题中,保证用户能够及时获取有效信息。 对于Meta Description百度也会做类似处理,直接在搜索结果中改成成他认为比较合适的简介。

总结一句话:优化要有度,过度优化的结果就是被打回原形,得不偿失。

内容优化

SEO技术部分讨论完成后,接下来需要关注的便是内容。搜索引擎等技术出现就是帮助用户更快的找到更精准的内容,所以最终一切都落地于内容。

搜索和内容的交叉点就是关键词

用户在进行搜索时一般是在搜素框中键入词或一段话。百度搜索框限制输入38个汉字,搜狗搜索框限制40个汉字。用户输入的内容就是词或词的集合。内容中除了文字,也可能含有标点符号。搜索引擎对标点符号如何处理呢?

对于大部分搜索引擎,一些英文标点符号是有特殊意义的。比如:+、-、“”等,用户搜索语句中包含的这种标点符号会触发条件搜索。有一些表单符号会起到切割词的作用,比如:,。|、_等。除了标点符号,还有一些语句的结构助词,如:的、了、呢、啊等等,称为“停用词” (stop word),这类字词在搜索中作用也不大。排除了表单符号和助词,剩下的内容,搜索引擎会去和目标页面内容匹配相关度并算出排名。

一个用户在进行搜索时,网页内容相关度和网页权重都高的页面就会排在前面,二者缺一不可。如下图所示,以在百度搜索“高保真入耳耳机”为例。可以看到排名前三位的网页Title和Description中没有和我搜索的关键词完全一致的,三个页面分别属于京东和中关村在线两个大网站。通过这个例子只是说明关键词完全匹配并不能保证排名靠前。

上图例子也是一个很好的语句匹配示意。搜索引擎接收到搜索指令后,也会自己分析搜索的内容,并且根据算法进行切词、重排、模糊、近义词、翻译、错拼等处理进而与网页内容匹配。上面例子中,百度其实是把我搜索的“高保真入耳耳机”切成了三个关键词:“高保真”、“入耳”、“耳机”。搜索结果中可以看出有三个词不同顺序组成,“入耳”的近义词“入耳式”。

上面是搜索引擎对搜索语句识别的简单情况,接下来我们继续说内容。刚刚讲过表单符号和切词,如果大家注意看一些网站的页面title也做了一些关键词堆砌,其中是用“_”或”,”做切词处理的,如下。所以有些标点符号和空格也可以做切词之用。切词不仅限于title,正文内容也可用。但是由于title字数有限,切词和堆词往往更需要技巧。

我们继续说回关键词。搜索引擎把语句切成一个个词语后,使用较多,搜索量较大或者是能代表一类属性的词就是关键词 (keywords)。我们在组织内容时,一定要注意多使用高搜索量的关键词,每个页面除了title,在内容处也可多重复出现关键词。同一个关键词在页面中不要恶意堆叠,每个页面包括3-5个不同关键词是比较理想的状态。同样在正文内容中,关键词出现在不同位置也具有不同权重。要尽量在比较重要的html标签中布置关键词。比如<h1><h2>。写页面时,不要只是从视觉上认为字号大就是重点,在搜索引擎看来,h1、h2这些标签才是重要标题。所以这部分也是呼应前面提到的制作页面要遵守W3C规则。

做内容布局时还要注意一点,也是至关重要的一点:内容是给人看的,不是只给搜索引擎看的。做SEO是好的,千万不要为了SEO而SEO。如果因为SEO而使整个页面内容的阅读体验大幅下降,那宁可不要去做SEO。不然短期内把流量吸引过来也不会有好的转化,长期看来也会有网站被降权的风险。搜索引擎的算法也会打击这种过度SEO的行为。

我们一直在说关键词,那如何知道一个词的搜索量?

可以借助一些工具查看关键词的搜索量。同一个词在不同搜索引擎的热度可能并不一样,且随着时间变动持续变化。

上图是百度指数中查到的“足球”和“篮球”这两个词的趋势。从总体趋势看,两球热度均在下降,但是足球下降趋势更为明显,到今年已经和篮球流量趋于一致。足球三次流量高峰来自两次世界杯及一次国足暴力事件,篮球最近一次高峰当然是首次没有晋级篮球世界杯。

关键词的搜索量不能从搜索引擎中直接看到,我们可以借助第三方工具读出,会在下一部分介绍。

我们在做关键词研究时,还应充分挖掘关键词的价值,典型方向是长尾词和相关词,从这两个维度充分挖掘。长尾关键词 (Long Tail Keyword) 是指网站上的非目标关键词但与目标关键词相关的也可以带来搜索流量的组合型关键词。长尾关键词的特征是比较长,往往是2-3个词组成,甚至是短语,存在于内容页面,除了内容页的标题,还存在于内容中。 搜索量非常少,并且不稳定。 长尾关键词带来的客户,转化为网站产品客户的概率比目标关键词高很多,因为长尾词的目的性更强。 存在大量长尾关键词的大中型网站,其带来的总流量非常大。 SEO的相关关键词不光是指语义相近的词,还包括搜索关联性较强的词,通俗讲就是搜了这个词的人通常又搜了哪些词。合理利用相关词布局往往可以抓住更多类似需求的用户,并减少对搜索引擎近义词模糊搜索的依赖。

在选择关键词时搜索量是重要指标,但并不是唯一指标。还要考虑到目标用户搜索习惯是什么。尤其是B2B中很多垂直领域,某些词只有专业人士了解,所以搜索量并不大,甚至从搜索引擎报告中看不到预估搜索量,但是不排除这种词有很高的价值。搜索这种小众词的用户往往是B2B的真正目标用户。

与生俱来的数字化和网络化给网页的复制以及转载和修改再发表带来了便利,因此我们看到Web上的信息存在大量的重复现象。天网在2003年的一次大规模统计分析表明,网页的重复率平均大约为4。也就是说,当你通过一个URL在网上看到一篇网页的时候,平均还有另外3个不同的URL也给出相同或者基本相似的内容。这种现象对于广大的网民来说是有正面意义的,因为有了更多的信息访问机会。但对于搜索引擎来说,则主要是负面的;它不仅在搜集网页时要消耗机器时间和网络带宽资源,而且如果在查询结果中出现,无意义地消耗了计算机显示屏资源,也会引来用户的抱怨。 因此我们在组织内容时要避免重复内容页面出现。

SEO工具

前面初步介绍了SEO的一些要点,很多入门同学应该完全lost了。其实市面上有不少工具可以协助我们进行SEO工作。

站长工具(Webmaster Tools)

每一个搜索引擎都有自己的站长工具平台,比如Google Webmasters、百度搜索资源平台等等。通过站长工具可以查看和管理网站在搜索引擎中的情况。比如网站官方名称、icon、sitemap等都可以在工具中管理,并且可以模拟搜索引擎爬取,查看网站收录情况,网页是否存在问题等。对于每一个网站,都建议接入主流搜索引擎站长工具。

第三方工具

除了搜索引擎自己的Webmaster Tools,市场上还有很多第三方工具。这些工具往往功能更加全面,包括Technical SEO Audit、外链报告、关键词排名监控等等。常见有以下工具:

 

浏览器插件

浏览器插件也是一种很方便的SEO工具,通常打开一个页面,插件就可以把页面和网站基本SEO情况报告出来,非常实用。具体工具请在Chrome 网上应用店中搜索SEO。

参考资料:

 

标签:

评论

发表评论

电子邮件地址不会被公开。 必填项已用*标注