珠峰SEO外包公司-网站关键词快速排名与SEO优化技术培训服务

网站建设要从哪几方面来优化呢?

admin

不论你的网站是用Shopify构建的,还是Wordpress,还是Magento,要注意你的网站都要做优化

我们在提到针对一个网站的优化,特别是站内优化的时侯,其实主要包含

2大方面:

- 一是针对页面的SEO (on-page )

- 另外一个是网站结构优化,也称作技术性SEO

由于搜索结果的竞争越来越激烈,对SEO在技术上的优化也提出了更高的要求。

一个表现良好的网站,必须要是可抓取、快速、安全的网站。

技术性SEO包含的内容好多,涵盖网站的结构设计、URL、网络地图等内容,而且是一个技术性太强的方面。

今天我主要说一说网站技术SEO的六个基本方面,做好这六大方面,网站的性能会愈加优化和健康。

很多人可能看见这一章节会感觉太沉闷,但是显然是很重要的。

为什么呢?

因为一个网站,如果你花了好多时间在获取流量上,比如广告,比如红人,但是基本的文章的audit(审视)都没有过关的话,那么无形之中会大大降低你网站的营销费用。

试想一下一个2秒打开速率的网站,和一个十秒才打开的网站,那疗效能一样吗?

所以从一个网站的优化角度来讲seo数据统计,特别是技术性优化的角度来阐述,我们要从以下几点进行优化:

01

确保网站可抓取

对于搜索引擎优化,做好优质内容是必须的。但是只有优质内容还不够,如果搜索引擎抓取不到这个页面,那你辛辛苦苦编撰的内容不是枉费了吗?

确保网站可抓取,首先要检测robots.txt文件,这个文件是任何网路爬行软件抵达站点时的第一个调用点。

robots.txt文件会明晰应当被抓取的和不应当被抓取的部份,表现为容许(allow)、禁止(disallow)某些用户代理的行为。

通过将/robots.txt添加到根域末尾,可以公开使用robots.txt文件。我们看一下Hallam网站的示例:

可以看见,Hallam网站不容许以/%20wp-admin(网站前端)开头的URL被抓取。通过指明什么地方严禁这种URL,可以节约带宽、服务器资源和爬网预算。

与此同时,搜索引擎爬虫抓取网站的重要部份时,不应当遭到严禁。

因为robots.txt是爬虫在抓取网站时听到的第一个文件,所以最好是将robots.txt指向站点地图。可以在旧版的Google%20Search%20Console中编辑和测试robots.txt文件。

在robots.txt的测试工具中,下面的网址栏输入任何网址,就可以检测这个网址能够被抓取,robots.txt文件中有没有错误和警告。

因为旧版的Google%20Search%20Console功能要比新版本的功能多一些,在技术SEO方面旧版本会更好用一些。

比方说seo数据统计,旧版本可以查看站长工具上的抓取统计信息区域(Craw%20Stats),对于了解网站的抓取方法会愈发的便捷。

这个报告有3个图表,显示了最近3个月的数据。

每天抓取的网页数目、每天下载的千字节数、下载网页所耗费的时间(以纳秒为单位),能够显示网站的抓取速率及和搜索引擎爬虫的关系。

搜索引擎爬虫定期访问某网站,并且这是一个快速并且容易被抓取的网站的话,这个网站都会有很高的抓取速率。

这些图表数据倘若能保持一致是最好的,任何重大波动就会出问题,可能是HTML受损,内容陈旧或robots.txt文件制止了太多URL。

如果加载一个页面须要太长时间,表示爬虫爬取时间很长,建立索引速率较慢。

还可以在新版的Google%20Search%20Console查看覆盖率报告中的抓取错误。

这些地方都是有爬取问题的页面,点击可以显示那些页面。检查那些页面是哪些诱因引起的爬取问题,最好不是很重要的页面,尽快解决那些问题。

如果你在Craw%20Stats或覆盖率报告中,发现重大的抓取错误或波动,可以对日志文件进行剖析查看。

从服务器日志访问原始数据可能会比较麻烦,因为剖析是中级设置,但它有助于确切理解什么页面可以被抓取、哪些不能抓取。

哪些页面会被优先处理,哪些区域出现了预算浪费的情况,还有爬虫在爬取网站的过程中收到什么服务器响应。

02

检查站点可编入索引

检查爬虫是否可以抓取网站以后,还要搞清楚网站上的网页有没有编入Google索引。

有很多方式可以检测这一问题,前面用到的Google%20Search%20Console覆盖报告,就可以拿来查看每位页面的状态。

从这个报告中我们看见四个数据:

还可以使用URL检测工具剖析特定的URL。

如果某主页的流量有所增长,就该检测这个新加入的网站是不是早已编入索引,或者对这个网址进行问题排查。

还有一个好方式可用来检测网站能够索引,就是使用爬取工具,推荐Screaming%20Frog。

Screaming%20Frog是最强悍、使用最普遍的爬取软件之一。它有付费版本和免费版本,可以按照网站的大小进行选择。

免费版本的功能有限,抓取的数目限于500个URL。而付费版本的年费是149英镑,有很多的功能和可用API,没有抓取限制。

运行爬取软件以后,就可以看见和索引相关的两列结果。

Indexability:可索引性,显示URL能够被编入索引,是“可索引”还是“不可索引”。

Indexability%20Status:可索引性状态,显示URL不可索引的缘由是哪些,是不是被编为了另一个URL,或是带有无索引标签。

这个工具是批量初审网站一种挺好的方法,可以了解什么网页正在被编入索引,哪些网页不可被编入索引,这些就会显示在结果中。

对列进行排序并查找异常的情况,使用Google%20Analytics%20API,能有效辨识出可索引的重要页面。

最后,还可以使用这个网站检测你的页面有多少是早已索引的:domain%20Google%20Search%20parameter。

在搜索栏中输入site:yourdomain并按Enter键,就可以看见网站上已被Google编入索引的每位网页。

示例:

这里我们看见boots.com有大概95,000个早已索引的URL,通过这个功能我们晓得Google如今储存了多少网页。

如果你的网页数目和被微软索引的数目差好多。

那么你应当思索:

网站的HTTP版本是否仍在编入索引?

已被编入索引的页面有没有重复的,需要规范化的?

网站的大部分内容是否应当被编入索引?

通过这三个问题,了解微软怎样将网站编入索引,以及怎样作出相应修改。

03

查看站点地图

SEO还有一个不能忽视的重要方面:站点地图。XML站点地图是你的网站到Google和其它搜索引擎爬虫的地图。

实际上,站点地图帮助那些爬虫给你的网页排行。

有效的站点地图有几点值得注意:

关于站点地图的小工具:

1. Yoast SEO插件,可以创建XML站点地图。

2. Screaming Frog,它的站点地图剖析十分详尽。

标签: 索引

后台-系统设置-扩展变量-手机广告位-内容正文底部
留言与评论(共有 0 条评论)
   
验证码:
'); })();