通常我们根据逐个检查一下网站是否有这样或那样的技术缺陷。从一些网站上看,我们共同的技术缺点可能就是这样几个。各位不妨一起来看一下,在分析时是否也遇到过类似的问题。
死链接
2.可忽略的重定向。
301重定向是SEOer最喜欢做的一个细节操作,我们一般认为301网站做好重定向有利于网站权重的集中,更有利于网站排名的优化和网页收录。但问题在于,当一个站点转移时,我们往往会忽略301页的重定向。也就是说,我们经常忘了纠正对老页面的内部链接,即301重定向页面。例如,一个收录页面被重定向到新的页面,但许多seoer会忽略其中包含的超链接重定向规则,这导致许多网页仍然指向老网页,这样很容易造成权重分散。
3.多个子域名规范化www或非www版本
尽管子域名标准化是SEO的首要基本原则之一,但由于不使用WWW重定向WWW,或者相反地,就会有很多老网站因为没有将WWW重定向到其他网站。不管是什么类型的网站,作者都建议我们对子域域同样要规范化,简单易行,我们可以用HTACCESS文件来为WWW主站点创建301子域名重定向。
4.使URL结构一致。
URL的一致性非常重要,当然只有当外部链接指向错误的URL时才会出现这种情况。众所周知,每一个逆向链接都是宝贵的,并确保每一个逆向链接的价值更大化。但是我们可以控制我们如何链接如,不使用www,大写字母或者斜线。301重定向不需要与网站管理员联系,我们总能利用301重定向的价值。众所周知,对于外部链接来源,www.a.com/b不同于www.a.com/B。对于的SEOer来说,我们通常会用重定向规则强制一个URL版本来解决人为错误,而如果某个人链接到重定向,就会导致不必要的重定向。确定URL结构,不管我们做什么,它们都应该用一个斜杠www,小写字母应该保持一致,这样就能避免以后出现问题。
5.审查搜索引擎惩罚。
站点是否受到搜索引擎惩罚,关系到我们接下来的操作以及整个SEO方案的执行。直接了解我们的网站是否真正受到了搜索引擎的惩罚的方法就是site我们的域名是否排在位,或者是看整个标题排名能否出现在网站首页。
6.noindex,nofollow,robots.txt。
大家对SEO的方法比较熟悉,并且对网站有了更多的洞察力。如果没有合理的理由,我们不会仔细查看网站上的某些细节标签。为了优化站点的详细信息,特别是对大型站点来说,首先,查看robots.txt,浏览几个被拦截的目录,试图找出为什么被阻止,以及所拦截的机器人。下一步,混合ScreamingFrog,因为它的内部爬行报告会自动检查每个URL的nofollow和Follow,如果有,就会对每个URL进行一个标准的URL。若要马上作出判断,首先要做的事情就是弄清楚要用什么标签,以及为什么要用他们。来看一下某些网页的价值,如果这些页面是有价值的、吸引流量的网页,那么我们建议他们删除NOINDEX。
7.搜索引擎的网页数目和页数。
若我们真正想知道的是搜索引擎索引了多少页面,有两种方法可以利用搜索引擎网站站长工具,通过提交站点地图,我们可以得到关于该索引中实际包含的网址数量的统计信息。另外,我们不需要访问就能做这个,但是效率很低,就是使用网站工具进行收录页面检查,效率要比我们人工排除的要高。自然,很多时候我们发现索引数据与收录数据甚至网站页面数据都不一样。这样,我们可能会遇到复杂的问题,或者就像使用规范,noindex或301report那样简单。请勿尝试通过robots.txt来阻止不必要的页面,因为这并不会从索引中删除页面,只是阻止了爬网。
内容来自网络如有侵权请联系删除!