?国内很多人把SEO技术和IT混为一谈,事实上,SEO技术主要是一些思维方面的东西,主要是在建站的时候需要IT的介入,日常操作中普通人经过培训也是可以胜任的。
今天这篇文章,Biu叔试图罗列SEO与IT相交的部分。我个人认为,如果这些东西做好了,剩下的事情就不太需要IT人员帮助了。
1、妥善处理404页面
电商网站经常会遇见需要删除产品,甚至是删除产品目录页的情况。如果在站内有指向这些需要删除内容的链接,那么访客点击这些链接就会到达一个404页面。404页面对用户体验是不好的,而且对SEO也有一些不利影响,因为它会浪费部分Crawl Budget和链接汁。我们应该在删除产品的时候,把其他内链的地址也做一些相应的修改,或者是使用301重定向功能,把旧网址指向有效页面。
2、网站迁移的时候要注意301重定向不要形成链条
如果我们把网站abc.com替换成xyz.com, 那么有可能无意中形成了>>>这样多次重定向其实对SEO也是不利的,我们应该把所有的首页网址都重定向到一步到位。
3、网页加载速度
提高网页加载速度也是对SEO非常重要的事情,除了使用CDN和页面缓存以外,我们也要对图片进行无损压缩和有损压缩,减少调用http来减轻服务器负担,其他的操作还包括使用常规字体,延时加载图片等。
4、提供响应式页面
响应式页面不能光靠插件来实现,对于网站主题也要做相应的处理。我们使用谷歌的移动设备适应性测试来检查自己的网站对手机是否有好。同时还要确保robots.txt中没有屏蔽Googlebot Smartphone。
5、XML地图
XML地图的作用是帮助谷歌索引网站最新内容,一般我们需要向搜索引擎提交自己的XML文件。如果发现网站内容迟迟未被收录,那要注意查看是不是XML没有及时更新网址。
6、URL结构
网站结构是帮助用户和搜索引擎提高浏览效率的最佳方式之一。在建站之前就需要规划好网站的结构,合理布局目录和子目录之间的关系,URL通常只包含小写字母和中横线,避免特殊字符,大写字母和空格等。对于大多数中而言,网站层级结构控制在3层以内是一个比较合理的深度。
7. robots.txt不要阻止搜索引擎蜘蛛访问
有些人喜欢在网站上线前阻止蜘蛛程序索引,但是上线以后忘记改回来,导致网站一直无法被搜索引擎发现。要注意检查robots.txt内容。
8. 网站不应包含太多薄内容
对于谷歌SEO来说,通常认为小于500字的文章都算是薄内容。频繁发布新文章并不能帮助网站“提高权重”,谷歌喜欢的是有深度,有内涵的内容。如果薄内容太多,谷歌爬取网站的频率会降低,索引率也会降低。为了提高网站的索引率,增强曝光,我们要尽量发布有深度的文章来获取谷歌的好感。
9.网站尽量少发布不相关内容
与网站主题不相关内容,用户不喜欢,谷歌搜索引擎也不会喜欢。它通常是网站站长的自嗨行为,或者是为了发布文章而发布文章的形式主义思维导致的。
10、正确使用Canonical标签
”rel=canonical”就是我们常说的Canonical标签。当你有两个内容相似的网页,出于某些原因你不想删除其中之一的时候,可以用Canonical标签把一个网页指向另一个更有价值的网页。它的目的是为了避免自己网站中不同网页在谷歌搜索引擎中形成竞争关系。
11、正确使用robots标签
robots标签和robots.txt的意义差不多,都是为了告诉谷歌是否该索引某些网页,但是robots标签是存在与网页源代码之中的。
注意区分nofollow链接属性和nofollow robots标签。如果网页中包含有 ,那么该网页中所有链接都等同于带上了nofollow属性。
12、合理安排crawl budget
谷歌搜索引擎蜘蛛程序为每个网站分配的索引预算都是有限的。如果我们发现自己网站新内容很难以被索引,那么就有必要查看下谷歌蜘蛛把索引预算花费在哪些网页了。通常查看网站日志可以帮助我们了解这类问题。
13、适当安排结构化数据
结构化数据的主要作用是为了在搜索引擎结果页面中展示丰富多彩的效果,这有利于吸引用户注意,从而提高点击率。如果网站是用Word Press搭建的,那么可以使用All in One Schema 和 RichSnippets这两个插件来实现结构化数据。
以上就是SEO技术中需要IT介入的主要内容,Biu叔认为使用Word Press可以有效降低这些工作的难度,减少开发和维护成本。如果使用一些不知名系统来搭建网站,那么后续的成本可能会很高昂,甚至无法完成某些特定的目标
作者:Biu叔学堂
来源:卢松松博客转载请注明出处!