独立站SEO怎么做
做好seo的7个技巧:1、网页加载速度;2、网页加载速度;3、清除网站无效死链;4、使用Canonical标签;5、设置HTTPS;6、Hreflang标签;7、XML网站地图。
1、网页加载速度
如今,移动网页需要快速加载,因为用户容易急躁不安,不想等待页面打开。研究已经显示,如果某个网页在三秒钟之内无法打开,将会有53%的移动网站访问者离开。因此,如果您的网站运行缓慢,用户会感到失望,然后转到另一个网站,您将错过很多流量,例如亚马逊就曾经因为网站延长打卡1秒,一年就损失16亿美元!谷歌知道,速度慢的网页提供的体验并非最佳,所以谷歌喜欢加载速度更快的网页,对此我们可以服务器启用GIZP压缩,或者开启CDN加速来加快网页的加载速度。
速度较慢的网页比其速度更快的网页最终在搜索结果中的位置要低得多,从而导致流量减少。想知道您的网站是否足够快?XShoppy建议可以在Google移动端网站测速工具上测试一下,另外它还将为您提供改进方面的指导。
2、网页加载速度
您可以使用robots.txt文件为网站上的搜索引擎蜘蛛提供指导。这是一个功能强大的文件,我们应谨慎处理。因为一个小错误可能会阻止蜘蛛抓取您网站上的重要内容。有的人会无意间将其网站的CSS和JS文件阻止在robot.txt中,这些文件会告诉浏览器您网站的外观和工作方式的代码。如果这些文件被阻止,搜索引擎将无法确定您的网站是否正常运行。
如果您不希望蜘蛛爬到某些内容,您可以阻止抓取。另外还可以让蜘蛛禁止索引页面,告诉蜘蛛不要在搜索结果中显示此页面,或者不追踪该页面上的链接。总而言之,如果您想正确使用robots.txt,建议您让开发人员去处理!
3、清除网站无效死链
打开速度慢的网站会损害用户体验,但对于访问者而言,比速度慢的页面更令人讨厌的是,他访问的页面根本不存在。如果网站链接指向您网站上不存在的页面,则会极大地损害用户体验!而且,谷歌也不希望抓取这些错误页面,浪费抓取资源。
在我们更新网站的过程中难免会产生死链,对此可以用检查死链工具帮助您检索站点上的无效链接。为防止不必要的无效链接,在删除或移动页面时,应该用301重定向页面的URL,如果死链已经被索引,需要在谷歌站长平台移除,并且做好404页面。
4、使用Canonical标签
如果您站点的多个页面上具有相同的内容,搜索引擎会搞不清楚哪个页面才是重点。因为,如果这些页面显示相同的内容,它们应该在哪个页面上排名最高?所以搜索引擎可能会将具有相同内容的页面排名都降低,而Canonical标签可以让搜索引擎只抓取你想要强调的内容。
5、设置HTTPS
为了使网站安全,您可以做很多事情,而最重要的事情之一就是实现HTTPS。谷歌对设置了HTTPS的网站是有排名优待的,因为显示安全的网站会让用户浏览起来更加放心。
HTTPS数据加密传输能确保没有人可以拦截在浏览器和网站之间发送的数据。因此,您需要申请购买一个SSL证书,并且在网站上设置HTTPS。您可以轻松地检查大多数浏览器中的网站是否为HTTPS。在浏览器搜索栏的左侧,您可以看到一个安全的绿色锁,如果看到“不安全”的字样,那就证明该网站没有设置HTTPS。
6、Hreflang标签
如果您的外贸网站要覆盖多个国家或地区,则搜索引擎需要通过Hreflang标签来了解网站要覆盖的国家或语言。这样搜索引擎可以在搜索结果中向用户显示他们所在地区的合适网站。
您可以用Hreflang标签为页面定义其所要使用的国家和语言,并且也能解决可能出现的重复内容问题:即使您的美国和英国的网站显示内容相同,Google也会知道该内容是针对什么地区编写的。
7、XML网站地图。
简而言之,XML网站地图是站点所有页面的列表,它相当于给搜索引擎提供了抓取路线图。有了它,您将确保搜索引擎不会错过您网站上的任何重要页面。我们需要把XML网站地图制作好之后,在谷歌站长平台提交Sitemap,谷歌会定期抓取你更新的Sitemap XML文件,加快网站收录索引。
理想情况下,如果网站有一个很好的内部链接结构,则网站不需要XML网站地图。但是,并非所有网站的结构都很好,所以我们始终建议您在网站上制作XML网站地图,并且把Sitemap文件路径写在robots.txt文件里,引导蜘蛛抓取。
本文电脑具体操作的文字内容:电脑型号:戴尔optiplex7070、电脑系统:windows7家庭普通版、浏览器版本:360浏览器12