当前位置:首页 > 网站优化 > 正文

seo robot如何提升网站排名?这几个方法很有效!

今天心血来潮,想搞搞网站的SEO,重点研究一下*这个文件,感觉还挺有意思的,跟大家分享一下我的实践过程。

我对这玩意儿完全没概念,就知道好像是跟搜索引擎爬虫有关。于是我就去搜一堆资料,大概弄明白*是用来告诉搜索引擎哪些页面可以抓取,哪些不可以抓取。

第一步,当然是先看看我自己的网站有没有这个文件。

我直接在浏览器地址栏输入我的网址,后面加上“/*”,回车!还真有。打开一看,里面已经有一些内容,不过看起来比较简单。

我就开始琢磨怎么优化这个文件。

我先仔细分析一下我网站的结构,看看哪些页面是不希望被搜索引擎抓取的。比如说,我有一些后台管理的页面,还有一些测试用的页面,这些肯定是不想被公开的。

  • 后台管理页面
  • 测试页面
  • 一些不想公开的内部资料页面

然后,我就开始动手修改*文件。

我根据网上查到的资料,学习*的语法规则。主要是“User-agent”和“Disallow”这两个指令。 “User-agent”后面跟着爬虫的名字,比如“”代表所有爬虫,“Googlebot”代表谷歌的爬虫。“Disallow”后面跟着不想被抓取的路径。

我先加一条规则,禁止所有爬虫抓取我的后台管理目录:

User-agent:

Disallow: /admin/

然后,我又陆续加几条规则,把其他不想被抓取的页面也都屏蔽掉。

修改完之后,我把新的*文件上传到网站的根目录,覆盖原来的文件。

我还解到一个叫sitemap的东西。

我看网上说,搞好sitemap对SEO也有帮助,它可以告诉搜索引擎网站上有哪些页面可以抓取。我就顺便研究一下,用工具生成一个*文件,也上传到网站根目录。 并且在*文件里加上sitemap文件的路径

Sitemap: /*

搞完这些,我心里感觉踏实多。虽然不知道效果到底怎么样,但至少我把该做的都做。 剩下的,就交给时间来验证!

关键词的布局

在这回的优化过程中,也学习到关键词的布局也很重要,不能乱放,要自然的融合到文章中,让搜索引擎能更好的明白你的内容。

今天的分享就到这里,希望对大家有帮助。以后有新的实践经验,我还会继续跟大家分享!