APP开发|手机网站制作|企业SEO培训

信息中心

您可以点击在线留言按钮来提交您的意向单:

您也可以通过以下方式在线与我们沟通:

您当前的位置: 首页 > 求谛观点
信息中心
  • 访问本页面,您的浏览器需要支持JavaScript,怎么回事?[2012-04-21]

    百度和google里面搜索我的站点,出现:访问本页面,您的浏览器需要支持JavaScript。到底怎么回事? 问题如: 这几天发现在百度和GOOGLE里搜索自己的站点时都显示:访问本页面,您的浏览器需要支持JavaScript... 前几天还是正常的,网页都是纯的HTML,根本不存在浏

  • 我的站怎么就不被收录呀?[2012-04-21]

    这个问题,被大家问过无数遍。我也回答了不下百遍。 下面是解决方案: 1、查下你的日志,在日志里搜索这几个:baidugoogleyahoo ; 2、从最近的日志里开始找,如果没有,再往前找一个; 3、日志中有这几个结果: 3.1、如果日志里,从来没有出现过这几位老大的

  • Robots.txt 文件应放在哪里?[2012-04-21]

    Robots.txt 文件必须放在网站的根目录。放在子目录的 Robots.txt 文件搜索引擎不能爬取到,所以不会起任何作用。 例子: http://qd218.com/robots.txt 有效 http://qd218.com/bbs/robots.txt 无效 如果你不能控制根目录的 robots.txt,则你可以通过在子目录

  • robots.txt文件有什么必要?[2012-04-21]

    什么是robots.txt文件? 搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置r

  • robots.txt[2012-04-21]

    robots.txt是什么? 有没有想过,如果我们某个站点不让百度和google收录,那怎么办? 搜索引擎已经和我们达成一个约定,如果我们按约定那样做了,它们就不要收录。 这个写约定的的文件命名为:robots.txt。 robots.txt是一个最简单的.txt文件,用以告诉搜索引

  • 如何查看网站被百度抓取的情况?[2012-04-21]

    百度用于抓取网页的程序叫做Baiduspider - 百度蜘蛛,我们查看网站被百度抓取的情况主要是分析,网站日志里百度蜘蛛Baiduspider的活跃性:抓取频率,返回的HTTP状态码。 查看日志的方式: 通过FTP,在网站根目录找到一个日志文件,文件名一般包含log,下载解

  • 301重定向怎么进行URL标准化设置?[2012-04-21]

    经常会碰到这样的情况,其他网站链接你的站点时,会用下面的链接: www.example.com example.com/ www.example.com/index.html example.com/index.php 而这样导致:你站点主域名的pr值分散到其他几个URLs了。 如果你用301重定向把其他三个URL转到 www.example

  • 为什么PR值在浏览器插件上显示为0?[2012-04-21]

    假设你的站点域名是qd218.com, 先看下你网站首页所对应的链接是qd218.com或是qd218.com/index.html、qd218.com/index.php或其他。如果你的域名pr值大于0,而首页在浏览器pr值插件上显示为0,则是因为你网站首页链接设置问题。现在基本上80%的网站,因为没有

  • 浏览量、访问量[2012-04-21]

    网站流量的统计工具中最有价值的两个数据是网站的浏览量和访问量。 在这里,我们理清楚相关的几个概念。 浏览量:网站所有页面被点击的总次数。一个IP点击N次,按N次统计。 从技术层面讲,指浏览器加载网页的次数总和。 访问量:从来到网站到离开,算一次统计

共 640 条 上一页 1 4 5 6 7 8 9 10 72 下一页