如何让自己制作的网页或者博客以及QQ空间不要在百度中搜索到相关内容?

来源:百度知道 编辑:UC知道 时间:2024/06/09 03:53:09
我自己制作的某些空间或者博客涉及到严重的个人隐私,不想让别人在百度中随便搜索到,怎么办啊?问题采纳者奖励20分!

到国外的博客上建博客。并在博客代码里加屏蔽搜索引擎代码;
或者用自动翻译网页---worldlingo翻译成德文;
博客文章里的内容使用生僻表达方法,包括使用比较纯正的文言文。

在你的空间根目录下,新建一个robot.txt文本文件,写入
User-agent: *
Disallow: /
然后保存就可以了。意思是禁止所有搜索引擎访问网站的任何部分。

如何让我的网页不被百度收录?

百度严格遵循搜索引擎Robots协议(详细内容,参见http://www.robotstxt.org/)。
您可以设置一个Robots文件以限制您的网站全部网页或者部分目录下网页不被百度收录。具体写法,参见:如何撰写Robots文件。
如果您的网站在被百度收录之后才设置Robots文件禁止抓取,那么新的Robots文件通常会在48小时内生效,生效以后的新网页,将不再建入索引。需要注意的是,robots.txt禁止收录以前百度已收录的内容,从搜索结果中去除可能需要数月的时间。
如果您的拒绝被收录需求非常急迫,也可以发邮件给webmaster@baidu.com请求处理。

为什么我的网站内一些不设链接的私密性网页,甚至是需要访问权限的网页,也会被百度收录?

百度Spider对网页的抓取,是通过网页与网页之间的链接实现的。
网页之间的链接类型,除了站点内部的页面链接之外,还有不同网站之间的互相链接。因此,某些网页即便通过您的网站内部链接无法访问到,但是,如果别人的网站上有指向这些页面的链接,那么这些页面还是会被搜索引擎所收录。
百度Spider的访问权限,和普通用户是一样的。因此,普通用户没有权限访问的内容,Spider也没有权限访问。之所以看上去某些访问权限限制内容被百度收录,原因有两点:
A. 该内容在Spider访问时是没有权限限制的,但抓取之后,内容的权限发生了变化
B. 该内容有权限限