有时我们可能希望,从 Google 搜索结果中移除某些网页或整个网站的内容。 这可能是由于隐私、商业或其他考虑因素。 幸运的是,Google提供了一些工具和方法,使我们能够快速有效地从其索引中删除内容。
针对不同的情况和需求,可以参考以下移除Google收录的方法,进行有选择的实作。
一、前期快速暂时移除法:
在GSC (Google Search Console) 中使用删除工具暂时移除
网址:https://search.google.com/u/1/search-console/removals
需要把测试网站的PC端和M端分别加入google search console中进行验证,验证成功后再使用移除工具。
暂时删除期是6个月,6个月后Google还会恢复索引结果,在此期间需要永久移除法。
备注 :
GSC的删除功能,其实是 Google 的隐藏功能,期间页面不会出现在 Google 搜索结果里,但期间谷歌还是可以索引,只是在库里,过了 6 个月,如果页面还存在,Google 还是可能会把页面在搜索结果放出来的。
二、后期要永久移除的方法:
1. 删除页面,使http返回状态为404(未找到)或410(已删除)
尽量使用410
404: 未找到– 未找到所要求的资源。
410: 类似于 404,表示请求未找到,但这也表示该请求将不再可用。
2. 设定密码保护,或设定白名单
新增密码不会将页面从 Google 索引中删除,但可以阻挡 Google 未来抓取
3. 使用Noindex meta tag标签
使用noindex标签可将页面从搜索结果中排除, 让搜索引擎知道他们不应该索引该特定页面。
< meta name="robots" content="noindex" / >
4. 使用Noarchive meta tag标签
使用 noarchive 标签,告诉 Google「我不想让您快取这个”
< meta name="robots" content="noarchive" / >
3和4,和nofollow可以一起加:
< meta name="robots" content="noindex, noarchive, nofollow" / >
nofollow: 告知蜘蛛不用爬行此页面上的链接内容。
备注 :
使用这个方法,需要在head里添加后,在google search console 后台使用网址检查工具,让谷歌重新抓取这个页面,谷歌只有再次抓取这个页面时,才会发现noindex标签。
5. Robots.txt
Robots.txt无法阻止索引,谷歌有时会忽略robots文件的限制( 可不使用此方法)
robots.txt 会阻止 Google 抓取网页(或类别),而不是将其从索引中删除。 透过 robots.tx 文件阻止的页面仍可被索引(并被排名)。
谷歌官方建议:
https://support.google.com/webmasters/answer/9689846?hl=zh-Hans&sjid=8108231094128340162-AP (有影片解说)
谷歌官方指南:
https://developers.google.com/search/docs/crawling-indexing/robots-meta-tag
网友评论文明上网理性发言已有0人参与
发表评论: