SHOPLINE Robots.txt配置

2024-02-12 84
SHOPLINE

类型:独立站平台

简介:跨境电商独立站SAAS建站平台,打通线上线下,智能工具优化销售链路。

在 SHOPLINE 中,Robots.txt 文件是一项高级SEO功能,更好地控制对网站的抓取请求,提升SEO灵活度能力,满足商家个性化SEO诉求。Robots.txt 文件告诉搜索引擎在其搜索结果中包含或跳过网站的哪些页面。搜索引擎在抓取和索引网站时会检查网站 Robots.txt 文件。

如果想更好地控制对网站的抓取请求,可以编辑Robots.txt 文件。

一、概览

默认 Robots.txt 文件适用于大多数商店,但对特殊URL进行禁止Google等搜索引擎蜘蛛抓取的设定场景,可以通过编辑 Robots.txt文件来实现。这些场景包括:

1、允许或不允许抓取某些 URL。

2、为某些爬虫添加抓取延迟规则。

3、添加额外的站点地图 URL。

4、阻止某些爬虫。

二、编辑Robots.txt

如果想编辑robots.txt文件,可以在文件中添加或删除指令。操作步骤:

1、在 Shopline 后台中,点击设置 > 在线商店。

2、在在线商店页面中,点击偏好设置。

3、找到Robots.txt管理。

4、点击前往设置。

5、即可进入【Robots.txt编辑器】。

SHOPLINE Robots.txt配置

SHOPLINE Robots.txt配置

注意:该功能为「防爬虫设定」的优化版,如果在「防爬虫设定」中输入过防爬虫页面,系统会自动在Robots.txt文件末尾输出相应的disallow文本。

  • 广告合作

  • QQ群号:707632017

温馨提示:
1、本网站发布的内容(图片、视频和文字)以原创、转载和分享网络内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。邮箱:2942802716#qq.com(#改为@)。 2、本站原创内容未经允许不得转裁,转载请注明出处“站长百科”和原文地址。