- N +

Baidu:网页长度大于128k会影响甚至不收录

Baidu站长学院前几天公布了一个案例,里面提到一些细节,特别值得站长重视。

它这个页面对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,大小164K,导致内容不被Baidu收录。

Baidu:网页长度大于128k会影响甚至不收录

网站如果针爬虫做优化,那么网页的长度最要在128K以内,不要过长。不然爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。

言下之意,这可能是Baidu技术缺陷导致,如果网页在128K以上,爬虫无法抓取就无法收录。如果各位站长的网站内容过长,尽量删除一部分不太重要的信息,以保证内容收录。

Baidu工程师建议:

1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取

2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长

3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取截断造成的内容抓取不全


-----正文到此结束-----
作者:绿夏

本站下载资源大部分来源于网络,如若侵犯您的权利,请及时联系我们进行删除!

返回列表
上一篇:
下一篇:

发表评论

快捷回复: 操作: