SEO如何处理采集内容

时间:2016-11-28

采集内容对SEO是否有效?

有人说采集内容对搜索引擎友好性不高,不容易获得排名,这个是肯定且必然的。

对大多站点,上采集内容必定不如UGC、精心编辑过的内容来的效果好。但是,现在搜索引擎能获取到的原创内容量已经不如之前多了,毕竟内容生产平台已经转移了,早就不集中在网站上了。另外几个搜索引擎之间还相互抓,何况小站点呢。

所以采集内容依旧是有效的,只不过对采集内容后加工的成本越来越高了。

采集内容的后加工

担心采集内容效果差,或者容易被K,主要还是看怎么对内容后加工。打个比方:

好比从沃尔玛拿了一筐猕猴桃,原封不动的放到家乐福,顶多还只能是原来的售价,因为猕猴桃还是猕猴桃,商品不变。但把猕猴桃榨成汁(形态变化),加点水分瓶装(粒度变化),再放到711里卖(平台变化),售价可以翻几倍(价值增益)

为啥?

  • 因为形态变了,果汁是不同于水果的商品,且果汁更容易吸收

  • 因为平台变了,711定价本身就比沃尔玛家乐福要高一点

  • 因为粒度变了,一生二二生三三生万物

  • 前三者的变化,导致价值的翻倍

如果把“采集内容”比作“猕猴桃”,则对“采集内容”的后加工策略如下:

形态

组织内容方式无穷多,无论对同一个内容掰开了揉碎了分发到多处、还是多篇相关内容聚合到一处、还是其他方式,都可以让搜索引擎更容易接受。

平台

术业有专攻,从新浪抓一些垂直行业内容放到对应行业的垂直网站,肯定比放到新浪更合适。把专业化的内容放到专业的网站。

粒度

同样是抓取的内容,粒度越细,在搜索引擎中的原创度越高。举个极端的例子,星座股票起名八卦算命生辰八字风水算命qq图片动态图….此类型的站,哪个内容不是重复的?

增益

采集的目的在于补全内容上的漏洞,使同主题的内容比别人更加丰富饱满充实,则产生了页面内容价值上的增益。

采集内容完整流程

关于“采集内容处理”,从抓取到上线整个流程看,要搞定以下问题:

  • 采集内容从哪来?

  • 采集内容怎么抓?

  • 采集内容如何处理?

采集内容从哪来?

对于正经做站且做正经站的,定向采集、买专业数据更合适。

定向采集,只抓几个特定网站的特定范围,与本站内容漏洞高度相关的。

对于不正经做站的,可选择的范围就多很多了,沾点边的内容都可以抓,讲究量大,所以不需要限定某几个站的抓取,有人叫泛采集

设置几个主题,直接抓各种大平台的搜索结果便可。大平台指什么?海量内容集中的地方:各类搜索引擎、各类门户、今日头条、微信微博、优酷土豆等等

采集内容怎么抓?

  • 定向采集:

略,平常怎么抓就怎么抓。

  • 泛采集:

定向爬虫受限于网页模板,在此基础上加上几个内容分析算法来提取内容,改成通用爬虫。

好多浏览器插件,如印象笔记之类的,有好多类似“只看正文”的功能,点一下只显示当前浏览网页的正文信息,很多人已经把此类算法移植到python、php、java等编程语言上,搜索下便是。

采集内容如何处理?

两个先后过程:

  • 对原始内容的处理

  • 对处理后内容进行组织

对原始内容的处理

百度专利说过,搜索引擎除了根据正文判断内容相似性,也会根据html的dom节点的位置和顺序来判断,如果两个网页正文的html的结构相似,也可能当做重复内容来处理。

所以,采集的内容不能直接拿来就上,要对源码清洗一下。每个人方式各异,个人一般做如下处理:

html清洗

  • 保留主要标签:p、img

  • 删除标签中不重要的属性

  a = re.sub(r'<(?!p|img|/p)[^<>]*?>','',content).strip() 

  b = re.sub(r'<p[^>]*?>','<p>',a)  

  newcontent = re.sub(r'alt="[^"]*?"','alt="%s"' % title,b).lower()

删除中文字数 < 100字的

  text = re.sub("[\s+\.\!\/_,$%^*(+\"\']+|[+——!,::。?、~@#¥%……&*()“”《》]+".decode("utf8"), "".decode("utf8"),newcontent)  

  text2 = re.sub('<[^>]*?>','',text)  

  words_number = len(text2) 

去除垃圾信息

如“XXX网小编:XXX”、邮箱网址等。。。

对处理后内容进行组织。

在百度站长平台上看到这篇文章写的比较好,转载过来。希望能够帮到大家,原作者未知!

 
上一条:【官方说法】关于百度“判罚”的谣言 下一条:[MIP答疑解惑] MIP改造常见Q&A集锦

相关文章

最新文章