2012年,SEO行业分为两派——技术派和理论派,技术派认为应该深入理解搜索引擎工作原理,学会web开发,这样做SEO才能走得远;理论派则认为只要掌握理论,会不会编程无所谓。当时SEO人员纷纷站队,在各大SEO论坛上吵得热火朝天。
我是个实用主义者,开始站的是理论派,因为当时我还停留在“改title、每天一篇文章”这个初级认知阶段。但当我看了一个博客的一篇文章后,觉得很有道理,书里提到了一本书叫这就是搜索引擎,我激动之下就买了。几十块钱吧。书里面很多公式难以理解,我遇到公式就跳过去,就这么看完了。从此知道技术是有必要的,开始站队技术派。
两派吵得火热的时候,百度在六月份来了一次大调整,一夜之间很多网站的收录、权重双双归零,哀鸿遍野,很多站长一夜回到解放前。而我,则有了学技术的想法。
断断续续学了几年.html"程序员" href="https://www.motuuu.com/news/tags/chengxuyuan.html" target="_blank" class="keywordlink">程序员比较近,就接触了java,然后拿了一本张孝祥的书开始猛看,看了前两章就看不懂了,借用鲁迅的话来说就是“我感到了一层厚厚的障壁”。再加上我懒得跟着书写代码,只顾看书。看懂了类之后就看不懂了,后来也放弃了。
第三次还是PHP,当时一心想搞懂网站,而用php建的站还比较多,所以就学了,但搭个学习环境就花了很多天,最后还没搭好,后来就慢慢地放弃了。
经过了这三次学习,我虽然还是个编程门外汉,但至少把一些基础的语言结构和类都弄懂了。
第四次就是python,开始是在网上看资料,发现看不懂,就买了本python学习手册,800多页,因为书很简单,自己之前打的基础也不错,不到一个星期就看完了。然后就开始学习爬虫库,买了几本书看不懂,中间隔了好几天,后来鬼使神差去找视频看,看了一部视频后跟着写,也写了两个程序,爬出了结果。从此一发不可收拾。
先是自己写爬虫,爬了一个论坛的几十万条数据,然后自己写了个程序解决了SEO工作中一直没有解决的查收录比率的问题。
然后就势如破竹了,花了两天解决了模拟登陆和模拟浏览器问题,一天解决了JS抓取,一个下去学会了把爬取结果放进数据库里,代理IP因为费用问题还没有抓取。
记得之前看电视剧《冬至》的时候,有一句台词印象深刻:假如你没有体验过有钱的幸福,你就无法理解没钱的苦。我的理解是:假如你没有体会过会编程的幸福,你就无法理解不会编程的苦。
以前我刚接触一个行业的时候,总想调查这个行业的用户需求,做法就是去行业论坛看帖子和去问答平台看问题,时间长,而且效率低,得出的结果还很片面。现在不一样了,把帖子和问题爬一遍,看看浏览人数和回复,再用语言处理库分析一遍,用户需求就出来了。
还有就是查有效收录,大型网站一个栏目里可能有几万个网页,市面上没有现成的工具,怎么办?以前只能凉拌,现在不一样了,写段代码跑一跑,不仅能得出来收录比率,还能查出来哪个页面收录了,哪个页面没收录。至于分析网站日志,现在不仅能分析,还能监控。
至于监控友情链接、收录监控、预警监控等功能,都可以解决。
Python只是工具,当它和SEO、运营、营销结合起来的时候,它的作用大得无法想象。
人和动物最大的区别就是人会使用工具!
作者微信个人号:934316183