与搜索引擎相关的文章聚合
1、淘宝搜索对于一个卖家来说,太重要了。目前又没有系统性的介绍,我之前答应过要写,这次刚好有机会。可以供卖家参考。2、我负责了4年多的淘宝搜索技术和产品,如今不再负责搜索业务了,也希望能写一些文章,做为总结。也算对自己交代。3、目前对于购物搜索方面的文章太少,我写出来,可以让其他做购物搜索的同仁们有所借鉴。
站长朋友们,今后定期都将在这里跟大家分享一些有关搜索引擎工作原理及网站运营相关的内容,今天先简单介绍一下关于搜索引擎抓取系统中有关抓取系统基本框架、抓取中涉及的网络协议、抓取的基本过程三部分。我们常用的几家通用搜索引擎蜘蛛被叫做:Baiduspdier、Googlebot、Sogou Web Spider等。
换宝贝定义:指卖家为了累积销量或人气,修改原有的商品的标题、价格、图片、详情等变成另外一种商品继续出售。这是种严重炒作销量的行为,有这种行为的商品会被淘宝搜索判定为换宝贝立即降权。
本文详细的讲述了新闻稿的优化方面,从新闻稿的优化到站外优化,已经一些投稿的方法。一些细节,例如文章摘要、时间、来源等等都是容易忽略的地方。学习之后1-2篇的新闻稿优化并不能起多大重要,如果把这些方法当成习惯,日积月累就会有明显效果,我感同身受。
本文讲诉了如何从细节方面提高一个页面的价值。其中文中提到亮点我认为很有价值,1是对于重复不必要的文字,尽量不要写上去,2是可以适当的在文中加入图片或视频提高内容综合得分,网站内容质量仅仅是页面综合得分里面的一项.不管算法如何改变调整,搜索引擎都不会丢弃网站页面的综合得分。
越来越多的网站,开始采用"单页面结构"(Single-page application)。整个网站只有一张网页,采用Ajax技术,根据用户的输入,加载不同的内容。这种做法的好处是用户体验好、节省流量,缺点是AJAX内容无法被搜索引擎抓取。
早在2012年11月初,针对百度诉奇虎360违反“Robots协议”抓取、复制其网站内容的不正当竞争行为一案,在中国互联网协会的牵头下,包括百度、新浪、奇虎360在内的12家互联网公司已共同签署了《互联网搜索引擎服务自律公约》,在公约第七条承诺“遵循国际通行的行业惯例与商业规则,遵守机器人协议(robots协议)。
我可以肯定的告诉你市面上百分之90以上的排名点击器原理是错误的!说到来源不得不提搜索引擎性能评价了,搜索引擎性能评价原属于一个搜索引擎性能指标,但随着搜索引擎积累的用户行为数据增多,搜索引擎也加入了这一用户行为分析。所以后面自然而然的出现了这类的作弊行为,这类作弊效果为什么会如此有效也莫过于搜索引擎注重民主选举的一种体现了,按照常理来说用户点击越多的page自然也是最具价值的页面。当然了道高一尺魔高一丈搜索引擎算法工程在正在得意的时候却又给了我们一个空子。
微信开始了新一轮发动群众的圈地运动,1,抢占搜索引擎排序前列,2,强制加V用户发微博认证。微信公众平台参与搜索引擎的排名不是一天两天的了,一些热点话题来自微信的文章都能有不错的排名,最近博友稀饭的一篇投稿详细阐述了微信是如何影响着搜索引擎排名的,文中列举的案例虽然让人信服,比仅仅是百度,Google也在收录微信文章,不过作者是基于行业内的判断,目前还不清楚微信在普通用户中的热搜词是否有好的排名,还是仅仅为了吸引互联网人士?
编者注:人民网旗下的即刻搜索,一直以来因名人效应、官方背景、种种变动而备受关注。本文来自弯曲评论,作者jikesolider自称即刻老兵,仅供参考。最近即刻动荡不安,内部重组,裁员,研发的高管相继离职,很多在任的也考虑离开,过度对云壤的依赖导致了即刻这样的公司无法做大,做好。如果即刻不再技术上做一些创新或者掌握搜索的核心,或者还是依赖云壤的技术支持,受制于人,那想做好搜索,是笑话而已。
[核心提示] 对常见的搜索流程习以为常之后,关于这个流程的一些基本问题就不那么容易发现了。所以,有时候要往回退一步,从本质的需求出发重新来审视一下搜索的产品设计。我们经常使用搜索,时间长了就习惯了现在搜索的流程:搜索——筛选(缩小范围)——找到满意的商品——点击进入详情页,如果没有找到满意的商品就换词继续搜索。
这里我要声明下:此操作方法不能给你每天带来几千上万的流量,对于那些大鳄来说不要喷我。我的这个方法每天或许能拿到200UV(每个关键字)就算不错了,要是一个店铺能找到10个这样的黄金关键字,那一天或许就是2000UV了,对那些大卖家来说这点流量屁都不是,但我相信大部分都是中小卖家,这点小流量够我们养家糊口了。在这里我们简单来算下每天带来200UV的好处吧,一年算拿到7万流量,转化1%,单价80,毛利20%,那一年能带来700单,5.6万收入,1.1万毛利(客观的分析)好吧算出来我自己也吓一跳,多出来的一万块我们可以去旅游可以买台外星人在或者能多推几次油。
这个时代也可以称为“导航时代”,Yahoo和国内hao123是这个时代的代表。通过人工收录整理,把属于各个类别的高质量网站或者网页分门别类罗列,用户可以根据分级目录来查找高质量的网站。这种方式是纯人工的方式,并未采取什么高深的技术手段。采取分类目录的方式,一般被收录的网站质量都比较高,但是这种方式可扩展性不强,绝大部分网站不能被收录。
作为SEO从业者,不仅要被搜索引擎抓取,还要被收录,最重要的是在收录后有良好的排名,本文将简单分析下搜索引擎收录网页的四个阶段。每个网站、每个网页的排名都是不一样的,看看你的网站处于哪个阶段呢?读完本文你会了解到以下信息:很多站长反应蜘蛛来访问了,但没有收录?为什么导出的链接越少,权重会越高?为什么很多网页会出现「秒收」的情况?为什么许多网站的内容被转载后,大站却能排到你前面?
最近国内SEO界有个概念炒得很火,叫[共同引用],也就是co-citation。起因就是卢松松写了一篇相关文章,然后被A5转发后,被大家广泛讨论。其实这个概念在Google SEO领域很早就被提及,我个人最早了解是在2012年12月,Rand Fish写了一篇文章来阐述[共同引用 co-citation]这个概念。在此基础上,我还要补充下最近又开始兴起的一个说法,叫[共同出现 co-occurrence]。 下面的内容将对这2个概念进行阐述,并且举出一些例子以及我个人的思考。
二年前,我写了《相似图片搜索的原理》,介绍了一种最简单的实现方法。昨天,我在isnowfy的网站看到,还有其他两种方法也很简单,这里做一些笔记。两个特征矩阵的不同之处越少,就代表两张图片越相似。这可以用"异或运算"实现(即两个值之中只有一个为1,则运算结果为1,否则运算结果为0)。对不同图片的特征矩阵进行"异或运算",结果中的1越少,就是越相似的图片。