受欢迎的博客标签

思路非常清晰,终于看懂ES是如何对文档评分(打分策略详解与explain手把手计算)

Published
一、目的一个搜索引擎使用的时候必定需要排序这个模块,一般情况下在不选择按照某一字段排序的情况下,都是按照打分的高低进行一个默认排序的,所以如果正式使用的话,必须对默认排序的打分策略有一个详细的了解才可以,否则被问起来为什么这个在前面,那个在后面不好办,因此对Elasticsearch的打分策略详细的看了下,虽然说还不是了解的很全部,但是大部分都看的差不多了,结合理论以及搜索的结果,做一个简单的介绍 二、Elasticsearch的打分公式Elasticsearch的默认打分公式是lucene的打分公式,主要分为两部分的计算,一部分是计算query部分的得分,另一部分是计算field部分的得分,下面给出ES官网给出的打分公式: [java] view plain copyscore(q,d) = queryNorm(q) · coord(q,d) · ∑ ( tf(t in d) · idf(t)² · t.getBoost() · norm(t,d) ) (t in q) 在此给每一个部分做一个解释queryNorm(q):对查询进行一个归一化,不影响排序,因为对于同一个查询这个值是相同的,但是对term于ES来说,必须在分片是1的时候才不影响排序,否则的话,还是会有一些细小的区别,有几个分片就会有几个不同的queryNorm值 queryNorm(q)=1 / √sumOfSquaredWeights 上述公式是ES官网的公式,这是在默认query boost为1,并且在默认term boost为1 的情况下的打分,其中 sumOfSquaredWeights =idf(t1)*idf(t1)+idf(t2)*idf(t2)+...+idf(tn)*idf(tn) 其中n为在query里面切成term的个数,但是上面全部是在默认为1的情况下的计算,实际上的计算公式如下所示:     coord(q,d):coord(q,d)是一个协调因子它的值如下:   [java] view plain copycoord(q,d)=overlap/maxoverlap 其中overlap是检索命中query中term的个数,maxoverlap是query中总共的term个数,例如查询词为“无线通信”,使用默认分词器,如果文档为“通知他们开会”,只会有一个“通”命中,这个时候它的值就是1/4=0.25tf(t in d):即term t在文档中出现的个数,它的计算公式官网给出的是:   [java] view plain copytf(t in d) = √frequency 即出现的个数进行开方,这个没什么可以讲述的,实际打分也是如此idf(t):这个的意思是出现的逆词频数,即召回的文档在总文档中出现过多少次,这个的计算在ES中与lucene中有些区别,只有在分片数为1的情况下,与lucene的计算是一致的,如果不唯一,那么每一个分片都有一个不同的idf的值,它的计算方式如下所示:   [java] view plain copyidf(t) = 1 + log ( numDocs / (docFreq + 1)) 其中,log是以e为底的,不是以10或者以2为底,这点需要注意,numDocs是指所有的文档个数,如果有分片的话,就是指的是在当前分片下总的文档个数,docFreq是指召回文档的个数,如果有分片对应的也是在当前分片下召回的个数,这点是计算的时候与lucene不同之处,如果想验证是否正确,只需将分片shard的个数设置为1即可。t.getboost():对于每一个term的权值,没仔细研究这个项,个人理解的是,如果对一个field设置boost,那么如果在这个boost召回的话,每一个term的boost都是该field的boost norm(t,d):对于field的标准化因子,在官方给的解释是field越短,如果召回的话权重越大,例如搜索无线通信,一个是很长的内容,但都是包含这几个字,但是并不是我们想要的,另外一个内容很短,但是完整包含了无线通信,我们不能因为后面的只出现了一次就认为权重是低的,相反,权重应当是更高的,其计算公式如下所示:     其中d.getboost表明如果该文档权重越大那么久越重要 f.getboost表明该field的权值越大,越重要 lengthnorm表示该field越长,越不重要,越短,越重要,在官方文档给出的公式中,默认boost全部为1,在此给出官方文档的打分公式:   [java] view plain copynorm(d) = 1 / √numTerms 该值在计算的时候总是无法对上,查询网上的资料说是在打分的时候将结果先进行压缩,然后解压缩,所以结果跟原始值对不上,个人理解有点像量化的过程,因为在实际explain的时候发现该值有一定的规律性三、实际的打分explain在实际的时候,例如搜索“无线通信”,如下图所示,因为一些私人原因,将一些字段打码,查询的时候设置explain为true,如下图所示:       因为使用的是默认的分词器,所以最后的结果是将“无线通信”分成了四个字,并且认为是四个term来进行计算,最后将计算的结果进行相加得到最后的得分0.7605926,这个分数是“无”的得分+“线”的得分+“通”的得分+“信”的得分,四个term的得分如下图所示:           最后的得分是0.7605926=0.118954286+0.1808154+0.14515185+0.31567,与上述符合,因为四个词都出现了所以在这里面的coord=1,总分数的计算知道后,我们单看每一部分的得分的计算,以“无”为例进行介绍:     其中每一个term内部分为两部分的分数,一部分是queryweight,一部分是fieldweight,其中总分数=queryweight*fieldweight 例如此处queryweight=0.51195854,fieldWeight=0.2323514,所以总的分数就是0.118954286 queryweigth计算:对于queryweight部分的计算分为两个部分idf和querynorm,其中idf的值是2.8618271,这个值是如何计算的呢 idf=1+ln(1995/(309+1))=2.8618271,说明在分片四里面共有1995个文档,召回了包含“无”的309个文档,因此为这个值 querynorm部分的计算:根据上面“无”“线”“通”“信”四个的分数计算,可以看到,idf的值分别为 无:2.8618271 线:3.1053379 通:2.235371 信:2.901306 所以按照计算公式   [java] view plain copyquerynorm=1 / √2.8618271*2.8618271+3.1053379*3.1053379+2.235371*2.235371+2.901306*2.901306=0.1788922 所以queryweight部分的值是0.1788922*2.8618271=0.51195854 再次总结下此处的公式:queryweight=idf*queryNorm(d) fieldweight部分计算:idf的计算上边已经算过,在此不详细叙述 tf的值是在此处出现3次,所以为√3=1.7320508 fieldnorm的值不知道如何计算,按照公式计算不出来explain的值,网上资料说是编解码导致的,哪位朋友知道如何计算麻烦回复下,多谢总结下fieldweight部分的计算公式:fieldweight=idf*tf*fieldnorm=1.7320508*2.8618271*0.046875=0.2323514 所以总体的计算就是 [java] view plain copyscore=queryweight*fieldweight=idf*queryNorm(d)*idf*tf*fieldnorm=coord*queryNorm(d)*tf*idf^2*fieldnorm 四、参考文档http://www.cnblogs.com/forfuture1978/archive/2010/03/07/1680007.html   https://www.elastic.co/guide/en/elasticsearch/guide/current/scoring-theory.html#field-norm 版权声明:本文为博主原创文章,转载请注明出处:http://blog.csdn.net/molong1208.