本文主要介绍几种常见的基于用户打分的帖子排序算法模型
单因子喜好模型
诸如“过去60分钟内被收藏的次数”进行排名。每过60分钟,就统计一次。
这个算法的优点是比较简单、容易部署、内容更新相当快;缺点是,一方面,排名变化不够平滑,前一个小时还排名靠前的内容,往往第二个小时就一落千丈,另一方面,缺乏自动淘汰旧项目的机制,某些热门内容可能会长期占据排行榜前列。
时间权重
还有些贴子不仅仅考虑了,用户的投票机制,也结合了时间权重,这样就比较科学。如图所示:每个帖子前面有一个向上的三角形,如果你觉得这个内容很好,就点击一下,投上一票。根据得票数,系统自动统计出热门文章排行榜。但是,并非得票最多的文章排在第一位,还要考虑时间因素,新文章应该比旧文章更容易得到好的排名。
根据公开的源码显示 具体公式为
其中:
- P表示帖子的得票数,减去1是为了忽略发帖人的投票。
- T表示距离发帖的时间(单位为小时),加上2是为了防止最新的帖子导致分母过小(之所以选择2,可能是因为从原始文章出现在其他网站,到转贴至Hacker News,平均需要两个小时)。
- G表示”重力因子”(gravityth power),它的数值大小决定了排名随时间下降的速度。
知道了算法的构成,就可以调整参数的值,以适用你自己的应用程序。
反对机制
有些网站不仅仅可以点赞同票还可以点反对票,譬如知乎、Reddit社区。
怎样才能将赞成票和反对票结合起来,计算出一段时间内最受欢迎的文章呢?如果文章A有100张赞成票、5张反对票,文章B有1000张赞成票、950张反对票,谁应该排在前面呢?
我们依旧考虑这几个因素:
- 帖子的新旧程度t
- 赞成票与反对票数差值z
- 投票方向y,与投票差值满足阶跃函数
- 帖子赞同与反对的程度:即差值的绝对值。如果赞成=反对, 那么程度就是1
结合以上几个变量,最终的打分公式为:
这个公式可以分为两个部分来讨论:
这个部分表示,赞成票与反对票的差额z越大,得分越高。
需要注意的是,这里用的是以10为底的对数,意味着z=10可以得到1分,z=100可以得到2分。也就是说,前10个投票人与后90个投票人(乃至再后面900个投票人)的权重是一样的,即如果一个帖子特别受到欢迎,那么越到后面投赞成票,对得分越不会产生影响。
当赞成票等于反对票,z=1,因此这个部分等于0,也就是不产生得分。
这个部分表示,t越大,得分越高,即新帖子的得分会高于老帖子。它起到自动将老帖子的排名往下拉的作用。
分母的45000秒,等于12.5个小时,也就是说,后一天的帖子会比前一天的帖子大约多得2分。结合前一部分,可以得到结论,如果前一天的帖子在第二天还想保持原先的排名,在这一天里面,它的z值必须增加100倍(净赞成票增加100倍)。
y的作用是产生加分或减分。当赞成票超过反对票时,这一部分为正,起到加分作用;当赞成票少于反对票时,这一部分为负,起到减分作用;当两者相等,这一部分为0。这就保证了得到大量净赞成票的文章,会排在前列;赞成票与反对票接近或相等的文章,会排在后面;得到净反对票的文章,会排在最后(因为得分是负值)。
这种算法的一个问题是,对于那些有争议的文章(赞成票和反对票非常接近),它们不可能排到前列。假定同一时间有两个帖子发表,文章A有1张赞成票(发帖人投的)、0张反对票,文章B有1000张赞成票、1000张反对票,那么A的排名会高于B,这显然不合理,这种算法决定了该社区是一个符合大众口味的社区,不是一个很激进、可以展示少数派想法的地方。
回帖机制
最具代表性的就是Stack Overflow,你在上面提出各种关于编程的问题,等待别人回答。访问者可以对你的问题进行投票(赞成票或反对票),表示这个问题是不是有价值。
一旦有人回答了你的问题,其他人也可以对这个回答投票(赞成票或反对票)
基于这两点,Stack Overflow的排名算法的作用是,找出某段时间内的热点问题,即哪些问题最被关注、得到了最多的讨论。
在Stack Overflow的页面上,每个问题前面有三个数字,分别表示问题的得分、回答的数目和该问题的浏览次数。以这些变量为基础,就可以设计算法了。
之前创始人Jeff Atwood公布过排名得翻的计算公式,关于这个公式有很多讨论,可以参考这里
这个算法中各个变量的含义如下:
Qviews 问题浏览次数
某个问题的浏览次数越多,就代表越受关注,得分也就越高。这里使用了以10为底的对数,用意是当访问量越来越大,它对得分的影响将不断变小。
Qscore 问题得分 Qanswers 问题回答数量
- Qscore(问题得分)= 赞成票-反对票。如果某个问题越受到好评,排名自然应该越靠前。
- Qanswers表示回答的数量,代表有多少人参与这个问题。这个值越大,得分将成倍放大。这里需要注意的是,如果无人回答,Qanswers就等于0,这时Qscore再高也没用,意味着再好的问题,也必须有人回答,否则进不了热点问题排行榜。
Ascores 回答得分
一般来说,”回答”比”问题”更有意义,“自古一楼出人才”。这一项的得分越高,就代表回答的质量越高。
1 | 但是我感觉,简单加总的设计还不够全面,这里有两个问题。 |
Qage(距离问题发表的时间)和Qupdated(距最后一个回答的时间)
简化一下,可以看得更清楚:
Qage和Qupdated的单位都是秒。如果一个问题的存在时间越久,或者距离上一次回答的时间越久,Qage和Qupdated的值就相应增大。
也就是说,随着时间流逝,这两个值都会越变越大,导致分母增大,因此总得分会越来越小。
总结一下,StackOverflow热点问题的排名,与参与度(Qviews和Qanswers)和质量(Qscore和Ascores)成正比,与时间(Qage和Qupdated)成反比。如果遇到了有用户参与的情况,可以考虑这种模型。
牛顿冷却定律
到目前为止,我们用不同方法,企图解决的都是同一个问题:根据用户的投票,决定最近一段时间内的”热文排名”。你可能会觉得,这是一个全新的课题,伴随着互联网而产生,需要全新的方法来解决。但是,实际上不是。我们可以把”热文排名”想象成一个”自然冷却”的过程:
- 任一时刻,网站中所有的文章,都有一个”当前温度”,温度最高的文章就排在第一位。
- 如果一个用户对某篇文章投了赞成票,该文章的温度就上升一度。
- 随着时间流逝,所有文章的温度都逐渐”冷却”。
这个模型基础就是基于牛顿17世纪提出的一条定律:牛顿冷却定律,它的内容很简单,就一句话:
1 | 物体的冷却速度,与其当前温度与室温之间的温差成正比。 |
即:
- T(t)是温度(T)的时间(t)函数。微积分知识告诉我们,温度变化(冷却)的速率就是温度函数的导数T’(t)
- H代表室温,T(t)-H就是当前温度与室温之间的温差。由于当前温度高于室温,所以这是一个正值
- 常数α(α>0)表示室温与降温速率之间的比例关系。前面的负号表示降温。不同的物质有不同的α值
显然这是一个一阶微分方程,解法如下:
第一步改写方程为:$\frac{T^{‘}(t)}{T(t) - H} = -\alpha$,然后等式两边取积分:$\int{\frac{T^{‘}(t)}{T(t) - H}}{\rm d}\alpha$
第二步,求解:$T(t) = H + Ce^{-\alpha t}$
第三步,假定在时刻$t_0$,该物体的温度是T($t_0$),简写为$T_0$。代入上面的方程,得到:
- 带入可得$T = H + (T_{0} - H)e^{-\alpha (t - t_{0})}$
上面这个公式就是我们想要的结果,应用在排名算法,就相当于(假设本期没有增加净赞成票)
1 | 本期得分 = 上一期得分 x exp(-(冷却系数) x 间隔的小时数) |
其中,”冷却系数”是一个你自己决定的值。如果假定一篇新文章的初始分数是100分,24小时之后”冷却”为1分,那么可以计算得到”冷却系数”约等于0.192。如果你想放慢”热文排名”的更新率,”冷却系数”就取一个较小的值,否则就取一个较大的值。
忽略时间权重
考虑这样一个情况,我们要算有史以来最受欢迎的电影,那么时间因子就不再起作用了。
针对这种情况,一种常见的错误做法是:
1 | 得分 = 赞成票 - 反对票 |
假定有两个项目,项目A是60张赞成票,40张反对票,项目B是550张赞成票,450张反对票。请问,谁应该排在前面?按照上面的公式,B会排在前面,因为它的得分(550 - 450 = 100)高于A(60 - 40 = 20)。但是实际上,B的好评率只有55%(550 / 1000),而A为60%(60 / 100),所以正确的结果应该是A排在前面。
Urban Dictionary就是这样一个失败的例子
另一种失败的例子就是
1 | 得分 = 赞成票 / 总票数 |
如果”总票数”很大,这种算法其实是对的。问题出在如果”总票数”很少,这时就会出错。假定A有2张赞成票、0张反对票,B有100张赞成票、1张反对票。这种算法会使得A排在B前面。这显然错误。
Amazon就是这种错误算法的示例:
那么,正确的算法是什么呢?
我们先做如下设定
- 每个用户的投票都是独立事件。
- 用户只有两个选择,要么投赞成票,要么投反对票。
- 如果投票总人数为n,其中赞成票为k,那么赞成票的比例p就等于k/n。
很明显,上面的东西我们在统计学里面有个概念叫做二项分布。
我们的思路是,p越大,就代表这个项目的好评比例越高,越应该排在前面。但是,p的可信性,取决于有多少人投票,如果样本太小,p就不可信。好在我们已经知道,p是”二项分布”中某个事件的发生概率,因此我们可以计算出p的置信区间。
就是说,以某个概率而言,p会落在的那个区间。比如,某个产品的好评率是80%,但是这个值不一定可信。根据统计学,我们只能说,有95%的把握可以断定,好评率在75%到85%之间,即置信区间是[75%, 85%]。
这样经过改进后的算法排名为:
计算每个项目的”好评率”(即赞成票的比例)。
计算每个”好评率”的置信区间(以95%的概率)。
根据置信区间的下限值,进行排名。这个值越大,排名就越高。
这样做的原理是,置信区间的宽窄与样本的数量有关。比如,A有8张赞成票,2张反对票;B有80张赞成票,20张反对票。这两个项目的赞成票比例都是80%,但是B的置信区间(假定[75%, 85%])会比A的置信区间(假定[70%, 90%])窄得多,因此B的置信区间的下限值(75%)会比A(70%)大,所以B应该排在A前面。
置信区间的实质,就是进行可信度的修正,弥补样本量过小的影响。如果样本多,就说明比较可信,不需要很大的修正,所以置信区间会比较窄,下限值会比较大;如果样本少,就说明不一定可信,必须进行较大的修正,所以置信区间会比较宽,下限值会比较小。
二项分布的置信区间有多种计算公式,最常见的是”正态区间”(Normal approximation interval),教科书里几乎都是这种方法。但是,它只适用于样本较多的情况(np > 5 且 n(1 − p) > 5),对于小样本,它的准确性很差。
另外一种基于这种置信区间的方式的算法叫做威尔逊区间,它很好的解决了小样本准确性的问题,威尔逊区间的下限值为:
均值如下所示,当n的值足够大时,这个下限值会趋向$\hat{p}$。如果n非常小(投票人很少),这个下限值会大大小于$\hat{p}$。实际上,起到了降低”赞成票比例”的作用,使得该项目的得分变小、排名下降。
抑制马太效应投票法
“威尔逊区间”,它解决了投票人数过少、导致结果不可信的问题。
举例来说,如果只有2个人投票,”威尔逊区间”的下限值会将赞成票的比例大幅拉低。这样做固然保证了排名的可信性,但也带来了另一个问题:排行榜前列总是那些票数最多的项目,新项目或者冷门的项目,很难有出头机会,排名可能会长期靠后。
以IMDB为例,它是世界最大的电影数据库,观众可以对每部电影投票,最低为1分,最高为10分。系统根据投票结果,计算出每部电影的平均得分。然后,再根据平均得分,排出最受欢迎的前250名的电影。
这里就有一个问题:热门电影与冷门电影的平均得分,是否真的可比?举例来说,一部好莱坞大片有10000个观众投票,一部小成本的文艺片只有100个观众投票。这两者的投票结果,怎么比较?如果使用”威尔逊区间”,后者的得分将被大幅拉低,这样处理是否公平,能不能反映它们真正的质量?
一个合理的思路是,如果要比较两部电影的好坏,至少应该请同样多的观众观看和评分。既然文艺片的观众人数偏少,那么应该设法为它增加一些观众。
在这种情况下实现的算法是:
- WR, 加权得分(weighted rating)。
- R,该电影的用户投票的平均得分(Rating)。
- v,该电影的投票人数(votes)。
- m,排名前250名的电影的最低投票数(现在为3000)。
- C, 所有电影的平均得分(现在为6.9)。
仔细研究这个公式,你会发现,IMDB为每部电影增加了3000张选票,并且这些选票的评分都为6.9。这样做的原因是,假设所有电影都至少有3000张选票,那么就都具备了进入前250名的评选条件;然后假设这3000张选票的评分是所有电影的平均得分(即假设这部电影具有平均水准);最后,用现有的观众投票进行修正,长期来看,v/(v+m)这部分的权重将越来越大,得分将慢慢接近真实情况。
这样做拉近了不同电影之间投票人数的差异,使得投票人数较少的电影也有可能排名前列。
把这个公式写成更一般的形式:
- C,投票人数扩展的规模,是一个自行设定的常数,与整个网站的总体用户人数有关,可以等于每个项目的平均投票数。
- n,该项目的现有投票人数。
- x,该项目的每张选票的值。
- m,总体平均分,即整个网站所有选票的算术平均值。
这种算法被称为”贝叶斯平均”(Bayesian average)。因为某种程度上,它借鉴了”贝叶斯推断”(Bayesian inference)的思想:既然不知道投票结果,那就先估计一个值,然后不断用新的信息修正,使得它越来越接近正确的值。
在这个公式中,m(总体平均分)是”先验概率”,每一次新的投票都是一个调整因子,使总体平均分不断向该项目的真实投票结果靠近。投票人数越多,该项目的”贝叶斯平均”就越接近算术平均,对排名的影响就越小。
因此,这种方法可以给一些投票人数较少的项目,以相对公平的排名。
“贝叶斯平均”也有缺点,主要问题是它假设用户的投票是正态分布。比如,电影A有10个观众评分,5个为五星,5个为一星;电影B也有10个观众评分,都给了三星。这两部电影的平均得分(无论是算术平均,还是贝叶斯平均)都是三星,但是电影A可能比电影B更值得看。
解决这个问题的思路是,假定每个用户的投票都是独立事件,每次投票只有n个选项可以选择,那么这就服从”多项分布”(Multinomial distribution),就可以结合贝叶斯定理,估计该分布的期望值。有兴趣可以阅读William Morgan的How to rank products based on user input。