为什么要最大化后验概率

训练模型时,我们经常先为后验概率建模,也就是写出后验概率的数学表达式,然后求后验概率的最大值,使得后验概率最大的那些参数就是训练结果了。
为什么最大化后验概率是有意义的呢?本质上和我们日常生活中的判断方式是一致的。
举个例子,我们对一类物体进行分类,类别有c1,c2,c3…等等
我们拿到某个物体x时,怎么对x进行分类?其实就是判断p(x,c1),p(x,c2),p(x,c3)…中哪个值最大!比如p(x,c2)最大,那我们就认为当前这个物体的类别是c2。注意到这一判断过程就是我们常规的思维方式。
本质上我们是根据联合概率p(x,ci)做出判断的,如何跟后验概率联系起来?用贝叶斯公式展开!
p(x,ci) = p(ci|x)p(x), 回到上面那个例子,也就是说我们判断的是p(c1|x)p(x),p(c2|x)p(x),p(c3|x)p(x)…中哪个最大,注意到p(x)相当于常数,所以也就是找出最大的p(ci|x),也就是最大化后验概率了。

0%