贝叶斯公式(似然,先验,后验)↓最大后验概率分类{贝叶斯决策论最大化后验概率等价于期望风险最小化↓最大化后验准则{判别式模型生成式模型↓转化为估计先验P(c)和似然P(x∣c)↓朴素贝叶斯(条件独立性假设)↓朴素贝叶斯的极大似然估计↓贝叶斯估计(包含拉普拉斯平滑)
笔记中符号有些混乱,因为是拷贝了不同的文章和书,凑合着看
贝叶斯公式
针对两个随机变量,联合概率分布有两种分解形式:
P(x,y)=P(x∣y)P(y)=P(y∣x)P(x)
贝叶斯公式:
建立了似然概率,先验概率,后验概率之间的联系
Posterior p(Ck∣x)=p(x)p(x∩Ck)Joint =Evidencep(x)p(x∣Ck)Likelihood p(Ck)Prior
- p(Ck∣x) :后验概率(也叫做成员值 membership score),给定一个样本x的条件下(观测到x后),被判定为Ck类的概率。
- p(x∣Ck) :类条件概率(似然)
- p(x∩Ck) :联合概率
- p(x) :证据因子,用于归一化,与类标记无关,(对于所有的类标记,px都相同)
- p(Ck) :类“先验”概率。样本空间中各类样本所占的比例。p(Ck)=count(Ω)count(Ck)=样本空间的集合标签是Ck的样本
一个形象的例子描述
一个三分类问题:
图片的b站视频链接
其中:
k=1∑KPosterior p(Ck∣x)=1
三个类别的后验概率求和为1,所以后验概率也叫做成员值。
通过后验概率分类
针对一个二分类问题:
这个图有两个黄色的面,代表了每个点的后验概率,x 是一个二维向量(有两个属性值x1,x2)。
分类的核心思想就是比较后验概率的大小,
对于下面的面,C2的后验概率更大,对于上面的面C1后验概率更大。
最大化后验概率
y^=Ckargmax p(Ck∣x)
找到使后验概率最大的 Ck 作为预测值。
最大化后验概率的含义
贝叶斯决策论
条件风险
给定样本 x=(x1,…,xp)T ,基于条件(后验)概率p(Ci∣x)计算,可获得将样本x分类为ci类所产生的期望损失:
在样本x上的条件风险:
R(ci∣x)=j=1∑LλijP(cj∣x)
其中,λij是将一个真实标记为cj的样本误分类为ci所产生的损失:
简化一下就是:
λij={0,1, if i=j otherwise
当i=j时,λiiP(ci∣x)=0 是将x分类到Ci类的概率,不应该包括这个概率,(因为我们统计的是分类错误所产生的损失)
贝叶斯最优分类器
最小化分类错误率的贝叶斯最优分类器为:
h∗(x)=c∈Yargmin R(c∣x)
其中Y={c1,…,cN} 表示N个类别标记。
最大化后验概率等价于期望风险最小化
i∑NP(ci∣x)=1↓R(ci∣x)=j=1∑LλijP(cj∣x)=1−P(ci∣x)↓h∗(x)=c∈Yargmin R(c∣x) ⟶ h∗(x)=c∈Yargmax P(c∣x)Y={c1,…,cN}
或者换个符号解释:
h∗(x)=y∈Yargmink=1∑KP(y=ck∣X=x)=y∈Yargmin (1−P(y=ck∣X=x))=y∈Yargmax P(y=ck∣X=x)
总之,最大化后验概率等价于期望风险最小化。
h∗(x)=c∈Yargmin 条件风险R(c∣x)↓h∗(x)=c∈Yargmax 后验概率P(c∣x)
最大后验准则 MAP
我们想要通过最大化后验概率(找到使后验概率P(c∣x)最大的c),但是在现实任务中,后验概率不好获得,从这个角度看,机器学习所要实现的是基于有限的训练样本集尽可能准确地估计出后验概率。
主要有两种策略(判别式、生成式):
判别式模型
给定x,直接对P(c∣x)进行建模来预测c。这样得到的就是判别器模型。
一个例子是逻辑回归:
P(c∣x;θ)=(fθ(x))c(1−fθ(x))1−cc∈{0,1}fθ(x)=1+e−θTx1
直接是通过数据集训练了一个判别式概率分类器,输入是 x,输出是多个类别的后验概率。
生成式模型
假定类条件概率具有某种确定的概率分布。先对联合概率分布P(x,c)建模,再通过贝叶斯公式计算后验概率P(c∣x)
根据贝叶斯定理:
Posterior p(Ck∣x)=p(x)p(x∩Ck)Joint =Evidencep(x)p(x∣Ck)Likelihood p(Ck)Prior
其中,p(x)是证据因子,对所有类别都一样,也就说,分母一样,所以后验概率正比于联合概率:
p(Ck∣x)∝p(Ck∩x)
最大化后验概率,等价于最大化联合概率。
c∈Yargmax P(c∣x) ⟶ c∈Yargmax P(c∩x)
最终,估计后验概率的问题就转化成了基于训练数据D来估计先验P(c)和似然P(x∣Ck)
CiargmaxP(Ci∣X)=ciargmaxP(X,Ci)联合=argmaxP(X∣Ci)类条件P(Ci)先验
朴素贝叶斯
通过生成模型,估计后验概率的问题就转化成了基于训练数据D来估计先验P(c)和似然P(x∣Ck)。P(c)好说,但是想要估计P(x∣Ck) 还是比较难,
cj∈CargmaxP(x1,x2,…,xp∣cj)P(cj)
需要太多的参数,假设x(j)的可能取值有Sj个,j=1,2,...,n,Y的取值有K个,则参数的个数为 K∏j=1nSj。
比如说假设样本有p个属性,每个属性有d种可能,则共需要dp个条件概率。
比如说,能不能去打网球得看 x(1)天气(晴天,大风,雨天) 和 x(2)温度(高,中,低)这两个属性,每个属性可能取值都是3个,那么一共有2*3*3
种不同的天气和温度的组合。而如果使用贝叶斯,我们只需要估计2*(3+3)
个条件概率。
朴素贝叶斯做了一个假设(属性条件独立性假设
),对已知类别,假设所有的属性相互独立。
P(X=x∣Y=ck)=P(X(1)=x(1),⋯,X(n)=x(n)∣Y=ck),k=1,2,⋯,K
P(X=x∣Y=ck)=P(X(1)=x(1),⋯,X(n)=x(n)∣Y=ck)=j=1∏nP(X(j)=x(j)∣Y=ck)
p(Ck∩x)=p(x∣Ck)P(Ck)=P(Ck)j=1∏Dp(xj∣Ck)
注意这个是属性条件独立性假设,有条件的。不是属性独立。得给定 c 这个条件(已知类别)才能成立
属性条件独立不能推广到属性独立,反过来也一样。
h∗(x)↓h∗(x)=argcj∈CmaxP(cj)P(x∣cj)=argcj∈CmaxP(cj)i=1∏PP(xi∣cj)
就可以对每一个不同的属性进行分别的研究/计算。
这样,比如说假设样本有p个属性,每个属性有d钟可能,则共需要dp个条件概率。(从dp讲到dp)
朴素贝叶斯的极大似然估计
在朴素贝叶斯法中,概率模型的训练过程就是估计 P(Y=ck) 和 P(X=x∣Y=ck)。
应用极大似然估计法估计相应的概率:
先验概率的极大似然估计
P(Y=ck)=N∑i=1NI(yi=ck),k=1,2,⋯,K
I为指示函数,当yi=ck成立时,I(yi=ck)=1,否则是0
也就是该类样本占总样本的比例。
条件概率的极大似然估计
设第j个特征x(j)的可能取值是{aj1,aj2,⋯,ajSj},条件概率 P(X(j)=ajl∣Y=ck)的极大似然估计为:
P(X(j)=ajl∣Y=ck)=∑i=1NI(yi=ck)∑i=1NI(xi(j)=ajl,yi=ck) j=1,2,⋯,n;l=1,2,⋯,Sj;k=1,2,⋯,K
其中,xi(j)是第i个样本的第j个特征,ajl是第j个特征可能取的第l个值,I为指示函数。
I为指示函数,当yi=ck成立时,I(yi=ck)=1,否则是0
也就是,有该属性的某个值且为ck的样本数占ck的样本总数。
贝叶斯估计(拉普拉斯平滑)
用极大似然估计可能会出现所要估计的概率为0的情况。比如某个属性值在训练集中没有在某个类中出现过,在连乘的时候,也会抹去其他的属性信息。
也就是说:当∑i=1NI(xi(j)=ajl,yi=ck)=0 时候:
P(X(j)=ajl∣Y=ck)=∑i=1NI(yi=ck)∑i=1NI(xi(j)=ajl,yi=ck)=∑i=1NI(yi=ck)0=0
这种情况可能是,并没有xi(j)=ajl 且yi=ck的样本。所以分子是0
为了避免这个情况出现,我们采用贝叶斯估计的方法(避免出现0的情况):
条件概率的贝叶斯估计
Pλ(X(j)=ajl∣Y=ck)=∑i=1NI(yi=ck)+Sjλ∑i=1NI(xi(j)=ajt,yi=ck)+λ
当λ=1时,为拉普拉斯平滑。Sj是第j个特征x(j)的属性的取值个数。(第j个特征x(j)的可能取值是{aj1,aj2,⋯,ajSj})
先验概率的贝叶斯估计
Pλ(Y=ck)=N+Kλ∑i=1NI(yi=ck)+λ
Y的可能取值有K个(类的个数)。N是训练集的数据个数。
应用
通过数据集的训练,我们估计出了条件概率 P(x∣cj) 和 P(cj) 先验概率
比如说对于那个贝叶斯文本分类的任务来说,每一个词可以看作是一个属性,那么字典的长度就是属性的可能取值的个数,估计出的 P(x∣cj) 是一个维度为(字典长度 * 文档类别)。P(cj) 就是 (文档类别的一个一维向量)
然后测试的时候,计算
argcj∈CmaxP(cj)i=1∏PP(xi∣cj)
程序中连乘容易趋于0,于是采用 ln 加和的形式。
ctext=argmaxc∈C[lnP(c)+i=1∑nlnP(wi∣c)]
比如说,每个词是一个属性吧,每一个词在文档中出现的次数作为属性值,那么出现一次,就加一次 lnP(wi∣c)
wi 表示的是某个词的条件概率