野路子程序猿
  • 博客介绍
  • TensorFlow
    • TensorFlow数据读取
    • TensorBoard的使用
  • 弱监督学习
    • 论文: Snorkel DryBell: A Case Study in Deploying Weak Supervision at Industrial Scale
  • NLP之语言模型
    • 统计语言模型
    • 论文: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
  • NLP之关键词提取
    • 改进TF-IDF算法
    • 论文: 基于文档主题结构的关键词抽取方法研究
      • 1. 引言
      • 2. 基于文档内部信息构建主题的关键词抽取方法
      • 3. 基于隐含主题模型构建主题的关键词抽取方法
      • 4. 利用隐含主题模型和文档结构的关键词抽取方法
      • 5. 基于文档与关键词主题一致性的关键词抽取方法
  • 深度学习
    • 《深度学习与神经网络》笔记
      • 1. 使用神经网络识别手写数字
      • 2. 反向传播算法
      • 3. 如何提高神经网络学习算法的效果
      • 4. 神经网络可以实现任意函数的直观解释
      • 5. 深度神经网络学习过程中的梯度消失问题
      • 6. 深度学习
  • RNN
    • RNN常见结构
  • attention机制
    • 简述Attention机制及其在深度学习中的应用
    • 论文: Attention Is All You Need
  • Spark
    • Spark ML下实现的多分类AdaBoost + NaiveBayes算法
  • Python
    • Python函数式编程
  • 线性代数
    • 《Immersive Linear Algebra》笔记
      • 4. 向量叉乘(外积)
  • 机器学习
    • 指数分布族和广义线性回归
    • 条件随机场CRF
    • 信息论基本概念
  • 过拟合
    • Early Stopping
Powered by GitBook
On this page
  • 1. 入门图示
  • 2. 概率无向图
  • 3. 条件随机场
  • 4. CRF的概率计算
  • 5. CRF的预测算法
  • 6. CRF的学习算法
  • 参考资料

Was this helpful?

  1. 机器学习

条件随机场CRF

Previous指数分布族和广义线性回归Next信息论基本概念

Last updated 5 years ago

Was this helpful?

1. 入门图示

在介绍CRF模型的数学知识之前,我们可以先通过模型的图示了解这个模型的特点。

1.1 SOFTMAX

CRF通常用在序列标注模型上,每个位置的标注可以看作是一个分类问题,于是就可以使用softmax。

通常的做法就可以是将序列进行编码,RNN或者CNN等都可以。然后将编码的每个位置的输出经过softmax分类,如下所示:

模型的一个特点就是它们每个时刻经过softmax后的输出是相互独立的,虽然很多神经网络模型都可以在编码的时候进行上下文的联系,但是softmax在不同时刻的 yty_tyt​ 上还是没有办法进行联系的。

1.2 CRF

上面不考虑输出之间联系的模型显然是有缺陷的,比如在NER任务中,BIO标注的话,每个位置就有三种可能,实体开始,实体中间,其他。而实体中间肯定是在实体开始之后而不是之前的,这就需要模型在每个时刻的输出之间建立某种联系。

在CRF中,抛开和softmax一样的在编码时进行上下文的关联,在输出的时候,crf仍然可以进行进一步的关联,也就是说crf可以将输出层面的关联分离出来,模型的表达能力更强。

当然,CRF不仅仅是引入了对于输出的关联,仅仅关联的话HMM等很多图模型都是可以做到的。CRF的精巧之处,在于它以路径为单位,每次考虑的是路径的概率,实现的也是路径概率的最大化。它们两者的根本不同在于:前者将序列标注看成是独立的n个k分类问题,而后者将序列标注看成是一个 knk^nkn 分类为题。在解释这些之前,我们先从概率无向图开始一步步解释CRF模型背后的数学原理。

2. 概率无向图

不同于HMM中状态序列是有方向的,在CRF中,我们使用的是概率无向图模型。

状态与状态之间并没有谁推导出谁的先后关系( P(yn∣yn−1,yn−2...y1)P(yn|y{n-1}, y_{n-2}...y_1)P(yn∣yn−1,yn−2​...y1​) ),这里我们用的是序列整体的分布 P(y1,y2,...yn)P(y_1,y_2,...y_n)P(y1​,y2​,...yn​) 。

因子分解

团: 对于无向图中的一个子集,如果该子集中任意两个点都是有边相连接的,那么这样的子集就叫做该无向图上的一个团

最大团: 对于一个团,如果无法添加另外一个点使得团增大,那么现有的团就是最大团

一个概率无向图总的的联合概率分布 P(Y)P(Y)P(Y) 可以分解为在其所有最大团上定义的一个势函数的积: P(Y)=∏CΦC(YC)ZP(Y) = \frac{\prod_C{\Phi_C(Y_C)}}{Z}P(Y)=Z∏C​ΦC​(YC​)​ 其中C是最大团的集合,对于其中每一个最大团,有一个势能函数 ΦC,YC\Phi_C,Y_CΦC​,YC​ 为属于这个最大团的节点, Z=∑Y∏CΦC(YC)Z=\sum_Y{\prod_C{\Phi_C(Y_C)}}Z=∑Y​∏C​ΦC​(YC​) 是一个规范化因子,目的是为了让 P(Y)P(Y)P(Y) 构成一个概率分布。

由于势函数是严格正的,所以一般就有:

假设:势函数符合指数分布函数 exp(−E(YC))exp(-E(Y_C))exp(−E(YC​)) ,即 ∏CΦC(YC)\prod_C{\Phi_C(Y_C)}∏C​ΦC​(YC​) 可以看作是 exp(f(y1,...,yn;x)exp(f(y_1, ..., y_n; x)exp(f(y1​,...,yn​;x) 。其中f函数可以看作是一个打分函数,它只有进行归一化后才可以看作是概率分布。

总结: 概率无向图模型的联合概率分布可以分解为其所有最大团上的势函数的积。

3. 条件随机场

3.1 定义

CRF里的条件指的是在给定随机变量X的条件下,随机变量Y的马尔科夫随机场。

通常情况,只使用线性链条件随机场,将其用于标注问题,条件概率为P(Y|X)。其中X是给定的观测序列,Y是需要标注的标注序列(状态序列)。

一般形式

P(Yv∣X,Yw,w≠v)=P(Yv∣X,Yw,w~v)P(Y_v|X, Y_w, w\neq v) = P(Y_v | X, Y_w, w~v)P(Yv​∣X,Yw​,w=v)=P(Yv​∣X,Yw​,w~v) 对于任意节点v成立,则称条件概率分布P(Y|X)为条件随机场。

同HMM的条件概率相比较,可以更好的理解CRF的条件概率定义。首先,在HMM中,观测序列中每个位置的观测值只和它所处的状态有关,而在CRF中,所有的观测序列是作为一个整体X来处理的。其次,对于 w≠vw\neq vw=v 是说除了v以外的所有点, w~vw~vw~v 是说和v相邻的点,也就是状态序列某一位置的状态y只和与它有连接的状态值有关。

线性链形式

线性链形式顾名思义就是状态序列 Y=(Y1,Y2,...,Yn)Y=(Y1, Y_2, ..., Y_n)Y=(Y1,Y2​,...,Yn​) 是线性的,那么和一个状态相邻的状态也只有其前后两个状态。

P(Yi∣X,Y1,...,Yi−1,Yi+1,...,Yn)=P(Yi∣X,Yi−1,Yi+1)P(Y_i |X, Y_1,...,Y{i-1},Y{i+1},...,Y_n) = P(Y_i|X, Y{i-1}, Y_{i+1})P(Yi​∣X,Y1​,...,Yi−1,Yi+1,...,Yn​)=P(Yi​∣X,Yi−1,Yi+1​)

3.2 参数化形式

根据之前对无向图模型的分解,对于线性链条件随机场,很容易验证每两个相邻的状态节点 yi−1,yiy_{i-1},y_iyi−1​,yi​ 构成一个最大团。 于是线性链条件随机场的参数化形式可以分解为每个团上的特征函数和X对每个位置i上的特征函数:

P(y∣x)=1Z(x)exp(∑i,kλktk(yi−1,yi,x,i)+∑i,lμlsl(yi,x,i)P(y|x) = \frac{1}{Z(x)}exp(\sum_{i,k}\lambda_k t_k (y_{i-1}, y_i, x, i) + \sum_{i, l}\mu_l s_l (y_i, x, i)P(y∣x)=Z(x)1​exp(∑i,k​λk​tk​(yi−1​,yi​,x,i)+∑i,l​μl​sl​(yi​,x,i) 其中 tkt_ktk​ 是定义在边上的特征函数,成为转移特征,依赖于当前和前一个位置(构成一个最大团), λk\lambda_kλk​ 是特征 tkt_ktk​ 的权重。 sls_lsl​ 是定义在节点上的特征函数,称为状态特征,依赖于当前位置, μl\mu_lμl​ 为特征 sls_lsl​ 的权重。

tkt_ktk​ 和 sls_lsl​ 都依赖于位置,是局部特征函数,通常,它们的取值为1或0,当满足特征条件时值为1,反之为0.

条件随机场完全由特征函数 tkt_ktk​ 和 sls_lsl​ 及其对应的权重 λk\lambda_kλk​ 和 μl\mu_lμl​ 确定。

3.3 简化形式

由参数化形式可是对于每个特征函数,它都会计算在所有位置上的值,于是可以对每个局部特征,在所有位置上求和得到一个全局特征函数。

汇总K1个转移特征和K2个状态特征:

  • k=1,2,...,K1k = 1, 2, ..., K_1k=1,2,...,K1​ 时, fk(yi−1,yi,x,i)=tk(yi−1,yi,x,i)f_k (y_{i-1}, y_i, x, i) = t_k (y_{i-1}, y_i, x, i)fk​(yi−1​,yi​,x,i)=tk​(yi−1​,yi​,x,i)

  • k=K1+l,l=1,2,...,K2k = K_1 +l, l = 1, 2, ... , K_2k=K1​+l,l=1,2,...,K2​ 时, fk(yi−1,yi,x,i)=sl(yi,x,i)f_k (y_{i - 1}, y_i, x, i) = s_l (y_i, x, i)fk​(yi−1​,yi​,x,i)=sl​(yi​,x,i)

对每个特征函数在所有位置求和: fk(y,x)=∑i=1nfk(yi−1,yi,x,i),k=1,2,...,Kf_k (y, x) = \sum_{i=1}^n f_k(y_{i-1}, y_i, x, i), k = 1, 2, ..., Kfk​(y,x)=∑i=1n​fk​(yi−1​,yi​,x,i),k=1,2,...,K 用 wk=(λ1,λ2,..,λK1,μK1+1,..,μK1+K2)w_k = (\lambda_1, \lambda_2, .., \lambda_{K1}, \mu_{K1 + 1}, .., \mu_{K_1 + K_2})wk​=(λ1​,λ2​,..,λK1​,μK1+1​,..,μK1​+K2​​) 表示每个特征的权重。

于是条件随机场可以表示为: P(y∣x)=1Z(x)exp∑k=1Kwkfk(y,x)P(y|x) = \frac{1}{Z(x)}exp\sum_{k=1}^K w_k f_k(y, x)P(y∣x)=Z(x)1​exp∑k=1K​wk​fk​(y,x) 如果将权重和特征函数看成向量形式, w=(w1,w2,...,wK)Tw = (w_1, w_2, ..., w_K)^Tw=(w1​,w2​,...,wK​)T 和 F(y,x)=(f1(y,x),f2(y,x),...,fK(y,x)F(y, x) = (f_1(y,x), f_2(y,x),...,f_K(y,x)F(y,x)=(f1​(y,x),f2​(y,x),...,fK​(y,x) ,则可以将上式化简为: Pw(y∣x)=exp(w⋅F(y,x))Zw(x)P_w(y|x) = \frac{exp(w\cdot F(y,x))}{Z_w(x)}Pw​(y∣x)=Zw​(x)exp(w⋅F(y,x))​

3.4 矩阵形式

上面的简化形式是对于每个特征函数在所有位置上求和,同样的我们也可以考虑在每个位置上对所有特征函数的值求和。 Mi(yi−1,yi∣x)=exp(Wi(yi−1,yi∣x))=exp(∑k=1Kwkfk(yi−1,yi,x,i)M_i(y_{i-1}, y_i|x) = exp(W_i (y_{i-1}, y_i | x)) = exp(\sum_{k=1}^K w_k f_k(y_{i-1}, y_i, x, i)Mi​(yi−1​,yi​∣x)=exp(Wi​(yi−1​,yi​∣x))=exp(∑k=1K​wk​fk​(yi−1​,yi​,x,i) 假设每个位置上的y有m个取值,则 Mi(yi−1,yi)M_i(y_{i-1}, y_i)Mi​(yi−1​,yi​) 就是一个m*m阶的矩阵.

对应上面的表达式可以发现(规定 y0=start,yn+1=stopy_0=start, y_{n+1} = stopy0​=start,yn+1​=stop ) P(y∣x)=exp(∑k=1K∑i=1n+1wkfk(yi−1,yi,x,i)=∏i=1n+1exp(∑k=1Kwkfk(yi−1,yi,x,i)=∏i=1n+1Mi(yi−1,yi∣x)P(y|x) = exp(\sum^K_{k=1}\sum^{n+1}_{i=1}w_kf_k(y_{i-1},y_i,x,i) =\prod_{i=1}^{n+1}exp(\sum_{k=1}^Kw_kf_k(y_{i-1},y_i,x,i)=\prod_{i=1}^{n+1}M_i(y_{i-1},y_i|x)P(y∣x)=exp(∑k=1K​∑i=1n+1​wk​fk​(yi−1​,yi​,x,i)=∏i=1n+1​exp(∑k=1K​wk​fk​(yi−1​,yi​,x,i)=∏i=1n+1​Mi​(yi−1​,yi​∣x) 对于一个给定的序列,依此选取在每个矩阵中对应的元素就得到该路径的非规范概率。规范化因子则是这些矩阵的矩阵和,也对应着所有路径的非规范概率之和。

注意:

在深度学习中,通常考虑RNN和CNN的编码已经充分捕捉了各个y与输出x的联系,因此转移特征通常考虑为与x的无关的,也就是说 tk(yi−1,yi,x,i)=tk(yi−1,yi,i)t_k(y_{i-1}, y_i, x, i) = t_k(y_{i-1}, y_i, i)tk​(yi−1​,yi​,x,i)=tk​(yi−1​,yi​,i) ,这样看,转移特征这块其实就类似于HMM,是一个与x无关的转移特征矩阵,这对于模型的简化有重要意义。

总结:

建立一个CRF,只需要定义一系列的特征函数,这些特征函数的值依赖于整个句子(x),当前位置(i)和相邻的标签( yi−1,yiy_{i-1}, y_{i}yi−1​,yi​ ),给出这些特征函数对应的权重,学习到这些权重值就得到了CRF的模型。

3.5 与逻辑回归和HMM的关系

逻辑回归

可以看出CRF和逻辑回归的概率表达式非常相似,因为它们都是属于log-linear模型,不同的是逻辑回归是属于分类也就是说y是一个值,而CRF的y是一个序列,CRF是一个序列版的逻辑回归。

那么如何将复杂的CRF转换为逻辑回归呢?

考虑每个位置的特征函数$fi(x, i, y{i-1}, y_{i})$为$x_i$,然后其权重为$w_i$,这样就简化成了逻辑回归。

HMM

CRF是根据定义的特征函数去求 P(y∣x)P(y|x)P(y∣x) 的得分,而HMM是用生成的方法先根据数据求 P(y,x)=p(y0)∏ip(yi∣yi−1)p(xi∣yi)P(y, x) = p(y0)\prod_i p(y_i|y{i-1})p(xi | y_i)P(y,x)=p(y0)∏i​p(yi​∣yi−1)p(xi∣yi​) 。求对数可得:

logp(y,x)=logp(y0)+∑ilogp(yi∣yi−1)+∑ilogp(xi∣yi)logp(y,x) = logp(y_0) + \sum_i logp(y_i|y_{i-1}) + \sum_i logp(x_i|y_i)logp(y,x)=logp(y0​)+∑i​logp(yi​∣yi−1​)+∑i​logp(xi​∣yi​)

这同样也是一个log-linear模型,将CRF中特征函数的权重等价于这些对数值就可以得到一个HMM模型:

  • 对于HMM的转移概率 p(yi=b∣yi−1=a)p(y_i=b|y_{i-1}=a)p(yi​=b∣yi−1​=a) , 定义CRF的转移特征为 f(x,i,yi,yi−1)=1f(x, i, y_i, y_{i-1})=1f(x,i,yi​,yi−1​)=1 ,如果 yi−1=a,yi=by_{i-1} = a, y_i = byi−1​=a,yi​=b ,其权重为 logp(yi=b∣yi−1=a)logp(y_i=b|y_{i-1}=a)logp(yi​=b∣yi−1​=a)

  • 对于HMM的发射概率 p(xi=b∣yi=a)p(x_i=b|y_i=a)p(xi​=b∣yi​=a) ,定义CRF的发射特征为 f(x,i,yi,yi−1)=1f(x, i, y_i, y_{i-1}) = 1f(x,i,yi​,yi−1​)=1 如果 xi=b,yi=ax_i=b, y_i=axi​=b,yi​=a ,其权重为 logp(xi=b∣yi=a)logp(x_i=b|y_i=a)logp(xi​=b∣yi​=a)

这样就将CRF模型转换成了一个HMM模型。除此之外,CRF比HMM的更加强大:

  • HMM的 xix_ixi​ 只与当前的状态 yiy_iyi​ 有关,而CRF的整个序列y是和整个输入x相连的

  • HMM的发射概率 p(xi∣yi)p(x_i|y_i)p(xi​∣yi​) 是一个0到1的数,一个状态对所有发射值的概率和为1,因为是个概率值,而CRF中特征函数的权重则可以是任意值。这其实是因为HMM的归一化发生在每一个位置,而CRF的归一化发生在整体序列上,对于中间的过程并不要求严格符合概率分布的形式。

4. CRF的概率计算

概率的计算是说在给定CRF模型P(Y|X), 输入序列x和输出序列y的情况下,计算条件概率 P(Yi=yi∣x)P(Y_i = y_i|x)P(Yi​=yi​∣x) 和 P(Yi−1=yi−1,Yi=yi,x)P(Y_{i-1} = y_{i-1}, Y_i = y_i, x)P(Yi−1​=yi−1​,Yi​=yi​,x) 以及相应的数学期望的问题。

4.1 前向后向算法

类似在HMM模型的情况,这里同样定义一套前向后向算法。

定义前向概率 αi(yi∣x)\alpha_i(y_i | x)αi​(yi​∣x) 表示在位置i的标记是 yiy_iyi​ 并且到位置i的前部分标记序列的非规范化概率,定义后向概率 βi(yi∣x)\beta_i(y_i|x)βi​(yi​∣x) 表示在位置i的标记是 yiy_iyi​ 并且从位置i+1到n的后部分标记序列的非规范化概率。

理解起来的话就是说,前向概率 αi(yi∣x)\alpha_i(y_i|x)αi​(yi​∣x) 表示的是 ∑y0,y1,...,yi−1P(y0,y1,..,yi−1,yi∣x)\sum{y_0, y_1, ..., y_{i-1}} P(y_0, y_1, .., y_{i-1}, y_i | x)∑y0​,y1​,...,yi−1​P(y0​,y1​,..,yi−1​,yi​∣x) 对于除 yiy_iyi​ 以外的部分序列的所有情况的和。而后向概率 βi(yi∣x)\beta_i(y_i|x)βi​(yi​∣x) 表示的是 ∑yn+1,yn,...,yi+1P(yn+1,yn,...,yi+1,yi∣x)\sum{y_{n+1}, y_n, ..., y_{i+1}}P(y_{n+1}, y_n, ..., y_{i+1}, y_i|x)∑yn+1​,yn​,...,yi+1​P(yn+1​,yn​,...,yi+1​,yi​∣x) 除 yiy_iyi​ 以外的部分序列的所有情况的和。

对于后向概率 βi\beta_iβi​ ,这里与HMM的情形有点不同,在HMM中, βi=P(oi+1,oi+2,...∣si)\beta_i = P(o_{i+1}, o_{i+2},...|s_i)βi​=P(oi+1​,oi+2​,...∣si​) 也就是说i时刻的状态是作为先验概率出现的,因为HMM的模型是概率有向图,状态是单向传递的 P(yi+1∣yi)P(y_{i+1}|y_i)P(yi+1​∣yi​) 。而CRF中是无向图,两者根据之前矩阵形式的推导,有类似联合概率的形式,才有了以下 βi\beta_iβi​ 的递推公式,其中的 Mi+1(yi,yi+1∣x)M_{i+1}(y_i, y_{i+1}|x)Mi+1​(yi​,yi+1​∣x) 既可以用于正向,也可以用于反向的推导。

对于 α0(y0∣x)\alpha_0(y_0|x)α0​(y0​∣x) ,定义

  • y0=starty_0 = starty0​=start 时, α=1\alpha = 1α=1

  • else, α=0\alpha = 0α=0

其他位置 αi(yi∣x)\alpha_i(y_i | x)αi​(yi​∣x) ,有 αi+1(yi+1∣x)=αi(yi∣x)∗Mi+1(yi,yi+1∣x)\alpha_{i+1}(y_{i+1}|x) = \alpha_i(y_i |x) * M_{i+1}(y_i, y_{i+1}|x)αi+1​(yi+1​∣x)=αi​(yi​∣x)∗Mi+1​(yi​,yi+1​∣x)简化为αi+1T(x)=αiT(x)Mi+1(x)\alpha_{i+1}^T(x) = \alpha_i^T(x)M_{i+1}(x)αi+1T​(x)=αiT​(x)Mi+1​(x) 由于每个位置的y有m个取值,所以这里得到的是个m维列向量。

对于 βn+1(yn+1∣x)\beta_{n+1}(y_{n+1}|x)βn+1​(yn+1​∣x) ,定义

  • yn+1=stopy_{n+1} = stopyn+1​=stop 时, β=1\beta = 1β=1

  • else, β=0\beta = 0β=0

其他位置 βi(yi∣x)\beta_i(y_i|x)βi​(yi​∣x) ,有 βi(yi∣x)=Mi+1(yi,yi+1∣x)βi+1(yi+1∣x)\beta_i(y_i|x)=M_{i+1}(y_i, y_{i+1}|x)\beta_{i+1}(y_{i+1}|x)βi​(yi​∣x)=Mi+1​(yi​,yi+1​∣x)βi+1​(yi+1​∣x)简写为:

βi(x)=Mi+1(x)∗βi+1(x) \beta_i(x) = M_{i+1}(x) * \beta_{i+1}(x)βi​(x)=Mi+1​(x)∗βi+1​(x)

规范化因子可以得出就是从start到stop的路径的非规范化概率和,相当于:

Z(x)=αnT(x)⋅1⃗=1⃗T⋅β1(x)Z(x) = \alpha_n^T(x) \cdot \vec{1} = \vec{1}^T \cdot \beta_1(x)Z(x)=αnT​(x)⋅1=1T⋅β1​(x) 稍微说一下个人理解,前向概率最终走到末尾节点 αn(x)\alpha_n(x)αn​(x) 的每一个分量m,对应了一个值 αn(yn=m∣x)\alpha_n(y_n = m|x)αn​(yn​=m∣x) ,对各分量求和,得到整个序列的概率和。后向概率最终走到开始节点 β1(x)\beta_1(x)β1​(x) 的每一个分量m,对应了一个值 y1=my_1 = my1​=m 时,从 y2y_2y2​ 到stop的这些路径的概率和,对各分量求和,同样得到整个序列的概率和。

4.2 概率计算

主要是两个概率 P(Yi=yi∣x)P(Y_i = y_i|x)P(Yi​=yi​∣x) 和 P(Yi−1=yi−1,Yi=yi∣x)P(Y_{i-1}=y_{i-1}, Y_i = y_i|x)P(Yi−1​=yi−1​,Yi​=yi​∣x)

P(Yi=yi∣x)=αiT(yi∣x)βi(yi∣x)Z(x)P(Y_i = y_i|x) = \frac{\alpha_i^T(y_i|x)\beta_i(y_i|x)}{Z(x)}P(Yi​=yi​∣x)=Z(x)αiT​(yi​∣x)βi​(yi​∣x)​

P(yi−1,yi∣x)=αi−1T(yi−1∣x)Mi(yi−1,yi∣x)βi(yi∣x)Z(x)P(y_{i-1}, y_i |x) = \frac{\alpha_{i-1}^T(y_{i-1}|x)M_i(y_{i-1},y_i|x)\beta_i(y_i|x)}{Z(x)}P(yi−1​,yi​∣x)=Z(x)αi−1T​(yi−1​∣x)Mi​(yi−1​,yi​∣x)βi​(yi​∣x)​

4.3 期望计算

有了概率的定义,很自然就可以给出特征函数对应的期望。

特征函数 fkf_kfk​ 关于条件分布 P(Y∣X)P(Y|X)P(Y∣X) 的数学期望是: EP(Y∣X)[fk]=∑yP(y∣x)fk(y,x)=∑i=1n+1∑yi−1yifk(yi−1,yi,x,i)∗P(yi−1,yi∣x)E_{P(Y|X)}[f_k] = \sum_yP(y|x)f_k(y,x) = \sum_{i=1}^{n+1}\sum{y_{i-1}y_i}f_k(y_{i-1},y_i,x,i)*P(y_{i-1},y_i|x)EP(Y∣X)​[fk​]=∑y​P(y∣x)fk​(y,x)=∑i=1n+1​∑yi−1​yi​fk​(yi−1​,yi​,x,i)∗P(yi−1​,yi​∣x) 假设经验分布为 P~(X)\tilde{P}(X)P~(X) ,特征函数关于联合分布 P(Y,X)P(Y,X)P(Y,X) 的期望为:

EP(Y,X)[fk]=∑x,yP(x,y)∑i=1n+1fk(yi−1,yi,x,i)=∑xP~(x)∑yP(y∣x)∑i=1n+1fk(yi−1,yi,x,i)\begin{aligned}E_{P(Y, X)}[fk] &= \sum_{x,y}P(x,y)\sum_{i=1}^{n+1}f_k(y_{i-1},y_i,x,i) \\&= \sum_x\tilde{P}(x)\sum_yP(y|x)\sum_{i=1}^{n+1}f_k(y_{i-1},y_i,x,i)\end{aligned}EP(Y,X)​[fk]​=x,y∑​P(x,y)i=1∑n+1​fk​(yi−1​,yi​,x,i)=x∑​P~(x)y∑​P(y∣x)i=1∑n+1​fk​(yi−1​,yi​,x,i)​

后面部分就是条件概率期望的部分。

注意到线性链CRF的特征函数是定义在 yi−1yiy_{i-1}y_iyi−1​yi​ 的边上的,因此概率也拆开为对应边存在的概率

5. CRF的预测算法

CRF的预测算法就是在给定CRF模型P(Y|X)和观测序列x的情况下给出概率最大的输出序列,通常情况也就是对于观测序列进行标注。

用公式表示就是: y∗=argmaxyP(Y∣X)=argmaxyexp(w⋅F(y,x))Z=argmaxy(w⋅F(y,x))y^* = argmax_y P(Y|X) = argmax_y \frac{exp(w\cdot F(y, x))}{Z} = argmax_y (w\cdot F(y, x))y∗=argmaxy​P(Y∣X)=argmaxy​Zexp(w⋅F(y,x))​=argmaxy​(w⋅F(y,x)) 因为只是求概率最大的路径而不是求真实的概率值,所以这里只要求非规范化概率即可,提高了效率。

将其分解到每个位置就将问题转换为max∑inw⋅Fi(yi−1,yi,x)max\sum_i^nw\cdot F_i(y_{i-1}, y_i,x)max∑in​w⋅Fi​(yi−1​,yi​,x) 其中 w=(w1,w2,...,wk)w=(w_1, w_2, ..., w_k)w=(w1​,w2​,...,wk​) ,对应k个特征函数的权重, Fi(yi−1,yi,x)=(f1(yi−1,yi,x),f2(yi−1,yi,x),...,fk(yi−1,yi,x))F_i(y_{i-1}, y_i, x) = (f_1(y_{i-1}, y_i, x), f_2(y_{i-1}, y_i, x),...,f_k(y_{i-1}, y_i, x))Fi​(yi−1​,yi​,x)=(f1​(yi−1​,yi​,x),f2​(yi−1​,yi​,x),...,fk​(yi−1​,yi​,x)) 对应每个特征函数在位置i上的值,两向量的乘积就表示从 yi−1y_{i-1}yi−1​ 到 yiy_iyi​ 上的“概率”。

注意上面对于整个路径的概率并没有求乘积,而是求和,这是因为 w⋅Fw\cdot Fw⋅F 是从 exp(w⋅F)exp(w\cdot F)exp(w⋅F) 中提取出来的,求和就等价于整体求乘积。

预测算法

对于一条路径,求出所有位置所有状态的组合,最后选择概率最大的,这种方法肯定是不现实的,效率非常低( O(nT)O(n^T)O(nT) )。

对于这种求最优序列的问题,在每个位置有n个状态,总体概率可以拆解为相邻位置的状态转移概率,求整体最优的序列都可以使用维特比算法,也就是一种动态规划求最优解的方法。

简单描述:

  • 初始位置t=0,计算每个状态 y0y_0y0​ 的概率,就得到n个概率值(假设有n个可能的状态)

  • 在位置t=1,针对每个状态 y1y_1y1​ ,求出使得 y0,y1y_0, y_1y0​,y1​ 序列概率最大的 y0y_0y0​ ,这样又得到n个概率(每个 y1y_1y1​ 对应一个 y0y_0y0​ ),记录下此时的n个 y0y_0y0​

  • 依次递推,每个时刻记录n个概率值,当到达最终点的时候,选出概率最大的状态进行回溯就得到最优路径

  • 通过上面的方法,每个位置都只要计算 n2n^2n2 次,时间复杂度为 O(kn2)O(kn^2)O(kn2) 与之前 O(nk)O(n^k)O(nk) 相比大为减少。

6. CRF的学习算法

CRF模型的学习就是学习每个特征函数的权重,通常情况下采用最大似然估计的方法进行学习。对于单样本的情况,给定x,y给出CRF的模型的条件概率: p(y∣x)=exp(∑k=1K∑i=1nwkfk(yi−1,yi,x,i)∑y′exp(∑k=1K∑i=1nwkfk(yi−1′,yi′,x,i)p(y|x) = \frac{exp(\sum_{k=1}^K\sum_{i=1}^nw_kf_k(y_{i-1}, y_i, x, i)}{\sum_{y'}exp(\sum_{k=1}^K\sum_{i=1}^nw_kf_k(y'_{i-1}, y'_i, x, i)}p(y∣x)=∑y′​exp(∑k=1K​∑i=1n​wk​fk​(yi−1′​,yi′​,x,i)exp(∑k=1K​∑i=1n​wk​fk​(yi−1​,yi​,x,i)​ 先进行log简化一下为:

logp(y∣x)=∑k=1K∑i=1nwkfk(yi−1,yi,x,i)−log∑y′exp(∑k=1K∑i=1nwkfk(yi−1′,yi′,x,i)logp(y|x) = \sum_{k=1}^K\sum_{i=1}^nw_kf_k(y_{i-1}, y_i, x, i) - log\sum_{y'}exp(\sum_{k=1}^K\sum_{i=1}^nw_kf_k(y'_{i-1}, y'_i, x, i)logp(y∣x)=∑k=1K​∑i=1n​wk​fk​(yi−1​,yi​,x,i)−log∑y′​exp(∑k=1K​∑i=1n​wk​fk​(yi−1′​,yi′​,x,i)

采用梯度下降法,对第j个特征函数的权重 wjw_jwj​ 求导:

∂logp∂wj=∑i=1nwjfj(yi−1,yi,x,i)−∑y′exp(∑k=1K∑i=1nwkfk(yi−1′,yi′,x,i))∑i=1nwjfj(yi−1′,yi′,x,i)∑y′exp(∑k=1K∑i=1nwkfk(yi−1′,yi′,x,i))=∑i=1nfj(yi−1,yi,x,i)−∑y′p(y′∣x)∑i=1nfj(yi−1′,yi′,x,i)\begin{aligned}\frac{\partial logp}{\partial w_j} &= \sum_{i=1}^nw_jf_j(y_{i-1}, y_i, x, i) - \frac{\sum{y'}exp(\sum_{k=1}^K\sum_{i=1}^nw_kf_k(y'_{i-1}, y'_i, x, i))\sum_{i=1}^nw_jf_j(y'_{i-1}, y'_i, x, i)}{\sum_{y'}exp(\sum_{k=1}^K\sum_{i=1}^nw_kf_k(y'_{i-1}, y'_i, x, i))} \\ &=\sum_{i=1}^nf_j(y_{i-1}, y_i, x, i) - \sum_{y'} p(y'|x) \sum_{i=1}^nf_j(y'_{i-1}, y'_i, x, i)\end{aligned}∂wj​∂logp​​=i=1∑n​wj​fj​(yi−1​,yi​,x,i)−∑y′​exp(∑k=1K​∑i=1n​wk​fk​(yi−1′​,yi′​,x,i))∑y′exp(∑k=1K​∑i=1n​wk​fk​(yi−1′​,yi′​,x,i))∑i=1n​wj​fj​(yi−1′​,yi′​,x,i)​=i=1∑n​fj​(yi−1​,yi​,x,i)−y′∑​p(y′∣x)i=1∑n​fj​(yi−1′​,yi′​,x,i)​有了梯度函数按照梯度负方向重复进行更新:

wj:=wj−α∂logp∂wjw_j := w_j - \alpha \frac{\partial logp}{\partial w_j}wj​:=wj​−α∂wj​∂logp​ 就可以得到最后收敛的参数了。

参考资料

[1] - 李航

[2] - Edwin Chen

[3] - 苏剑林

统计学习方法
Introduction to Conditional Random Fields
简明条件随机场CRF介绍 | 附带纯Keras实现