CN103903267B - 基于均值模板和学生t混合模型的图像分割方法 - Google Patents
基于均值模板和学生t混合模型的图像分割方法 Download PDFInfo
- Publication number
- CN103903267B CN103903267B CN201410140036.XA CN201410140036A CN103903267B CN 103903267 B CN103903267 B CN 103903267B CN 201410140036 A CN201410140036 A CN 201410140036A CN 103903267 B CN103903267 B CN 103903267B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- msubsup
- mfrac
- munderover
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
Abstract
本发明公开了一种基于均值模板和学生t混合模型的图像分割方法,以均值模板作为图像的空间约束项,同时应用于先验后验概率和条件概率,特别适合某些运算工具的快速算法,如Matlab等,具有较快的运算速度,并且对于图像噪声具有更好的鲁棒性。
Description
技术领域
本发明属于图像处理领域,特别涉及一种基于均值模板和学生t混合模型的图像分割方法。
背景技术
数字图像处理技术是一个综合性强且跨学科的领域。随着计算机科学技术的不断发展,图像处理和分析尽管其发展历史不长但其新的处理方法却层出不穷并引起各方人士的广泛关注,逐渐形成了自己的科学体系。首先,人类最重要的感知手段是视觉,图像又是视觉的基础,因此,数字图像成为计算机科学、生理学、心理学等诸多领域内的学者们研究视觉感知的有效工具。其次,图像处理在气象、遥感、军事等大型应用中的需求在不断增长。多年来,图像技术研究中的焦点和热点是对图像分割的研究,由于在实际工作生活中图像分割的广泛的应用,人们对图像分割的投入和关注也在不断提高。图像分割是一项十分重要的数字图像处理的分析技术,由于要想进行目标图像的自动获取以及字符识别等数字图像的识别和理解,那么我们首先就是要解决图像分割这一初始的关键步骤。所以图像分割在数字图像的识别等应用系统中占据了十分重要的地位,数字图像处理中所有步骤都离不开图像分割。
在聚类分析方法中,混合分布由于具有适合对异构现象建模、原理简单、直观并且容易实现等特点,并成功的应用于聚类问题,其中包括图像分割。然而有限混合模型(Finite Mixture Model,FMM)用于图像分割时认为图像像素之间没有任何关系,在噪声条件下得到的分割效果不理想。现有的一些方法解决了部分上述问题,如考虑了像素空间关系的马尔科夫随机场(Markov Random Field,MRF)模型以及基于空间变化有限混合模型(Spatially Variant Finite Mixture Model,SVFMM)等在图像分割中得到了成功的应用。
然而,现有的方法都存在明显的缺陷。MRF和SVFMM方法的计算速度都较慢。另外他们都只是考虑到有限混合模型中的先验/后验概率中的空间信息,而没有考虑到混合模型中的条件概率中的图像空间信息。
发明内容
本发明为了解决现有的算法具有计算复杂度高,计算时间长,依然容易受到图像噪声影响等弊端的问题,提出了基于均值模板和学生t混合模型的图像分割方法。
为解决上述问题,本发明采用的方法是:一种基于均值模板和学生t混合模型的图像分割方法,包括以下步骤:
(1)、通过k-means算法进行预处理得到πij,μj,Σj和vj的初始值;
(2)、先通过公式得到权重因子和先验概率
(3)、通过公式 得到后验概率和隐藏变量
(4)、通过M步骤分别利用公式
计算变量和
(5)、如果EM算法收敛,则结束迭代估值。否则k=k+1,重复步骤(2)-(4)。
作为本发明的一种有效补充,上述各公式的推导过程包括如下步骤:
(1)、令yi表示图像中第i个点的像素值,其中i=(1,2,…,N),N为图像的像素总个数,j(j=1,2,…,K)表示像素点i所对应的类,那么有限混合模型可以表示为:
其中,πij为先验概率,表示像素yi属于第j类的可能性,p(yi|θj)为条件概率;
(2)、考虑均值模板和学生t分布在有限混合模型中的影响,那么公式(1)改写为
其中,t(ym|θj)为学生t分布t(ym|μj,Σj,vj),Ni表示像素点i及其邻域。Ri为归一化算子,定义为wm为权重因子;其应随着像素点m到均值模板(窗口)中心点i的距离增大而减小
(3)、使用经典的最大期望算法EM来对步骤(2)中的模型进行参数估计,对应于公式(2)的极大似然函数为:
在E步骤,有
在M步骤,有
在计算先验概率时也同时考虑到均值模板的影响,我们有
其中,
有益效果:
1、本发明以均值模板作为图像的空间约束项,均值模板可以看成是矩阵运算,因此特别适合某些运算工具的快速算法,如Matlab等,因此我们的方法具有较快的运算速度。
2、本发明的方法将均值模板空间约束项同时应用于先验/后验概率和条件概率,因此我们的方法对于图像噪声具有更好的鲁棒性。
附图说明
图1本发明的实验的二值图像。
图2采用本发明图1中的子图像1的CPV值图。
图3采用本发明图1中的子图像2的CPV值图。
图4为伯克利数据库的原始图像集。
图5为采用本发明的算法得到的图像分割结果图。
图6为基于伯克利数据集的不同方法的图像分割结果数据表。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明。
令yi表示图像中第i个点的像素值,其中i=(1,2,…,N),N为图像的像素总个数。j(j=1,2,…,K)表示像素点i所对应的类。那么,有限混合模型可以表示为:
其中,πij为先验概率,表示像素yi属于第j类的可能性。p(yi|θj)为条件概率,这里我们假设其满足学生t分布。
让我们用二值图像举个例子来说明均值模板的有效性。一幅图像,上半部分为全白,对应像素值为1。下半部分为全黑,对应像素值为0。图像受到了噪声的影响,如图1中a部分所示。我们从此图像中取3×3大小的子图像块,如图1中b部分和图1中的c部分所示。我们假设全白的像素值为1的像素点属于A类,全黑的像素值为0的像素点属于B类,那么容易看出,图1中b部分属于A类,而图1中c部分属于B类。
然而,图1中b部分和图1中c部分的中心像素点由于受到噪声的影响,可能会被误分类。如图2中a部分和图3中a部分所示,由于子图像中心点在噪声影响下,传统FMM模型得到了不正确的条件概率值(conditional probability value,CPV)。而如果考虑了均值模板的影响,那么这个受到影响的噪声点也可以得到正确的CPV值,如图2中b部分和图3中b部分所示。
我们的思想基于一个很明显的事实。图像中的某一个像素点很容易受到噪声的影响,但如果考虑将这个像素点及其周围领域的像素点看作一个整体,那么这个整体受到噪声的影响要比单个像素被噪声污染的可能性要小很多。我们将包含这些像素的整体称为模板或者窗函数。对于这个模板中的所有像素点,只要信号的强度大于噪声的强度,(例如没有被噪声污染的像素点个数多于噪声像素点),那么基于模板的思想,在计算有限混合模型中的条件概率和先验/后验概率时,我们总是能够得到正确的信号值。因此我们结合有限混合模型与均值模板,以提高传统的标准混合模型对于噪声图像的抗噪声性和鲁棒性。
考虑均值模板和学生t分布在有限混合模型中的影响,那么公式(1)可以改写为
其中,t(ym|θj)为学生t分布t(ym|μj,Σj,vj),Ni表示像素点i及其邻域。Ri为归一化算子,定义为wm为权重因子,其应随着像素点m到均值模板(窗口)中心点i的距离增大而减小
我们使用经典的最大期望算法(Expectation-maximization,EM)来对我们的模型进行参数估计。对应于公式(2)的极大似然函数为
在E步骤,有
在M步骤,有
在计算先验概率时也同时考虑到均值模板的影响,我们有
其中,
根据上述步骤计算推导出本发明采用的参数的公式,然后结合这些公式完成图像的分割,具体过程如下:
(1)、通过k-means算法进行预处理得到πij,μj,Σj和vj的初始值;
(2)、先通过公式(11)得到权重因子和先验概率
(3)、通过公式(5)-(7)得到后验概率和隐藏变量
(4)、通过M步骤分别利用公式(8)-(10)计算变量和
(5)、如果EM算法(公式(4))收敛,则结束迭代估值。否则k=k+1,重复步骤(2)-(4)。
对于上述本发明的步骤,我们采用著名的美国伯克利大学图像数据库来验证我们的算法,同时和现有技术中的马尔科夫随机场(Markov Random Field,MRF)模型以及基于空间变化有限混合模型(Spatially Variant Finite Mixture Model,SVFMM)比较实验结果以及计算时间。部分实验图像如图4所示。采用我们的算法得到的图像分割结果如图5所示。我们采用PRI值(Probabilistic Rand Index)来评估实验结果,PRI越大,表示分割结果越好。相关的实验结果如图6所示。从图6中可以看出,我们的方法具有最快的计算速度以及最优的图像分割结果(最大PRI值)。
本发明方案所公开的技术手段不仅限于上述技术手段所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。以上所述是本发明的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (2)
1.一种基于均值模板和学生t混合模型的图像分割方法,其特征在于:包括以下步骤:
(1)、通过k-means算法进行预处理得到πij,μj,Σj和vj的初始值;
(2)、先通过公式得到先验概率
(3)、通过公式 得到后验概率和隐藏变量
(4)、通过M步骤分别利用公式
<mrow>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<munder>
<mi>&Sigma;</mi>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
</mrow>
</munder>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mfrac>
<msub>
<mi>w</mi>
<mi>m</mi>
</msub>
<msub>
<mi>R</mi>
<mi>i</mi>
</msub>
</mfrac>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
</mrow>
<mrow>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>,</mo>
<msubsup>
<mi>&Sigma;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<munder>
<mi>&Sigma;</mi>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
</mrow>
</munder>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mfrac>
<msub>
<mi>w</mi>
<mi>m</mi>
</msub>
<msub>
<mi>R</mi>
<mi>i</mi>
</msub>
</mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
</mrow>
<mrow>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
计算变量和
(5)、如果EM算法收敛,则结束迭代估值;否则k=k+1,重复步骤(2)-(4)。
2.根据权利要求1所述的基于均值模板和学生t混合模型的图像分割方法,其特征在于:上述各公式的推导过程包括如下步骤:
(11)、令yi表示图像中第i个点的像素值,其中i=1,2,…,N,N为图像的像素总个数,j=1,2,…,K表示像素点i所对应的类,那么有限混合模型可以表示为:
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>&pi;</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<msub>
<mi>&pi;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<msub>
<mi>&theta;</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,πij为先验概率,表示像素yi属于第j类的可能性,p(yi|θj)为条件概率;
(22)、考虑均值模板和学生t分布在有限混合模型中的影响,那么公式(1)改写为
<mrow>
<mi>p</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>&pi;</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<msub>
<mi>&pi;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<munder>
<mo>&Pi;</mo>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
</mrow>
</munder>
<mi>t</mi>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>|</mo>
<msub>
<mi>&theta;</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mfrac>
<msub>
<mi>w</mi>
<mi>m</mi>
</msub>
<msub>
<mi>R</mi>
<mi>i</mi>
</msub>
</mfrac>
</msup>
<mo>,</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,t(ym|θj)为学生t分布t(ym|μj,Σj,vj),Νi表示像素点i及其邻域;Ri为归一化算子,定义为wm为权重因子;其应随着像素点m到均值模板中心点i的距离增大而减小
(33)、使用经典的最大期望算法EM来对步骤(2)中的模型进行参数估计,对应于公式(2)的极大似然函数为:
在E步骤,有
<mrow>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&pi;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<munder>
<mo>&Pi;</mo>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
</mrow>
</munder>
<mi>t</mi>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>|</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&Sigma;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>v</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mfrac>
<msub>
<mi>w</mi>
<mi>m</mi>
</msub>
<msub>
<mi>R</mi>
<mi>i</mi>
</msub>
</mfrac>
</msup>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>h</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<msubsup>
<mi>&pi;</mi>
<mrow>
<mi>i</mi>
<mi>h</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<munder>
<mo>&Pi;</mo>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
</mrow>
</munder>
<mi>t</mi>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>|</mo>
<msubsup>
<mi>&mu;</mi>
<mi>h</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>&Sigma;</mi>
<mi>h</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>v</mi>
<mi>h</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mfrac>
<msub>
<mi>w</mi>
<mi>m</mi>
</msub>
<msub>
<mi>R</mi>
<mi>i</mi>
</msub>
</mfrac>
</msup>
</mrow>
</mfrac>
<mo>;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msup>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<msub>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>v</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mi>p</mi>
</mrow>
<mrow>
<msubsup>
<mi>v</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<msubsup>
<mi>&Sigma;</mi>
<mi>j</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>.</mo>
<mo>;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msup>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msup>
<mrow>
<mo>(</mo>
<mi>log</mi>
<mi> </mi>
<msub>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>log</mi>
<mi> </mi>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msubsup>
<mi>v</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mi>p</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>&psi;</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msubsup>
<mi>v</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mi>p</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mo>.</mo>
<mo>;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
在M步骤,有
<mrow>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
</mrow>
</munder>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mfrac>
<msub>
<mi>w</mi>
<mi>m</mi>
</msub>
<msub>
<mi>R</mi>
<mi>i</mi>
</msub>
</mfrac>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<munder>
<mi>&Sigma;</mi>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
</mrow>
</munder>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mfrac>
<msub>
<mi>w</mi>
<mi>m</mi>
</msub>
<msub>
<mi>R</mi>
<mi>i</mi>
</msub>
</mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
</mrow>
<mrow>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>log</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msub>
<mi>v</mi>
<mi>j</mi>
</msub>
<mn>2</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>&psi;</mi>
<mrow>
<mo>(</mo>
<mfrac>
<msub>
<mi>v</mi>
<mi>j</mi>
</msub>
<mn>2</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mn>1</mn>
<mo>+</mo>
<mfrac>
<mrow>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>&lsqb;</mo>
<mi>log</mi>
<mi> </mi>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>u</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>&rsqb;</mo>
</mrow>
<mrow>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msubsup>
<mi>z</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
</mrow>
</mfrac>
<mo>+</mo>
<mi>&psi;</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msubsup>
<mi>v</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mi>p</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>log</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msubsup>
<mi>v</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mi>p</mi>
</mrow>
<mn>2</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>0</mn>
<mo>;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
在计算先验概率时也同时考虑到均值模板的影响,有
<mrow>
<msub>
<mi>&pi;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mo>&part;</mo>
<mi>i</mi>
</msub>
</mrow>
</munder>
<msub>
<mi>w</mi>
<mrow>
<mi>m</mi>
<mi>i</mi>
</mrow>
</msub>
<msub>
<mi>z</mi>
<mrow>
<mi>m</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mo>&part;</mo>
<mi>i</mi>
</msub>
</mrow>
</munder>
<msub>
<mi>w</mi>
<mrow>
<mi>m</mi>
<mi>i</mi>
</mrow>
</msub>
<msub>
<mi>z</mi>
<mrow>
<mi>m</mi>
<mi>k</mi>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>11</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,这里dim=dmi为像素点m和i之间的欧式距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410140036.XA CN103903267B (zh) | 2014-04-09 | 2014-04-09 | 基于均值模板和学生t混合模型的图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410140036.XA CN103903267B (zh) | 2014-04-09 | 2014-04-09 | 基于均值模板和学生t混合模型的图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103903267A CN103903267A (zh) | 2014-07-02 |
CN103903267B true CN103903267B (zh) | 2018-04-13 |
Family
ID=50994574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410140036.XA Expired - Fee Related CN103903267B (zh) | 2014-04-09 | 2014-04-09 | 基于均值模板和学生t混合模型的图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103903267B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106023236B (zh) * | 2016-06-16 | 2019-06-04 | 华侨大学 | 基于截断Dirichlet过程无限Student’s t混合模型的脑部核磁共振图像分割方法 |
CN106709918A (zh) * | 2017-01-20 | 2017-05-24 | 成都信息工程大学 | 基于空间平滑的多元学生t分布混合模型图像分割方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101706965A (zh) * | 2009-11-03 | 2010-05-12 | 上海大学 | 基于高斯混合模型区域图像彩色化处理的方法 |
-
2014
- 2014-04-09 CN CN201410140036.XA patent/CN103903267B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101706965A (zh) * | 2009-11-03 | 2010-05-12 | 上海大学 | 基于高斯混合模型区域图像彩色化处理的方法 |
Non-Patent Citations (5)
Title |
---|
A Dirichlet process mixture model for brain MRI tissue classification;Adelino R. Ferreira da Silva;《Medical image analysis》;20061221;第169-182页 * |
A variational Bayesian methodology for hidden Markov models utilizing Student"s-t mixtures;Sotirios P. Chatzis et al.;《Pattern recognition》;20100930;第295-306页 * |
The infinite Student’s t-factor mixture analyzer for robust clustering and classification;xin Wei et al.;《Pattern recognition》;20120531;第4362-4357页 * |
基于统计混合模型的图像分割方法研究;熊太松;《中国博士论文全文数据库》;20131115(第11期);第31-50页 * |
基于高斯混合模型的活动轮廓模型脑MRI分割;陈允杰 等;《计算机研究与发展》;20070930;第44卷(第9期);第1595-1603页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103903267A (zh) | 2014-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104834922B (zh) | 基于混合神经网络的手势识别方法 | |
Kamal et al. | Automatic traffic sign detection and recognition using SegU-Net and a modified Tversky loss function with L1-constraint | |
US10929649B2 (en) | Multi-pose face feature point detection method based on cascade regression | |
CN103390156B (zh) | 一种车牌识别方法及装置 | |
Yuan et al. | Factorization-based texture segmentation | |
CN104392241B (zh) | 一种基于混合回归的头部姿态估计方法 | |
CN107909059A (zh) | 一种面向复杂城市场景中协同仿生视觉的交通标志牌检测与识别方法 | |
CN102708370B (zh) | 一种多视角图像前景目标提取方法及装置 | |
CN102270308B (zh) | 一种基于五官相关aam模型的面部特征定位方法 | |
CN104268593A (zh) | 一种小样本情况下多稀疏表示的人脸识别方法 | |
CN107301376B (zh) | 一种基于深度学习多层刺激的行人检测方法 | |
CN105243139A (zh) | 一种基于深度学习的三维模型检索方法及其检索装置 | |
CN104484658A (zh) | 一种基于多通道卷积神经网络的人脸性别识别方法及装置 | |
CN103336835B (zh) | 基于权值color‑sift特征字典的图像检索方法 | |
CN104732546B (zh) | 区域相似性和局部空间约束的非刚性sar图像配准方法 | |
CN104167006B (zh) | 一种任意手形的手势跟踪方法 | |
CN104794714A (zh) | 基于ROC Graph的图像分割质量评价方法 | |
CN103927555B (zh) | 基于Kinect传感器的静态手语字母识别系统及方法 | |
CN109034258A (zh) | 基于特定物体像素梯度图的弱监督目标检测方法 | |
CN103839066A (zh) | 一种源于生物视觉的特征提取方法 | |
Wang et al. | An interconnected feature pyramid networks for object detection | |
CN103295026B (zh) | 基于空间局部聚合描述向量的图像分类方法 | |
CN105975906A (zh) | 一种基于面积特征的pca静态手势识别方法 | |
CN107330363A (zh) | 一种快速的互联网广告牌检测方法 | |
CN106909881A (zh) | 基于无人机遥感影像提取玉米育种基地垄数的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200525 Address after: Room 1107, 11 / F, block 3-2b, No.88, pubin Avenue, Jiangpu street, Pukou District, Nanjing City, Jiangsu Province Patentee after: Nanjing Haohan Information Technology Co.,Ltd. Address before: 210000, No. 219, Ning six road, Pukou District, Jiangsu, Nanjing Patentee before: Nanjing University of Information Science and Technology |
|
TR01 | Transfer of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180413 |
|
CF01 | Termination of patent right due to non-payment of annual fee |