CN105760365A - 基于贝叶斯算法对图像语义数据的概率潜在参数估计模型 - Google Patents
基于贝叶斯算法对图像语义数据的概率潜在参数估计模型 Download PDFInfo
- Publication number
- CN105760365A CN105760365A CN201610142356.8A CN201610142356A CN105760365A CN 105760365 A CN105760365 A CN 105760365A CN 201610142356 A CN201610142356 A CN 201610142356A CN 105760365 A CN105760365 A CN 105760365A
- Authority
- CN
- China
- Prior art keywords
- probability
- document
- semantic
- algorithm
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
针对目前图像检索中存在的“语义鸿沟”的问题,提出了一种在图像语义检索的基础上加入概率潜在语义主题词(以后简称:主题词)参数,建立:文档??主题词??语义特征词”三者的概率关系,结合贝叶斯概率估计算法原理,计算后验概率。后验概率=先验概率*似然函数。用EM算法来求出后验概率最大似然估计值,建立贝叶斯概率估计模型。签于“文档??主题词??语义特征词”之间的关系,映射出文档,利用文档与图像的对应,最终显示用户所需要的图像。
Description
技术领域
本发明涉及的是关于贝叶斯概率估计算法。
背景技术
概率论是逻辑严谨推理性强的一门数学分科,贝叶斯公式是概率论中较为重要的公式,贝叶斯所采用的许多术语被沿用至今。机器学习的主要难点在于“被阐述”的词法和“真正要表达”的语义的区别。产生这个问题的原因主要是:1.一个单词能有多个意思和多个用法。2.同义词和近义词,而且根据不同的语境或其他因素,不同的单词也有可能表示相同的意思。
利用贝叶斯概率估计原理来计算机器学习的主要难点是很方便的,也是目前最优秀的方法。
图像的内容特征检索,到目前为止是一种很成熟的检索系统,但他的检索效果是不尽人意的。主要问题就是机器学习所产生的问题,本发明就是利用贝叶斯概率估计算法来解决机器学习的问题。
发明内容
本发明通过贝叶斯概率潜在语义分析对无监督学习图像的语义特征进行语义数据的挖掘,建立一个概率潜在语义算法的模型。主要解决了图像检索中的主要问题1、语义鸿沟;2、一义多词和一词多义所产生的检索数据不到位和重复检索。
设一幅图像对应一篇文档,设图像语义特征对应文档的关键单词,建立一个文档-关键单词语义向量共现矩阵。根据贝叶斯概率估计原理,条件概率的计算方法,应用概率潜在主题词来计算文档的最大相似度。
本发明的技术方案为基于机器学习的贝叶斯估计算法建立概率潜在语义模型,包括以下步骤:
步骤1,通过概率潜在语义分析方法(PLSA)对无监督图像语义知识库数据进行挖掘,建立文档(图像)---潜在语义---词(图像语义特征)之间的概率语义关系,就是每一组(D,W)都与潜在语义Z有关联;
步骤2,用贝叶斯概率估计算法计算出潜在语义主体词最大似然估计和期望最大化;
步骤3,建立概率潜在语义模型。
而且,步骤1中,无监督学习是一种基于图像语义知识库,它的生成是由计算机用高斯混合模型(Gaussian Mixture Model,GMM)的图像语义标注方法自动生成的;
而且,步骤2中,在贝叶斯估计计算时,先验概率分布符合BETA分布,根据先验概率、似然函数计算出后验概率;
而且,步骤2中,潜在函数Z用最大似然估计来训练,最大似然估计中比较常用的算法就是期望最大化算法。期望最大化算法分为两步:
1. Expectation Step——隐含参数的估计
2. Maximization Step——确定实际参数,然后根据实际参数做最大似然估计。
附图说明
附图1潜在主题词图。
附图2不对称概率潜在语义模型。
附图3对称概率潜在语义模型。
附图4为本发明实施原理图。
具体实施方式
以下结合附图和实施例详细说明本发明技术方案。
本发明提出基于贝叶斯概率算法对无监督图像语义数据的概率潜在语义的参数估计模型,假设图像语义知识库已经由计算机用高斯混合模型(Gaussian Mixture Model,GMM)的图像语义标注方法自动生成的,标注语义之间互相独立,没用前后顺序。为了更为详细的阐述本发明的具体实施方案,下面基于附图进行进一步的叙述,实施流程如下。
步骤1,设一幅图像对应一篇文档空间,图像的特征映射到文档的关键词空间。使用bag-of-word模型来表示一个文档,即一个由单词组成的向量。单词独立于文本语义,忽略了单词在文档中的顺序,只表现单词在文档中出现的频率,一个单词表示空间的一个维度,从而得到文档—单词共现矩阵,这个矩阵的每一项代表了第i个单词在第j篇文档中的权重。共现矩阵已经通过词频-逆文档频率(TF—IDF)降维。
步骤2,建立文档、文档关键词以及潜在场景主题词之间的概率关系,图1。通过概率潜在语义分析建立PLSA概率模型图,图2。其中观察数据D代表文档,W代表文档中的一个特征单词,潜在语义主题词Z是非观察数据。D=(d1,d2,……,di)有N篇文档的文档集;Z=(Z1,Z2,……,Zk)一篇文档有K个隐藏变量主题词,主题词集;W=(W1,W2,……,Wj)一篇文档有M个单词,单词集。生成一个文档和单词的文本集,共现矩阵A=[P(di, Wj)]|D|×|W|表示,d代表某一篇文档,W代表某一个单词,(di, Wj)表示文档di和单词Wj同时出现频率,也就是P(di, Wj)为两个变量同时出现的个数。矩阵A 的每一行代表一个文档,每一列代表一个单词。则P(di, Wj)是一个可观察数,根据图1的映射,引入一个未观察到的隐藏变量Z,Z 使得文档和词有条件的相互独立,Z属于隐藏变量集Z中,其中K 的取值大小依赖于经验,一方面希望K足够大,能够适合所有的潜在语义结构,但如果过大则易引入噪声,对于使用将产生一定的影响;如果过小,则不能显现样本的误差及其他次要的细节,一般情况下取20到100之间。A(di)从N(i=1,2,3,…..N)篇文档集中选择一篇文档di 的概率;A(di, Wj)是词Wj在文档di 中出现的频数;A(Wj | Zk)表示在未观察到的隐藏变量Zk 确定的条件下,词wj 出现的条件概率;A(Zk| di)表示在给定第i篇文档的出现概率的条件下,文档di 属于第k个主题词的概率;
利用贝叶斯概率估计算法,可以按如下过程定义词-文档的共现数据的生成模型:
1,首先从文档集中以概率A(di)选择一篇文档di;
2,在文档di 中再以概率A(Zk | di)选择一个隐藏主题类变量Zk概率;
3,确定隐藏类变量Zk 后,以概率A(Wj | Zk)选择一个词Wj 概率。这样就可以得到一个观察值(di, Wj),而未被观察到的隐藏变量Zk 被丢弃。假设文档d和单词w在给定主题单词z的条件下满足于独立同分布,也就是说隐含类Z和词W是不依赖于特定的文档D生成的。则上面的数据生成过程可由下面的贝叶斯概率估计公式进行表述:
A(di, Wj)= A(di) A(Wj | di) (1)
其中:A(di):是先验分布,A(Wj | di):是似然函数,A(di, Wj):是后验分布。贝叶斯方法认为,学习参数=先验知识+观察到的数据。先验知识=参数的先验分布的选取+分布参数的选取。根据贝叶斯理论,为了达到后验分布与先验分布属于同的分布,选取先验分布为Beta共轭分布:
(2)
将2式代入1式得
(3)
观察图2描述和(2式),根据共轭分布的特征,所以他们为对称函数,把图2模型转化为图3所示的模型。通过贝叶斯法则反转条件概A(z/d), 可以将(1)改写为下面的等式
(4)
根据 (1)式,A(di, Wj)是后验2分布,A (Z1) 是先验分布, A(Wj | Zk) A(di| Zk) 是似然函数。先验分布Z1在区间(0,1)上的均匀分布,根据贝叶斯假设,A(Z1)=1。所以从(4)式中我们得到样本(di, Wj)是一个关于隐含变量Z的线性组合,是由两个多项分布组成,两个多项分布的参数为A(W | Z) 和A(d| Z),也就是概率潜在语义模型,根据极大似然估计原理,通过求取如下对数似然函数的极大值,来得到潜在语义的模型参数。
步骤3 ,现用最大似然估计来计算模型参数A(W | Z) 和A(Z | d),似然函数的公式:
(5)
这里(di)是文档di中出现过的所有单词的词频和,他的值对模型参数A(W | Z) 和A(d| Z)没有任何影响。上试可以写成
(6)
由于这个目标函数中求和符号出现在积分内,因此这个函数很难最大化,为了解决这个问题,可以使用EM算法。
步骤4 ,最大期望算法(Expectation Maximization Algorithm,又译期望最大化算法),是一种迭代算法,用于含有隐变量(hidden variable)的概率参数模型的最大似然估计或极大后验概率估计。在统计计算中,最大期望(EM)算法是在概率(probabilistic)模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variable)。最大期望算法经过两个步骤交替进行计算:
EM的算法流程如下:
1.初始化分布参数
V={A(Wj | Zk) }m*k,U={A(di| Zk)}n*k
用平方误差准则K-Means算法,来分别计算U,V参数的初始值。具体流程:
(1)、选择把N个样本分成不相交的K个子集,计算每个子集的均值α1,α2,......,αk和β,设第i个子集有Ni个样本,共有,设Si表示第i个子集。其中:
β是误差平方和聚类准则,它是k个聚类中心α1,α2,......,αk代表k个样本子集S1,S2,......Sk时所产生的总的误差平方,使 β 极小的聚类就是误差平方和准则下的最优结果;
(2)、随机选择一个备选样本x,设此;
(3)、若 Ni=1,则转到(2),否则断续;
(4)、计算;
(5)、对于所用的j=1,2,......,k,若存在某个使得,则把x从Si移到St中去;
(6)、重新计算αi的值,并修改β;
(7)、β值保持不变,则迭代结束,否则继续迭代,转(2)。把计算出的结果分别放到U 和V中作为初始值;
2.重复直到收敛:
第一步是计算期望(E),利用对隐藏变量的现有估计值,计算其最大似然估计值;
(7)
公式左边表示在出现第i篇文档、第j个单词的概率条件下,求出现第k个隐含主题的概率,也可以理解为给定了一篇含有k个主题概率的文档和第j个单词对第k个主题的贡献度,求出现第j个单词的第i篇文档属于第k个主题的概率。公式右边的分母表示需要对模型参数A(W | Z) 和A(Z | d)两个乘积进行归一化处理(具体归一化处理方式为:对该文档属于任意主题以及该单词同样对该主题贡献度的乘积进行救和为分子,然后用文档属于特定主题的概率和单词对这个特定主题贡献度为分母,求商即可。第二步是最大化(M),最大化在E 步上求得的最大似然值来计算参数的值:
(8)
计算给定单词j对隐含主题k的贡献度:
(9)
计算给定文档(第i篇文档)属于隐含主题k的概率:
(10)
隐含主题中的k=K,当循环到时停止计算。第(5)式达最大。最终求出(di,wj)的联合概率,即(di,wj)之间的相关度。
Claims (1)
1.本发明的技术方案为基于贝叶斯概率算法对无监督图像语义数据的概率潜在语义的参数估计模型,其特点在于,运用贝叶斯学习理论的基本观点为来挖掘无监督图像语义数据之间的潜在关系:
步骤1,建立图像文档---潜在语义特征词---词,图像语义特征三者之间的概率关系;
步骤2,用贝叶斯概率估计算法,后验概率=先验概率*似然函数,用贝叶斯假设对先验概率进行付值;
步骤3,利用EM算法求后验概率的最大似然估计值;
步骤4,用K-m算法进行EM初始值设定;
步骤5,E步骤计算希望值;
步骤6,M步骤计算参数最大似然估计值;
步骤7,设定一个循环参数K,k < K时继续EM计算,k = K时结束计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610142356.8A CN105760365A (zh) | 2016-03-14 | 2016-03-14 | 基于贝叶斯算法对图像语义数据的概率潜在参数估计模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610142356.8A CN105760365A (zh) | 2016-03-14 | 2016-03-14 | 基于贝叶斯算法对图像语义数据的概率潜在参数估计模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105760365A true CN105760365A (zh) | 2016-07-13 |
Family
ID=56333118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610142356.8A Pending CN105760365A (zh) | 2016-03-14 | 2016-03-14 | 基于贝叶斯算法对图像语义数据的概率潜在参数估计模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105760365A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446273A (zh) * | 2018-03-15 | 2018-08-24 | 哈工大机器人(合肥)国际创新研究院 | 基于狄式过程的卡尔曼滤波词向量学习方法 |
CN108932270A (zh) * | 2017-05-27 | 2018-12-04 | 福建省农业科学院果树研究所 | 基于贝叶斯和反馈算法的枇杷属种质资源检索对照方法 |
CN109615608A (zh) * | 2018-11-13 | 2019-04-12 | 昆明理工大学 | 一种人脑活动中自然图像贝叶斯重建的方法 |
CN112487185A (zh) * | 2020-11-27 | 2021-03-12 | 国家电网有限公司客户服务中心 | 一种电力客户领域的数据分类方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030219146A1 (en) * | 2002-05-23 | 2003-11-27 | Jepson Allan D. | Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences |
CN102902976A (zh) * | 2011-07-29 | 2013-01-30 | 中国科学院电子学研究所 | 一种基于目标及其空间关系特性的图像场景分类方法 |
CN103077530A (zh) * | 2012-09-27 | 2013-05-01 | 北京工业大学 | 一种基于改进混合高斯和图像剪切的运动目标检测方法 |
CN104036021A (zh) * | 2014-06-26 | 2014-09-10 | 广西师范大学 | 混合生成式和判别式学习模型的图像语义标注方法 |
-
2016
- 2016-03-14 CN CN201610142356.8A patent/CN105760365A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030219146A1 (en) * | 2002-05-23 | 2003-11-27 | Jepson Allan D. | Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences |
CN102902976A (zh) * | 2011-07-29 | 2013-01-30 | 中国科学院电子学研究所 | 一种基于目标及其空间关系特性的图像场景分类方法 |
CN103077530A (zh) * | 2012-09-27 | 2013-05-01 | 北京工业大学 | 一种基于改进混合高斯和图像剪切的运动目标检测方法 |
CN104036021A (zh) * | 2014-06-26 | 2014-09-10 | 广西师范大学 | 混合生成式和判别式学习模型的图像语义标注方法 |
Non-Patent Citations (4)
Title |
---|
THOMAS HOFMANN: "Unsupervised Learning by Probabilistic Latent Semantic Analysis", 《MACHINE LEARNING》 * |
付杰: "基于语义的图像标注关键技术研究", 《中国科技论文在线》 * |
唐湘晋,陈家清,毛树华主编: "《应用数理统计》", 30 October 2013, 武汉:武汉工业大学出版社 * |
李志欣等: "基于概率主题建模的图像语义学习与检索", 《广西师范大学学报:自然科学版》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108932270A (zh) * | 2017-05-27 | 2018-12-04 | 福建省农业科学院果树研究所 | 基于贝叶斯和反馈算法的枇杷属种质资源检索对照方法 |
CN108932270B (zh) * | 2017-05-27 | 2021-11-30 | 福建省农业科学院果树研究所 | 基于贝叶斯和反馈算法的枇杷属种质资源检索对照方法 |
CN108446273A (zh) * | 2018-03-15 | 2018-08-24 | 哈工大机器人(合肥)国际创新研究院 | 基于狄式过程的卡尔曼滤波词向量学习方法 |
CN108446273B (zh) * | 2018-03-15 | 2021-07-20 | 哈工大机器人(合肥)国际创新研究院 | 基于狄式过程的卡尔曼滤波词向量学习方法 |
CN109615608A (zh) * | 2018-11-13 | 2019-04-12 | 昆明理工大学 | 一种人脑活动中自然图像贝叶斯重建的方法 |
CN112487185A (zh) * | 2020-11-27 | 2021-03-12 | 国家电网有限公司客户服务中心 | 一种电力客户领域的数据分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Balažević et al. | Tucker: Tensor factorization for knowledge graph completion | |
Siddiqi et al. | Keyword and keyphrase extraction techniques: a literature review | |
Daumé III | Bayesian multitask learning with latent hierarchies | |
Gupta et al. | Beyond nouns: Exploiting prepositions and comparative adjectives for learning visual classifiers | |
US7809704B2 (en) | Combining spectral and probabilistic clustering | |
Stratos et al. | Model-based word embeddings from decompositions of count matrices | |
CN108595706A (zh) | 一种基于主题词类相似性的文档语义表示方法、文本分类方法和装置 | |
CN105760365A (zh) | 基于贝叶斯算法对图像语义数据的概率潜在参数估计模型 | |
Inouye et al. | Admixture of Poisson MRFs: A topic model with word dependencies | |
Melnykov et al. | Semi-supervised model-based clustering with positive and negative constraints | |
Asadi et al. | Creating discriminative models for time series classification and clustering by HMM ensembles | |
Osborne et al. | Encoding prior knowledge with eigenword embeddings | |
US11748567B2 (en) | Total correlation variational autoencoder strengthened with attentions for segmenting syntax and semantics | |
US20220043975A1 (en) | Disentangle syntax and semantics in sentence representation with decomposable variational autoencoder | |
Pighin et al. | On reverse feature engineering of syntactic tree kernels | |
Mekala et al. | LOPS: Learning order inspired pseudo-label selection for weakly supervised text classification | |
Wang et al. | Extracting discriminative keyphrases with learned semantic hierarchies | |
Lees et al. | Embedding semantic taxonomies | |
Wu et al. | A modified fuzzy c-means algorithm for collaborative filtering | |
Ebadat et al. | Proper noun semantic clustering using bag-of-vectors | |
Sengupta | Two models involving Bayesian nonparametric techniques | |
Zhou et al. | Learning mixed latent tree models | |
Xu et al. | Improving classification accuracy on uncertain data by considering multiple subclasses | |
Iwata et al. | Improving classifier performance using data with different taxonomies | |
Niculescu et al. | Exploiting parameter related domain knowledge for learning in graphical models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160713 |