CN101093500A - 视频中事件语义识别方法 - Google Patents
视频中事件语义识别方法 Download PDFInfo
- Publication number
- CN101093500A CN101093500A CN 200710052741 CN200710052741A CN101093500A CN 101093500 A CN101093500 A CN 101093500A CN 200710052741 CN200710052741 CN 200710052741 CN 200710052741 A CN200710052741 A CN 200710052741A CN 101093500 A CN101093500 A CN 101093500A
- Authority
- CN
- China
- Prior art keywords
- unit
- event
- semantics
- video
- incident
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明是一种视频中事件语义识别方法,通过挖掘视频中前景对象关系及其变化,识别事件语义的方法。本方法将视频中的存在的普通事件语义视作一个多元事件语义,它由若干个单元事件语义按照一定规则和时序组合而成。单元事件语义描述视频中识别出的前景对象区域自身或两两之间的关系,多元事件语义利用马尔科夫链跌代计算,获得其包含的单元事件语义的稳定分布,从而分阶段的实现视频事件语义的自动识别。可以实现结构动态、持续时间较长、多对象多关系等较复杂高层语义的识别,具有应用领域广泛,可以自动快速的进行识别,人为依赖性小的优点。
Description
技术领域
本发明涉及多媒体数据挖掘、人工智能等领域,特别是利用马尔科夫链的原理实现视频中事件语义识别的方法。
背景技术
随着互联网和个人计算机上视频文件数量及容量的爆炸性增长,如何快速且准确地检索到与用户意愿相一致的视频文件变得越来越重要。目前,基于关键字的检索技术已被商业搜索引擎广泛采用;基于内容的图像、视频检索系统[1]也已在一些研究机构中诞生。然而,这些技术过多依赖人为参与,或者检索结果与用户需求相违背,无法满足大量多媒体数据的检索需求。
视频语义挖掘,即从视频媒体中挖掘出潜在的,与人类理解相似的语义信息。当前视频语义挖掘的研究,侧重于实现对象、静态场景、瞬息事件等语义信息的挖掘[2-9],但其适用范围往往局限于特定领域,且语义信息较为简单,无法实现结构动态、持续时间较长、多对象多关系等较复杂高层语义的识别。
引证文件:
[1]Virage Inc.http://www.virage.com.
[2]M.Ramesh Naphade,I.V.Kozintsev,and T.S.Huang.A Factor Graph Framework forSemantic Video Indexing.IEEE Trans.on Circuits and Systems for Video Technology,12(1):40-52,2002.
[3]Benitez A.B.,Smith J.R.,Chang S.F.,“MediaNet:A Multimedia Information Networkfor Knowledge Representation”,Proceedings of the SPIE 2000 Conference on InternetMultimedia Management Systems(IS&T/SPIE-2000),Vol.4210,Boston,MA,Nov6-8,2000.
[4]K.Messer,W.J.Christmas,E.Jaser,J.Kittler,B.Levienaise-Obadial,D.Koubaroulis.A Unified Approach to The Generation of Semantic Cues For Sports VideoAnnotation.Signal Processing 85(2005)357-383
[5]Navid Serranoa,Andreas E.Savakis,Jiebo Luo.Improved Scene Classification UsingEffcient Low-level Features and Semantic cues.Pattern Recognition,37(2004),p1773-1784
[6]Matthew R.Boutell,Jiebo Luo,Xipeng Shen,Christopher M.Brown.LearningMulti-label Scene Classiffcation.Pattern Recognition 37(2004),p1757-1771
[7]Jurgen Assfalg,Marco Bertini,Carlo Colombo,Alberto Del Bimbo,Walter Nunziati.Semantic Annotation of Soccer Videos:Automatic Highlights Identification.ComputerVision and Image Understanding,v92,v2003,p285-305
[8]David A.Sadlier,Noel O’Connor,Noel Murphy,Sean Marlow.A Framework for EventDetection in Field-Sports Video Broadcasts based on SVM generated Audio-Visual FeatureModel.Case-Study:Soccer Video.http://www.cdvp.dcu.ie/Papers/sadlierIWSSIP2004.pdf,2004
[9]King-Shy Goh,Koji Miyahara,Regunathan Radhakrishan,Ziyou Xiong,AjayDivakaran.Audio-Visual Event Detection based on Mining of Semantic Audio-VisualLabels.http://www.merl.com/papers/docs/TR2004-008.pdf,2004
马尔科夫链是指时间离散,状态也离散的马尔科夫过程,包含有限个状态、状态转移概率矩阵和初始状态概率分布。
发明内容
本发明所要解决的技术问题是:将一个复杂的视频事件语义分解为若干个单元事件语义,把每个单元事件视为一个马尔科夫“状态”。对于“足球比赛中的射门”这个事件语义,它包含了“人向足球靠拢”、“人接触足球”、“足球飞出”、“足球进入球框”几个单元事件状态,则整个事件将演变成一系列状态转移的结果。
本发明的目的是提供一种视频中事件语义识别方法,是一种利用马尔科夫链技术实现较为复杂的视频事件语义识别的方法,它包括单元事件语义的识别与存储方法,多元事件语义的识别方法,以及实现视频事件语义识别的步骤。
本发明的技术方案是:视频中事件语义识别方法,其特征在于利用视频中识别出的前景对象,结合马尔科夫链技术,自动识别视频事件语义,将视频中事件语义视为一个多元事件语义,它由若干个符合一定规则和时序关系的单元事件组成;
单元事件语义的定义和构造步骤:单元事件语义被视为最小的事件语义表达单位,它由单个语义对象及其运动状态,或者两个对象及其运动关系组成;当对象发生变化,或者对象的运动状态或关系发生变化,均表示当前单元事件的结束,下一个单元事件的开始;
利用马尔科夫链技术,发现多元事件语义和单元事件语义之间的构造关系,其步骤是:
将单元事件语义视为一个马尔科夫状态,而多元事件语义的识别则转换为由若干个状态转移的结果;通过跌代式计算马尔科夫链的稳态分布,获得组成每个多元事件语义最适合的单元事件语义序列。
如上所述的视频中事件语义识别方法,其特征在于有如下步骤:
a)将运动状态相似的前景对象分为一类,包括仅存在一个前景对象;
b)构建每个前景对象类的最小凸多边形,并将其作为该类的代表;
c)选取任意两个类构成单元事件的描述单元,以其中一个类作为重点观察类,而另
外一个作为参考类,即若存在n个类,则需要分解为n(n-1)/2个单元事件进行描述,n>2;
d)定义单个对象运动状态类型包括膨胀、收缩、静止、平移、徘徊;定义对象两两之间运动关系类型包括接近、远离、静止、经过、围绕、触碰;
e)通过三元组E(Oi,Zt,Oj)存储单元事件语义,其中Oi,Oj为不同的对象语义概念,Zt为运动状态的类型;
f)假设在时刻t,发生单元事件Et的概率为πt(Et),类似的在t+1时刻,发生单元事件Et+1的概率为πt+1(Et+1);
g)对可能在时刻t出现的所有单元事件,通过对当前单元事件的出现概率,与从当前单元事件Et转移到下一个单元事件Et+1的概率p(Et→Et+1)的乘积求和,计算
h)对单元事件对应的状态空间E={E1,E2,...,EN}进行反复分割,利用πt=πt+1的马尔科夫链稳态分布原理,计算链中所有稳定分布向量;
i)获得每种事件语义所应包含的单元事件语义及其时序关系,从而能够用于实现事件语义的自动识别。
本发明的原理是:
(1)单元事件语义的识别与存储方法:
单元事件语义被视为最小的事件语义表达单位,若某个视频段中仅存在一个关注对象,则将它直接作为观察对象;若其中存在多个处于不同运动状态的关注对象,则需要进行分类处理:
①将运动状态相似的关注对象分为一类(可能仅存在一个关注对象);
②构建关注对象类的最小凸多边形,并将其作为该类的代表;
③选取任意两个类构成单元事件的描述单元,以其中一个类作为重点观察类,而另外一个作为参考类,即若存在n个类,则需要分解为n(n-1)/2个单元事件进行描述,n>2;。
单元事件语义实际上是用来描述语义对象(类)和它自身的运动状态,以及可能存在的两个对象(类)之间的运动关系。通过对象语义概念来表达某个类时,若该类中存在不同概念的语义对象,则使用其最近的父概念进行表达。当关注对象或任何对象运动状态发生变化时,则标志着当前单元事件的结束,下一个单元事件的开始。
另一个需要解决的重要问题是:如何识别关注对象的运动状态,以及对象之间的运动关系。我们对单个对象在Δt内表现出的运动关系状态为膨胀、收缩、静止、平移、徘徊,对两个对象在时间Δt内表现出的运动关系状态定义为接近、远离、静止、经过、围绕、触碰。
通过运动状态分类,单元事件语义的识别与表达变得相对简单,可通过一个三元组来存储和表达单元事件语义:
Ek=E(Oi,Zt,Oj) 公式(1)
其中Oi,Oj为单元事件语义中存在的关注对象语义概念,Zt为运动状态的类型。当单元事件语义中仅存在单个关注对象,则Oj为空,Zt对应单个语义对象自身运动状态的描述,此时t∈[1,5];当单元事件语义中存在两个关注对象,则Zt对应两个对象之间的运动关系状态的描述,此时t∈[1,6],且i≠j。
因此,单元事件语义的识别问题转变成关注对象语义的识别,以及语义对象运动状态分类的问题。
(2)多元事件语义的识别方法
我们利用马尔科夫链的思想实现多元事件语义的识别。假设在时刻t,发生单元事件Et的概率为πt(Et),类似的在t+1时刻,发生单元事件Et+1的概率为πt+1(Et+1)。若给定πt(Et),对可能在时刻t出现的所有单元事件,通过对当前单元事件的出现概率,与从当前单元事件Et转移到下一个单元事件Et+1的概率p(Et→Et+1)的乘积求和,计算πt+1(Et+1):
当πt=πt+1时,称作马尔科夫链满足稳态分布,即此时多元事件语义已由最稳定的单元事件按照一定时序关系组合而成。则多元事件语义的识别问题转换成求解(2)式所描述的马尔科夫链的稳态分布问题。我们对单元事件对应的状态空间E={E1,E2,...,EN}进行反复分割,即通过降维类推的方式,计算稳态分布概率。
假设P=[pi,j](i,j∈E)是马尔科夫链在状态空间E中的状态转换概率最简矩阵。首先,状态空间将被分解为E={E1,E2,...,EN-1}∪{EN}形式,则矩阵P也会对应的被分解为式(3)所示:
其中T为(N-1)×(N-1)维矩阵,W为(N-1)维纵向量,R为(N-1)维行向量,而Q则代表标量pn,n。令π为马尔科夫链的稳态分布向量,则有π=πP。(N-1)维的随机最简矩阵P’被定义为:
P′=T+W(1-Q)-1R 公式(4)
其稳态分布用符号π’表示,同样应该满足π’=π’P’。若将π通过(x,πN)分为两部分表示,其中x为(N-1)维行向量,则:
πN=xW+πNQ 公式(5)
上式可以变形为πN=xW(1-Q)-1 公式(6)
故π’与x是成比例的,x=cπ’,其中c为比例系数。那么可由式(25)计算获得:
c=1-πN 其中
公式(7)
通过π’可以计算出x的值。一旦获得P’,就不再需要向量R。从矩阵P’开始,通过(N-2)次同样的分割过程,能计算出原始马尔科夫链中的所有稳态分布向量,即获得组成该多元事件的所有单元事件的分布及时序关系。
本发明的有益效果:可以实现结构动态、持续时间较长、多对象多关系等较复杂高层语义的识别,具有应用领域广泛,可以自动快速的进行识别,人为依赖性小的优点。
附图说明
图1a-图1e为本发明实施的单个对象运动状态图,其中,图1a膨胀,图1b收缩,图1c静止,图1d平移,图1e徘徊。
图2a-图2e为本发明实施的对象间运动关系图,其中,图2a接近,图2b远离,图2c静止,图2d经过,图2e围绕,图2f碰撞。
具体实施方式
下面结合附图并以足球比赛中的射门事件为实例对本发明作进一步详述:
对于“足球比赛中的射门”这个事件语义概念,我们事先从中识别出人、足球、球框三个关注语义对象,并根据其运动状态直接分为三个类,构造每个类的最小凸多边形。在初始的视频段中,仅包含人和足球两个语义对象类,因此我们将其作为单元事件中的描述单元。根据图1所示的运动状态分类,我们选择对象两两之间运动关系分类规则。在第一个视频段中,关注对象为人和足球,其运动关系为接近,即构成单元事件语义“人接近足球”;在第二个视频段中,关注对象不变,但运动关系发生了变化,产生新的单元事件语义“人触碰足球”;第3个视频段中关注对象只包含足球,则应选择图1中的单个对象运动状态分类规则,构成单元事件语义“足球平移”;在随后的视频段中,关注对象变为足球和球框,依次产生单元事件语义“足球接近球框”、“足球经过球框”、“足球与球框静止”。
将获得的每个单元事件语义视为一个马尔科夫状态,则这些状态相互转移的结果就构成了一个马尔科夫链。根据马尔科夫链稳态分布求解过程,计算其中的所有稳态分布向量,即对应于一个多元事件语义,其包含的单元事件语义之间所有可能的时序关系,这种关系和多元事件语义将形成一种多对一的映射。对于以后入库的新视频文件,通过单元事件语义分割识别,利用事先存储的映射关系,则可以快速的识别出其最有可能包含的多元事件语义。
Claims (2)
1、视频中事件语义识别方法,其特征在于利用视频中识别出的前景对象,结合马尔科夫链技术,自动识别视频事件语义,将视频中事件语义视为一个多元事件语义,它由若干个符合一定规则和时序关系的单元事件组成;
单元事件语义的定义和构造步骤:单元事件语义被视为最小的事件语义表达单位,它由单个语义对象及其运动状态,或者两个对象及其运动关系组成;当对象发生变化,或者对象的运动状态或关系发生变化,均表示当前单元事件的结束,下一个单元事件的开始;
利用马尔科夫链技术,发现多元事件语义和单元事件语义之间的构造关系,其步骤是:
将单元事件语义视为一个马尔科夫状态,而多元事件语义的识别则转换为由若干个状态转移的结果;通过跌代式计算马尔科夫链的稳态分布,获得组成每个多元事件语义最适合的单元事件语义序列。
2.如权利要求1所述的视频中事件语义识别方法,其特征在于有如下步骤:
a)将运动状态相似的前景对象分为一类,包括仅存在一个前景对象;
b)构建每个前景对象类的最小凸多边形,并将其作为该类的代表;
c)选取任意两个类构成单元事件的描述单元,以其中一个类作为重点观察类,而另外一个作为参考类,即若存在n个类,则需要分解为n(n-1)/2个单元事件进行描述,n>2;
d)定义单个对象运动状态类型包括膨胀、收缩、静止、平移、徘徊;定义对象两两之间运动关系类型包括接近、远离、静止、经过、围绕、触碰;
e)通过三元组E(Oi,Zt,Oj)存储单元事件语义,其中Oi,Oj为不同的对象语义概念,Zt为运动状态的类型;
f)假设在时刻t,发生单元事件Et的概率为πt(Et),类似的在t+1时刻,发生单元事件Et+1的概率为πt+1(Et+1);
g)对可能在时刻t出现的所有单元事件,通过对当前单元事件的出现概率,与从当前单元事件Et转移到下一个单元事件Et+1的概率p(Et→Et+1)的乘积求和,计算
h)对单元事件对应的状态空间E={E1,E2,...,EN}进行反复分割,利用πt=πt+1的马尔科夫链稳态分布原理,计算链中所有稳定分布向量;
i)获得每种事件语义所应包含的单元事件语义及其时序关系,从而能够用于实现事件语义的自动识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710052741A CN101093500B (zh) | 2007-07-16 | 2007-07-16 | 视频中事件语义识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710052741A CN101093500B (zh) | 2007-07-16 | 2007-07-16 | 视频中事件语义识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101093500A true CN101093500A (zh) | 2007-12-26 |
CN101093500B CN101093500B (zh) | 2010-05-19 |
Family
ID=38991764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200710052741A Expired - Fee Related CN101093500B (zh) | 2007-07-16 | 2007-07-16 | 视频中事件语义识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101093500B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102222101A (zh) * | 2011-06-22 | 2011-10-19 | 北方工业大学 | 一种视频语义挖掘方法 |
CN108090232A (zh) * | 2009-03-20 | 2018-05-29 | 高智83基金会有限责任公司 | 利用跨域知识的语义事件检测 |
WO2021223042A1 (zh) * | 2020-05-06 | 2021-11-11 | Chen Yongcong | 一种类似于人类智能的机器智能实现方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0406512D0 (en) * | 2004-03-23 | 2004-04-28 | British Telecomm | Method and system for semantically segmenting scenes of a video sequence |
-
2007
- 2007-07-16 CN CN200710052741A patent/CN101093500B/zh not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090232A (zh) * | 2009-03-20 | 2018-05-29 | 高智83基金会有限责任公司 | 利用跨域知识的语义事件检测 |
CN102222101A (zh) * | 2011-06-22 | 2011-10-19 | 北方工业大学 | 一种视频语义挖掘方法 |
WO2021223042A1 (zh) * | 2020-05-06 | 2021-11-11 | Chen Yongcong | 一种类似于人类智能的机器智能实现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101093500B (zh) | 2010-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Adnan et al. | Limitations of information extraction methods and techniques for heterogeneous unstructured big data | |
Shu et al. | See finer, see more: Implicit modality alignment for text-based person retrieval | |
Ertugrul et al. | Movie genre classification from plot summaries using bidirectional LSTM | |
US11657590B2 (en) | Method and system for video analysis | |
Meng et al. | Leveraging concept association network for multimedia rare concept mining and retrieval | |
Lin et al. | Mask cross-modal hashing networks | |
Ayache et al. | Evaluation of active learning strategies for video indexing | |
Xu et al. | Ensemble approach based on conditional random field for multi-label image and video annotation | |
Kumar et al. | Effective information retrieval and feature minimization technique for semantic web data | |
Tzelepis et al. | Learning to detect video events from zero or very few video examples | |
Maheshwari et al. | Scene graph embeddings using relative similarity supervision | |
Mahapatra et al. | MVS: A multi-view video synopsis framework | |
CN101093500B (zh) | 视频中事件语义识别方法 | |
Sidiropoulos et al. | Differential edit distance: A metric for scene segmentation evaluation | |
Verma | Diverse image annotation with missing labels | |
Meng et al. | Concept-concept association information integration and multi-model collaboration for multimedia semantic concept detection | |
Jabeen et al. | Video retrieval system using parallel multi-class recurrent neural network based on video description | |
Ahmadi et al. | Modeling traffic motion patterns via non-negative matrix factorization | |
Toriah et al. | Semantic-based video retrieval survey | |
Bhatt et al. | Probabilistic temporal multimedia data mining | |
Tapu et al. | TV news retrieval based on story segmentation and concept association | |
Tian et al. | FA-MCADF: Feature affinity based multiple correspondence analysis and decision fusion framework for disaster information management | |
Yan et al. | Enhancing rare class mining in multimedia big data by concept correlation | |
Saravanan et al. | A review on content based video retrieval, classification and summarization | |
Kannao et al. | Only overlay text: novel features for TV news broadcast video segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100519 Termination date: 20120716 |