CN106055653A - 基于图像语义注释的视频浓缩对象检索方法 - Google Patents

基于图像语义注释的视频浓缩对象检索方法 Download PDF

Info

Publication number
CN106055653A
CN106055653A CN201610381555.4A CN201610381555A CN106055653A CN 106055653 A CN106055653 A CN 106055653A CN 201610381555 A CN201610381555 A CN 201610381555A CN 106055653 A CN106055653 A CN 106055653A
Authority
CN
China
Prior art keywords
sigma
motion
feature
color
retrieval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610381555.4A
Other languages
English (en)
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201610381555.4A priority Critical patent/CN106055653A/zh
Publication of CN106055653A publication Critical patent/CN106055653A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using shape
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开一种基于图像语义注释的视频浓缩对象分类方法及方法。它是利用码本模型运动检测检测出运动对象,使用GrabCut分割出运动对象,然后通过分析对象的类型、颜色、运动特征,经约简后给予对象语义注释,这使得视频浓缩对象的检索条件更加丰富,提高了检索目标的效率。

Description

基于图像语义注释的视频浓缩对象检索方法
所属技术领域
本发明涉及一种视频浓缩方法,尤其涉及一种是基于图像语义注释的视频浓缩对象检索方法。
背景技术
目前,公知的视频浓缩对象检索可分为颜色、类型、运动方向,但是视频浓缩结果中的对象颜色并不是单一的,运动方向也是多角度的,因此在组合条件和具体条件下检索视频浓缩对象时,检索结果有遗漏和偏差。
CN104699810A中提出的目标分类,其中颜色分类为目标主色的RGB值。该方法只针对目标的主色,而本方法基于目标颜色占比综合主色和次色来对目标的颜色分类。这样能更精准地根据目标的颜色特征来检索出所要查找的目标。
基于图像语义注释的视频浓缩对象分类方法它是利用码本模型运动检测检测出运动对象,使用GrabCut分割出运动对象,然后通过分析对象的类型、颜色、运动特征,经约简后给予对象语义注释,这使得视频浓缩对象的检索条件更加丰富,提高了检索目标的效率。
为了解决视频浓缩结果检索时分类不准确、存在遗漏的问题,本发明对视频浓缩中的运动对象进行语义注释,丰富了对象特征的类别,支持更丰富的检索条件,使视频浓缩技术应用更广泛。
一种基于语义图像检索的视频浓缩对象检索方法包括:运动目标的检测计算单元;运动目标的提取计算单元;对于运动对象进行语义注释的计算单元;对运动对象进行语义检索的计算单元。
优选的,在上述的一种基于语义图像检索的视频浓缩对象检索方法,所述的对于运动对象进行语义注释的计算单元:对运动对象外形特征分类的分类器计算单元;对运动对象颜色特征分类的分类器计算单元;对运动对象运动特征分类的分类器计算单元。
优选的,在上述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,包括如下步骤:
A.数据矢量量化编码;
B.码本模型运动检测;
C.对运动对象进行语义注释;
D.对运动对象进行语义检索。
优选的,在上述的一种基于语义图像检索的视频浓缩对象检索方法,所述步骤A包括如下步骤:
A1.对原始数据分割成大小相同的块,每个小块包含了许多像素;
A2.形成由左至右、由上而下地串成一个向量;
A3.收集具有代表性的向量制作出码本,找出其中跟此小块最接近的码字的索引值代替此小块,组成一张索引表;将此作为原始数据压缩的结果。
优选的,在上述的一种基于语义图像检索的视频浓缩对象检索方法,所述步骤B包括如下步骤:
B1.在视频帧的每一个像素位置,为该位置建立了包含了一个或多个码字的码本;视频序列中一个像素点的训练序列为X={x1,x2…xN},该像素对应的码本为C={c1,c2…cL},每个码字ci为二元组结构ci=<vi,ui>;vi对应该码字的累积RGB三通道的平均颜色值;其中各个参数分别表示码字对应像素的最小、最大亮度值,码字出现的字数,码字在训练中未出现的最大间隔时间以及第一次和最后一次访问的时间;
B2.检测像素运动情况;对于t时刻待检测的像素,将当前像素值xt与对应的码本进行比较,如果没有相匹配的码字,则创建一个新的码字uL=<I,I,1,t-1,t,t>添加到其码本中;如果匹配的码字有多个,则根据颜色相似度和亮度范围确定匹配最好的码字并更新码本,公式如下
B3.当训练结束后,为每个码字ci更新未访问的最大时间间隔Υi
Υi=max{Υi,N-qi+pi-1}。
优选的,在上述的一种基于语义图像检索的视频浓缩对象检索方法,所述的步骤C包括如下分类:
C1:运动对象的外形特征注释;
C2:运动对象的颜色特征注释;
C3:运动对象的运动特征注释;
优选的,在上述的一种基于语义图像检索的视频浓缩对象检索方法,所述的C1运动对象的外形特征注释,选择面积、宽高比、占空比和第1、2个Hu不变矩,作为提取的对象的特征,包括如下步骤:
步骤一:对对象区域的面积、对象区域的宽高比、对象区域的占空比、Hu不变矩中第1、2个Hu不变矩定义,假设存在对象区域,(x,y)表示像素点的坐标;
对象区域的面积定义为:R中的像素点总数,公式如下:
A r e a = m 00 = &Sigma; ( i , j ) &Element; R f ( i , j )
即对象区域的零阶矩;
对象区域的宽高比定义为:
A s p e c t R a t i o = R W R H
其中,
RW=max{x|(x,y)∈R}-min{x|(x,y)∈R}
RH=max{y|(x,y)∈R}-min{y|(x,y)∈R}
对象区域的占空比,即对象区域的面积与外接矩形面积之比,可表示为:
A r e a R W &times; R H
Hu不变矩中第1、2个Hu不变矩定义如下:
φ1=η2002
&phi; 2 = ( &eta; 20 + &eta; 02 ) 2 + 4 &eta; 11 2
完成定义。
步骤二:采用支持向量机(SVM)分类器进行视频对象分类,以验证选择的对象特征的有效性;在训练集线性可分情形下,构造一个最优超平面(ω·x)+b=0,使这个超平面满足约束条件yi[(ω·x)+b]≥1,i=1,2,….l;
同时使下面的函数取得最小值
&phi; ( &omega; ) = 1 2 | | &omega; | | 2 = 1 2 ( &omega; &CenterDot; &omega; ) ;
通过求解最优化问题可得最优超平面的形式如下:
&Sigma; S V y i a i 0 ( x &CenterDot; x i ) + b o = 0
其中SV是支持向量,是拉格朗日乘子,b0为最优超平面的偏置;在训练集线性不可分时,我们引进松弛因子ξi≥0及惩罚参数C;在约束yi[(ω·x)+b]≥1,i=1,2,….l下最小化函数
&phi; ( &xi; ) = 1 2 | | &omega; | | 2 + C &Sigma; i = 1 l &xi; i
可得最优超平面,有了最优超平面,分类规则或分类函数只要取
I ( X ) = sgn ( &Sigma; S V y i a i 0 ( x &CenterDot; x i ) + b 0 )
即可。
优选的,在上述的一种基于语义图像检索的视频浓缩对象检索方法,所述的C2运动对象的颜色特征注释,利用了图像的颜色矩、基于灰度共生矩阵的纹理特征和形状的七阶不变距来提取图像的底层视觉特征,结合粗糙集对生成的特征进行选择,根据颜色特征并以纹理特征辅助,对目标进行语义注释,包括如下步骤:
步骤一:颜色特征提取,采用颜色的一阶中心距、二阶中心距、三阶中心距表达图像颜色的分布,公式如下:
一阶距:
&mu; = 1 N &Sigma; i = 1 N P i
二阶距:
&sigma; = ( 1 N &Sigma; i = 1 N ( P i - E ) 2 ) 1 2
三阶距:
s = ( 1 N &Sigma; i = 1 N ( P i - E ) 3 ) 1 3
其中,p0是第i个像素的某个颜色分量;一阶距定义了每个颜色分量的平均强度,二阶和三阶距分别定义了颜色分量的方差和偏斜度;
步骤二:纹理特征提取,采用灰度共生矩阵方法来表示纹理特征,构造一个基于像素间方向和距离的共生矩阵,来提取能量、熵、惯性矩、相关性等统计量作为图像的纹理特征,灰度共生矩阵表示为p(i,j,d,θ),它描述了在θ方向上,相隔d个像素的距离,灰度值分别为i和j的像素对数量;
能量:
A S M = &Sigma; i &Sigma; j &lsqb; p ( i , j ) &rsqb; 2
当p(i,j)的数值分布较集中于主对角线附近时,对应的ASM值较大;否则,ASM的值较小;
熵:
E N T = &Sigma; i &Sigma; j p ( i , j ) log p ( i , j )
当图像纹理比较粗糙时,各p(i,j)的值较集中并且相差较大,当图像纹理比较细时,各的值较集中并且相差较大,当图像纹理比较细时,各p(i,j)的值比较分散且相差不大;
惯性矩:
C O N = &Sigma; i &Sigma; j ( i - j ) 2 p ( i , j )
由于p(i,j)主要集中在主对角线附近,所以对于粗纹理來说i-j的值较小,因此对应的CON值比较小;相反,细纹理的CON比较大;
相关性:
C O R = &Sigma; i &Sigma; i ijm i j &sigma; x &sigma; y
当矩阵像元值相差很大时,则相关值小;反之,当矩阵元素均匀相等时,相关值就大;
步骤三:形状特征提取,采用不变距作为基于区域的形状特征,以兼顾整个形状区域内的所有像素;通过变换不敏感的几个矩来说明区域的固有特征,七个不变距来描述形状的特征,定义如下:
φ1=μ2.00.2
φ2=(μ2.00.2)2+4μ1.1 2
φ3=(μ3.0-3μ1.2)2+(μ0.3-3μ2.1)2
φ4=(μ3.01.2)2+(μ0.32.1)2
φ5=(μ3.0-3μ1.2)(μ3.01.2)[(μ3.01.2)2-3(μ2.10.3)2]+(3μ2.10.3)(μ2.10.3)[3(μ3.01.2)2-(μ2.10.3)2]
φ6=(μ2.00.2)[(μ3.01.2)2-(μ0.32.1)2]+4μ1.13.01.2)(μ0.32.1)
φ7=(3μ2.10.3)(μ3.01.2)[(μ3.01.2)2-3(μ0.32.1)2]+(3μ2.10.3)(μ2.10.3)[3(μ3.01.2)2-(μ2.10.3)]
其中μp,q=Σ(x,y)∈R(x-xc)p(y-yc)q;(xc,yc)是对象的中心;
步骤四:使用粗糙集约简,降低样本维数,减少样本个数,降低后期语义识别的复杂度;
通过原始数据集建立系统决策表,S=(U,A,V,f)其中C为条件属集;D为决策属性集;
通过K均值聚类的离散化方法对原始数据中连续型数据离散化,得到样本决策表;
利用基于属性重要性的属性约简方法来对样本决策表进行约简,得出最终的约简结果;
先统计未约简前由训练样本构成的分类模型对预测样本的准确率,在用约简后的条件属性直接作为训练样本和预测样本再一次构造一个分类模型,计算出分类的准确率;
通过实验验证选择径向基核函数,对约简后的样本集利用网格搜索法和粒子群优化算法两种方法来确定最优的优化算法和核函数的参数(C,γ);
用约简后的样本、核函数及其最优参数来构造分类面,通过分类模型来实现对测试集的准确分类;
统计约简后的准确率和用网格搜索法和粒子群优化算法对参数优化后的准确率,对两者进行比较。
优选的,在上述的一种基于语义图像检索的视频浓缩对象检索方法,所述的C3运动对象的运动特征注释,使用运动矢量直方图来提取局部运动特征,步骤如下:
&Delta; u ( x , y , t ) n + 1 = - &part; g &part; x ( g ( x + u &OverBar; n , y + v &OverBar; n , t + 1 ) - g ( x , y , t ) ) &alpha; 2 + ( &part; g &part; x ) 2 + ( &part; g &part; y ) 2 &Delta; v ( x , y , t ) n + 1 = - &part; g &part; y ( g ( x + u &OverBar; n , y + v &OverBar; n , t + 1 ) - g ( x , y , t ) ) &alpha; 2 + ( &part; g &part; x ) 2 + ( &part; g &part; y ) 2
先从运动估计的全局运动模型中计算出每一像素点的全局运动矢量,再与当前的局部运动矢量合并,作为下一次迭代的初始值输入;得到相邻帧的局部运动矢量场后,取一个运动矢量幅度阈值Tm,大于此阈值的像素点定为运动像素点;然后将运动矢量的可能方向量化为n个等间距的间隔,对于每一个运动像素点,根据它的运动矢量方向找到对应的方向量化间隔,然后把该量化间隔的计数器加1;最后得出局部运动特征;
上式中,g(x,y,t)表示t时刻在(x,y)点的灰度值,分别表示灰度图像和沿x和y方向的梯度,表示第n次迭代后运动矢量在一个小邻域内的平均值,通过对邻近点的插值来得到的计算;
本方法的运动特征分类标准为运动角度每5度为一个单位,针对不同角度的运动特征建立标准运动特征直方图;在得出运动目标的运动特征后,使用SVM分类器对目标运动特征直方图和标准直方图匹配,通过计算目标运动特征直方图和标准直方图的相似度,进行不同运动方向上的分类。
优选的,在上述的一种基于语义图像检索的视频浓缩对象检索方法,所述的D对运动对象进行语义检索包括如下分类:
D1.目标类型检索:根据目标的类型特征分为人、车、非机动车、其他四类;基于检索选定的条件,输出高于检索条件阈值的目标;
D2.目标颜色检索:目标颜色检索可设定主色和次色;因为目标颜色不一定是单一的,检索其中一种不能准确输出整体相似度较高的目标;所以目标颜色检索过程结合粗糙集和目标各种颜色的权重来综合检索,将检索条件和目标的语义注释进行比对得出结果;
D3.目标运动特征检索:定义两个相同长度直方图序列的相似度是它们各个对应直方图的相似度之和,当目标视频片段和标准运动特征直方图的原始视频片段长度不同时,分别为N和M,设N>M,则先将较短的序列{h1(N)}与长序列{h1(M)}中取不同时间起点的同长度序列计算相似度,然后求所有相似度的最大值,如下式
S ( h 1 , h 2 ) = m a x 0 &le; t &le; M - N &Sigma; 0 &le; i &le; N S i &lsqb; h 1 ( i ) , h 2 ( i + t ) &rsqb;
上式得出了两个不同长度序列的相似度,而且计算出短序列与长序列中最相似运动的对应位置;
根据检索条件得出类型、颜色、运动方向、运动速度的各项分值后,根据各项所占权重,求出加权分数。
附图说明
图1是矢量量化编码示意图;
图2是码本模型检测流程图;
图3是GrabCut算法前景背景分割效果图;
图4是提取视频中的运动目标和SVM的原理图;
图5是对运动对象颜色特征分类的计算流程图;
图6是对运动对象运动特征分类效果图;
图7是对于运动对象特检索分数计算单元流程图;
图8是系统整体流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明公开一种基于语义图像检索的视频浓缩对象检索方法包括:运动目标的检测计算单元;运动目标的提取计算单元;对于运动对象进行语义注释的计算单元;对运动对象进行语义检索的计算单元。
其中,上述的一种基于语义图像检索的视频浓缩对象检索方法,包括:对于运动对象进行语义注释的计算单元:对运动对象外形特征分类的分类器计算单元;对运动对象颜色特征分类的分类器计算单元;对运动对象运动特征分类的分类器计算单元。
如图8所示,本发明公开的一种基于语义图像检索的视频浓缩对象检索方法,首先对像素进行矢量量化编码;然后利用码本模型检测出运动目标;通过GrabCut分离前景背景;分析运动对象的特征,对运动对象进行语义注释;按照检索条件完成视频浓缩对象的检索。
如图1所示,对像素进行矢量量化编码,把原始数据分割成大小相同的块,每个小块包含了许多像素;形成由左至右、由上而下地串成一个向量;收集具有代表性的向量制作出码本,找出其中跟此小块最接近的码字的索引值代替此小块,组成一张索引表;将此作为原始数据压缩的结果。
如图2所示,在上述的运动目标的检测计算单元,利用码本模型检测出运动目标,在视频帧的每一个像素位置,为该位置建立了包含了一个或多个码字的码本;
视频序列中一个像素点的训练序列为X={x1,x2…xN},该像素对应的码本为C={c1,c2…cL},每个码字ci为二元组结构vi对应该码字的累积RGB三通道的平均颜色值。其中各个参数分别表示码字对应像素的最小、最大亮度值,码字出现的字数,码字在训练中未出现的最大间隔时间以及第一次和最后一次访问的时间。
检测像素运动情况;对于t时刻待检测的像素,将当前像素值xt与对应的码本进行比较,如果没有相匹配的码字,则创建一个新的码字uL=<I,I,1,t-1,t,t>添加到其码本中;如果匹配的码字有多个,则根据颜色相似度和亮度范围确定匹配最好的码字并更新码本,公式如下
当训练结束后,为每个码字ci更新未访问的最大时间间隔Υi
Υi=max{Υi,N-qi+pi-1}。
如图3中(a)所示,使用GrabCut算法分割前景背景,该算法利用了图像中的颜色信息和边界信息,只要少量的用户交互操作即可得到比较好的分割结果。如图3中(b)所示,在通过深度学习算法训练后,可更完整体提取出目标和背景相似的部分。
GrabCut函数说明:
函数原型:
void cv::grabCut(const Mat&img,Mat&mask,Rect rect,
Mat&bgdModel,Mat&fgdModel,
int iterCount,int mode)
其中:
img——待分割的源图像,必须是8位3通道(CV_8UC3)图像,在处理的过程中不会被修改;
mask——掩码图像,如果使用掩码进行初始化,那么mask保存初始化掩码信息;在执行分割的时候,也可以将用户交互所设定的前景与背景保存到mask中,然后再传入GrabCut函数;在处理结束之后,mask中会保存结果。mask只能取以下四种值:
GCD_BGD(=0),背景;
GCD_FGD(=1),前景;
GCD_PR_BGD(=2),可能的背景;
GCD_PR_FGD(=3),可能的前景。
如果没有手工标记GCD_BGD或者GCD_FGD,那么结果只会有GCD_PR_BGD或GCD_PR_FGD;
rect——用于限定需要进行分割的图像范围,只有该矩形窗口内的图像部分才被处理;
bgdModel——背景模型,如果为null,函数内部会自动创建一个bgdModel;bgdModel必须是单通道浮点型(CV_32FC1)图像,且行数只能为1,列数只能为13x5;
fgdModel——前景模型,如果为null,函数内部会自动创建一个fgdModel;fgdModel必须是单通道浮点型(CV_32FC1)图像,且行数只能为1,列数只能为13x5;
iterCount——迭代次数,必须大于0;
mode——用于指示grabCut函数进行什么操作,可选的值有:
GC_INIT_WITH_RECT(=0),用矩形窗初始化GrabCut;
GC_INIT_WITH_MASK(=1),用掩码图像初始化GrabCut;
GC_EVAL(=2),执行分割。
完成目标与背景的分离。
对运动目标进行语义注释分为三类:运动对象的外形特征注释;运动对象的颜色特征注释;运动对象的运动特征注释。
如图4所示,在上述的运动对象的外形特征注释,选择面积、宽高比、占空比和第1、2个Hu不变矩,作为提取的对象的特征,包括如下步骤:
步骤一:对对象区域的面积、对象区域的宽高比、对象区域的占空比、Hu不变矩中第1、2个Hu不变矩定义,假设存在对象区域,(x,y)表示像素点的坐标;
对象区域的面积定义为:R中的像素点总数,公式如下:
A r e a = m 00 = &Sigma; ( i , j ) &Element; R f ( i , j )
即对象区域的零阶矩;
对象区域的宽高比定义为:
A s p e c t R a t i o = R W R H
其中,
RW=max{x|(x,y)∈R}-min{x|(x,y)∈R}
RH=max{y|(x,y)∈R}-min{y|(x,y)∈R}
对象区域的占空比,即对象区域的面积与外接矩形面积之比,可表示为:
A r e a R W &times; R H
Hu不变矩中第1、2个Hu不变矩定义如下:
φ1=η2002
&phi; 2 = ( &eta; 20 + &eta; 02 ) 2 + 4 &eta; 11 2
完成定义,结果如图4中(a)所示。
步骤二:如图4中(b)所示,采用支持向量机(SVM)分类器进行视频对象分类,以验证选择的对象特征的有效性;在训练集线性可分情形下,构造一个最优超平面(ω·x)+b=0,使这个超平面满足约束条件yi[(ω·x)+b]≥1,i=1,2,….l;
同时使下面的函数取得最小值
&phi; ( &omega; ) = 1 2 | | &omega; | | 2 = 1 2 ( &omega; &CenterDot; &omega; ) ;
通过求解最优化问题可得最优超平面的形式如下:
&Sigma; S V y i a i 0 ( x &CenterDot; x i ) + b o = 0
其中SV是支持向量,是拉格朗日乘子,b0为最优超平面的偏置;在训练集线性不可分时,我们引进松弛因子ξi≥0及惩罚参数C;在约束yi[(ω·x)+b]≥1,i=1,2,….l下最小化函数
&phi; ( &xi; ) = 1 2 | | &omega; | | 2 + C &Sigma; i = 1 l &xi; i
可得最优超平面,有了最优超平面,分类规则或分类函数只要取
I ( X ) = sgn ( &Sigma; S V y i a i 0 ( x &CenterDot; x i ) + b 0 )
即可。
如图5所示,在上述的运动对象的颜色特征注释,利用了图像的颜色矩、基于灰度共生矩阵的纹理特征和形状的七阶不变距来提取图像的底层视觉特征,结合粗糙集对生成的特征进行选择,根据颜色特征并以纹理特征辅助,对目标进行语义注释,包括如下步骤:
步骤一:颜色特征提取,采用颜色的一阶中心距、二阶中心距、三阶中心距表达图像颜色的分布,公式如下:
一阶距:
&mu; = 1 N &Sigma; i = 1 N P i
二阶距:
&sigma; = ( 1 N &Sigma; i = 1 N ( P i - E ) 2 ) 1 2
三阶距:
s = ( 1 N &Sigma; i = 1 N ( P i - E ) 3 ) 1 3
其中,p0是第i个像素的某个颜色分量;一阶距定义了每个颜色分量的平均强度,二阶和三阶距分别定义了颜色分量的方差和偏斜度;
步骤二:纹理特征提取,采用灰度共生矩阵方法来表示纹理特征,构造一个基于像素间方向和距离的共生矩阵,来提取能量、熵、惯性矩、相关性等统计量作为图像的纹理特征,灰度共生矩阵表示为p(i,j,d,θ),它描述了在θ方向上,相隔d个像素的距离,灰度值分别为i和j的像素对数量;
能量:
A S M = &Sigma; i &Sigma; j &lsqb; p ( i , j ) &rsqb; 2
当p(i,j)的数值分布较集中于主对角线附近时,对应的ASM值较大;否则,ASM的值较小;
熵:
E N T = &Sigma; i &Sigma; j p ( i , j ) log p ( i , j )
当图像纹理比较粗糙时,各p(i,j)的值较集中并且相差较大,当图像纹理比较细时,各的值较集中并且相差较大,当图像纹理比较细时,各p(i,j)的值比较分散且相差不大;
惯性矩:
C O N = &Sigma; i &Sigma; j ( i - j ) 2 p ( i , j )
由于p(i,j)主要集中在主对角线附近,所以对于粗纹理來说i-j的值较小,因此对应的CON值比较小;相反,细纹理的CON比较大;
相关性:
C O R = &Sigma; i &Sigma; i ijm i j &sigma; x &sigma; y
当矩阵像元值相差很大时,则相关值小;反之,当矩阵元素均匀相等时,相关值就大;
步骤三:形状特征提取,采用不变距作为基于区域的形状特征,以兼顾整个形状区域内的所有像素;通过变换不敏感的几个矩来说明区域的固有特征,七个不变距来描述形状的特征,定义如下:
φ1=μ2.00.2
φ2=(μ2.00.2)2+4μ1.1 2
φ3=(μ3.0-3μ1.2)2+(μ0.3-3μ2.1)2
φ4=(μ3.01.2)2+(μ0.32.1)2
φ5=(μ3.0-3μ1.2)(μ3.01.2)[(μ3.01.2)2-3(μ2.10.3)2]+(3μ2.10.3)(μ2.10.3)[3(μ3.01.2)2-(μ2.10.3)2]
φ6=(μ2.00.2)[(μ3.01.2)2-(μ0.32.1)2]+4μ1.13.01.2)(μ0.32.1)
φ7=(3μ2.10.3)(μ3.01.2)[(μ3.01.2)2-3(μ0.32.1)2]+(3μ2.10.3)(μ2.10.3)[3(μ3.01.2)2-(μ2.10.3)]
其中μp,q=∑(x,y)∈R(x-xc)p(y-yc)q;(xc,yc)是对象的中心;
步骤四:使用粗糙集约简,降低样本维数,减少样本个数,降低后期语义识别的复杂度;
通过原始数据集建立系统决策表,S=(U,A,V,f)其中C为条件属集;D为决策属性集;
通过K均值聚类的离散化方法对原始数据中连续型数据离散化,得到样本决策表;
利用基于属性重要性的属性约简方法来对样本决策表进行约简,得出最终的约简结果;
先统计未约简前由训练样本构成的分类模型对预测样本的准确率,在用约简后的条件属性直接作为训练样本和预测样本再一次构造一个分类模型,计算出分类的准确率;
通过实验验证选择径向基核函数,对约简后的样本集利用网格搜索法和粒子群优化算法两种方法来确定最优的优化算法和核函数的参数(C,γ);
用约简后的样本、核函数及其最优参数来构造分类面,通过分类模型来实现对测试集的准确分类;
统计约简后的准确率和用网格搜索法和粒子群优化算法对参数优化后的准确率,对两者进行比较。
如图6所示,在上述的运动对象的运动特征注释,使用运动矢量直方图来提取局部运动特征,步骤如下:
&Delta; u ( x , y , t ) n + 1 = - &part; g &part; x ( g ( x + u &OverBar; n , y + v &OverBar; n , t + 1 ) - g ( x , y , t ) ) &alpha; 2 + ( &part; g &part; x ) 2 + ( &part; g &part; y ) 2 &Delta; v ( x , y , t ) n + 1 = - &part; g &part; y ( g ( x + u &OverBar; n , y + v &OverBar; n , t + 1 ) - g ( x , y , t ) ) &alpha; 2 + ( &part; g &part; x ) 2 + ( &part; g &part; y ) 2
先从运动估计的全局运动模型中计算出每一像素点的全局运动矢量,再与当前的局部运动矢量合并,作为下一次迭代的初始值输入;得到相邻帧的局部运动矢量场后,取一个运动矢量幅度阈值Tm,大于此阈值的像素点定为运动像素点;然后将运动矢量的可能方向量化为n个等间距的间隔,对于每一个运动像素点,根据它的运动矢量方向找到对应的方向量化间隔,然后把该量化间隔的计数器加1;最后得出局部运动特征;
上式中,g(x,y,t)表示t时刻在(x,y)点的灰度值,分别表示灰度图像和沿x和y方向的梯度,表示第n次迭代后运动矢量在一个小邻域内的平均值,通过对邻近点的插值来得到的计算;
本方法的运动特征分类标准为运动角度每5度为一个单位,针对不同角度的运动特征建立标准运动特征直方图;在得出运动目标的运动特征后,使用SVM分类器对目标运动特征直方图和标准直方图匹配,通过计算目标运动特征直方图和标准直方图的相似度,进行不同运动方向上的分类。
如图7所示,在上述对运动对象进行语义检索包括如下分类:
1.目标类型检索:根据目标的类型特征分为人、车、非机动车、其他四类;基于检索选定的条件,输出高于检索条件阈值的目标;
2.目标颜色检索:目标颜色检索可设定主色和次色;因为目标颜色不一定是单一的,检索其中一种不能准确输出整体相似度较高的目标;所以目标颜色检索过程结合粗糙集和目标各种颜色的权重来综合检索,将检索条件和目标的语义注释进行比对得出结果;
3.目标运动特征检索:定义两个相同长度直方图序列的相似度是它们各个对应直方图的相似度之和,当目标视频片段和标准运动特征直方图的原始视频片段长度不同时,分别为N和M,设N>M,则先将较短的序列{h1(N)}与长序列{h1(M)}中取不同时间起点的同长度序列计算相似度,然后求所有相似度的最大值,如下式
S ( h 1 , h 2 ) = m a x 0 &le; t &le; M - N &Sigma; 0 &le; i &le; N S i &lsqb; h 1 ( i ) , h 2 ( i + t ) &rsqb;
上式得出了两个不同长度序列的相似度,而且计算出短序列与长序列中最相似运动的对应位置;
根据检索条件得出类型、颜色、运动方向、运动速度的各项分值后,根据各项所占权重,求出加权分数,按分数排序结果并输出。

Claims (10)

1.一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,包括:运动目标的检测计算单元;运动目标的提取计算单元;对于运动对象进行语义注释的计算单元;对运动对象进行语义检索的计算单元。
2.基于权利要求1所述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,所述的对于运动对象进行语义注释的计算单元:对运动对象外形特征分类的分类器计算单元;对运动对象颜色特征分类的分类器计算单元;对运动对象运动特征分类的分类器计算单元。
3.基于权利要求1所述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,包括如下步骤:
A.数据矢量量化编码;
B.码本模型运动检测;
C.对运动对象进行语义注释;
D.对运动对象进行语义检索。
4.基于权利要求3所述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,所述步骤A包括如下步骤:
A1.对原始数据分割成大小相同的块,每个小块包含了许多像素;
A2.形成由左至右、由上而下地串成一个向量;
A3.收集具有代表性的向量制作出码本,找出其中跟此小块最接近的码字的索引值代替此小块,组成一张索引表;将此作为原始数据压缩的结果。
5.基于权利要求3所述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,所述步骤B包括如下步骤:
B1.在视频帧的每一个像素位置,为该位置建立了包含了一个或多个码字的码本;视频序列中一个像素点的训练序列为X={x1,x2…xN},该像素对应的码本为C={c1,c2…cL},每个码字ci为二元组结构ci=<vi,ui>;vi对应该码字的累积RGB三通道的平均颜色值;其中各个参数分别表示码字对应像素的最小、最大亮度值,码字出现的字数,码字在训练中未出现的最大间隔时间以及第一次和最后一次访问的时间;
B2.检测像素运动情况;对于t时刻待检测的像素,将当前像素值xt与对应的码本进行比较,如果没有相匹配的码字,则创建一个新的码字uL=<I,I,1,t-1,t,t>添加到其码本中;如果匹配的码字有多个,则根据颜色相似度和亮度范围确定匹配最好的码字并更新码本,公式如下
B3.当训练结束后,为每个码字ci更新未访问的最大时间间隔γi
γi=max{γi,N-qi+pi-1}。
6.基于权利要求3所述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,所述的步骤C包括如下分类:
C1:运动对象的外形特征注释;
C2:运动对象的颜色特征注释;
C3:运动对象的运动特征注释。
7.基于权利要求6所述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,所述的C1运动对象的外形特征注释,选择面积、宽高比、占空比和第1、2个Hu不变矩,作为提取的对象的特征,包括如下步骤:
步骤一:对对象区域的面积、对象区域的宽高比、对象区域的占空比、Hu不变矩中第1、2个Hu不变矩定义,假设存在对象区域,(x,y)表示像素点的坐标;
对象区域的面积定义为:R中的像素点总数,公式如下:
A r e a = m 00 = &Sigma; ( i , j ) &Element; R f ( i , j )
即对象区域的零阶矩;
对象区域的宽高比定义为:
A s p e c t R a t i o = R W R H
其中,
RW=max{x|(x,y)∈R}-min{x|(x,y)∈R}
RH=max{y|(x,y)∈R}-min{y|(x,y)∈R}
对象区域的占空比,即对象区域的面积与外接矩形面积之比,可表示为:
A r e a R W &times; R H
Hu不变矩中第1、2个Hu不变矩定义如下:
φ1=η2002
&phi; 2 = ( &eta; 20 + &eta; 02 ) 2 + 4 &eta; 11 2
完成定义;
步骤二:采用支持向量机(SVM)分类器进行视频对象分类,以验证选择的对象特征的有效性;在训练集线性可分情形下,构造一个最优超平面(ω·x)+b=0,使这个超平面满足约束条件yi[(ω·x)+b]≥1,i=1,2,….l;
同时使下面的函数取得最小值
&phi; ( &omega; ) = 1 2 | | &omega; | | 2 = 1 2 ( &omega; &CenterDot; &omega; ) ;
通过求解最优化问题可得最优超平面的形式如下:
&Sigma; S V y i a i 0 ( x &CenterDot; x i ) + b o = 0
其中SV是支持向量,是拉格朗日乘子,b0为最优超平面的偏置;在训练集线性不可分时,我们引进松弛因子ξi≥0及惩罚参数C;在约束yi[(ω·x)+b]≥1,i=1,2,….l下最小化函数
&phi; ( &xi; ) = 1 2 | | &omega; | | 2 + C &Sigma; i = 1 l &xi; i
可得最优超平面,有了最优超平面,分类规则或分类函数只要取
I ( X ) = s g n ( &Sigma; S V y i a i 0 ( x &CenterDot; x i ) + b 0 )
即可。
8.基于权利要求6所述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,所述的C2运动对象的颜色特征注释,利用了图像的颜色矩、基于灰度共生矩阵的纹理特征和形状的七阶不变距来提取图像的底层视觉特征,结合粗糙集对生成的特征进行选择,根据颜色特征并以纹理特征辅助,对目标进行语义注释,包括如下步骤:
步骤一:颜色特征提取,采用颜色的一阶中心距、二阶中心距、三阶中心距表达图像颜色的分布,公式如下:
一阶距:
&mu; = 1 N &Sigma; i = 1 N P i
二阶距:
&sigma; = ( 1 N &Sigma; i = 1 N ( P i - E ) 2 ) 1 2
三阶距:
s = ( 1 N &Sigma; i = 1 N ( P i - E ) 3 ) 1 3
其中,p0是第i个像素的某个颜色分量;一阶距定义了每个颜色分量的平均强度,二阶和三阶距分别定义了颜色分量的方差和偏斜度;
步骤二:纹理特征提取,采用灰度共生矩阵方法来表示纹理特征,构造一个基于像素间方向和距离的共生矩阵,来提取能量、熵、惯性矩、相关性等统计量作为图像的纹理特征,灰度共生矩阵表示为p(i,j,d,θ),它描述了在θ方向上,相隔d个像素的距离,灰度值分别为i和j的像素对数量;
能量:
A S M = &Sigma; i &Sigma; j &lsqb; p ( i , j ) &rsqb; 2
当p(i,j)的数值分布较集中于主对角线附近时,对应的ASM值较大;否则,ASM的值较小;
熵:
E N T = &Sigma; i &Sigma; j p ( i , j ) log p ( i , j )
当图像纹理比较粗糙时,各p(i,j)的值较集中并且相差较大,当图像纹理比较细时,各的值较集中并且相差较大,当图像纹理比较细时,各p(i,j)的值比较分散且相差不大;
惯性矩:
C O N = &Sigma; i &Sigma; j ( i - j ) 2 p ( i , j )
由于p(i,j)主要集中在主对角线附近,所以对于粗纹理來说i-j的值较小,因此对应的CON值比较小;相反,细纹理的CON比较大;
相关性:
C O R = &Sigma; i &Sigma; i ijm i j &sigma; x &sigma; y
当矩阵像元值相差很大时,则相关值小;反之,当矩阵元素均匀相等时,相关值就大;
步骤三:形状特征提取,采用不变距作为基于区域的形状特征,以兼顾整个形状区域内的所有像素;通过变换不敏感的几个矩来说明区域的固有特征,七个不变距来描述形状的特征,定义如下:
φ1=μ2.00.2
φ2=(μ2.00.2)2+4μ1.1 2
φ3=(μ3.0-3μ1.2)2+(μ0.3-3μ2.1)2
φ4=(μ3.01.2)2+(μ0.32.1)2
φ5=(μ3.0-3μ1.2)(μ3.01.2)[(μ3.01.2)2-3(μ2.10.3)2]+(3μ2.10.3)(μ2.10.3)[3(μ3.01.2)2-(μ2.10.3)2]
φ6=(μ2.00.2)[(μ3.01.2)2-(μ0.32.1)2]+4μ1.13.01.2)(μ0.32.1)
φ7=(3μ2.10.3)(μ3.01.2)[(μ3.01.2)2-3(μ0.32.1)2]+(3μ2.10.3)(μ2.10.3)[3(μ3.01.2)2-(μ2.10.3)]
其中μp,q=∑(x,y)∈R(x-xc)p(y-yc)q;(xc,yc)是对象的中心;
步骤四:使用粗糙集约简,降低样本维数,减少样本个数,降低后期语义识别的复杂度;
通过原始数据集建立系统决策表,S=(U,A,V,f)其中C为条件属集;D为决策属性集;
通过K均值聚类的离散化方法对原始数据中连续型数据离散化,得到样本决策表;
利用基于属性重要性的属性约简方法来对样本决策表进行约简,得出最终的约简结果;
先统计未约简前由训练样本构成的分类模型对预测样本的准确率,在用约简后的条件属性直接作为训练样本和预测样本再一次构造一个分类模型,计算出分类的准确率;
通过实验验证选择径向基核函数,对约简后的样本集利用网格搜索法和粒子群优化算法两种方法来确定最优的优化算法和核函数的参数(C,γ);
用约简后的样本、核函数及其最优参数来构造分类面,通过分类模型来实现对测试集的准确分类;
统计约简后的准确率和用网格搜索法和粒子群优化算法对参数优化后的准确率,对两者进行比较。
9.基于权利要求6所述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,所述的C3运动对象的运动特征注释,使用运动矢量直方图来提取局部运动特征,步骤如下:
&Delta; u ( x , y , t ) n + 1 = - &part; g &part; x ( g ( x + u &OverBar; n , y + v &OverBar; n , t + 1 ) - g ( x , y , t ) ) &alpha; 2 + ( &part; g &part; x ) 2 + ( &part; g &part; y ) 2 &Delta; v ( x , y , t ) n + 1 = - &part; g &part; y ( g ( x + u &OverBar; n , y + v &OverBar; n , t + 1 ) - g ( x , y , t ) ) &alpha; 2 + ( &part; g &part; x ) 2 + ( &part; g &part; y ) 2
先从运动估计的全局运动模型中计算出每一像素点的全局运动矢量,再与当前的局部运动矢量合并,作为下一次迭代的初始值输入;得到相邻帧的局部运动矢量场后,取一个运动矢量幅度阈值Tm,大于此阈值的像素点定为运动像素点;然后将运动矢量的可能方向量化为n个等间距的间隔,对于每一个运动像素点,根据它的运动矢量方向找到对应的方向量化间隔,然后把该量化间隔的计数器加1;最后得出局部运动特征;
上式中,g(x,y,t)表示t时刻在(x,y)点的灰度值,分别表示灰度图像和沿x和y方向的梯度,表示第n次迭代后运动矢量在一个小邻域内的平均值,通过对邻近点的插值来得到的计算;
本方法的运动特征分类标准为运动角度每5度为一个单位,针对不同角度的运动特征建立标准运动特征直方图;在得出运动目标的运动特征后,使用SVM分类器对目标运动特征直方图和标准直方图匹配,通过计算目标运动特征直方图和标准直方图的相似度,进行不同运动方向上的分类。
10.基于权利要求3所述的一种基于语义图像检索的视频浓缩对象检索方法,其特征在于,所述的D对运动对象进行语义检索包括如下分类:
D1.目标类型检索:根据目标的类型特征分为人、车、非机动车、其他四类;基于检索选定的条件,输出高于检索条件阈值的目标;
D2.目标颜色检索:目标颜色检索可设定主色和次色;因为目标颜色不一定是单一的,检索其中一种不能准确输出整体相似度较高的目标;所以目标颜色检索过程结合粗糙集和目标各种颜色的权重来综合检索,将检索条件和目标的语义注释进行比对得出结果;
D3.目标运动特征检索:定义两个相同长度直方图序列的相似度是它们各个对应直方图的相似度之和,当目标视频片段和标准运动特征直方图的原始视频片段长度不同时,分别为N和M,设N>M,则先将较短的序列{h1(N)}与长序列{h1(M)}中取不同时间起点的同长度序列计算相似度,然后求所有相似度的最大值,如下式
S ( h 1 , h 2 ) = m a x 0 &le; t &le; M - N &Sigma; 0 &le; i &le; N S i &lsqb; h 1 ( i ) , h 2 ( i + t ) &rsqb;
上式得出了两个不同长度序列的相似度,而且计算出短序列与长序列中最相似运动的对应位置;
根据检索条件得出类型、颜色、运动方向、运动速度的各项分值后,根据各项所占权重,求出加权分数。
CN201610381555.4A 2016-06-01 2016-06-01 基于图像语义注释的视频浓缩对象检索方法 Pending CN106055653A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610381555.4A CN106055653A (zh) 2016-06-01 2016-06-01 基于图像语义注释的视频浓缩对象检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610381555.4A CN106055653A (zh) 2016-06-01 2016-06-01 基于图像语义注释的视频浓缩对象检索方法

Publications (1)

Publication Number Publication Date
CN106055653A true CN106055653A (zh) 2016-10-26

Family

ID=57171802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610381555.4A Pending CN106055653A (zh) 2016-06-01 2016-06-01 基于图像语义注释的视频浓缩对象检索方法

Country Status (1)

Country Link
CN (1) CN106055653A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651898A (zh) * 2016-11-08 2017-05-10 河海大学 一种基于蒙版插值的快速Grabcut算法
CN107437257A (zh) * 2017-08-08 2017-12-05 重庆信络威科技有限公司 一种移动背景下的运动物体检测与分割方法
CN107451210A (zh) * 2017-07-13 2017-12-08 北京航空航天大学 一种基于查询松弛结果增强的图匹配查询方法
CN107749757A (zh) * 2017-10-18 2018-03-02 广东电网有限责任公司电力科学研究院 一种基于堆栈式自编码和pso算法的数据压缩方法及装置
CN108052581A (zh) * 2017-12-08 2018-05-18 四川金英科技有限责任公司 一种案件视频研判装置
CN109803067A (zh) * 2017-11-16 2019-05-24 富士通株式会社 视频浓缩方法、视频浓缩装置和电子设备
CN110348364A (zh) * 2019-07-05 2019-10-18 北京工业大学 一种无监督聚类与时空域深度网络相结合的篮球视频群体行为识别方法
CN110555471A (zh) * 2019-08-26 2019-12-10 珠海格力电器股份有限公司 一种移动终端及目标物的搜寻方法
CN113255681A (zh) * 2021-05-31 2021-08-13 东华理工大学南昌校区 一种生物数据性状识别系统
CN113705576A (zh) * 2021-11-01 2021-11-26 江西中业智能科技有限公司 一种文本识别方法、装置、可读存储介质及设备
CN116030276A (zh) * 2023-03-29 2023-04-28 东莞市永惟实业有限公司 一种印刷图像识别系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110087703A1 (en) * 2009-10-09 2011-04-14 Satyam Computer Services Limited Of Mayfair Center System and method for deep annotation and semantic indexing of videos
CN103336795A (zh) * 2013-06-09 2013-10-02 华中科技大学 基于多特征的视频索引方法
CN103761284A (zh) * 2014-01-13 2014-04-30 中国农业大学 一种视频检索方法和系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110087703A1 (en) * 2009-10-09 2011-04-14 Satyam Computer Services Limited Of Mayfair Center System and method for deep annotation and semantic indexing of videos
CN103336795A (zh) * 2013-06-09 2013-10-02 华中科技大学 基于多特征的视频索引方法
CN103761284A (zh) * 2014-01-13 2014-04-30 中国农业大学 一种视频检索方法和系统

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
LCY9819: "GrabCut", 《HTTPS://BLOG.CSDN.NET/LCY9819/ARTICLE/DETAILS/6554864》 *
SUNSHINE_IN_MOON: "GrabCut函数使用简介", 《HTTPS://BLOG.CSDN.NET/SUNSHINE_IN_MOON/ARTICLE/DETAILS/45200793》 *
俞天力等: "一种基于局部运动特征的视频检索方法", 《清华大学学报(自然科学版)》 *
刘威: "基于码书模型的动态背景建模及前景目标检测", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
李庆忠等: "一种高效的基于矢量量化的彩色视频图像压缩编码方法", 《光电子·激光》 *
杨礼: "基于视频目标检索的图像特征提取与分类识别", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
王先荣: "OpenCV(EmguCV)2.1新特性介绍之图像分割GrabCut(GrabCut Of OpenCV 2.1)", 《HTTPS://WWW.CNBLOGS.COM/XRWANG/ARCHIVE/2010/04/27/GRABCUT.HTML》 *
王雯等: "YUV空间下基于码本模型的视频运动目标检测方法", 《武汉大学学报(工学版)》 *
雷少帅: "基于内容的视频检索关键技术研究", 《中国博士学位论文全文数据库信息科技辑》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651898B (zh) * 2016-11-08 2019-05-28 河海大学 一种基于蒙版插值的快速Grabcut算法
CN106651898A (zh) * 2016-11-08 2017-05-10 河海大学 一种基于蒙版插值的快速Grabcut算法
CN107451210B (zh) * 2017-07-13 2020-11-20 北京航空航天大学 一种基于查询松弛结果增强的图匹配查询方法
CN107451210A (zh) * 2017-07-13 2017-12-08 北京航空航天大学 一种基于查询松弛结果增强的图匹配查询方法
CN107437257A (zh) * 2017-08-08 2017-12-05 重庆信络威科技有限公司 一种移动背景下的运动物体检测与分割方法
CN107749757A (zh) * 2017-10-18 2018-03-02 广东电网有限责任公司电力科学研究院 一种基于堆栈式自编码和pso算法的数据压缩方法及装置
CN109803067A (zh) * 2017-11-16 2019-05-24 富士通株式会社 视频浓缩方法、视频浓缩装置和电子设备
CN108052581A (zh) * 2017-12-08 2018-05-18 四川金英科技有限责任公司 一种案件视频研判装置
CN110348364A (zh) * 2019-07-05 2019-10-18 北京工业大学 一种无监督聚类与时空域深度网络相结合的篮球视频群体行为识别方法
CN110348364B (zh) * 2019-07-05 2021-07-02 北京工业大学 一种无监督聚类与时空域深度网络相结合的篮球视频群体行为识别方法
CN110555471A (zh) * 2019-08-26 2019-12-10 珠海格力电器股份有限公司 一种移动终端及目标物的搜寻方法
CN113255681A (zh) * 2021-05-31 2021-08-13 东华理工大学南昌校区 一种生物数据性状识别系统
CN113705576A (zh) * 2021-11-01 2021-11-26 江西中业智能科技有限公司 一种文本识别方法、装置、可读存储介质及设备
CN116030276A (zh) * 2023-03-29 2023-04-28 东莞市永惟实业有限公司 一种印刷图像识别系统

Similar Documents

Publication Publication Date Title
CN106055653A (zh) 基于图像语义注释的视频浓缩对象检索方法
US10255691B2 (en) Method and system of detecting and recognizing a vehicle logo based on selective search
CN102682287B (zh) 基于显著度信息的行人检测方法
CN107103326A (zh) 基于超像素聚类的协同显著性检测方法
CN112016605B (zh) 一种基于边界框角点对齐和边界匹配的目标检测方法
CN101667245B (zh) 基于支持向量新颖检测分类器级联的人脸检测方法
CN105574063A (zh) 基于视觉显著性的图像检索方法
CN102163281B (zh) 基于AdaBoost框架和头部颜色的实时人体检测方法
CN104166841A (zh) 一种视频监控网络中指定行人或车辆的快速检测识别方法
CN101350069A (zh) 从训练数据构建分类器并使用分类器检测在测试数据中的移动对象的计算机实现方法
CN103761531A (zh) 基于形状轮廓特征的稀疏编码车牌字符识别方法
CN103605972A (zh) 一种基于分块深度神经网络的非限制环境人脸验证方法
CN105260738A (zh) 基于主动学习的高分辨率遥感影像变化检测方法及系统
CN106022254A (zh) 图像识别技术
CN108280397A (zh) 基于深度卷积神经网络的人体图像头发检测方法
CN102254183B (zh) 一种基于AdaBoost算法的人脸检测方法
CN104732248B (zh) 基于Omega形状特征的人体目标检测方法
CN103530882A (zh) 一种改进的基于图和色彩纹理特征的图像分割方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN110414513A (zh) 基于语义增强卷积神经网络的视觉显著性检测方法
Wang et al. S 3 D: Scalable pedestrian detection via score scale surface discrimination
CN104268507A (zh) 一种基于rgb-d图像的手语字母识别方法
CN111414958B (zh) 一种视觉词袋金字塔的多特征图像分类方法及系统
CN106339665A (zh) 一种人脸的快速检测方法
CN115410258A (zh) 基于注意力图像的人脸表情识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20161026

RJ01 Rejection of invention patent application after publication