CN104573671A - 一种从视频序列中发现主题目标的方法 - Google Patents

一种从视频序列中发现主题目标的方法 Download PDF

Info

Publication number
CN104573671A
CN104573671A CN201510044825.8A CN201510044825A CN104573671A CN 104573671 A CN104573671 A CN 104573671A CN 201510044825 A CN201510044825 A CN 201510044825A CN 104573671 A CN104573671 A CN 104573671A
Authority
CN
China
Prior art keywords
target
theme
image
window
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510044825.8A
Other languages
English (en)
Other versions
CN104573671B (zh
Inventor
刘华平
刘云辉
孙富春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201510044825.8A priority Critical patent/CN104573671B/zh
Publication of CN104573671A publication Critical patent/CN104573671A/zh
Application granted granted Critical
Publication of CN104573671B publication Critical patent/CN104573671B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种从视频序列中的主题目标发现方法,属于图像处理技术领域。首先训练分类器、增益系数和偏置系数,每一秒从待处理视频中随机抽取两帧图像,得到一个视频图像序列;从图像序列中选取候选主题目标,对候选主题目标进行特征表示,用隐狄利克雷分配模型,从候选主题目标中寻找主题目标。发明用窗口的方法得到候选目标,在很大程度上避免了由分割带来的经常将目标分离的情况;由于窗口当中往往都包含目标,因此图片当中的背景在后面的模型训练的时候已经很大程度上剔除了,这样就使隐狄利克雷分布得到的主题更加准确;软编码的方法使特征点在模型迭代过程中能够找到更加准确的聚类中心。

Description

一种从视频序列中发现主题目标的方法
技术领域
本发明涉及一种从视频序列中的主题目标发现方法,属于图像处理技术领域。
背景技术
近年来,随着网络和电视的流行,人们面对着越来越多的视频片段。视频当中包含着丰富的内容,人们是很难去直观地总结的。自动地去发现和视频主题相符的目标,从而帮助人们快速地了解视频的主要内容,变得越来越重要。在保留原始视频主要内容的前提下,如何去有效地抽取视频当中的目标,是当前研究的主要困难。
之前的一项工作是大量的图片当中发现目标,将每一张图片在不同的设置之下进行分割,并且假设这些分割当中就包含了我们想要的目标。然后再用隐狄利克雷分配的方法得到一些主题。最后用和这些主题最相似的分割当作主题目标。视频片段也是由一张张图片组成的,因此这种方式可以拓展到视频片段的主题目标发现当中。和隐狄利克雷分配的方法一样,非负矩阵分解也可以用来解决类似的问题。但是这些方法都是基于图像分割,分割常常会把一些本来完整的目标分离到多个分割当中,这样得到的分割往往都不是完整的物体,除此之外,很多分割其实包含了大量的背景,这是不需要的。
发明内容
本发明的目的是提出一种视频序列中的主题目标发现方法,以克服现有方法的缺点;用方框先将图像中可能是目标的区域自动框出,然后用主题模型去挖掘中视频中的主题目标。
本发明提出的从视频序列中发现主题目标的方法,包括以下步骤:
(1)训练一个用于对待处理视频图像中包含主题目标的候选区域进行选取的分类器w、增益系数vi和偏置系数ti,具体过程如下:
(1-1)将一个包含已知目标的图像集作为训练样本,通过插值方法,将训练样本中的图像调整成长、宽分别为W和H的图像,其中W,H∈{10,20,40,80,160,320},计算调整后的图像的梯度范数;
(1-2)设T为图像中所有包含已知目标的图像窗口,S为图像中的任意图像窗口,则窗口t∈T和窗口s∈S的叠加面积o(t,s)为:
o ( t , s ) = t ∩ s t ∪ s ,
采用8×8图像窗口对步骤(1-1)中调整大小后的训练样本进行滑动采样,得到多个8×8滑动窗口,计算与8×8滑动窗口相对应的o(t,s),并计算该8×8滑动窗口相对应的64维梯度范数,记为gtrain,将与o(t,s)≥0.5的8×8滑动窗口相对应的64维梯度范数作为正样本,与o(t,s)<0.5的8×8滑动窗口相对应的64维梯度范数作为负样本,利用线性支持向量机,计算得到分类器w;
(1-3)利用下述公式,计算训练样本的排序得分scoretrain
scoretrain=<w,gtrain>
l=(i,x,y)
其中,<·,·>表示内积,gtrain、i和(x,y)分别为64维梯度范数、与8×8滑动窗口相对应的调整大小之前的图像窗口的大小以及位置;
(1-4)利用非极大抑制方法,从每个大小为i的图像窗口中选择多个窗口作为训练样本,将上述scoretrain作为图像窗口的一维特征,利用线性支持向量机,计算得到增益系数vi及偏置系数ti
(2)每一秒从待处理视频中随机抽取两帧图像,得到一个视频图像序列;
(3)从上述得到的图像序列中选取候选主题目标,具体过程如下:
(3-1)通过插值方法,将步骤(2)得到的视频图像序列中的每幅视频图像调整成长、宽分别为W和H的视频图像,其中W,H∈{10,20,40,80,160,320},计算每幅视频图像的梯度范数;
(3-2)采用8×8大小的窗口对调整大小后的视频图像进行滑动采样,得到多个8×8大小的滑动窗口,并分别计算多个8×8滑动窗口的64维梯度范数gl,l=(i,x,y),其中i为与8×8滑动窗口相对应的调整大小之前的视频图像的大小,(x,y)为8×8滑动窗口在调整大小之前的视频图像中的位置;
(3-3)通过下述公式,分别计算每个8×8大小的滑动窗口的得分:
scorel=<w,gl>
其中,w为上述步骤(1)得到的分类器;
(3-4)通过下式,分别计算与8×8大小的滑动窗口相对应的调整大小之前的视频图像的目标性得分ol
ol=vi·scorel+ti
其中vi、ti分别为上述步骤(1)得到的增益系数和偏置系数;
(3-5)按照视频图像窗口的目标性得分从高到低进行排序,目标性得分越高,则包含主题目标的可能性越大;从排序后的视频图像窗口中选取前n个视频图像窗口,作为候选主题目标区域,n的取值与要求发现主题目标的精度有关,一般可以取10-1000;
(4)对候选主题目标进行特征表示,具体过程如下:
(4-1)对上述步骤(2)的图像序列中的各视频图像进行特征点提取,得到特征点集合{dp},采用K均值算法,对特征点集合{dp}进行聚类,得到V个聚类中心,记为{cq},V为设定参数,取值为100~2000;
(4-2)用向量f=RV表示上述特征点集合{dp}中的每一个特征点dp,其中fq表示从V个聚类中心中的第q个聚类中心cq产生特征点dp的概率,σ2为方差,σ的取值为104~105
(4-3)用F表示候选主题目标,用上述向量f=RV表示候选主题目标中的特征点,特征点的集合为F={f1,f2,...,fN},其中N为候选主题目标区域中的特征点个数;
(5)用隐狄利克雷分配模型,从步骤(3)的候选主题目标中寻找主题目标,具体过程如下:
(5-1)设为属于候选主题目标中第m个候选主题目标且属于隐狄利克雷分配模型中的第k个主题的特征点数目,nm为属于第m个候选主题目标的特征点数目,为属于第k个主题并且由第v个聚类中心产生的特征点数目,nk为属于第k个主题的特征点数目,初始化时,使nmnk分别为0;
(5-2)根据多项分布Mult(1/V)得到与第m个候选主题目标中的第n个特征点相对应的聚类中心的序号wm,n=v,以及根据多项分布Mult(1/K)得到隐狄利克雷分配模型中主题序号zm,n=k,并分别使nm+=1,nk+=1;
(5-3)根据第m个候选目标中的第n个特征点对应的聚类中心序号和主题序号,nm-=1,nk-=1。然后,根据分布p(wi=v)得到与第m个候选主题目标中的第n个特征点相对应的新的聚类中心的序号以及根据分布p(zi=k)得到新的隐狄利克雷分配模型中主题序号其中,
p ( w i = v ) &Proportional; f iv &CenterDot; n k ( v ) + &beta; n k + V&beta;
p ( z i = k ) &Proportional; n k ( v ) + &beta; n k + V&beta; &CenterDot; ( n m ( k ) + &alpha; )
其中α,β为正实数,并分别使nm+=1,
(5-4)按照(5-3)中的步骤进行迭代,直到迭代次数达到1000。此时,就可以按照下式算出每个主题的分布:
其中,为K×V的矩阵。
(5-5)用的每一列分别去与每一个候选目标计算KL距离,公式如下:
与该列有最小KL距离的候选目标,作为视频序列的一个主题目标。
本发明提出的从视频序列中的主题目标发现方法,其优点是:
本发明用窗口的方法得到候选目标,在很大程度上避免了由分割带来的经常将目标分离的情况;由于窗口当中往往都包含目标,因此图片当中的背景在后面的模型训练的时候已经很大程度上剔除了,这样就使隐狄利克雷分布得到的主题更加准确;软编码的方法使特征点在模型迭代过程中能够找到更加准确的聚类中心。
具体实施方式
本发明提出的从视频序列中发现主题目标的方法,包括以下步骤:
(1)训练一个用于对待处理视频图像中包含主题目标的候选区域进行选取的分类器w、增益系数vi和偏置系数ti,具体过程如下:
(1-1)将一个包含已知目标的图像集作为训练样本,通过插值方法,将训练样本中的图像调整成长、宽分别为W和H的图像,其中W,H∈{10,20,40,80,160,320},计算调整后的图像的梯度范数;
(1-2)设T为图像中所有包含已知目标的图像窗口,S为图像中的任意图像窗口,则窗口t∈T和窗口s∈S的叠加面积o(t,s)为:
o ( t , s ) = t &cap; s t &cup; s ,
采用8×8图像窗口对步骤(1-1)中调整大小后的训练样本进行滑动采样,得到多个8×8滑动窗口,计算与8×8滑动窗口相对应的o(t,s),并计算该8×8滑动窗口相对应的64维梯度范数,记为gtrain,将与o(t,s)≥0.5的8×8滑动窗口相对应的64维梯度范数作为正样本,与o(t,s)<0.5的8×8滑动窗口相对应的64维梯度范数作为负样本,利用线性支持向量机,计算得到分类器w;
(1-3)利用下述公式,计算训练样本的排序得分scoretrain
scoretrain=<w,gtrain>
l=(i,x,y)
其中,<·,·>表示内积,gtrain、i和(x,y)分别为64维梯度范数、与8×8滑动窗口相对应的调整大小之前的图像窗口的大小以及位置;
(1-4)利用非极大抑制方法,从每个大小为i的图像窗口中选择多个窗口作为训练样本,将上述scoretrain作为图像窗口的一维特征,利用线性支持向量机,计算得到增益系数vi及偏置系数ti
(2)每一秒从待处理视频中随机抽取两帧图像,得到一个视频图像序列;
(3)从上述得到的图像序列中选取候选主题目标,具体过程如下:
(3-1)通过插值方法,将步骤(2)得到的视频图像序列中的每幅视频图像调整成长、宽分别为W和H的视频图像,其中W,H∈{10,20,40,80,160,320},计算每幅视频图像的梯度范数;
(3-2)采用8×8大小的窗口对调整大小后的视频图像进行滑动采样,得到多个8×8大小的滑动窗口,并分别计算多个8×8滑动窗口的64维梯度范数gl,l=(i,x,y),其中i为与8×8滑动窗口相对应的调整大小之前的视频图像的大小,(x,y)为8×8滑动窗口在调整大小之前的视频图像中的位置;
(3-3)通过下述公式,分别计算每个8×8大小的滑动窗口的得分:
scorel=<w,gl>
其中,w为上述步骤(1)得到的分类器;
(3-4)通过下式,分别计算与8×8大小的滑动窗口相对应的调整大小之前的视频图像的目标性得分ol
ol=vi·scorel+ti
其中vi、ti分别为上述步骤(1)得到的增益系数和偏置系数;
(3-5)按照视频图像窗口的目标性得分从高到低进行排序,目标性得分越高,则包含主题目标的可能性越大;从排序后的视频图像窗口中选取前n个视频图像窗口,作为候选主题目标区域,n的取值与要求发现主题目标的精度有关,一般可以取10-1000;
(4)对候选主题目标进行特征表示,具体过程如下:
(4-1)对上述步骤(2)的图像序列中的各视频图像进行特征点提取,得到特征点集合{dp},采用K均值算法,对特征点集合{dp}进行聚类,得到V个聚类中心,记为{cq},V为设定参数,取值为100~2000;
(4-2)用向量f=RV表示上述特征点集合{dp}中的每一个特征点dp,其中fq表示从V个聚类中心中的第q个聚类中心cq产生特征点dp的概率,σ2为方差,σ的取值为104~105
(4-3)用F表示候选主题目标,用上述向量f=RV表示候选主题目标中的特征点,特征点的集合为F={f1,f2,...,fN},其中N为候选主题目标区域中的特征点个数;
(5)用隐狄利克雷分配模型,从步骤(3)的候选主题目标中寻找主题目标,具体过程如下:
(5-1)设为属于候选主题目标中第m个候选主题目标且属于隐狄利克雷分配模型中的第k个主题的特征点数目,nm为属于第m个候选主题目标的特征点数目,为属于第k个主题并且由第v个聚类中心产生的特征点数目,nk为属于第k个主题的特征点数目,初始化时,使nmnk分别为0;
(5-2)根据多项分布Mult(1/V)得到与第m个候选主题目标中的第n个特征点相对应的聚类中心的序号wm,n=v,以及根据多项分布Mult(1/K)得到隐狄利克雷分配模型中主题序号zm,n=k,并分别使nm+=1,nk+=1;
(5-3)根据第m个候选目标中的第n个特征点对应的聚类中心序号和主题序号,nm-=1,nk-=1。然后,根据分布p(wi=v)得到与第m个候选主题目标中的第n个特征点相对应的新的聚类中心的序号以及根据分布p(zi=k)得到新的隐狄利克雷分配模型中主题序号其中,
p ( w i = v ) &Proportional; f iv &CenterDot; n k ( v ) + &beta; n k + V&beta;
p ( z i = k ) &Proportional; n k ( v ) + &beta; n k + V&beta; &CenterDot; ( n m ( k ) + &alpha; )
其中α,β为正实数,并分别使nm+=1,
(5-4)按照(5-3)中的步骤进行迭代,直到迭代次数达到1000。此时,就可以按照下式算出每个主题的分布:
其中,为K×V的矩阵。
(5-5)用的每一列分别去与每一个候选目标计算KL距离,公式如下:
与该列有最小KL距离的候选目标,作为视频序列的一个主题目标。

Claims (1)

1.一种从视频序列中发现主题目标的方法,其特征在于该方法包括以下步骤:
(1)训练一个用于对待处理视频图像中包含主题目标的候选区域进行选取的分类器w、增益系数vi和偏置系数ti,具体过程如下:
(1-1)将一个包含已知目标的图像集作为训练样本,通过插值方法,将训练样本中的图像调整成长、宽分别为W和H的图像,其中W,H∈{10,20,40,80,160,320},计算调整后的图像的梯度范数;
(1-2)设T为图像中所有包含已知目标的图像窗口,S为图像中的任意图像窗口,则窗口t∈T和窗口s∈S的叠加面积o(t,s)为:
o ( t , s ) = t &cap; s t &cup; s ,
采用8×8图像窗口对步骤(1-1)中调整大小后的训练样本进行滑动采样,得到多个8×8滑动窗口,计算与8×8滑动窗口相对应的o(t,s),并计算该8×8滑动窗口相对应的64维梯度范数,记为gtrain,将与o(t,s)≥0.5的8×8滑动窗口相对应的64维梯度范数作为正样本,与o(t,s)<0.5的8×8滑动窗口相对应的64维梯度范数作为负样本,利用线性支持向量机,计算得到分类器w;
(1-3)利用下述公式,计算训练样本的排序得分scoretrain
scoretrain=<w,gtrain>
l=(i,x,y)
其中,<·,·>表示内积,gtrain、i和(x,y)分别为64维梯度范数、与8×8滑动窗口相对应的调整大小之前的图像窗口的大小以及位置;
(1-4)利用非极大抑制方法,从每个大小为i的图像窗口中选择多个窗口作为训练样本,将上述scoretrain作为图像窗口的一维特征,利用线性支持向量机,计算得到增益系数vi及偏置系数ti
(2)每一秒从待处理视频中随机抽取两帧图像,得到一个视频图像序列;
(3)从上述得到的图像序列中选取候选主题目标,具体过程如下:
(3-1)通过插值方法,将步骤(2)得到的视频图像序列中的每幅视频图像调整成长、宽分别为W和H的视频图像,其中W,H∈{10,20,40,80,160,320},计算每幅视频图像的梯度范数;
(3-2)采用8×8大小的窗口对调整大小后的视频图像进行滑动采样,得到多个8×8大小的滑动窗口,并分别计算多个8×8滑动窗口的64维梯度范数gl,l=(i,x,y),其中i为与8×8滑动窗口相对应的调整大小之前的视频图像的大小,(x,y)为8×8滑动窗口在调整大小之前的视频图像中的位置;
(3-3)通过下述公式,分别计算每个8×8大小的滑动窗口的得分:
scorel=<w,gl>
其中,w为上述步骤(1)得到的分类器;
(3-4)通过下式,分别计算与8×8大小的滑动窗口相对应的调整大小之前的视频图像的目标性得分ol
ol=vi·scorel+ti
其中vi、ti分别为上述步骤(1)得到的增益系数和偏置系数;
(3-5)按照视频图像窗口的目标性得分从高到低进行排序,目标性得分越高,则包含主题目标的可能性越大;从排序后的视频图像窗口中选取前n个视频图像窗口,作为候选主题目标区域,n的取值与要求发现主题目标的精度有关,一般可以取10-1000;
(4)对候选主题目标进行特征表示,具体过程如下:
(4-1)对上述步骤(2)的图像序列中的各视频图像进行特征点提取,得到特征点集合{dp},采用K均值算法,对特征点集合{dp}进行聚类,得到V个聚类中心,记为{cq},V为设定参数,取值为100~2000;
(4-2)用向量f=RV表示上述特征点集合{dp}中的每一个特征点dp,其中fq表示从V个聚类中心中的第q个聚类中心cq产生特征点dp的概率,σ2为方差,σ的取值为104~105
(4-3)用F表示候选主题目标,用上述向量f=RV表示候选主题目标中的特征点,特征点的集合为F={f1,f2,...,fN},其中N为候选主题目标区域中的特征点个数;
(5)用隐狄利克雷分配模型,从步骤(3)的候选主题目标中寻找主题目标,具体过程如下:
(5-1)设为属于候选主题目标中第m个候选主题目标且属于隐狄利克雷分配模型中的第k个主题的特征点数目,nm为属于第m个候选主题目标的特征点数目,为属于2 --> 第k个主题并且由第v个聚类中心产生的特征点数目,nk为属于第k个主题的特征点数目,初始化时,使nm、nk分别为0;
(5-2)根据多项分布Mult(1/V)得到与第m个候选主题目标中的第n个特征点相对应的聚类中心的序号wm,n=v,以及根据多项分布Mult(1/K)得到隐狄利克雷分配模型中主题序号zm,n=k,并分别使 n m ( k ) + = 1 , n m + = 1 , n k ( v ) + = 1 , n k + = 1 ;
(5-3)根据第m个候选目标中的第n个特征点对应的聚类中心序号和主题序号, 然后,根据分布p(wi=v)得到与第m个候选主题目标中的第n个特征点相对应的新的聚类中心的序号以及根据分布p(zi=k)得到新的隐狄利克雷分配模型中主题序号其中,
p ( w i = v ) &Proportional; f iv &CenterDot; n k ( v ) + &beta; n k + V&beta;
p ( z i = k ) &Proportional; n k ( v ) + &beta; n k + V&beta; &CenterDot; ( n m ( k ) + &alpha; )
其中α,β为正实数,并分别使nm+=1,
(5-4)按照(5-3)中的步骤进行迭代,直到迭代次数达到1000。此时,就可以按照下式算出每个主题的分布:
其中,为K×V的矩阵。
(5-5)用的每一列分别去与每一个候选目标计算KL距离,公式如下:
与该列有最小KL距离的候选目标,作为视频序列的一个主题目标。
本发明提出的视频序列中的主题目标发现方法具有以下优点,用窗口的方法选择候选目标使得到的主题目标相比于其他方法得到的主题目标更加完整,用软编码的方法进行推理使得到的主题目标相比于其他方法得到的主题目标更加准确。3 -->
CN201510044825.8A 2014-10-28 2015-01-29 一种从视频序列中发现主题目标的方法 Active CN104573671B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510044825.8A CN104573671B (zh) 2014-10-28 2015-01-29 一种从视频序列中发现主题目标的方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410588670X 2014-10-28
CN201410588670 2014-10-28
CN201510044825.8A CN104573671B (zh) 2014-10-28 2015-01-29 一种从视频序列中发现主题目标的方法

Publications (2)

Publication Number Publication Date
CN104573671A true CN104573671A (zh) 2015-04-29
CN104573671B CN104573671B (zh) 2018-02-02

Family

ID=53089693

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510044825.8A Active CN104573671B (zh) 2014-10-28 2015-01-29 一种从视频序列中发现主题目标的方法

Country Status (1)

Country Link
CN (1) CN104573671B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574527A (zh) * 2015-12-14 2016-05-11 北京工业大学 一种基于局部特征学习的快速物体检测方法
CN113590804A (zh) * 2021-06-23 2021-11-02 北京百度网讯科技有限公司 视频主题生成的方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102982539A (zh) * 2012-11-09 2013-03-20 电子科技大学 一种基于图像复杂性的特征自适应图像共分割方法
CN103985114A (zh) * 2014-03-21 2014-08-13 南京大学 一种监控视频人物前景分割与分类的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102982539A (zh) * 2012-11-09 2013-03-20 电子科技大学 一种基于图像复杂性的特征自适应图像共分割方法
CN103985114A (zh) * 2014-03-21 2014-08-13 南京大学 一种监控视频人物前景分割与分类的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YAHUI LIU: "Target tracking based on video sequences", 《PROC SPIE》 *
曹嵩、孙福春等: "基于分布估计算法的离岗航班排序优化", 《清华大学学报(自然科学版)》 *
艾金慰: "视频序列中运动目标跟踪新方法", 《北京科技大学学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574527A (zh) * 2015-12-14 2016-05-11 北京工业大学 一种基于局部特征学习的快速物体检测方法
CN105574527B (zh) * 2015-12-14 2019-03-29 北京工业大学 一种基于局部特征学习的快速物体检测方法
CN113590804A (zh) * 2021-06-23 2021-11-02 北京百度网讯科技有限公司 视频主题生成的方法、装置及电子设备
CN113590804B (zh) * 2021-06-23 2023-08-04 北京百度网讯科技有限公司 视频主题生成的方法、装置及电子设备

Also Published As

Publication number Publication date
CN104573671B (zh) 2018-02-02

Similar Documents

Publication Publication Date Title
CN106778604B (zh) 基于匹配卷积神经网络的行人再识别方法
CN102708370B (zh) 一种多视角图像前景目标提取方法及装置
CN106326916B (zh) 基于多尺度特征估计和高阶bing特征的目标检测方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN105608456A (zh) 一种基于全卷积网络的多方向文本检测方法
CN103778436B (zh) 一种基于图像处理的行人姿态检测方法
CN102982539B (zh) 一种基于图像复杂性的特征自适应图像共分割方法
CN104574375A (zh) 结合彩色和深度信息的图像显著性检测方法
CN112967341B (zh) 基于实景图像的室内视觉定位方法、系统、设备及存储介质
CN102722891A (zh) 一种图像显著度检测的方法
CN106611427A (zh) 基于候选区域融合的视频显著性检测方法
CN104216974B (zh) 基于词汇树分块聚类的无人机航拍图像匹配的方法
CN107564022A (zh) 基于贝叶斯融合的视频显著性检测方法
CN104598920B (zh) 基于Gist特征与极限学习机的场景分类方法
CN108021869A (zh) 一种结合高斯核函数的卷积神经网络跟踪方法
CN105976395B (zh) 一种基于稀疏表示的视频目标跟踪方法
CN105279772A (zh) 一种红外序列图像的可跟踪性判别方法
CN108154158B (zh) 一种面向增强现实应用的建筑物图像分割方法
CN104036280A (zh) 基于感兴趣区域和聚类相结合的视频指纹方法
CN106599878A (zh) 一种基于深度学习的人脸重建矫正方法及装置
CN104732534B (zh) 一种图像中显著目标的抠取方法及系统
CN109800756A (zh) 一种用于中文历史文献密集文本的文字检测识别方法
CN105744356A (zh) 一种基于内容的视频分段方法
CN113762009A (zh) 一种基于多尺度特征融合及双注意力机制的人群计数方法
CN109978858B (zh) 一种基于前景检测的双框架缩略图像质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant