CN105224914A - 一种基于图的无约束视频中显著物体检测方法 - Google Patents

一种基于图的无约束视频中显著物体检测方法 Download PDF

Info

Publication number
CN105224914A
CN105224914A CN201510559077.7A CN201510559077A CN105224914A CN 105224914 A CN105224914 A CN 105224914A CN 201510559077 A CN201510559077 A CN 201510559077A CN 105224914 A CN105224914 A CN 105224914A
Authority
CN
China
Prior art keywords
super
motion
video
pixel region
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510559077.7A
Other languages
English (en)
Other versions
CN105224914B (zh
Inventor
刘志
李君浩
叶林伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201510559077.7A priority Critical patent/CN105224914B/zh
Publication of CN105224914A publication Critical patent/CN105224914A/zh
Application granted granted Critical
Publication of CN105224914B publication Critical patent/CN105224914B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图的无约束视频中显著性检测方法,其具体步骤如下:(1)输入原始视频帧序列,对其中的第;(2)将整个视频帧分割成超像素区域;(3)利用稠密光流法算法,得到中像素点的运动矢量场,分别提取超像素区域级,全局运动直方图;(4)构建无向有权图,分别计算超像素区域到虚拟背景节点的最短路径,将路径中节点之间边的权重进行累加,当作超像素区域的运动显著性值,生成当前帧的运动显著性图,并且根据二值化后的显著性图,重新估计背景的运动直方图,更新超像素区域的显著性值;该发明基于图的方法并且进行迭代估计背景的运动的进行显著性检测,能够更准确、完整地检测视频中的显著对象。

Description

一种基于图的无约束视频中显著物体检测方法
技术领域
本发明涉及图像,视频处理技术领域,具体地说是涉及一种基于图的无约束视频中显著物体检测方法。
背景技术
人类的视觉系统能够从复杂的环境中快速准确地定位人眼感兴趣的区域,并做出相应的反应,而在计算机视觉研究领域,通过模拟人眼的视觉注意机制,从数字图像/视频中准确地提取关键区域,是视觉显著性模型研究的重要内容。根据心理学以及人类视觉的研究,在大多数情况下,人眼在观察一幅图像时,不会在整个图像上平均分配注意力,而是会将注意力集中在图像中的某个对象。显著性检测的目的是提取出图像/视频中最吸引人注意的显著部分,并利用一张灰度图(即,显著性图)来表示各个像素点的显著程度。显著性检测广泛用于基于内容的图像/视频缩放,图像/视频编码,图像/视频分割。Huang等人在2014年8月出版的CircuitsandSystemsforVideoTechnology期刊上发表的“通过消除全局相机运动进行视频显著性检测”方法,通过提取视频帧内的特征点,在多帧图像中进行特征点的跟踪,形成特征点轨迹,利用速度,加速度描述的特点,同时利用支持向量机(SVM)对轨迹进行分类,得到显著性的轨迹,然后将轨迹的显著性值扩散到点的周围,最终得到视频的运动显著性图;该方法设计的点轨迹模型,容易受到视频本身质量的影响,同是对于快速运动的物体,无法做到特征点的准确匹配,做到后续步骤失效,生成错误的显著性图。Huang等人在2014年9月出版的CircuitsandSystemsforVideoTechnology期刊上发表的“基于超像素的时空显著性检测”方法,通过分别计算得到空域显著性图,时域显著性图,通过自适合的融合方法,生成时空显著性图,该方法的具体步骤如下:
(1)将视频帧分割成超像素区域,提取超像素区域级的,全局的运动直方图,以及像素区域级的,全局的颜色直方图;
(2)根据步骤(1)中得到的运动直方图,分别计算每个超像素区域与全局运动直方图运动差异,利用前后帧的相关性,进行时域显著性的预测与调整,得到超像素级时域显著性图;
(3)根据步骤(1)中得到的颜色直方图,分别计算每个超像素区域与全局颜色直方图颜色差异,得到颜色全局对比度图,颜色空间稀疏性图,将两者相乘得到,超像素级空域显著性图;
(4)分别将步骤(3),步骤(4)得到的超像素级时域,空域显著性进行细化,得到像素级的时域,空域显著性图。
(5)根据时域,空域显著性图的相互一致性特征,自适合地将两者进行线性融合,得到最终的时空显著性图。
但是上述方法存在的不足是,两种方法模型的对运动复杂的视频不具有鲁棒性,能造成误检测。综上所述,现有的视频显著对象的检测方法,不能准确、完整地提取无约束的视频序列中的显著性图,这影响了视频显著性模型的广泛应用。
发明内容
本发明的目的在于针对已有技术中存在的缺陷,提出一种基于图的无约束视频的显著性检测方法,该方法能够较为准确、完整地检测出无约束视频序列中的显著对象。
为了达到上述目的,本发明采用的技术方案如下:
一种基于图的无约束视频中显著物体检测方法,具体步骤如下:
(1)、输入原始视频帧序列,对其中的第t帧记为Ft
(2)、利用超像素区域分割方法,将整个视频帧Ft分割成nt个超像素区域,记为spt,i(i=1,...,nt);
(3)、利用稠密光流法算法,得到视频帧Ft的像素点的运动矢量场,对于超像素区域spt,i(i=1,...,nt),分别提取超像素区域级的运动直方图,记为同理,提取当前帧全局运动直方图
(4)、构建一个无向有权图Gt=(Vt,Et),分别计算超像素区域到虚拟背景节点Bt的最短路径,将此最短路径中节点之间边的权重进行累加,当作超像素区域的运动显著性值,生成当前帧的运动显著性图,并且根据二值化的运动显著性图,重新估计背景的运动直方图,更新超像素区域的运动显著性值,其中,Vt表示由视频帧内所有的超像素区域spt,i(i=1,...,nt)抽象成的图节点集合,Et表示图中节点与节点之间边的集合。
上述步骤(2)中的超像素区域分割方法,具体步骤如下:
(2-1)、对于视频帧Ft,其宽度记为w,长度记为h,设定w×h大小的视频帧Ft要分割的区域个数为: n t = w · h / 400 ;
(2-2)、利用简单线性迭代聚类算法,即SLIC,根据步骤(2-1)设定的超像素区域个数nt,最终将视频Ft聚类成nt个超像素区域。
上述步骤(3)中的提取超像素级的运动直方图的方法,具体步骤如下:
(3-1)、对于视频帧Ft,参照其前一帧Ft-1,利用稠密光流场估计算法LDOF,得到视频帧Ft中每个像素点相对应于前一帧Ft-1的每个像素点运动矢量,把所有的运动矢量保存到w×h的矩阵里,得到视频帧Ft的运动矢量场MVFt,t-1
(3-2)、基于视频帧Ft的运动矢量场MVFt,t-1以及超像素区域spt,i(i=1,...,nt),分别提取每个超像素区域的运动直方图,具体为,将运动矢量场的运动方向在[-π,π]范围内均匀地量化成bM=8个间隔,分别统计超像素区域内所有像素点的运动矢量场方向在每个间隔出现的频率,得到超像素级的运动直方图最终归一化使得同时,按照计算超像素区域运动直方图的方法,统计视频帧Ft内所有的像素点出现的频率,记为全局运动直方图用于表示视频帧背景区域的运动模式。
上述步骤(4)中的通过构造无向有权图进行显著性计算的方法,具体步骤如下:
(4-1)、图的构建:对于视频帧Ft,其无向有权图记为Gt=(Vt,Et)其中,Vt表示由视频帧内所有的超像素区域spt,i(i=1,...,nt)抽象成的图节点集合,Et表示图中节点与节点之间边的集合,本模型定义了三种类型的边:相邻节点之间构成的边,视频帧四周边界超像素区域之间构成的边,视频帧四周边界超像素区域与虚拟背景节点之间构成的边;
(4-2)、边的权重定义:由于本模型定义了三种类型的边,对于相邻节点之间构成的边,视频帧四周边界超像素区域之间构成的边权重定义为,任意相互连接的超像素区域spt,i,spt,j的运动直方图之间的卡方距离,其计算公式如下:
ω a ( v t , i , v t , j ) = exp [ λ · χ 2 ( H t , i M , H t , j M ) ] - - - ( 1 )
任意与虚拟背景节点Bt相互连接的边界超像素区域spt,i的边的权重,其计算公式如下:
ω b ( v t , i , b t ) = exp [ λ · χ 2 ( H t , i M , H t , 0 M ) ] - - - ( 2 )
虚拟背景节点的运动信息由全局运动直主图表示,公式(3),公式(4)中的λ因子设定为0.1;
(4-3)、最短路径的搜索:通过步骤(4-1)和(4-2)构建了无向有权图Gt=(Vt,Et),利用Dijkstra最短路径算法,搜索出每个超像素区域到虚拟背景节点的最短路径,并且将路径上的边的权重进行累加,当作该超像素区域的运动显著性值Mt(i),运动显著值由公式(5)计算得到,其中,运动显著性值Mt(i)越大,说明超像素区域与虚拟背景节点之间有运动差异越大,超像素区域越显著;
M t ( i ) = m i n u 1 = v t , i , u 2 , ... , u m - 1 , u m = B t [ Σ k = 1 m - 2 ω a ( u k , u k + 1 ) + ω b ( u m - 1 , u m ) ] - - - ( 6 )
(4-4)、图结构的迭代调整:为了更加准确地估计出虚拟背景节点的运动直方图,在本模型中,根据前后两次调整过程中变化程度作为迭代终止与否的条件,进下如下的迭代过程:首先,根据当前虚拟背景节点的运动直方图以及图结构,对计算得到的运动显著性图利用自适合的二值化算法OTSU进行二值化分割,去除前景超像素区域,利用步骤(3)中所述的运动直方图估计方法,重新计算得到虚拟背景节点的运动直方图;其次,比较前后两次虚拟背景节点的运动方图的L1-norm距离,若两者的距离小于0.01则终止迭代过程,当前运动显著性图作为最终结果输出;反之,重复步骤(4-2),(4-3),(4-4)。
本发明的基于图的视频的显著性检测方法与现有的技术相比,具有如下优点:
该发明基于图的方法并且进行迭代估计背景的运动的进行显著性检测,能够更准确、完整地检测视频中的显著对象。
附图说明
图1是本发明的基于图的视频的显著性检测方法的流程图。
图2是本发明步骤(1)输入视频序列中的抽取一帧原始图像。
图3是本发明步骤(2)对一帧原始图像进行超像素区域分割后的输出结果。
图4是本发明步骤(3)对一帧原始图像进行光流运动矢量场估计后可视化的输出结果。
图5是本发明步骤(4)构建图时定义的三种边的示意图。
图6是本发明步骤(4)迭代计算视频帧的运动显著性的迭代次数与结果。
具体实施方式
下面结合说明书附图对本发明的实施例作进一步详细说明。
本发明进行的仿真实验是在CPU为3.4GHz、内存为8G的PC测试平台上编程实现。
如图1所示,本发明的基于图的视频的显著性检测方法,其具体步骤如下:
(1)、输入原始视频帧序列,对其中的第t帧记为Ft,如图2所示;
(2)、利用超像素区域分割方法,将整个视频帧Ft分割成nt个超像素区域,记为spt,i(i=1,...,nt);
(2-1)、对于视频帧Ft,其宽度记为w,长度记为h,设定w×h大小的视频帧Ft要分割的区域个数为: n t = w · h / 400 ;
(2-2)、利用简单线性迭代聚类算法(SLIC),根据步骤(2-1)设定的超像素区域个数nt,最终将视频Ft聚类成nt个超像素区域,如图3所示。
(3)、利用稠密光流法算法,得到视频帧Ft的像素点的运动矢量场,利用图4可视化视频帧Ft的运动矢量场,颜色越艳丽的区域,运动幅值越大。像素区域spt,i(i=1,...,nt),分别提取超像素区域级的运动直方图,记为同理,提取当前帧全局运动直方图
(3-1)、对于视频帧Ft,参照其前一帧Ft-1,利用稠密光流场估计算法LDOF,得到视频帧Ft中每个像素点相对应于前一帧Ft-1的每个像素点运动矢量,把所有的运动矢量保存到w×h的矩阵里,得到视频帧Ft的运动矢量场MVFt,t-1
(3-2)、基于视频帧Ft的运动矢量场MVFt,t-1以及超像素区域spt,i(i=1,...,nt),分别提取每个超像素区域的运动直方图,具体为,将运动矢量场的运动方向在[-π,π]范围内均匀地量化成bM=8个间隔(bin),分别统计超像素区域内所有像素点的运动矢量场方向在每个间隔(bin)出现的频率,得到超像素级的运动直方图最终归一化使得同时,按照计算超像素区域运动直方图的方法,统计视频帧Ft内所有的像素点出现的频率,记为全局运动直方图用于表示视频帧背景区域的运动模式。
(4)、构建一个无向有权图Gt=(Vt,Et),分别计算超像素区域到虚拟背景节点Bt的最短路径,将此最短路径中节点之间边的权重进行累加,当作超像素区域的运动显著性值,生成当前帧的运动显著性图,并且根据二值化的运动显著性图,重新估计背景的运动直方图,更新超像素区域的运动显著性值;
(4-1)、图的构建。对于视频帧Ft,其无向有权图记为Gt=(Vt,Et),其中,Vt表示由视频帧内所有的超像素区域spt,i(i=1,...,nt)抽象成的图节点集合,Et表示图中节点与节点之间边的集合,本模型定义了三种类型的边,如图5所示,相邻节点之间构成的边(图中蓝色线段),视频帧四周边界超像素区域之间构成的边(图中红色线段),视频帧四周边界超像素区域与虚拟背景节点之间构成的边(图中绿色线段);
(4-2)、边的权重定义。由于本模型定义了三种类型的边,对于相邻节点之间构成的边,视频帧四周边界超像素区域之间构成的边权重定义为,任意相互连接的超像素区域spt,i,spt,j的运动直方图之间的卡方距离,其计算公式如下:
ω a ( v t , i , v t , j ) = exp [ λ · χ 2 ( H t , i M , H t , j M ) ] - - - ( 7 )
任意与虚拟背景节点Bt相互连接的边界超像素区域spt,i的边的权重,其计算公式如下:
ω b ( v t , i , b t ) = exp [ λ · χ 2 ( H t , i M , H t , 0 M ) ] - - - ( 8 )
虚拟背景节点的运动信息由全局运动直主图表示,公式(1),公式(2)中的λ因子设定为0.1。
(4-3)、最短路径的搜索。通过(4-1),(4-2)构建了无向有权图Gt=(Vt,Et),利用Dijkstra最短路径算法,搜索出每个超像素区域到虚拟背景节点的最短路径,并且将路径上的边的权重进行累加,当作该超像素区域的运动显著性值Mt(i),运动显著值由公式(3)计算得到。其中,运动显著性值Mt(i)越大,说明超像素区域与虚拟背景节点之间有运动差异越大,超像素区域越显著。
M t ( i ) = m i n u 1 = v t , i , u 2 , ... , u m - 1 , u m = B t [ Σ k = 1 m - 2 ω a ( u k , u k + 1 ) + ω b ( u m - 1 , u m ) ] - - - ( 9 )
(4-4)、图结构的迭代调整。为了更加准确地估计出虚拟背景节点的运动直方图,在本模型中,根据前后两次调整过程中变化程度作为迭代终止与否的条件,进下如下的迭代过程。首先,根据当前虚拟背景节点的运动直方图以及图结构,对计算得到的运动显著性图利用自适合的二值化算法OTSU进行二值化分割,去除前景超像素区域,利用步骤(3)中所述的运动直方图估计方法,重新计算得到虚拟背景节点的运动直方图;其次,比较前后两次虚拟背景节点的运动方图的L1-norm距离,若两者的距离小于0.01则终止迭代过程,当前运动显著性图作为最终结果输出;反之,重复步骤(4-2),(4-3),(4-4)。
从图6仿真实验结果可以看出,本发明的方法利用的基于图方法并且进行迭代估计背景的运动的进行显著性检测,能够不断的调整背景节点的运动信息,并且逐步得到准确,完整的运动显著性图。

Claims (4)

1.一种基于图的无约束视频中显著物体检测方法,其特征在于,具体步骤如下:
(1)、输入原始视频帧序列,对其中的第t帧记为Ft
(2)、利用超像素区域分割方法,将整个视频帧Ft分割成nt个超像素区域,记为spt,i(i=1,...,nt);
(3)、利用稠密光流法算法,得到视频帧Ft的像素点的运动矢量场,对于超像素区域spt,i(i=1,...,nt),分别提取超像素区域级的运动直方图,记为同理,提取当前帧全局运动直方图
(4)、构建一个无向有权图Gt=(Vt,Et),分别计算超像素区域到虚拟背景节点Bt的最短路径,将此最短路径中节点之间边的权重进行累加,当作超像素区域的运动显著性值,生成当前帧的运动显著性图,并且根据二值化的运动显著性图,重新估计背景的运动直方图,更新超像素区域的运动显著性值,其中,Vt表示由视频帧内所有的超像素区域spt,i(i=1,...,nt)抽象成的图节点集合,Et表示图中节点与节点之间边的集合。
2.根据权利要求1所述的基于图的无约束视频中显著物体检测方法,其特征在于,所述步骤(2)中的超像素区域分割方法,具体步骤如下:
(2-1)、对于视频帧Ft,其宽度记为w,长度记为h,设定w×h大小的视频帧Ft要分割的区域个数为: n t = w · h / 400 ;
(2-2)、利用简单线性迭代聚类算法,即SLIC,根据步骤(2-1)设定的超像素区域个数nt,最终将视频Ft聚类成nt个超像素区域。
3.根据权利要求1所述的基于图的无约束视频中显著物体检测方法,其特征在于,所述步骤(3)中的提取超像素级的运动直方图的方法,具体步骤如下:
(3-1)、对于视频帧Ft,参照其前一帧Ft-1,利用稠密光流场估计算法LDOF,得到视频帧Ft中每个像素点相对应于前一帧Ft-1的每个像素点运动矢量,把所有的运动矢量保存到w×h的矩阵里,得到视频帧Ft的运动矢量场MVFt,t-1
(3-2)、基于视频帧Ft的运动矢量场MVFt,t-1以及超像素区域spt,i(i=1,...,nt),分别提取每个超像素区域的运动直方图,具体为,将运动矢量场的运动方向在[-π,π]范围内均匀地量化成bM=8个间隔,分别统计超像素区域内所有像素点的运动矢量场方向在每个间隔出现的频率,得到超像素级的运动直方图最终归一化使得同时,按照计算超像素区域运动直方图的方法,统计视频帧Ft内所有的像素点出现的频率,记为全局运动直方图用于表示视频帧背景区域的运动模式。
4.根据权利要求1所述的基于图的无约束视频中显著物体检测方法,其特征在于,所述步骤(4)中的通过构造无向有权图进行显著性计算的方法,具体步骤如下:
(4-1)、图的构建:对于视频帧Ft,其无向有权图记为Gt=(Vt,Et),其中,Vt表示由视频帧内所有的超像素区域spt,i(i=1,...,nt)抽象成的图节点集合,Et表示图中节点与节点之间边的集合,本模型定义了三种类型的边:相邻节点之间构成的边,视频帧四周边界超像素区域之间构成的边,视频帧四周边界超像素区域与虚拟背景节点之间构成的边;
(4-2)、边的权重定义:由于本模型定义了三种类型的边,对于相邻节点之间构成的边,视频帧四周边界超像素区域之间构成的边权重定义为,任意相互连接的超像素区域spt,i,spt,j的运动直方图之间的卡方距离,其计算公式如下:
ω a ( v t , i , v t , j ) = exp [ λ · χ 2 ( H t , i M , H t , j M ) ] - - - ( 1 )
任意与虚拟背景节点Bt相互连接的边界超像素区域spt,i的边的权重,其计算公式如下:
ω b ( v t , i , b t ) = exp [ λ · χ 2 ( H t , i M , H t , 0 M ) ] - - - ( 2 )
虚拟背景节点的运动信息由全局运动直主图表示,公式(3),公式(4)中的λ因子设定为0.1;
(4-3)、最短路径的搜索:通过步骤(4-1)和(4-2)构建了无向有权图Gt=(Vt,Et),利用Dijkstra最短路径算法,搜索出每个超像素区域到虚拟背景节点的最短路径,并且将路径上的边的权重进行累加,当作该超像素区域的运动显著性值Mt(i),运动显著值由公式(5)计算得到,其中,运动显著性值Mt(i)越大,说明超像素区域与虚拟背景节点之间有运动差异越大,超像素区域越显著;
M t ( i ) = m i n u 1 = v t , i , u 2 , ... , u m - 1 , u m = B t [ Σ k = 1 m - 2 ω a ( u k , u k + 1 ) + ω b ( u m - 1 , u m ) ] - - - ( 6 )
(4-4)、图结构的迭代调整:为了更加准确地估计出虚拟背景节点的运动直方图,在本模型中,根据前后两次调整过程中变化程度作为迭代终止与否的条件,进下如下的迭代过程:首先,根据当前虚拟背景节点的运动直方图以及图结构,对计算得到的运动显著性图利用自适合的二值化算法OTSU进行二值化分割,去除前景超像素区域,利用步骤(3)中所述的运动直方图估计方法,重新计算得到虚拟背景节点的运动直方图;其次,比较前后两次虚拟背景节点的运动方图的L1-norm距离,若两者的距离小于0.01则终止迭代过程,当前运动显著性图作为最终结果输出;反之,重复步骤(4-2),(4-3),(4-4)。
CN201510559077.7A 2015-09-02 2015-09-02 一种基于图的无约束视频中显著物体检测方法 Expired - Fee Related CN105224914B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510559077.7A CN105224914B (zh) 2015-09-02 2015-09-02 一种基于图的无约束视频中显著物体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510559077.7A CN105224914B (zh) 2015-09-02 2015-09-02 一种基于图的无约束视频中显著物体检测方法

Publications (2)

Publication Number Publication Date
CN105224914A true CN105224914A (zh) 2016-01-06
CN105224914B CN105224914B (zh) 2018-10-23

Family

ID=54993874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510559077.7A Expired - Fee Related CN105224914B (zh) 2015-09-02 2015-09-02 一种基于图的无约束视频中显著物体检测方法

Country Status (1)

Country Link
CN (1) CN105224914B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106331723A (zh) * 2016-08-18 2017-01-11 上海交通大学 一种基于运动区域分割的视频帧率上变换方法及系统
CN106530319A (zh) * 2016-09-24 2017-03-22 上海大学 一种基于轨迹有向图的视频对象协同分割方法
CN109479120A (zh) * 2016-10-14 2019-03-15 富士通株式会社 背景模型的提取装置、交通拥堵状况检测方法和装置
CN109544568A (zh) * 2018-11-30 2019-03-29 长沙理工大学 目标图像分割方法、装置及设备
CN112687110A (zh) * 2020-12-23 2021-04-20 江苏高立泊车科技有限公司 一种基于大数据分析的车位级导航方法及其系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050111744A1 (en) * 2003-11-26 2005-05-26 International Business Machines Corporation Classification of image blocks by region contrast significance and uses therefor in selective image enhancement in video and image coding
US20130051623A1 (en) * 2007-10-04 2013-02-28 Microsoft Corporation Geo-Relevance for Images
CN103020992A (zh) * 2012-11-12 2013-04-03 华中科技大学 一种基于运动颜色关联的视频图像显著性检测方法
CN103208125A (zh) * 2013-03-14 2013-07-17 上海大学 视频帧图像中颜色和运动全局对比度的视觉显著性算法
US20140003710A1 (en) * 2012-06-29 2014-01-02 Behavioral Recognition Systems, Inc. Unsupervised learning of feature anomalies for a video surveillance system
CN104036287A (zh) * 2014-05-16 2014-09-10 同济大学 一种基于人类运动显著轨迹的视频分类方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050111744A1 (en) * 2003-11-26 2005-05-26 International Business Machines Corporation Classification of image blocks by region contrast significance and uses therefor in selective image enhancement in video and image coding
US20130051623A1 (en) * 2007-10-04 2013-02-28 Microsoft Corporation Geo-Relevance for Images
US20140003710A1 (en) * 2012-06-29 2014-01-02 Behavioral Recognition Systems, Inc. Unsupervised learning of feature anomalies for a video surveillance system
CN103020992A (zh) * 2012-11-12 2013-04-03 华中科技大学 一种基于运动颜色关联的视频图像显著性检测方法
CN103208125A (zh) * 2013-03-14 2013-07-17 上海大学 视频帧图像中颜色和运动全局对比度的视觉显著性算法
CN104036287A (zh) * 2014-05-16 2014-09-10 同济大学 一种基于人类运动显著轨迹的视频分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
秦利斌等: "一种改进的时空线索的视频显著目标检测方法", 《计算机工程与应用》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106331723A (zh) * 2016-08-18 2017-01-11 上海交通大学 一种基于运动区域分割的视频帧率上变换方法及系统
CN106530319A (zh) * 2016-09-24 2017-03-22 上海大学 一种基于轨迹有向图的视频对象协同分割方法
CN106530319B (zh) * 2016-09-24 2019-10-11 上海大学 一种基于轨迹有向图的视频对象协同分割方法
CN109479120A (zh) * 2016-10-14 2019-03-15 富士通株式会社 背景模型的提取装置、交通拥堵状况检测方法和装置
CN109544568A (zh) * 2018-11-30 2019-03-29 长沙理工大学 目标图像分割方法、装置及设备
CN112687110A (zh) * 2020-12-23 2021-04-20 江苏高立泊车科技有限公司 一种基于大数据分析的车位级导航方法及其系统
CN112687110B (zh) * 2020-12-23 2023-02-28 江苏高立泊车科技有限公司 一种基于大数据分析的车位级导航方法及其系统

Also Published As

Publication number Publication date
CN105224914B (zh) 2018-10-23

Similar Documents

Publication Publication Date Title
CN103208123B (zh) 图像分割方法与系统
Mnih et al. Learning to label aerial images from noisy data
CN105224914A (zh) 一种基于图的无约束视频中显著物体检测方法
CN109002807A (zh) 一种基于ssd神经网络的驾驶场景车辆检测方法
CN106446914A (zh) 基于超像素和卷积神经网络的道路检测
CN107315998B (zh) 基于车道线的车辆种类划分方法和系统
CN105869178A (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
Lu et al. A cnn-transformer hybrid model based on cswin transformer for uav image object detection
CN103226825B (zh) 基于低秩稀疏模型的遥感图像变化检测方法
CN104050685A (zh) 基于粒子滤波视觉注意力模型的运动目标检测方法
CN103942774A (zh) 一种基于相似性传播的多目标协同显著区域检测方法
CN104036229A (zh) 基于回归的主动外观模型初始化方法
CN102750522B (zh) 一种目标跟踪的方法
CN105809716A (zh) 融合超像素与三维自组织背景减除法的前景提取方法
CN114170570A (zh) 一种适用于拥挤场景下的行人检测方法及系统
CN104778697A (zh) 基于快速定位图像尺度和区域的三维跟踪方法及系统
CN107944354A (zh) 一种基于深度学习的车辆检测方法
CN107194948A (zh) 基于集成式预测与时空域传播的视频显著性检测方法
CN108961385A (zh) 一种slam构图方法及装置
CN104217442A (zh) 基于多模型估计的航拍视频运动目标检测方法
CN103366158A (zh) 基于三维结构和色彩模型的单目视觉路面检测方法
CN105335703B (zh) 基于运动重构技术的交通场景异常检测方法
Chen et al. Semantic boundary enhancement and position attention network with long-range dependency for semantic segmentation
CN102013101A (zh) 一种经过模糊后处理的置换篡改图像盲检测方法
Gomez-Donoso et al. Three-dimensional reconstruction using SFM for actual pedestrian classification

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181023