CN105975918A - 基于多模型估计的面向移动摄像机的运动目标检测方法 - Google Patents

基于多模型估计的面向移动摄像机的运动目标检测方法 Download PDF

Info

Publication number
CN105975918A
CN105975918A CN201610278401.2A CN201610278401A CN105975918A CN 105975918 A CN105975918 A CN 105975918A CN 201610278401 A CN201610278401 A CN 201610278401A CN 105975918 A CN105975918 A CN 105975918A
Authority
CN
China
Prior art keywords
obtains
frame
carry out
model
difference diagram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610278401.2A
Other languages
English (en)
Other versions
CN105975918B (zh
Inventor
王菡子
王兴
严严
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201610278401.2A priority Critical patent/CN105975918B/zh
Publication of CN105975918A publication Critical patent/CN105975918A/zh
Application granted granted Critical
Publication of CN105975918B publication Critical patent/CN105975918B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

基于多模型估计的面向移动摄像机的运动目标检测方法,涉及计算机视觉技术。对输入视频图像序列预处理,并进行特征提取;从匹配对F中估计出第一个投影变换模型S1;从匹配对F中提取第二个投影变换模型S2;分别使用两个变换模型将S1,S2把前一帧Ik‑1投影到当前帧Ik并进行帧差,得到两个差分图d1和d2;将前一帧的检测结果Mk‑1作为置信区域,对d1和d2进行二值化得到两个二值化差分图mask1和mask2;将mask1和mask2进行逻辑与操作得到二值化图maskAndk,再进行形态学处理得到最终的检测结果Mk

Description

基于多模型估计的面向移动摄像机的运动目标检测方法
技术领域
本发明涉及计算机视觉技术,具体是涉及基于多模型估计的面向移动摄像机的运动目标检测方法。
背景技术
运动目标检测是计算机视觉研究热点之一。根据摄像机的状态,可以分为面向静止摄像机的检测和面向移动摄像机的检测两大类。面向移动摄像机的目标检测,摄像机发生移动和旋转,导致背景和物体同时发生运动,增加了运动目标检测的难度。面向移动摄像机的运动目标检测技术已经广泛应用于自动驾驶和运动目标跟踪,机器人导航中。因此,对计算机视觉中的移动摄像机下运动目标检测技术进行深入研究,不断提高检测的准确率,具有重要的现实意义。
当前计算机视觉领域中的移动摄像机下的运动目标检测主要有3类:光流法、背景减除法和帧间差分法。
光流法的主要思想是图像中背景和运动目标的运动速度不同,两者之间的光流存在较大的差异。因此可以通过分析特征点长期的轨迹来检测和分割运动物体。该方法能较好地适应摄像机移动的情形。但是该方法对图像边缘和噪声十分敏感,同时全局稠密光流的微分和迭代计算量大,无法保证实时性,且存在孔径问题。
背景减除法利用图像配准来动态更新背景模型,通过比较实际图像与背景模型来获取运动目标。该方法能够检测出运动目标的所有像素点,但是该方法对光照变化等十分敏感,容易产生大量错检。
帧间差分法对连续补偿运动摄像机帧的背景进行配准,将目标检测转化为静态背景下的运动物体检测问题,通过前后帧之间的差分图像分离出运动物体。该方法计算简单,精度高,能够较好的适应环境变化较大的情况,但是一般不能获得运动目标的完整轮廓。基于帧间差分的主要方法有Zhou D等人(Zhou D,Wang L,Cai X,et al.Detection of moving targetswith a moving camera[C]//Robotics and Biomimetics(ROBIO),2009IEEE InternationalConference on.IEEE,2009:677-681)提出的基于SIFT特征点和RANSAC的方法和Zhou M等人(Zhou M,Asari V K.Speeded-up robust features based moving object detection onshaky video[M]//Computer Networks and Intelligent Computing.Springer BerlinHeidelberg,2011:677-682)提出的基于SURF特征点和RANSAC的方法。
帧间差分法是否有效的关键在于相邻两帧之间配准的精度,也即能否通过相邻两帧的特征点匹配对较准确地建立两幅图像上背景像素点之间的映射关系,使得前一帧的像素点能正确的投影到当前帧的坐标系下,从而通过帧差检测出运动目标。然而,上述的方法对整个图片使用一个变换模型。这使得它们只适用于整个场景近似为一个平面的情形(例如航拍的视频)。当场景中有多个平面时,容易出现误检和漏检。此外,上述的方法在帧差后进行二值化时对整个场景使用一个相同的阈值,这也会导致检测效果不佳。如果阈值过高,则运动目标容易被漏检,当阈值设置过低时,又容易出现大量背景。
发明内容
本发明的目的在于提供一种基于多模型估计的面向移动摄像机的运动目标检测方法。
本发明包括以下步骤:
A)对输入视频图像序列进行预处理,并进行特征提取,将前一帧Ik-1和当前帧Ik提取到的特征点进行匹配,得到两幅图像间的多个匹配对其中x和y为前一帧Ik-1特征点坐标,u和v为当前帧Ik特征点坐标,Nk-1和Nk分别为前一帧和当前帧的特征点数目,N为帧数,N、Nk-1和Nk为自然数;
B)使用RANSAC方法从匹配对F中估计出第一个投影变换模型S1
C)使用RANSAC方法从匹配对F中提取第二个投影变换模型S2
D)分别使用两个变换模型将S1,S2把前一帧Ik-1投影到当前帧Ik并进行帧差,得到两个差分图d1和d2
E)将前一帧的检测结果Mk-1作为置信区域,对步骤D)得到的两个差分图d1和d2进行二值化得到两个二值化差分图mask1和mask2
F)将步骤E)得到的两个二值化差分图mask1和mask2进行逻辑与操作得到一个二值化图maskAndk
G)将步骤F)得到的二值化图maskAndk进行形态学处理得到最终的检测结果Mk
在步骤A)中,所述对输入视频图像序列进行预处理的具体步骤可为:
A1)对图像进行灰度化处理;
A2)对图像进行一次高斯滤波操作去除噪声;
A3)对图像进行SURF特征提取;
A4)将前一帧Ik-1和当前帧Ik提取到的特征点进行匹配,得到两幅图像间的多个匹配对
在步骤B)中,所述从匹配对F中估计出第一个投影变换模型S1的具体步骤可为:
B1)从匹配对F中随机选取四个匹配对,根据公式:
x y 1 = a 0 a 1 a 2 a 3 a 4 a 5 a 6 a 7 a 8 · u v 1
计算出一个模型假设Si的9个参数(a0~a8),其中u和v为匹配对中前一帧特征点的坐标,x和y匹配对中当前帧特征点坐标;
B2)计算所有匹配对F相对于模型假设Si的投影误差:
err ( f k - 1 i ( x , y ) , f k j ( u , v ) ) = | S i · f k - 1 i ( x , y ) - f k j ( u , v ) |
误差小于阈值threshold1的匹配对为内点,否则为外点;统计模型假设Si的内点数
B3)重复步骤B1)和B2)100次,选取内点数最大的模型假设作为第一个投影变换模型S1
S 1 = arg m a x S i ( Inlier S i ) .
在步骤C)中,所述从匹配对F中提取第二个投影变换模型S2的具体步骤可为:
C1)计算所有匹配对F在第一个投影变换模型下的投影误差:
err ( f k - 1 i ( x , y ) , f k j ( u , v ) ) = | S 1 · f k - 1 i ( x , y ) - f k j ( u , v ) |
误差小于阈值threshold1的匹配对为内点,否则为外点。
C2)使用RANSAC方法从步骤C1)得到的第一个投影变换模型S1的外点中估计出第二个投影变换模型S2
在步骤D)中,所述分别使用两个变换模型将S1,S2把前一帧Ik-1投影到当前帧Ik并进行帧差,得到两个差分图d1和d2的具体步骤可为:
D1)利用步骤B)估计得到的投影变换模型S1将前一帧Ik-1变换到当前帧Ik的坐标系下,并与当前帧进行帧差,得到第一个差分图d1
D2)利用步骤C)估计得到的投影变换模型S2将前一帧Ik-1变换到当前帧Ik的坐标系下,并与当前帧进行帧差,得到第二个差分图d2
在步骤E)中,所述将前一帧的检测结果Mk-1作为置信区域,对步骤D)得到的两个差分图d1和d2进行二值化得到两个二值化差分图mask1和mask2的具体步骤可为:
E1)将前一帧的检测结果Mk-1的前景区域进行膨胀操作,得到置信图
E2)根据步骤E1)得到的置信图将步骤D1)得到的差分图d1分为置信区域d1c和非置信区域d1n
E3)根据二值化阈值threshold2将步骤E2)得到的差分图d1的置信区域d1c进行二值化,根据二值化阈值threshold3将步骤E2)得到的差分图d1的非置信区域d1n进行二值化,从而得到二值化差分图mask1
E4)根据步骤E1)得到的置信图将步骤D2)得到的差分图d2分为置信区域d2c和非置信区域d2n
E5)跟据二值化阈值threshold2将步骤E5)得到的差分图d2的置信区域d2c进行二值化,根据二值化阈值threshold3将步骤E5)得到的差分图d2的非置信区域d2n进行二值化,从而得到二值化差分图mask2
在步骤G)中,所述将步骤F)得到的二值化图maskAndk进行形态学处理的具体步骤可为:
G1)将步骤F)得到的二值化图进行闭运算得到二值化图maskAndClosek
G2)将步骤G1)得到的二值化图maskAndClosek进行开运算得到最终的检测结果Mk
本发明首先利用RANSAC方法从相邻帧的特征点匹配对中估计出两个变换模型。使用者两个变换模型分别进行一次投影和帧差。然后根据置信区域将两个帧差图的置信区域和非置信区域分别进行二值化。最后将两个二值化帧差图进行逻辑与操作,完成运动目标检测。本发明利用鲁棒模型拟合方法从相邻帧的匹配对中估计出两个模型,也即从场景中提取出两个主平面,从而能够使用于复杂场景下的运动目标检测。两个模型分别进行一次帧差二值化,通过对两个二值化帧差图进行漏记与操作能较好的去除误检。本发明还提出了基于置信区域的帧差图像二值化。对置信区域使用一个较小的二值化阈值,使得运动目标能更加完整的检测出来。对非置信区域使用一个较大的二值化阈值,使得背景能够更好的被去除。另外,本发明使用投影变换模型来描述两帧之间的映射关系。投影变换是一种非线性变换,它比传统方法使用的仿射变换能更好的适应存在严重视差、景深等的场景。
附图说明
图1为本发明实施例的两个变换模型内点分布示意图。其中三角形代表的是第一个投影变换结构的内点,正方形代表的是第二个投影变换模型的内点,十字形代表的是噪声点。
图2为本发明实施例的置信区域图。其中白色区域为置信区域,黑色区域为非置信区域。
图3为本发明实施例的第一个二值化差分图。
图4为本发明实施例的第二个二值化差分图。
图5为本发明实施例的两个二值化差分图进行逻辑与操作的结果图。
图6为本发明实施例的经过形态学处理后的检测结果图。
具体实施方式
下面结合附图和实施例对本发明的方法作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了实施方式和具体操作过程,但本发明的保护范围不限于下述的实施例。
本发明实施例的实施方式包括以下步骤:
S1)对输入视频图像序列进行预处理,并进行特征提取。将前一帧Ik-1和当前帧Ik提取到的特征点进行匹配,得到两幅图像间的多个匹配对其中x和y为前一帧Ik-1特征点坐标,u和v为当前帧Ik特征点坐标,Nk-1和Nk分别为前一帧和当前帧的特征点数目,数量级通常在103以上。N为帧数,N、Nk-1和Nk为自然数。
具体包括:对图像进行灰度化处理。
对图像进行一次高斯滤波操作去除噪声。高斯滤波的大小一般取为3×3,标准差一般取为1。
对图像进行SURF特征提取。
将前一帧Ik-1和当前帧Ik提取到的特征点进行匹配,得到两幅图像间的多个匹配对
S2)使用RANSAC方法从匹配对F中估计出第一个投影变换模型S1
具体包括:从匹配对F中随机选取四个匹配对,根据公式
x y 1 = a 0 a 1 a 2 a 3 a 4 a 5 a 6 a 7 a 8 · u v 1
计算出一个模型假设Si的9个参数(a0~a8)。其中u和v为匹配对中前一帧特征点的坐标,x和y匹配对中当前帧特征点坐标。
计算所有匹配对F相对于模型假设Si的投影误差:
err ( f k - 1 i ( x , y ) , f k j ( u , v ) ) = | S i · f k - 1 i ( x , y ) - f k j ( u , v ) | .
误差小于阈值threshold1的匹配对为内点,否则为外点。统计模型假设Si的内点数
重复上述两个步骤100次,选取内点数最大的模型假设作为第一个投影变换模型S1
S 1 = arg m a x S i ( Inlier S i ) .
S3)使用RANSAC方法从匹配对F中提取第二个投影变换模型S2
具体包括:计算所有匹配对F在第一个投影变换模型下的投影误差:
err ( f k - 1 i ( x , y ) , f k j ( u , v ) ) = | S 1 · f k - 1 i ( x , y ) - f k j ( u , v ) | .
误差小于阈值threshold1(通常1.5≤threshold1≤3.5)的匹配对为内点,否则为外点。
使用RANSAC方法从步骤S3得到的第一个投影变换模型S1的外点中估计出第二个投影变换模型S2。如图1所示,第一个投影变换模型的内点(三角形点)集中分布在水平的地面这一个平面上,第二个投影变换模型点(正方形点)集中分布在竖直的建筑物和数目这一个平面上。
S4)分别使用两个变换模型将S1,S2把前一帧Ik-1投影到当前帧Ik并进行帧差,得到两个差分图d1和d2
具体包括:利用步骤S2估计得到的投影变换模型S1将前一帧Ik-1变换到当前帧Ik的坐标系下,并与当前帧进行帧差,得到第一个差分图d1
利用步骤S3估计得到的投影变换模型S2将前一帧Ik-1变换到当前帧Ik的坐标系下,并与当前帧进行帧差,得到第二个差分图d2
S5)将前一帧的检测结果Mk-1作为置信区域,对步骤S4得到的两个差分图d1和d2进行二值化得到两个二值化差分图mask1和mask2。图3为第一个二值化差分图mask1,图4为第二个二值化差分图mask2
具体包括:将前一帧的检测结果Mk-1的前景区域进行膨胀操作,得到置信图如图2所示,白色部分为置信区域。
根据置信图将步骤S4得到的差分图d1分为置信区域d1c和非置信区域d1n
根据二值化阈值threshold2(通常15≤threshold2≤25)将差分图d1的置信区域d1c进行二值化,根据二值化阈值threshold3(通常30≤threshold3≤40)将差分图d1的非置信区域d1n进行二值化,从而得到二值化差分图mask1
根据置信图将步骤S4得到的差分图d2分为置信区域d2c和非置信区域d2n
跟据二值化阈值threshold2将差分图d2的置信区域d2c进行二值化,根据二值化阈值threshold3将差分图d2的非置信区域d2n进行二值化,从而得到二值化差分图mask2
S6)将步骤S5)得到的两个二值化差分图mask1和mask2进行逻辑与操作得到一个二值化图maskAndk。如图5所示,其中黑色区域为背景,白色区域为检测出的运动目标位置。
S7)将步骤S6得到的二值化图maskAndk进行形态学处理得到最终的检测结果Mk
具体包括:将步骤S6得到的二值化图进行闭运算得到二值化图maskAndClosek
将二值化图maskAndClosek进行开运算得到最终的检测结果Mk。如图6所示,其中黑色区域为背景,白色区域为检测出的运动目标位置。

Claims (7)

1.基于多模型估计的面向移动摄像机的运动目标检测方法,其特征在于包括以下步骤:
A)对输入视频图像序列进行预处理,并进行特征提取,将前一帧Ik-1和当前帧Ik提取到的特征点进行匹配,得到两幅图像间的多个匹配对其中x和y为前一帧Ik-1特征点坐标,u和v为当前帧Ik特征点坐标,Nk-1和Nk分别为前一帧和当前帧的特征点数目,N为帧数,N、Nk-1和Nk为自然数;
B)使用RANSAC方法从匹配对F中估计出第一个投影变换模型S1
C)使用RANSAC方法从匹配对F中提取第二个投影变换模型S2
D)分别使用两个变换模型将S1,S2把前一帧Ik-1投影到当前帧Ik并进行帧差,得到两个差分图d1和d2
E)将前一帧的检测结果Mk-1作为置信区域,对步骤D)得到的两个差分图d1和d2进行二值化得到两个二值化差分图mask1和mask2
F)将步骤E)得到的两个二值化差分图mask1和mask2进行逻辑与操作得到一个二值化图maskAndk
G)将步骤F)得到的二值化图maskAndk进行形态学处理得到最终的检测结果Mk
2.如权利要求1所述基于多模型估计的面向移动摄像机的运动目标检测方法,其特征在于在步骤A)中,所述对输入视频图像序列进行预处理的具体步骤为:
A1)对图像进行灰度化处理;
A2)对图像进行一次高斯滤波操作去除噪声;
A3)对图像进行SURF特征提取;
A4)将前一帧Ik-1和当前帧Ik提取到的特征点进行匹配,得到两幅图像间的多个匹配对
3.如权利要求1所述基于多模型估计的面向移动摄像机的运动目标检测方法,其特征在于在步骤B)中,所述从匹配对F中估计出第一个投影变换模型S1的具体步骤为:
B1)从匹配对F中随机选取四个匹配对,根据公式:
x y 1 = a 0 a 1 a 2 a 3 a 4 a 5 a 6 a 7 a 8 · u v 1
计算出一个模型假设Si的9个参数(a0~a8),其中u和v为匹配对中前一帧特征点的坐标,x和y匹配对中当前帧特征点坐标;
B2)计算所有匹配对F相对于模型假设Si的投影误差:
err ( f k - 1 i ( x , y ) , f k j ( u , v ) ) = | S i · f k - 1 i ( x , y ) - f k j ( u , v ) |
误差小于阈值threshold1的匹配对为内点,否则为外点;统计模型假设Si的内点数
B3)重复步骤B1)和B2)100次,选取内点数最大的模型假设作为第一个投影变换模型S1
S 1 = arg m a x S i ( Inlier S i ) .
4.如权利要求1所述基于多模型估计的面向移动摄像机的运动目标检测方法,其特征在于在步骤C)中,所述从匹配对F中提取第二个投影变换模型S2的具体步骤为:
C1)计算所有匹配对F在第一个投影变换模型下的投影误差:
err ( f k - 1 i ( x , y ) , f k j ( u , v ) ) = | S 1 · f k - 1 i ( x , y ) - f k j ( u , v ) |
误差小于阈值threshold1的匹配对为内点,否则为外点;
C2)使用RANSAC方法从步骤C1)得到的第一个投影变换模型S1的外点中估计出第二个投影变换模型S2
5.如权利要求1所述基于多模型估计的面向移动摄像机的运动目标检测方法,其特征在于在步骤D)中,所述分别使用两个变换模型将S1,S2把前一帧Ik-1投影到当前帧Ik并进行帧差,得到两个差分图d1和d2的具体步骤为:
D1)利用步骤B)估计得到的投影变换模型S1将前一帧Ik-1变换到当前帧Ik的坐标系下,并与当前帧进行帧差,得到第一个差分图d1
D2)利用步骤C)估计得到的投影变换模型S2将前一帧Ik-1变换到当前帧Ik的坐标系下,并与当前帧进行帧差,得到第二个差分图d2
6.如权利要求1所述基于多模型估计的面向移动摄像机的运动目标检测方法,其特征在于在步骤E)中,所述将前一帧的检测结果Mk-1作为置信区域,对步骤D)得到的两个差分图d1和d2进行二值化得到两个二值化差分图mask1和mask2的具体步骤为:
E1)将前一帧的检测结果Mk-1的前景区域进行膨胀操作,得到置信图
E2)根据步骤E1)得到的置信图将步骤D1)得到的差分图d1分为置信区域d1c和非置信区域d1n
E3)根据二值化阈值threshold2将步骤E2)得到的差分图d1的置信区域d1c进行二值化,根据二值化阈值threshold3将步骤E2)得到的差分图d1的非置信区域d1n进行二值化,从而得到二值化差分图mask1
E4)根据步骤E1)得到的置信图将步骤D2)得到的差分图d2分为置信区域d2c和非置信区域d2n
E5)跟据二值化阈值threshold2将步骤E5)得到的差分图d2的置信区域d2c进行二值化,根据二值化阈值threshold3将步骤E5)得到的差分图d2的非置信区域d2n进行二值化,从而得到二值化差分图mask2
7.如权利要求1所述基于多模型估计的面向移动摄像机的运动目标检测方法,其特征在于在步骤G)中,所述将步骤F)得到的二值化图maskAndk进行形态学处理的具体步骤为:
G1)将步骤F)得到的二值化图进行闭运算得到二值化图maskAndClosek
G2)将步骤G1)得到的二值化图maskAndClosek进行开运算得到最终的检测结果Mk
CN201610278401.2A 2016-04-29 2016-04-29 基于多模型估计的面向移动摄像机的运动目标检测方法 Expired - Fee Related CN105975918B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610278401.2A CN105975918B (zh) 2016-04-29 2016-04-29 基于多模型估计的面向移动摄像机的运动目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610278401.2A CN105975918B (zh) 2016-04-29 2016-04-29 基于多模型估计的面向移动摄像机的运动目标检测方法

Publications (2)

Publication Number Publication Date
CN105975918A true CN105975918A (zh) 2016-09-28
CN105975918B CN105975918B (zh) 2019-04-02

Family

ID=56993970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610278401.2A Expired - Fee Related CN105975918B (zh) 2016-04-29 2016-04-29 基于多模型估计的面向移动摄像机的运动目标检测方法

Country Status (1)

Country Link
CN (1) CN105975918B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469456A (zh) * 2015-08-11 2017-03-01 株式会社理光 运动估计方法和运动估计装置
CN113228102A (zh) * 2019-01-09 2021-08-06 奥林巴斯株式会社 图像处理装置、图像处理方法和图像处理程序

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110052043A1 (en) * 2009-08-25 2011-03-03 Samsung Electronics Co., Ltd. Method of mobile platform detecting and tracking dynamic objects and computer-readable medium thereof
CN103413324A (zh) * 2013-07-29 2013-11-27 西北工业大学 航拍视频自动目标跟踪方法
US8837839B1 (en) * 2010-11-03 2014-09-16 Hrl Laboratories, Llc Method for recognition and pose estimation of multiple occurrences of multiple objects in visual images
CN104217442A (zh) * 2014-08-28 2014-12-17 西北工业大学 基于多模型估计的航拍视频运动目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110052043A1 (en) * 2009-08-25 2011-03-03 Samsung Electronics Co., Ltd. Method of mobile platform detecting and tracking dynamic objects and computer-readable medium thereof
US8837839B1 (en) * 2010-11-03 2014-09-16 Hrl Laboratories, Llc Method for recognition and pose estimation of multiple occurrences of multiple objects in visual images
CN103413324A (zh) * 2013-07-29 2013-11-27 西北工业大学 航拍视频自动目标跟踪方法
CN104217442A (zh) * 2014-08-28 2014-12-17 西北工业大学 基于多模型估计的航拍视频运动目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YANNING ZHANG 等: "Multi-Model Estimation Based Moving Object Detection for Aerial Video", 《SENSORS》 *
薛丽霞 等: "动态背景下基于ORB特征匹配的运动目标检测算法", 《计算机应用与软件》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469456A (zh) * 2015-08-11 2017-03-01 株式会社理光 运动估计方法和运动估计装置
CN106469456B (zh) * 2015-08-11 2019-04-19 株式会社理光 运动估计方法和运动估计装置
CN113228102A (zh) * 2019-01-09 2021-08-06 奥林巴斯株式会社 图像处理装置、图像处理方法和图像处理程序

Also Published As

Publication number Publication date
CN105975918B (zh) 2019-04-02

Similar Documents

Publication Publication Date Title
CN106846359B (zh) 基于视频序列的运动目标快速检测方法
US20240064391A1 (en) Methods for refining rgbd camera poses
US10217229B2 (en) Method and system for tracking moving objects based on optical flow method
CN108537829B (zh) 一种监控视频人员状态识别方法
CN105279771B (zh) 一种视频中基于在线动态背景建模的运动目标检测方法
US20210082096A1 (en) Light field based reflection removal
Šilar et al. The obstacle detection on the railway crossing based on optical flow and clustering
Yang et al. 3D multiview basketball players detection and localization based on probabilistic occupancy
CN107346547A (zh) 基于单目平台的实时前景提取方法及装置
Jung et al. Object Detection and Tracking‐Based Camera Calibration for Normalized Human Height Estimation
CN114463619B (zh) 基于集成融合特征的红外弱小目标检测方法
Younes et al. FDMO: feature assisted direct monocular odometry
JP2018055367A (ja) 画像処理装置、画像処理方法、及びプログラム
CN103337082B (zh) 基于统计形状先验的视频分割方法
Zhang et al. An optical flow based moving objects detection algorithm for the UAV
CN105975918A (zh) 基于多模型估计的面向移动摄像机的运动目标检测方法
CN109784229B (zh) 一种地面建筑物数据融合的复合识别方法
CN116429087A (zh) 一种适应于动态环境的视觉slam方法
CN104616320A (zh) 低空航拍视频中基于梯度抑制和极线约束的车辆检测方法
Yu et al. Accurate motion detection in dynamic scenes based on ego-motion estimation and optical flow segmentation combined method
Yang et al. Design flow of motion based single camera 3D mapping
VÁPENíK et al. Object tracking in multicamera systems
TW201415882A (zh) Ptz攝影機自動追蹤之方法
Yaakob et al. Moving object extraction in PTZ camera using the integration of background subtraction and local histogram processing
Abdein et al. Self-supervised learning of optical flow, depth, camera pose and rigidity segmentation with occlusion handling

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190402

CF01 Termination of patent right due to non-payment of annual fee