CN111882583A - 一种运动目标检测方法、装置、设备及介质 - Google Patents
一种运动目标检测方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111882583A CN111882583A CN202010746783.3A CN202010746783A CN111882583A CN 111882583 A CN111882583 A CN 111882583A CN 202010746783 A CN202010746783 A CN 202010746783A CN 111882583 A CN111882583 A CN 111882583A
- Authority
- CN
- China
- Prior art keywords
- optical flow
- image
- local area
- moving object
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 47
- 230000003287 optical effect Effects 0.000 claims abstract description 174
- 238000000034 method Methods 0.000 claims abstract description 96
- 238000012216 screening Methods 0.000 claims description 52
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 15
- 238000009432 framing Methods 0.000 claims description 15
- 230000033001 locomotion Effects 0.000 claims description 12
- 239000003550 marker Substances 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000011897 real-time detection Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种运动目标检测方法、装置、设备及介质,该方法包括:获取当前图像以及所述当前图像的前一帧图像;获取所述当前图像中运动目标所在的画面区域对应的标记位置;从所述当前图像中确定与所述标记位置对应的第一局部区域图像,并从所述前一帧图像中确定出区域位置与所述第一局部区域图像对应的第二局部区域图像;利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点;基于所述光流特征点确定用于跟踪所述运动目标的目标框。通过这种方式,可以减少运动目标检测过程的运算量,同时生成用于跟踪运动目标的自适应目标框,提高了运动目标检测的速度和精确度。
Description
技术领域
本发明涉及目标检测与跟踪领域,特别涉及一种运动目标检测方法、装置、设备及介质。
背景技术
当前,越来越多的领域需要应用到基于云台的运动目标实时检测与跟踪技术,而目标初始化是实时检测与跟踪的基础,影响到运动目标跟踪的效果,因此需要提高目标初始化的速度和精确度。
现有技术中,包括利用光流法、帧差法、背景建模法、特征匹配法或人工选择等方法对运动目标进行初始化处理;其中,上述光流法为利用光流法对整个待检测视频图像进行检测,以确定出待检测视频图像中的运动物体,再手动确定初始化目标框,但这种方式的计算量较大,对包含多个运动目标的动态场景的检测精度不高,并且针对包含快速运动目标的动态场景时,会降低初始化目标框选择的准确性。
发明内容
有鉴于此,本发明的目的在于提供一种运动目标检测方法、装置、设备及介质,能够提高检测的速度和精确度,并生成自适应目标框。其具体方案如下:
第一方面,本申请公开了一种运动目标检测方法,包括:
获取当前图像以及所述当前图像的前一帧图像;
获取所述当前图像中运动目标所在的画面区域对应的标记位置;
从所述当前图像中确定与所述标记位置对应的第一局部区域图像,并从所述前一帧图像中确定出区域位置与所述第一局部区域图像对应的第二局部区域图像;
利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点;
基于所述光流特征点确定用于跟踪所述运动目标的目标框。
可选的,所述获取所述当前图像中运动目标所在的画面区域对应的标记位置,包括:
获取对当前图像中运动目标所在画面区域的点击信息,并将所述点击信息对应的点击位置确定为所述标记位置;
或,获取对当前图像中运动目标所在画面区域的框选信息,并将所述框选信息对应的框选位置确定为所述标记位置。
可选的,所述从所述当前图像中确定与所述标记位置对应的第一局部区域图像,包括:
利用预设的相对位置关系,从所述当前图像中确定与所述标记位置对应的第一局部区域图像;其中,所述相对位置关系为预先创建的第一局部区域与标记位置之间的相对位置关系。
可选的,所述利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点,包括:
利用稠密光流法对所述第一局部区域图像和所述第二局部区域图像进行对比,得到光流场变化像素点;
基于所述光流场变化像素点获取与所述运动目标对应的光流特征点。
可选的,所述基于所述光流场变化像素点获取与所述运动目标对应的光流特征点,还包括:
确定特征点筛选参数;
基于所述特征点筛选参数从所述光流场变化像素点中筛选出与所述运动目标对应的所述光流特征点。
可选的,所述确定特征点筛选参数,包括:
基于运动场景类型确定所述特征点筛选参数。
可选的,所述确定特征点筛选参数,包括:
基于所述运动目标对应的光流场变化像素点的变化幅度确定所述特征点筛选参数。
可选的,所述基于所述光流特征点确定用于跟踪所述运动目标的目标框,包括:
利用聚类算法对所述光流特征点进行聚类处理得到对应的光流特征点集;
利用所述光流特征点集对应的位置信息确定用于跟踪所述运动目标的目标框。
可选的,所述基于所述光流特征点确定用于跟踪所述运动目标的目标框之后,还包括:
获取实时操作指令;
判断所述操作指令是否为预设的取消跟踪指令;
若是,则取消对所述运动目标的跟踪。
第二方面,本申请公开了一种运动目标检测装置,包括:
图像获取模块,用于获取当前图像以及所述当前图像的前一帧图像;
标记位置获取模块,用于获取所述当前图像中运动目标所在的画面区域对应的标记位置;
局部区域图像确定模块,用于从所述当前图像中确定与所述标记位置对应的第一局部区域图像,并从所述前一帧图像中确定出区域位置与所述第一局部区域图像对应的第二局部区域图像;
光流特征点获取模块,用于利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点;
目标框确定模块,用于基于所述光流特征点确定用于跟踪所述运动目标的目标框。
第三方面,本申请公开了一种电子设备,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现前述的运动目标检测方法。
第四方面,本申请公开了一种计算机可读存储介质,其特征在于,用于存储计算机程序;其中计算机程序被处理器执行时实现前述的运动目标检测方法。
本申请中,根据获取的标记位置从当前图像中确定出第一局部区域图像,并从当前图像的前一帧图像中确定出第二局部区域图像,然后利用光流法检测第一局部区域图像和第二局部区域图像以获取与运动目标对应的光流特征点,最后基于光流特征点确定用于跟踪运动目标的目标框。可见,本申请中,先获取运动目标所在画面区域的标记位置,然后基于上述标记位置确定出相应的局部区域图像,接着利用光流法对上述局部区域图像进行分析以得到相应的目标框,由于上述标记位置是运动目标所在画面区域的标记位置,这样可以使得最终确定出来的上述局部区域图像能够包含运动目标所在的画面区域,从而可以使得在利用光流法进行分析的时候,只需对上述局部区域图像进行分析即可,相比于现有技术中利用光流法对整个待检测视频图像进行检测的方案,本申请由于检测的是待检测视频图像中的局部区域,从而可以减少检测过程的运算量,以提高运动目标检测的速度。另外,相比于现有技术中先通过光流法检测整个待检测视频图像中的运动物体,然后通过手动确定初始化目标框的方案,本申请由于先通过手动标记运动目标的位置,然后利用光流法对与标记位置对应的只包含运动目标的局部区域图像进行检测以确定初始化目标框,可以得到与运动目标大小相适应的的目标框,提高了运动目标检测的精确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的一种运动目标检测方法流程图;
图2为本申请提供的一种具体的运动目标检测方法流程图;
图3为本申请提供的一种具体的运动目标检测方法流程图;
图4为本申请提供的第一张运动目标检测结果示意图;
图5为本申请提供的第二张运动目标检测结果示意图;
图6为本申请提供的一种运动目标检测装置结构示意图;
图7为本申请提供的一种电子设备结构图。
具体实施方式
现有技术中,对运动目标的检测利用全局光流法检测视频图像序列中的运动目标,再手动选择初始化目标,这个过程的计算量较大,且对包含多个运动目标的动态场景的检测精度不高,针对包含快速运动目标的动态场景时,会降低初始化目标框选择的准确性。为了克服上述问题,本申请提出一种在线交互的目标检测方法,可以减少运动目标检测过程的运算量,同时生成自适应目标框,提高运动目标检测速度和精确度。
本发明实施例公开了一种运动目标检测方法,参见图1所示,该运动检测方法可以包括以下步骤:
步骤S11:获取当前图像以及所述当前图像的前一帧图像。
本实施例中,可以通过从视频图像序列或实时监控中获取当前图像以及上述当前图像的前一帧图像以得到两帧待检测图像。可以理解的是,上述当前图像可以为从实时监控中获取的实时图像,上述前一帧图像可以是在当前图像之前的并与当前图像相邻的前一帧图像,也可以是在当前图像之前的并与当前图像相距一定间隔的前一帧图像。
步骤S12:获取所述当前图像中运动目标所在的画面区域对应的标记位置。
本实施例中,可以理解的是,上述标记位置可以是由用户根据运动目标所在上述当前图像中的画面区域,对上述画面区域进行标记得到的标记位置,并且本实施例不对上述标记位置的标记方式进行限定,可以包括但不限于通过点击或框选的方式进行标记。
本实施例中,所述获取所述当前图像中运动目标所在的画面区域对应的标记位置,可以包括:获取对当前图像中运动目标所在画面区域的点击信息,并将所述点击信息对应的点击位置确定为所述标记位置;或,获取对当前图像中运动目标所在画面区域的框选信息,并将所述框选信息对应的框选位置确定为所述标记位置。可以理解的是,通过获取用户对当前图像中运动目标所在画面区域进行点击产生的点击信息,并将上述点击信息对应的坐标位置确定为上述标记位置;当然,本实施例还可以通过获取用户对当前图像中运动目标所在画面区域进行框选产生的框选信息,并将上述框选信息对应的图形框位置作为标记位置。
步骤S13:从所述当前图像中确定与所述标记位置对应的第一局部区域图像,并从所述前一帧图像中确定出区域位置与所述第一局部区域图像对应的第二局部区域图像。
本实施例中,可以利用获取的标记位置从上述当前图像中确定出包含上述标记位置的第一局部区域图像,并且基于上述第一局部区域图像在上述当前图像中的区域位置,从上述前一帧图像中确定出第二局部区域图像。可以理解的是,运动目标在相邻的两帧图像或相距较小间隔的两帧图像上的画面区域内的移动较小,对于整个视频画面来说可以忽略不计,因此,上述第一局部区域图像在上述当前图像中的区域位置可以等同于上述第二局部区域图像在上述前一帧图像中的区域位置。由此一来,通过第一局部区域图像的位置从前一帧图像中确定出第二局部区域图像,可以简化第二局部区域图像确定的过程,同时减少运算量。
本实施例中,所述从所述当前图像中确定与所述标记位置对应的第一局部区域图像,可以包括:利用预设的相对位置关系,从所述当前图像中确定与所述标记位置对应的第一局部区域图像;其中,所述相对位置关系为预先创建的第一局部区域与标记位置之间的相对位置关系。即利用预先创建的一定大小的第一局部区域以及预设的第一局部区域与标记位置之间的相对位置关系,从上述当前图像中确定出上述第一局部区域图像。可以理解的是,上述第一局部区域可以为预先创建的一定大小的几何图形,可以包括但不限于正方形、长方形或圆形;并且上述第一局部区域与标记位置之间的相对位置可以理解为,以标记位置为中心位置选取预设第一局部区域大小的图像作为第一局部区域图像;也可以理解为,以标记位置顶点选取预设第一局部区域大小的图像作为第一局部区域图像。例如,当获取到对当前图像中运动目标所在画面区域的点击信息,将上述点击信息对应的坐标点确定为上述标记位置,然后以上述坐标点为中心点选取预设大小的长方形区域作为上述第一局部区域图像。
步骤S14:利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点。
本实施例中,在获取到上述第一局部区域图像和上述第二局部区域图像之后,利用光流法检测第一局部区域图像和第二局部区域图像之间的变化,以获取与上述运动目标对应的光流特征点。可以理解的是,当运动目标处于运动状态时,在上述第一局部区域图像和上述第二局部区域图像之间会存在一定的位置偏移,通过光流法可以检测出运动目标的位置偏移量,得到光流矩阵,从而得到与运动目标对应的光流特征点。其中,上述光流法可以包括但不限于稠密光流法和稀疏光流法。
步骤S15:基于所述光流特征点确定用于跟踪所述运动目标的目标框。
本实施例中,在获取上述光流特征点后,可以基于光流特征点的位置确定出用于跟踪上述运动目标的目标框。可以理解的是,上述光流特征点可以反映运动目标的位置变化,基于上述光流特征点可以确定出运动目标在上述当前图像中的位置,以确定出用于跟踪运动目标的目标框。
由上可见,本实施例通过根据获取的标记位置从当前图像中确定出第一局部区域图像,并从当前图像的前一帧图像中确定出第二局部区域图像,然后利用光流法检测第一局部区域图像和第二局部区域图像以获取与运动目标对应的光流特征点,最后基于光流特征点确定用于跟踪运动目标的目标框。可见,本实施例中,先获取运动目标所在画面区域的标记位置,然后基于上述标记位置确定出相应的局部区域图像,接着利用光流法对上述局部区域图像进行分析以得到相应的目标框,由于上述标记位置是运动目标所在画面区域的标记位置,这样可以使得最终确定出来的上述局部区域图像能够包含运动目标所在的画面区域,从而可以使得在利用光流法进行分析的时候,只需对上述局部区域图像进行分析即可,相比于现有技术中利用光流法对整个待检测视频图像进行检测的方案,本实施例由于检测的是待检测视频图像中的局部区域,从而可以减少检测过程的运算量,以提高运动目标检测的速度。另外,相比于现有技术中先通过光流法检测整个待检测视频图像中的运动物体,然后通过手动确定初始化目标框的方案,本实施例由于先通过手动标记运动目标的位置,然后利用光流法对与标记位置对应的只包含运动目标的局部区域图像进行检测以确定初始化目标框,可以得到与运动目标大小相适应的的目标框,提高了运动目标检测的精确度。
需要进一步说明的是,相对现有技术中的帧差法和背景建模法,本申请实施例利用局部光流法能够在保证运算效率的基础上较好地处理动态图像,在动态背景下能够比较准确、快速地得到自适应初始化目标框的位置。相对于现有技术中对全局信息进行处理,本申请实施例通过配合人工点击,对局部信息进行提取与处理,能够快速、比较准确地完成初始化操作,可以实时进行目标初始化。相对于现有技术中通过拖动目标框开调整初始目标框的大小,本申请实施例可以自适应初始框大小,相较于利用固定框进行初始化的方法能够更方便、快捷地进行初始化。相对于现有技术中对光流法检测后的结果进行全局聚类,本申请实施例根据光流特征点,在其周围进行快速聚类,进一步提高了运算效率。并且,在实际应用场景中,初始化目标种类、大小、速度是多样化的,本发明能够自适应初始化目标框大小,相较于固定框能够更精确地提供初始化信息。
本发明实施例公开了一种具体的运动目标检测方法,参见图2所示,该运动检测方法可以包括以下步骤:
步骤S21:获取当前图像以及所述当前图像的前一帧图像。
步骤S22:获取所述当前图像中运动目标所在的画面区域对应的标记位置。
步骤S23:从所述当前图像中确定与所述标记位置对应的第一局部区域图像,并从所述前一帧图像中确定出区域位置与所述第一局部区域图像对应的第二局部区域图像。
步骤S24:利用稠密光流法对所述第一局部区域图像和所述第二局部区域图像进行对比,得到光流场变化像素点。
本实施例中,在获取到上述第一局部区域图像和上述第二局部区域图像之后,利用稠密光流法检测第一局部区域图像和第二局部区域图像之间的变化,以获取光流场变化像素点。可以理解的是,由于运动目标的运动速度和背景的变化速度之间存在明显的差异,因此,可以利用稠密光流法对第一局部区域图像和第二局部区域图像进行对比,以得到由运动目标在运动时所产生的光流场变化像素点。
步骤S25:确定特征点筛选参数。
本实施例中,可以理解的是,由于不同运动目标的运动速度不同,对于高速运动的运动目标对应的光流场变化像素点的变化幅度较大,因此,可以通过获取较少数量的光流特征点确定出运动目标;而对于低速运动的运动目标对应的光流场变化像素点的变化幅度较小,容易受到背景环境的影响,因此,可以通过获取较多数量的光流特征点确定出运动目标;由此一来,可以进一步提高对低速运动目标检测的精确度。其中,上述特征点筛选参数可以是特征点筛选比例,也可以是特征点筛选数量。
在一种具体实施方式中,所述确定特征点筛选参数,可以包括:基于运动场景类型确定所述特征点筛选参数。可以理解的是,对不同运动场景类型中的待检测运动目标的运动状态存在差异,例如室外交通场景中的运动目标运动速度普遍较大,而室内监控场景中的运动目标普遍较低,因此,可以基于运动场景类型确定当前运动场景对应的运动目标速度大小特点,然后基于上述运动目标速度大小特点确定出相应的特征点筛选参数;具体的,基于室外监控场景确定出当前运动场景对应的运动目标处于高速运动状态,基于上述高度运动状态确定出较小的特征点筛选比例;基于室内监控场景确定出当前运动场景对应的运动目标处于低速运动状态,基于上述低度运动状态确定出较大的特征点筛选比例。例如,对机动车道上行驶中的机动车进行检测的时候,行驶中的机动车的运动速度较快,可以通过较少的光流特征点检测出上述机动车,因此可以确定较小的特征点筛选比例,同时也可以减少后续步骤的运算量。
在另一种具体实施方式中,所述确定特征点筛选参数,可以包括:基于所述运动目标对应的光流场变化像素点的变化幅度确定所述特征点筛选参数。可以理解的是,不同运动状态下的运动目标对应的光流场变化像素点的变化幅度存在差异,高速运动状态下的运动目标对应的光流场变化像素点的变化幅度较大,低速运动状态下的运动目标对应的光流场变化像素点的变化幅度较小;因此,可以基于运动目标对应的光流场变化像素点的变化幅度大小确定出上述运动目标的运动速度大小特点,然后基于上述运动速度大小特点确定出相应的特征点筛选参数;具体的,若获取的与上述运动目标对应的光流场变化像素点的变化幅度偏大,则表明当前运动目标的运动速度较快,因此可以确定较少的特征点筛选数量;若获取的与上述运动目标对应的光流场变化像素点的变化幅度偏小,则表明当前运动目标的运动速度较慢,因此可以确定较多的特征点筛选数量。例如,对机场中的游客进行检测的时候,获取的对应的光流场变化幅度较小,表明游客的运动速度较慢,因此确定较大的特征点筛选数量以获取较数量的光流特征点,以便更加精确定的定位出低速运动的运动目标。
步骤S26:基于所述特征点筛选参数从所述光流场变化像素点中筛选出与所述运动目标对应的所述光流特征点。
本实施例中,在确定出特征点筛选参数之后,利用上述特征点筛选参数从上述光流场变化像素点中筛选出上述光流特征点。可以理解的是,上述光流场变化像素点为得到的所有的光流场发生变化的像素点,本实施例中可以利用特征点筛选参数从光流场变化像素点中筛选出部分光流场变化像素点作为上述光流特征点。并且,可以按照光流场变化像素点的优先级并基于上述筛选参数从上述光流场变化像素点中筛选出与运动目标对应的光流特征点,可以理解的是,光流场变化像素点对应的变化幅度越高,则相应的优先级越高。
步骤S27:利用聚类算法对所述光流特征点进行聚类处理得到对应的光流特征点集。
本实施例中,为了更准确的检测出上述运动目标的位置,在获取到光流特征点后利用聚类算法对光流特征点进行聚类处理,以得到光流特征点集。可以理解的是,本实施例中通过聚类算法对光流特征点四周进行聚类处理以得到对应的光流特征点集。其中,上述聚类算法包括但不限于K-Means聚类算法、均值偏移聚类算法和DBSCAN聚类算法。
步骤S28:利用所述光流特征点集对应的位置信息确定用于跟踪所述运动目标的目标框。
本实施例中,在得到光流特征点集之后,可以确定出光流特征点集在上述当前图像中的区域位置,然后将上述光流特征点集在当前图像中的区域位置确定为上述目标框的位置,以得到用于跟踪上述运动目标的目标框。
其中,关于上述步骤S21至步骤S23的具体过程可以参考前述公开的相应内容,在此不再进行赘述。
由上可见,本实施例中通过确定的筛选参数从光流场变化像素点中筛选出光流特征点,然后利用聚类算法对光流特征点进行聚类处理以得到光流特征点集,最后利用光流特征点集对应的位置信息确定用于跟踪运动目标的目标框。可见,本实施例通过确定筛选参数,然后基于上述筛选参数从光流场变化像素点中筛选出光流特征点以确定相应目标框,由于针对不同状态的运动目标可以确定出不同的筛选参数,因此根据筛选参数筛选后得到的光流特征点可以更加精确的定位出运动目标所在的位置,从而提高了运动目标检测的精确度。另外,本实施例利用聚类算法对光流特征点进行聚类处理以得到光流特征点集,然后利用上述光流特征点集确定用于跟踪所述运动目标的目标框,通过聚类处理可以减少运算量以提高运算效率,同时可以得到适合运动目标的目标框,提高了运动目标位置检测的速度和精确度。
本发明实施例公开了一种具体的运动目标检测方法,参见图3所示,该运动检测方法可以包括以下步骤:
步骤S31:获取当前图像以及所述当前图像的前一帧图像。
步骤S32:获取所述当前图像中运动目标所在的画面区域对应的标记位置。
步骤S33:从所述当前图像中确定与所述标记位置对应的第一局部区域图像,并从所述前一帧图像中确定出区域位置与所述第一局部区域图像对应的第二局部区域图像。
步骤S34:利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点。
步骤S35:基于所述光流特征点确定用于跟踪所述运动目标的目标框。
步骤S36:获取实时操作指令。
本实施例中,在确定出用于跟踪运动目标的目标框后,可以获取由用户触发的实时操作指令。可以理解的是,可以获取用户通过预设接口触发的实时操作指令。具体的,上述实时操作指令可以是用户通过点击当前视频界面触发的操作指令,也可以是用户通过预设的操作按键触发的操作指令,其中,上述操作按键可以是位于操作界面上的虚拟按键,也可以是外接输入设备上的实体按键。
步骤S37:判断所述操作指令是否为预设的取消跟踪指令。
本实施例中,在获取到上述实时操作指令后,判断上述操作指令是否为预设的取消跟踪指令。例如,预先将对当前视频界面右击鼠标触发的指令设定为取消跟踪指令,当获取到实时操作指令,则判断上述实时操作指令是否为用户通过对当前视频界面右击鼠标触发的指令。
步骤S38:若是,则取消对所述运动目标的跟踪。
本实施例中,如果判断出上述操作指令为预设的取消跟踪指令,则取消对上述运动目标的跟踪,即取消上述目标框对运动目标的跟踪;并且,可以不再启动上述获取当前图像以及所述当前图像的前一帧图像的步骤,以及上述获取所述当前图像中运动目标所在的画面区域对应的标记位置的步骤。
其中,关于上述步骤S31至步骤S35的具体过程可以参考前述公开的相应内容,在此不再进行赘述。
由上可见,本实施例在确定用于跟踪运动目标的目标框后,可以通过获取实时操作指令并判断所述实时操作指令是否为取消跟踪指令,以取消对运动目标的跟踪。可见,本申请通过获取实时操作指令,可以在任意时刻取消对运动目标的初始化以及跟踪过程,同时可以实现与用户的实时交互。
本申请中的运动目标检测方法适用于多种场景下的运动目标检测。下面以交通监控中对行驶车辆的检测为例,例如图4所示,对本申请的技术方案进行说明。
首先从共有437帧的连续红外图像序列中依次读取连续帧信息,首先获取第二帧图像作为当前图像并缓存前一帧图像,以得到两帧待检测图像,同时获取用户对当前图像中行驶车辆所在画面区域的点击信息;以点击信息对应的坐标点位置为中心点,从当前图像中截取预设矩形大小的图像作为第一局部区域图像,并从前一帧图像中确定出区域位置与第一局部区域图像对应的第二局部区域图像,然后通过调用OpenCV光流法接口(即calcOpticalFlowFarneback())以启用稠密光流法,以利用稠密光流法对第一局部区域图像和第二局部区域图像进行对比,得到光流场变化像素点;根据获取到的光流场变化像素点的变化幅度确定特征点筛选参数,然后利用特征点筛选参数从光流场变化像素点中筛选出与行驶车辆对应的光流特征点。最后,利用聚类算法对光流特征点进行聚类处理得到对应的光流特征点集;利用所述光流特征点集对应的位置信息确定出行驶车辆在当前图像中的位置,以确定出用于跟踪行驶车辆的目标框。在依次读取连续帧的过程中,即视频播放过程中,可以多次对行驶车辆所在的画面区域进行多次点击启动或取消跟踪流程以多次初始化上述行驶车辆,以除去一些严重遮挡的场景,得到较好的用于跟踪行驶车辆的目标框,并且通过这种方式得到的目标框可以满足跟踪算法的要求。进一步的,如图5所示,上述方法在监控视频较模糊的情况下,同样可以精确检测出行驶车辆,并自适应生成用于跟踪行驶车辆的目标框。同时,上述运动目标检测方法基于PC机实现时,初始化操作所需时间在10ms以内,能够较好的满足实际应用中的实时性要求。
由上述过程可以看出,本实施例通过获取用户对行驶车辆所在画面区域的点击信息从当前图像中确定出第一局部区域图像,并从当前图像的前一帧图像中确定出第二局部区域图像,然后利用光流法检测第一局部区域图像和第二局部区域图像以获取与行驶车辆对应的光流特征点,最后基于光流特征点确定用于跟踪行驶车辆的目标框。减少了运动目标检测过程中的运算量,加快了运算的速度以实现检测的实时性要求,同时生成用于跟踪运动目标的自适应目标框,提高了检测的速度和精确度。
相应的,本申请实施例还公开了一种运动目标检测装置,参见图6所示,该装置包括:
图像获取模块11,用于获取当前图像以及所述当前图像的前一帧图像;
标记位置获取模块12,用于获取所述当前图像中运动目标所在的画面区域对应的标记位置;
局部区域图像确定模块13,用于从所述当前图像中确定与所述标记位置对应的第一局部区域图像,并从所述前一帧图像中确定出区域位置与所述第一局部区域图像对应的第二局部区域图像;
光流特征点获取模块14,用于利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点;
目标框确定模块15,用于基于所述光流特征点确定用于跟踪所述运动目标的目标框。
由上可见,本实施例通过获取的标记位置从当前图像中确定出第一局部区域图像,并从当前图像的前一帧图像中确定出第二局部区域图像,然后利用光流法检测第一局部区域图像和第二局部区域图像以获取与运动目标对应的光流特征点,最后基于光流特征点确定用于跟踪运动目标的目标框。可见,本申请通过这种方式,利用获取的标记位置确定出第一局部区域图像和第二局部区域图像,然后利用光流法检测第一局部区域图像和第二局部区域图像以获取光流特征点,可以减少运动目标检测过程的运算量;并且,根据得到的特征点确定用于跟踪运动目标的目标框,可以得到与运动目标大小相适应的的目标框,提高了运动目标检测的速度和精确度。
在一些实施例中,所述标记位置获取模块12具体可以包括:
信息获取单元,用于获取对当前图像中运动目标所在画面区域的点击信息,并将所述点击信息对应的点击位置确定为所述标记位置;或,获取对当前图像中运动目标所在画面区域的框选信息,并将所述框选信息对应的框选位置确定为所述标记位置。
在一些实施例中,所述局部区域图像确定模块13具体可以包括:
区域图像确定单元,用于利用预设的相对位置关系,从所述当前图像中确定与所述标记位置对应的第一局部区域图像;其中,所述相对位置关系为预先创建的第一局部区域与标记位置之间的相对位置关系。
在一些实施例中,所述光流特征点获取模块14具体可以包括:
光流特征点第一获取单元,用于利用稠密光流法对所述第一局部区域图像和所述第二局部区域图像进行对比,得到光流场变化像素点;基于所述光流场变化像素点获取与所述运动目标对应的光流特征点;
光流特征点第二获取单元,用于确定特征点筛选参数;基于所述特征点筛选参数从所述光流场变化像素点中筛选出与所述运动目标对应的所述光流特征点;
特征点筛选参数第一确定单元,用于基于运动场景类型确定所述特征点筛选参数;
特征点筛选参数第二确定单元,用于基于所述运动目标对应的光流场变化像素点的变化幅度确定所述特征点筛选参数。
在一些实施例中,所述目标框确定模块15具体可以包括:
聚类处理单元,用于利用聚类算法对所述光流特征点进行聚类处理得到对应的光流特征点集;
目标框确定单元,用于利用所述光流特征点集对应的位置信息确定用于跟踪所述运动目标的目标框。
进一步的,本申请实施例还公开了一种电子设备,参见图7所示,图中的内容不能被认为是对本申请的使用范围的任何限制。
图7为本申请实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的运动目标检测方法中的相关步骤。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统221、计算机程序222及包括当前图像和前一帧图像在内的数据223等,存储方式可以是短暂存储或者永久存储。
其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是Windows Server、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的运动目标检测方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。数据223可以包括电子设备20获取到的当前图像和前一帧图像。
进一步的,本申请实施例还公开了一种计算机可读存储介质,所述存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现前述任一实施例公开的运动目标检测方法步骤。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种运动目标检测方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (12)
1.一种运动目标检测方法,其特征在于,包括:
获取当前图像以及所述当前图像的前一帧图像;
获取所述当前图像中运动目标所在的画面区域对应的标记位置;
从所述当前图像中确定与所述标记位置对应的第一局部区域图像,并从所述前一帧图像中确定出区域位置与所述第一局部区域图像对应的第二局部区域图像;
利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点;
基于所述光流特征点确定用于跟踪所述运动目标的目标框。
2.根据权利要求1所述的运动目标检测方法,其特征在于,所述获取所述当前图像中运动目标所在的画面区域对应的标记位置,包括:
获取对当前图像中运动目标所在画面区域的点击信息,并将所述点击信息对应的点击位置确定为所述标记位置;
或,获取对当前图像中运动目标所在画面区域的框选信息,并将所述框选信息对应的框选位置确定为所述标记位置。
3.根据权利要求1所述的运动目标检测方法,其特征在于,所述从所述当前图像中确定与所述标记位置对应的第一局部区域图像,包括:
利用预设的相对位置关系,从所述当前图像中确定与所述标记位置对应的第一局部区域图像;其中,所述相对位置关系为预先创建的第一局部区域与标记位置之间的相对位置关系。
4.根据权利要求1所述的运动目标检测方法,其特征在于,所述利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点,包括:
利用稠密光流法对所述第一局部区域图像和所述第二局部区域图像进行对比,得到光流场变化像素点;
基于所述光流场变化像素点获取与所述运动目标对应的光流特征点。
5.根据权利要求4所述的运动目标检测方法,其特征在于,所述基于所述光流场变化像素点获取与所述运动目标对应的光流特征点,还包括:
确定特征点筛选参数;
基于所述特征点筛选参数从所述光流场变化像素点中筛选出与所述运动目标对应的所述光流特征点。
6.根据权利要求5所述的运动目标检测方法,其特征在于,所述确定特征点筛选参数,包括:
基于运动场景类型确定所述特征点筛选参数。
7.根据权利要求5所述的运动目标检测方法,其特征在于,所述确定特征点筛选参数,包括:
基于所述运动目标对应的光流场变化像素点的变化幅度确定所述特征点筛选参数。
8.根据权利要求1所述的运动目标检测方法,其特征在于,所述基于所述光流特征点确定用于跟踪所述运动目标的目标框,包括:
利用聚类算法对所述光流特征点进行聚类处理得到对应的光流特征点集;
利用所述光流特征点集对应的位置信息确定用于跟踪所述运动目标的目标框。
9.根据权利要求1至8任一项所述的运动目标检测方法,其特征在于,所述基于所述光流特征点确定用于跟踪所述运动目标的目标框之后,还包括:
获取实时操作指令;
判断所述操作指令是否为预设的取消跟踪指令;
若是,则取消对所述运动目标的跟踪。
10.一种运动目标检测装置,其特征在于,包括:
图像获取模块,用于获取当前图像以及所述当前图像的前一帧图像;
标记位置获取模块,用于获取所述当前图像中运动目标所在的画面区域对应的标记位置;
局部区域图像确定模块,用于从所述当前图像中确定与所述标记位置对应的第一局部区域图像,并从所述前一帧图像中确定出区域位置与所述第一局部区域图像对应的第二局部区域图像;
光流特征点获取模块,用于利用光流法检测所述第一局部区域图像和所述第二局部区域图像,以获取与所述运动目标对应的光流特征点;
目标框确定模块,用于基于所述光流特征点确定用于跟踪所述运动目标的目标框。
11.一种电子设备,其特征在于,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求1至9任一项所述的运动目标检测方法。
12.一种计算机可读存储介质,其特征在于,用于存储计算机程序;其中计算机程序被处理器执行时实现如权利要求1至9任一项所述的运动目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010746783.3A CN111882583B (zh) | 2020-07-29 | 2020-07-29 | 一种运动目标检测方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010746783.3A CN111882583B (zh) | 2020-07-29 | 2020-07-29 | 一种运动目标检测方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111882583A true CN111882583A (zh) | 2020-11-03 |
CN111882583B CN111882583B (zh) | 2023-11-14 |
Family
ID=73201206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010746783.3A Active CN111882583B (zh) | 2020-07-29 | 2020-07-29 | 一种运动目标检测方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111882583B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112396634A (zh) * | 2020-11-27 | 2021-02-23 | 苏州欧菲光科技有限公司 | 运动目标检测方法、装置、车辆及存储介质 |
CN113421302A (zh) * | 2021-06-09 | 2021-09-21 | 浙江大华技术股份有限公司 | 一种光流标注方法及装置 |
CN116205914A (zh) * | 2023-04-28 | 2023-06-02 | 山东中胜涂料有限公司 | 一种防水涂料生产智能监测系统 |
CN117455202A (zh) * | 2023-12-25 | 2024-01-26 | 青岛民航凯亚系统集成有限公司 | 一种机坪设备定位与调度方法、系统及装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2357614A1 (en) * | 2009-12-22 | 2011-08-17 | Samsung Electronics Co., Ltd. | Method and terminal for detecting and tracking moving object using real-time camera motion estimation |
CN103400395A (zh) * | 2013-07-24 | 2013-11-20 | 佳都新太科技股份有限公司 | 一种基于haar特征检测的光流跟踪方法 |
KR101371275B1 (ko) * | 2012-11-05 | 2014-03-26 | 재단법인대구경북과학기술원 | 스테레오 영상 기반 다중 객체 추적 방법 및 이의 프로그램을 기록한 기록매체 |
CN106296742A (zh) * | 2016-08-19 | 2017-01-04 | 华侨大学 | 一种结合特征点匹配的在线目标跟踪方法 |
CN106846362A (zh) * | 2016-12-26 | 2017-06-13 | 歌尔科技有限公司 | 一种目标检测跟踪方法和装置 |
CN108470354A (zh) * | 2018-03-23 | 2018-08-31 | 云南大学 | 视频目标跟踪方法、装置和实现装置 |
CN109063549A (zh) * | 2018-06-19 | 2018-12-21 | 中国科学院自动化研究所 | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 |
CN109118514A (zh) * | 2018-06-11 | 2019-01-01 | 西安电子科技大学 | 一种目标跟踪方法 |
JP2019021990A (ja) * | 2017-07-12 | 2019-02-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN109902725A (zh) * | 2019-01-31 | 2019-06-18 | 北京达佳互联信息技术有限公司 | 移动目标的检测方法、装置及电子设备和存储介质 |
EP3525165A1 (en) * | 2018-02-09 | 2019-08-14 | Samsung Electronics Co., Ltd. | Method and apparatus with image fusion |
CN111028189A (zh) * | 2019-12-09 | 2020-04-17 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
-
2020
- 2020-07-29 CN CN202010746783.3A patent/CN111882583B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2357614A1 (en) * | 2009-12-22 | 2011-08-17 | Samsung Electronics Co., Ltd. | Method and terminal for detecting and tracking moving object using real-time camera motion estimation |
KR101371275B1 (ko) * | 2012-11-05 | 2014-03-26 | 재단법인대구경북과학기술원 | 스테레오 영상 기반 다중 객체 추적 방법 및 이의 프로그램을 기록한 기록매체 |
CN103400395A (zh) * | 2013-07-24 | 2013-11-20 | 佳都新太科技股份有限公司 | 一种基于haar特征检测的光流跟踪方法 |
CN106296742A (zh) * | 2016-08-19 | 2017-01-04 | 华侨大学 | 一种结合特征点匹配的在线目标跟踪方法 |
CN106846362A (zh) * | 2016-12-26 | 2017-06-13 | 歌尔科技有限公司 | 一种目标检测跟踪方法和装置 |
JP2019021990A (ja) * | 2017-07-12 | 2019-02-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
EP3525165A1 (en) * | 2018-02-09 | 2019-08-14 | Samsung Electronics Co., Ltd. | Method and apparatus with image fusion |
CN108470354A (zh) * | 2018-03-23 | 2018-08-31 | 云南大学 | 视频目标跟踪方法、装置和实现装置 |
CN109118514A (zh) * | 2018-06-11 | 2019-01-01 | 西安电子科技大学 | 一种目标跟踪方法 |
CN109063549A (zh) * | 2018-06-19 | 2018-12-21 | 中国科学院自动化研究所 | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 |
CN109902725A (zh) * | 2019-01-31 | 2019-06-18 | 北京达佳互联信息技术有限公司 | 移动目标的检测方法、装置及电子设备和存储介质 |
CN111028189A (zh) * | 2019-12-09 | 2020-04-17 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
Non-Patent Citations (2)
Title |
---|
李广;冯燕;: "基于SIFT特征匹配与K-均值聚类的运动目标检测", 计算机应用, no. 10 * |
郑晓萌;张德海;: "基于有效特征点的运动目标匹配跟踪算法", 电子设计工程, no. 20 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112396634A (zh) * | 2020-11-27 | 2021-02-23 | 苏州欧菲光科技有限公司 | 运动目标检测方法、装置、车辆及存储介质 |
CN113421302A (zh) * | 2021-06-09 | 2021-09-21 | 浙江大华技术股份有限公司 | 一种光流标注方法及装置 |
CN116205914A (zh) * | 2023-04-28 | 2023-06-02 | 山东中胜涂料有限公司 | 一种防水涂料生产智能监测系统 |
CN117455202A (zh) * | 2023-12-25 | 2024-01-26 | 青岛民航凯亚系统集成有限公司 | 一种机坪设备定位与调度方法、系统及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111882583B (zh) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111882583B (zh) | 一种运动目标检测方法、装置、设备及介质 | |
CN114902294B (zh) | 移动增强现实中的细粒度视觉识别 | |
Boult et al. | Into the woods: Visual surveillance of noncooperative and camouflaged targets in complex outdoor settings | |
CN112184760B (zh) | 基于动态视觉传感器的高速运动目标检测跟踪方法 | |
CN108235116A (zh) | 特征传播方法和装置、电子设备、程序和介质 | |
CN106295598A (zh) | 一种跨摄像头目标跟踪方法及装置 | |
US11475636B2 (en) | Augmented reality and virtual reality engine for virtual desktop infrastucture | |
CN110533694A (zh) | 图像处理方法、装置、终端及存储介质 | |
CN110245641A (zh) | 一种目标追踪拍摄方法、装置、电子设备 | |
CN109284673A (zh) | 对象跟踪方法及装置、电子设备及存储介质 | |
CN110428394B (zh) | 用于目标移动侦测的方法、装置及计算机存储介质 | |
US20200272308A1 (en) | Shake Event Detection System | |
Angelov et al. | AURORA: autonomous real-time on-board video analytics | |
CN116363082A (zh) | 地图要素的碰撞检测方法、装置、设备及程序产品 | |
Dhaya et al. | Enriched recognition and monitoring algorithm for private cloud data centre | |
CN113516697B (zh) | 图像配准的方法、装置、电子设备及计算机可读存储介质 | |
CN115082291A (zh) | 图像亮度调整的方法、计算机程序产品、电子设备及介质 | |
CN112925470B (zh) | 交互式电子白板的触摸控制方法、系统和可读介质 | |
CN112329752B (zh) | 人眼图像处理模型的训练方法、图像处理方法及装置 | |
KR101470367B1 (ko) | 이중층 파티클 필터를 이용한 다중 객체 검출 및 추적 장치와 그 방법 | |
CN117269952A (zh) | 一种4d成像毫米波雷达动目标点云半自动标注方法及装置 | |
CN115993887A (zh) | 一种手势交互控制方法、装置、设备、存储介质 | |
Sergi et al. | A microservices architecture based on a deep-learning approach for an innovative fruition of art and cultural heritage | |
Makita et al. | Mixed reality navigation on a tablet computer for supporting machine maintenance in wide-area indoor environment | |
CN114764821A (zh) | 移动物体检测方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |