CN107730438A - 一种基于鱼眼镜头的动态物体跟踪方法和系统 - Google Patents
一种基于鱼眼镜头的动态物体跟踪方法和系统 Download PDFInfo
- Publication number
- CN107730438A CN107730438A CN201710731646.0A CN201710731646A CN107730438A CN 107730438 A CN107730438 A CN 107730438A CN 201710731646 A CN201710731646 A CN 201710731646A CN 107730438 A CN107730438 A CN 107730438A
- Authority
- CN
- China
- Prior art keywords
- dynamic object
- panoramic picture
- dynamic
- block
- fish
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000251468 Actinopterygii Species 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 7
- 239000000203 mixture Substances 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
- G06T3/073—Transforming surfaces of revolution to planar images, e.g. cylindrical surfaces to planar images
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及图像处理方法领域,尤其涉及一种基于鱼眼镜头的动态物体跟踪方法,所述的方法包括依次进行的如下步骤:步骤1:通过鱼眼镜头获取全景图像;步骤2:将全景图像映射到预设的虚拟平面或曲面上;并将投影后的图像分割成预设像素大小的区块;步骤3:去除全景图像中的静态物体,得到多帧全景图像中的动态物体;步骤4:将动态物体所包含的多个区块进行比对,得到相邻两帧全景图像中同一动态物体;步骤5:将多帧全景图像中的同一动态物体汇总得到全景图像中多个动态物体的动态运动图像。本方法的优势数据处理量小、计算速度快,适用于超市、会议大厅、中小型车站等具有一定面积的封闭或开放的空间的动态物体的快速跟踪。
Description
技术领域
本发明涉及图像处理方法领域,尤其涉及一种基于鱼眼镜头的动态物体跟踪方法和系统。
背景技术
申请号为CN2015800439990,申请人为英特尔公司的一份技术方案,公开了用于确定对象到车辆的距离的技术包括用于对在由车辆的鱼眼摄像机生成的鱼眼图像中所捕获的对象进行识别的计算设备。该计算设备将所识别的对象的轮廓投影到选定的虚拟平面上,该选定的虚拟平面位于车辆外且是基于所识别的对象相对于车辆的位置而从预定义的虚拟平面集合选出的。该计算设备识别在选定的虚拟平面上的投影轮廓的底,并且确定假想线与和车辆所在的平面重合的地面的交点。该假想线穿过所识别的投影轮廓的底和鱼眼摄像机中的每一个。计算设备基于所确定的交点和识别的投影轮廓的底来确定所识别的对象相对于车辆的位置。
上述基于鱼眼摄像机来对图像进行捕获识别,确定车辆距离。
随着鱼眼摄像机的广泛使用和像素的迅速提高,使人脸识别、人物跟踪成为可能。
但是现在并未有一款鱼眼摄像机能够迅速的进行运动物体的跟踪。
发明内容
本发明的目的是提供一种数据处理量小、计算速度快的基于鱼眼镜头的动态物体跟踪方法和系统。
本发明的具体方案如下:一种基于鱼眼镜头的动态物体跟踪方法,其特征在于,所述的方法包括依次进行的如下步骤:
步骤1:通过鱼眼镜头获取全景图像;
步骤2:将全景图像映射到预设的虚拟平面或曲面上;并将投影后的图像分割成预设像素大小的区块;
步骤3:通过多帧全景图像比对,去除全景图像中的静态物体,得到多帧全景图像中的动态物体;
步骤4:将相邻两帧全景图像中动态物体所包含的多个区块进行比对,得到相邻两帧全景图像中同一动态物体;
步骤5:将多帧全景图像中的同一动态物体汇总得到全景图像中多个动态物体的动态运动图像。
在上述的基于鱼眼镜头的动态物体跟踪方法中,所述的步骤2中的虚拟平面为长条状的平面;所述的虚拟曲面为半球面或者环形曲面。
在上述的基于鱼眼镜头的动态物体跟踪方法中,所述的步骤2中的区块的像素大小为50*50。
在上述的基于鱼眼镜头的动态物体跟踪方法中,所述的步骤3中静态物体的去除方法为:将相邻两帧或多帧图像中的区块进行比对,将同一坐标点的相同区块予以去除。
在上述的基于鱼眼镜头的动态物体跟踪方法中,所述的步骤4具体为:
S41:获取步骤3处理得到的相邻两帧含有至少一个动态物体的全景图像中的动态物体的区块;
S42:将相邻两帧全景图像中的动态物体的区块进行比对,若两个动态物体的区块组成一致则标记为同一动态物体;若两个动态物体的区块组成不一致则标记为非同一动态物体;
S43:S42结束后,得到相邻两帧全景图像中所有相对应的动态物体。
同时,本发明还公开了一种基于鱼眼镜头的动态物体跟踪系统,包括如下单元:
图像获取单元:用于通过鱼眼镜头获取全景图像;
图像预处理单元:用于将全景图像映射到预设的虚拟平面或曲面上;并将投影后的图像分割成预设像素大小的区块;
静态物体去除单元:用于通过多帧全景图像比对,去除全景图像中的静态物体,得到多帧全景图像中的动态物体;
动态物体比对单元:用于将相邻两帧全景图像中动态物体所包含的多个区块进行比对,得到相邻两帧全景图像中同一动态物体;
结果输出单元:用于将多帧全景图像中的同一动态物体汇总得到全景图像中多个动态物体的动态运动图像。
在上述的基于鱼眼镜头的动态物体跟踪系统中,所述的动态物体比对单元包括如下子单元:
区块获取子单元:用于获取经过静态物体去除单元处理得到的相邻两帧含有至少一个动态物体的全景图像中的动态物体的区块;
比对子单元:用于将相邻两帧全景图像中的动态物体的区块进行比对,若两个动态物体的区块组成一致则标记为同一动态物体;若两个动态物体的区块组成不一致则标记为非同一动态物体;
结果输出子单元:用于根据比对子单元的计算得到相邻两帧全景图像中所有相对应的动态物体。
本发明与现有技术相比,其有益效果在于:
传统的动态物体跟踪需要结合多个摄像头进行跟踪,但是在本方案中,采用鱼眼镜头就可以捕获全景图像,这适用于超市、会议大厅、中小型车站等具有一定面积的封闭或开放的空间,空间内的所有图像都可以显示在鱼眼镜头的传感器上,并且划分区块,通过去除静态物体并根据动态物体的区块确定不同图像中的动态物体的运动轨迹,得到跟踪结果,如此设置可以有效的降低数据处理量,显著的提高了数据处理速度。
附图说明
图1为本发明的实施例1的流程方框图;
图2为本发明的实施例1的步骤4的流程示意图;
图3为本发明的实施例1的结构方框图。
具体实施方式
下面结合实施例,对本发明作进一步的描述,但不构成对本发明的任何限制,任何在本发明权利要求范围所做的有限次的修改,仍在本发明的权利要求范围内。
实施例1
如图1-3所示,一种基于鱼眼镜头的动态物体跟踪方法,其特征在于,所述的方法包括依次进行的如下步骤:
步骤1:通过鱼眼镜头获取全景图像;
鱼眼镜头获取的图像是成像在传感器上的平面图像;由于最终呈现在用户眼前的是接近现实的长条状平面图像或者曲面图像,因此对于传感器上的平面图像要经过步骤2的预处理。
步骤2:将全景图像映射到预设的虚拟平面或曲面上;并将投影后的图像分割成预设像素大小的区块;
虚拟平面为长条状的平面;所述的虚拟曲面为半球面或者环形曲面。如果为长条状的平面则该平面为整个图像的条状展开图;如果为虚拟曲面,则一般选择为半球面更为适合于用户感官,而环形曲面实质上是上述虚拟平面首尾相接组成的图形。
在本实施例中,区块的像素大小为50*50,但是并不一定要限定为这个像素。本实施例中设置区块的目的在于,为后续的静态物体去除和动态物体的跟踪做准备,一方面合适的像素范围可以在去除静态物体过程中得到的动态物体边缘更为完整光滑,减少齿形边缘的产生,另一方面,降低数据处理难度,避免了过小像素区块带来的处理量过大的问题。
步骤3:通过多帧全景图像比对,去除全景图像中的静态物体,得到多帧全景图像中的动态物体;
静态物体的去除方法为:将相邻两帧或多帧图像中的区块进行比对,将同一坐标点的相同区块予以去除。
步骤4:将相邻两帧全景图像中动态物体所包含的多个区块进行比对,得到相邻两帧全景图像中同一动态物体;
所述的步骤4具体为:
S41:获取步骤3处理得到的相邻两帧含有至少一个动态物体的全景图像中的动态物体的区块;
S42:将相邻两帧全景图像中的动态物体的区块进行比对,若两个动态物体的区块组成一致则标记为同一动态物体;若两个动态物体的区块组成不一致则标记为非同一动态物体;
S43:S42结束后,得到相邻两帧全景图像中所有相对应的动态物体。
步骤5:将多帧全景图像中的同一动态物体汇总得到全景图像中多个动态物体的动态运动图像。
传统的动态物体跟踪需要结合多个摄像头进行跟踪,但是在本实施例中,采用鱼眼镜头就可以捕获全景图像,这适用于超市、会议大厅、中小型车站等具有一定面积的封闭或开放的空间,空间内的所有图像都可以显示在鱼眼镜头的传感器上,并且划分区块,通过去除静态物体并根据动态物体的区块确定不同图像中的动态物体的运动轨迹,得到跟踪结果,如此设置可以有效的降低数据处理量,显著的提高了数据处理速度。
同时,本实施例还包括用于实施该方法的系统,具体来说,包括如下单元:
图像获取单元1:用于通过鱼眼镜头获取全景图像;
图像预处理单元2:用于将全景图像映射到预设的虚拟平面或曲面上;并将投影后的图像分割成预设像素大小的区块;
静态物体去除单元3:用于通过多帧全景图像比对,去除全景图像中的静态物体,得到多帧全景图像中的动态物体;
动态物体比对单元4:用于将相邻两帧全景图像中动态物体所包含的多个区块进行比对,得到相邻两帧全景图像中同一动态物体;
该动态物体比对单元包括如下子单元:
区块获取子单元41:用于获取经过静态物体去除单元处理得到的相邻两帧含有至少一个动态物体的全景图像中的动态物体的区块;
比对子单元42:用于将相邻两帧全景图像中的动态物体的区块进行比对,若两个动态物体的区块组成一致则标记为同一动态物体;若两个动态物体的区块组成不一致则标记为非同一动态物体;
结果输出子单元43:用于根据比对子单元的计算得到相邻两帧全景图像中所有相对应的动态物体。
结果输出单元5:用于将多帧全景图像中的同一动态物体汇总得到全景图像中多个动态物体的动态运动图像。
以上仅是本发明的优选实施方式,应当指出对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些都不会影响本发明实施的效果和专利的实用性。
Claims (7)
1.一种基于鱼眼镜头的动态物体跟踪方法,其特征在于,所述的方法包括依次进行的如下步骤:
步骤1:通过鱼眼镜头获取全景图像;
步骤2:将全景图像映射到预设的虚拟平面或曲面上;并将投影后的图像分割成预设像素大小的区块;
步骤3:通过多帧全景图像比对,去除全景图像中的静态物体,得到多帧全景图像中的动态物体;
步骤4:将相邻两帧全景图像中动态物体所包含的多个区块进行比对,得到相邻两帧全景图像中同一动态物体;
步骤5:将多帧全景图像中的同一动态物体汇总得到全景图像中多个动态物体的动态运动图像。
2.根据权利要求1所述的基于鱼眼镜头的动态物体跟踪方法,其特征在于,所述的步骤2中的虚拟平面为长条状的平面;所述的虚拟曲面为半球面或者环形曲面。
3.根据权利要求1所述的基于鱼眼镜头的动态物体跟踪方法,其特征在于,所述的步骤2中的区块的像素大小为50*50。
4.根据权利要求1所述的基于鱼眼镜头的动态物体跟踪方法,其特征在于,所述的步骤3中静态物体的去除方法为:将相邻两帧或多帧图像中的区块进行比对,将同一坐标点的相同区块予以去除。
5.根据权利要求1所述的基于鱼眼镜头的动态物体跟踪方法,其特征在于,所述的步骤4具体为:
S41:获取步骤3处理得到的相邻两帧含有至少一个动态物体的全景图像中的动态物体的区块;
S42:将相邻两帧全景图像中的动态物体的区块进行比对,若两个动态物体的区块组成一致则标记为同一动态物体;若两个动态物体的区块组成不一致则标记为非同一动态物体;
S43:S42结束后,得到相邻两帧全景图像中所有相对应的动态物体。
6.一种基于鱼眼镜头的动态物体跟踪系统,其特征在于:包括如下单元:
图像获取单元:用于通过鱼眼镜头获取全景图像;
图像预处理单元:用于将全景图像映射到预设的虚拟平面或曲面上;并将投影后的图像分割成预设像素大小的区块;
静态物体去除单元:用于通过多帧全景图像比对,去除全景图像中的静态物体,得到多帧全景图像中的动态物体;
动态物体比对单元:用于将相邻两帧全景图像中动态物体所包含的多个区块进行比对,得到相邻两帧全景图像中同一动态物体;
结果输出单元:用于将多帧全景图像中的同一动态物体汇总得到全景图像中多个动态物体的动态运动图像。
7.根据权利要求6所述的基于鱼眼镜头的动态物体跟踪系统,其特征在于,所述的动态物体比对单元包括如下子单元:
区块获取子单元:用于获取经过静态物体去除单元处理得到的相邻两帧含有至少一个动态物体的全景图像中的动态物体的区块;
比对子单元:用于将相邻两帧全景图像中的动态物体的区块进行比对,若两个动态物体的区块组成一致则标记为同一动态物体;若两个动态物体的区块组成不一致则标记为非同一动态物体;
结果输出子单元:用于根据比对子单元的计算得到相邻两帧全景图像中所有相对应的动态物体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710731646.0A CN107730438A (zh) | 2017-08-23 | 2017-08-23 | 一种基于鱼眼镜头的动态物体跟踪方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710731646.0A CN107730438A (zh) | 2017-08-23 | 2017-08-23 | 一种基于鱼眼镜头的动态物体跟踪方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107730438A true CN107730438A (zh) | 2018-02-23 |
Family
ID=61205144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710731646.0A Pending CN107730438A (zh) | 2017-08-23 | 2017-08-23 | 一种基于鱼眼镜头的动态物体跟踪方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107730438A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110169741A (zh) * | 2018-06-25 | 2019-08-27 | 宁波洒哇地咔电器有限公司 | 一种清洁处理方法及设备 |
CN110276268A (zh) * | 2019-05-28 | 2019-09-24 | 江苏金海星导航科技有限公司 | 基于度量学习与ssd网络的畸变行车视频车辆检测方法 |
US20220172374A1 (en) * | 2019-03-11 | 2022-06-02 | Omron Corporation | Object tracking device and object tracking method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012082127A1 (en) * | 2010-12-16 | 2012-06-21 | Massachusetts Institute Of Technology | Imaging system for immersive surveillance |
CN103929592A (zh) * | 2014-04-22 | 2014-07-16 | 杭州道联电子技术有限公司 | 全方位智能监控设备及方法 |
CN105516661A (zh) * | 2015-12-10 | 2016-04-20 | 吴健辉 | 鱼眼相机与ptz相机相结合的主从目标监控系统及方法 |
CN106991415A (zh) * | 2017-06-05 | 2017-07-28 | 北京汽车集团有限公司 | 用于车载鱼眼相机的图像处理方法和装置 |
-
2017
- 2017-08-23 CN CN201710731646.0A patent/CN107730438A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012082127A1 (en) * | 2010-12-16 | 2012-06-21 | Massachusetts Institute Of Technology | Imaging system for immersive surveillance |
CN103929592A (zh) * | 2014-04-22 | 2014-07-16 | 杭州道联电子技术有限公司 | 全方位智能监控设备及方法 |
CN105516661A (zh) * | 2015-12-10 | 2016-04-20 | 吴健辉 | 鱼眼相机与ptz相机相结合的主从目标监控系统及方法 |
CN106991415A (zh) * | 2017-06-05 | 2017-07-28 | 北京汽车集团有限公司 | 用于车载鱼眼相机的图像处理方法和装置 |
Non-Patent Citations (1)
Title |
---|
汪冲: "运动目标检测与跟踪在鱼眼图像中的应用", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110169741A (zh) * | 2018-06-25 | 2019-08-27 | 宁波洒哇地咔电器有限公司 | 一种清洁处理方法及设备 |
US20220172374A1 (en) * | 2019-03-11 | 2022-06-02 | Omron Corporation | Object tracking device and object tracking method |
US11869199B2 (en) * | 2019-03-11 | 2024-01-09 | Omron Corporation | Object tracking device and object tracking method |
CN110276268A (zh) * | 2019-05-28 | 2019-09-24 | 江苏金海星导航科技有限公司 | 基于度量学习与ssd网络的畸变行车视频车辆检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108965740B (zh) | 一种实时视频换脸方法、装置、设备和存储介质 | |
US8982180B2 (en) | Face and other object detection and tracking in off-center peripheral regions for nonlinear lens geometries | |
US9807316B2 (en) | Method for image segmentation | |
US8723959B2 (en) | Face and other object tracking in off-center peripheral regions for nonlinear lens geometries | |
US9767568B2 (en) | Image processor, image processing method, and computer program | |
CN105282421B (zh) | 一种去雾图像获取方法、装置及终端 | |
JP2012088787A (ja) | 画像処理装置、画像処理方法 | |
WO2023011013A1 (zh) | 视频图像的拼缝搜索方法、视频图像的拼接方法和装置 | |
WO2021218293A1 (zh) | 图像处理方法、装置、电子设备和存储介质 | |
CN109359577B (zh) | 一种基于机器学习的复杂背景下人数检测系统 | |
CN104135612B (zh) | 一种可调节拍摄主体位置的拍摄方法和拍摄装置 | |
CN107730438A (zh) | 一种基于鱼眼镜头的动态物体跟踪方法和系统 | |
WO2017067262A1 (zh) | 一种图像处理方法和装置 | |
Baby et al. | Dynamic vision sensors for human activity recognition | |
CN112232204B (zh) | 基于红外图像的活体检测方法 | |
CN105469375A (zh) | 处理高动态范围全景图的方法和装置 | |
CN107295296B (zh) | 一种监控视频选择性存储与恢复方法及系统 | |
CN110858277A (zh) | 一种获得姿态分类模型的方法以及装置 | |
KR101325002B1 (ko) | 화상 처리 장치, 화상 처리 방법 및 기록 매체 | |
US20160180545A1 (en) | Method and electronic device for object tracking in a light-field capture | |
CN113610865B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN108961182B (zh) | 针对视频图像的竖直方向灭点检测方法及视频扭正方法 | |
WO2022028407A1 (zh) | 一种全景视频剪辑方法、装置、存储介质及设备 | |
CN105447841B (zh) | 图像匹配方法及视频处理方法 | |
CN102496174A (zh) | 一种用于安防监控的人脸素描索引生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180223 |