CN112581491B - 基于地址事件连通域的运动目标定位方法 - Google Patents
基于地址事件连通域的运动目标定位方法 Download PDFInfo
- Publication number
- CN112581491B CN112581491B CN202011501701.5A CN202011501701A CN112581491B CN 112581491 B CN112581491 B CN 112581491B CN 202011501701 A CN202011501701 A CN 202011501701A CN 112581491 B CN112581491 B CN 112581491B
- Authority
- CN
- China
- Prior art keywords
- address event
- connected domain
- address
- moving target
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于地址事件连通域的运动目标定位方法,其实现步骤包括:1、获取待定位运动目标的地址事件序列;2、对地址事件序列去噪;3、生成地址事件连通域;4、丢弃小于所有连通域的均值的连通域;5、根据连通域确定当前地址事件序列中运动目标的位置。本发明通过对待定位运动目标的地址时间序列生成地址事件连通域,筛选连通域,根据连通域确定当前地址事件序列中运动目标的位置,提高了对运动目标进行定位的精度和效率。
Description
技术领域
本发明属于物理技术领域,更进一步涉及信号处理技术领域中的一种基于地址事件连通域的运动目标定位方法。本发明可用在智慧交通、视频监控等技术领域中对运动目标进行定位。
背景技术
目前,传统的使用事件相机进行运动目标定位方法主要有基于聚类的方法和光流法。基于聚类的方法根据地址事件信息之间的相关性,确定相关事件集合,根据相关事件集合从而确定目标位置,该方法计算复杂度高,定位精度低。基于光流的方法通过计算每个地址事件的运动矢量,将运动矢量转化为目标位置,但是光流法的两个基本假设在现实情况下不容易满足,定位的时效性和精确性难以兼得。
厦门大学在其申请的专利文献“一种基于事件相机的异步目标跟踪方法”(专利申请号2019104180735,申请公开号CN110148159A)中公开了一种事件相机运动目标定位方法。该方法通过将事件相机产生的地址事件中的开事件和闭事件投影到图像平面,形成地址事件集合对应的自适应线性衰减时间平面帧,对自适应线性衰减时间平面帧计算非零网格熵,通过t分布计算非零网格熵的置信区间,对达到置信区间的自适应线性衰减时间平面帧使用EdgeBoxes检测器得到运动目标位置。该方法存在的不足之处是,计算自适应线性衰减时间平面帧非零网格熵耗时,导致定位效率低。
Marco Cannici等人在其发表的论文“Attention Mechanisms for ObjectRecognition with Event-Based Cameras”(IEEE Winter Conf.Applications ofComputer Vision(WACV),2019)中提出一种使用峰值检测进行运动目标定位方法。该方法通过将地址事件组成的区域划分为固定步长为间隔的矩形活动窗口,对每个活动窗口进行峰值检测,记录符合置信度的活动窗口,将活动窗口合并得到运动目标区域,得到运动目标位置。该方法存在的不足之处是,使用峰值检测得到激活窗口导致定位精度低,容易定位失败。
发明内容
本发明的目的在于针对上述已有技术存在的不足,提出了一种基于地址事件连通域的运动目标定位方法,以解决在使用事件相机进行运动目标定位的现有技术中,定位效率和精度低的问题;
实现本发明目的的具体思路是:定位时,对地址事件数据序列使用地址事件流数据去噪算法进行去噪,对去噪后的地址事件序列使用连通域标记方法生成连通域,筛选连通域,根据连通域确定当前地址事件序列中运动目标的位置。
实现本发明目的的方法,包括如下步骤:
(1)获取待定位运动目标的地址事件序列:
使用事件相机连续拍摄至少10毫秒的待定位运动目标,将事件相机输出的该时间段的所有地址事件数据组成一个地址事件序列;
(2)对地址事件序列去噪:
利用地址事件流数据去噪算法,对地址事件序列去噪,得到去噪后的地址事件序列;
(3)生成地址事件连通域:
使用连通域标记方法,对去噪后的地址事件序列中每个地址事件进行标记,将相同标记的地址事件组成一个连通域;
(4)判断每个连通域中地址事件的总数是否小于所有连通域的均值,若是,则执行步骤(5),否则,则执行步骤(6):
(5)丢弃小于所有连通域的均值的连通域:
(6)根据连通域确定当前地址事件序列中运动目标的位置:
(6a)找出连通域中地址事件行元素中的最小值和最大值,列元素的最小值和最大值;
(6b)将地址事件行元素最小值和列元素最小值组成待定位运动目标的第一个坐标点;将地址事件行元素最小值和列元素最大值组成待定位运动目标的第二个坐标点;将地址事件行元素最大值和列元素最小值组成待定位运动目标的第三个坐标点;将地址事件行元素最大值和列元素最大值组成待定位运动目标的第四个坐标点;将该四个坐标点作为运动目标的位置。
本发明与现有技术相比,具有如下优点:
第一,由于本发明对地址事件数据序列使用地址事件流数据去噪算法进行去噪,对去噪后的地址事件序列使用连通域标记方法生成连通域,克服了现有技术中计算自适应线性衰减时间平面帧非零网格熵耗时,导致定位效率低的问题,使得本发明可以降低运算时间,提高定位效率。
第二,由于本发明定位时进行连通域筛选,根据筛选后的连通域确定当前地址事件序列中运动目标的位置,克服了现有技术使用峰值检测得到激活窗口导致定位精度低,容易定位失败的问题,使得本发明提高了运动目标定位的精度和鲁棒性。
附图说明
图1是本发明的流程图;
图2是本发明仿真实验中事件相机拍摄的行驶电动车定位结果示意图;
图3是本发明仿真实验中事件相机拍摄的行驶汽车定位结果示意图。
具体实施方式
下面结合附图,对本发明作进一步详细描述。
参照图1,对本发明实现的具体步骤作进一步详细的描述。
步骤1,获取待定位运动目标的地址事件序列。
使用事件相机连续拍摄至少10毫秒的待定位运动目标,将事件相机输出的该时间段的所有地址事件数据组成一个地址事件序列。
步骤2,对地址事件序列去噪。
利用地址事件流数据去噪算法,对地址事件序列去噪,得到去噪后的地址事件序列
步骤3,生成地址事件连通域。
使用连通域标记方法,对去噪后的地址事件序列中每个地址事件进行标记,将相同标记的地址事件组成一个连通域。
连通域标记方法的步骤为:以去噪后的地址事件序列中每个地址事件为中心,搜索其八邻域内是否存在已标记地址事件,若存在,则用八邻域内已标记地址事件中最小值标记该地址事件,否则,将八邻域内已标记地址事件中的最大值加1后的值标记该地址事件。
步骤4,判断每个连通域中地址事件的总数是否小于所有连通域的均值,若是,则执行步骤5,否则,则执行步骤6。
步骤5,丢弃小于所有连通域的均值的连通域。
步骤6,根据连通域确定当前地址事件序列中运动目标的位置。
找出连通域中地址事件行元素中的最小值和最大值,列元素的最小值和最大值;
将地址事件行元素最小值和列元素最小值组成待定位运动目标的第一个坐标点;将地址事件行元素最小值和列元素最大值组成待定位运动目标的第二个坐标点;将地址事件行元素最大值和列元素最小值组成待定位运动目标的第三个坐标点;将地址事件行元素最大值和列元素最大值组成待定位运动目标的第四个坐标点;将该四个坐标点作为运动目标的位置
下面结合仿真实验对本发明的效果做进一步的说明:
1.仿真实验条件:
本发明的仿真实验的硬件平台为:处理器为Intel(R)Core(TM)i7-4790,主频为3.60GHz,内存12GB;
本发明的仿真实验的软件平台为:Windows 7专业版64位操作系统,MATLABR2018b;
本发明仿真实验所使用的事件相机是上海芯仑光电科技有限公司的Celex-IV;
2.仿真内容及其结果分析:
仿真实验1:
使用事件相机拍摄正常行驶中的一辆电动车15毫秒,将事件相机输出的该时间段一辆电动车的所有地址事件数据组成一个地址事件序列,对地址事件序列进行去噪,对去噪后的地址事件序列生成地址事件连通域,筛选连通域,根据连通域确定当前地址事件序列中电动车的位置,如图2所示。
图2中矩形框的位置表示采用本发明的方法进行仿真定位到待定位地址事件流中单个目标的位置图。从图2中可以看出,本发明准确的找到了单个目标的四个坐标点,并进行了框定。
仿真实验2:
使用事件相机连续拍摄正常行驶中的多辆汽车15毫秒,将事件相机输出的该时间段九辆汽车的所有地址事件数据组成一个地址事件序列,对地址事件序列进行去噪,对去噪后的地址事件序列生成地址事件连通域,对连通域进行筛选,根据九个连通域分别确定当前地址事件序列中九个车辆的位置,如图3所示。
图3中九个矩形框的位置表示采用本发明的方法进行仿真定位到待定位地址事件流中九个目标的位置图,从图3中可以看出,本发明准确的分别找到九个目标对应的坐标点,并进行了框定。
Claims (1)
1.一种基于地址事件连通域的运动目标定位方法,其特征在于,生成地址事件连通域,筛选连通域,根据连通域确定当前地址事件序列中运动目标的位置,该方法的步骤包括如下:
(1)获取待定位运动目标的地址事件序列:
使用事件相机连续拍摄至少10毫秒的待定位运动目标,将事件相机输出的该时间段的所有地址事件数据组成一个地址事件序列;
(2)对地址事件序列去噪:
利用地址事件流数据去噪算法,对地址事件序列去噪,得到去噪后的地址事件序列;
(3)生成地址事件连通域:
使用连通域标记方法,对去噪后的地址事件序列中每个地址事件进行标记,将相同标记的地址事件组成一个连通域;
所述的连通域标记方法的步骤为:以去噪后的地址事件序列中每个地址事件为中心,搜索其八邻域内是否存在已标记地址事件,若存在,则用八邻域内已标记地址事件中最小值标记该地址事件,否则,将八邻域内已标记地址事件中的最大值加1后的值标记该地址事件;
(4)判断每个连通域中地址事件的总数是否小于所有连通域的均值,若是,则执行步骤(5),否则,则执行步骤(6);
(5)丢弃小于所有连通域的均值的连通域;
(6)根据连通域确定当前地址事件序列中运动目标的位置:
(6a)分别找出连通域中地址事件行元素中的最小值和最大值,列元素的最小值和最大值;
(6b)将地址事件行元素最小值和列元素最小值组成待定位运动目标的第一个坐标点;将地址事件行元素最小值和列元素最大值组成待定位运动目标的第二个坐标点;将地址事件行元素最大值和列元素最小值组成待定位运动目标的第三个坐标点;将地址事件行元素最大值和列元素最大值组成待定位运动目标的第四个坐标点;将该四个坐标点作为运动目标的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011501701.5A CN112581491B (zh) | 2020-12-17 | 2020-12-17 | 基于地址事件连通域的运动目标定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011501701.5A CN112581491B (zh) | 2020-12-17 | 2020-12-17 | 基于地址事件连通域的运动目标定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112581491A CN112581491A (zh) | 2021-03-30 |
CN112581491B true CN112581491B (zh) | 2023-03-21 |
Family
ID=75135990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011501701.5A Active CN112581491B (zh) | 2020-12-17 | 2020-12-17 | 基于地址事件连通域的运动目标定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112581491B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104143096A (zh) * | 2014-07-22 | 2014-11-12 | 天津大学 | 基于地址事件表达的二值连通域标记方法 |
CN105719296A (zh) * | 2016-01-21 | 2016-06-29 | 天津大学 | 基于地址-事件表示的高速图像二值连通域标记方法 |
WO2018037079A1 (en) * | 2016-08-24 | 2018-03-01 | Universität Zürich | Simultaneous localization and mapping with an event camera |
CN109726356A (zh) * | 2019-01-17 | 2019-05-07 | 西安电子科技大学 | 一种动态视觉传感器的地址事件流数据去噪方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160182657A1 (en) * | 2014-12-17 | 2016-06-23 | Sharethis, Inc. | Apparatus and method of user identification across multiple devices |
US9934557B2 (en) * | 2016-03-22 | 2018-04-03 | Samsung Electronics Co., Ltd | Method and apparatus of image representation and processing for dynamic vision sensor |
-
2020
- 2020-12-17 CN CN202011501701.5A patent/CN112581491B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104143096A (zh) * | 2014-07-22 | 2014-11-12 | 天津大学 | 基于地址事件表达的二值连通域标记方法 |
CN105719296A (zh) * | 2016-01-21 | 2016-06-29 | 天津大学 | 基于地址-事件表示的高速图像二值连通域标记方法 |
WO2018037079A1 (en) * | 2016-08-24 | 2018-03-01 | Universität Zürich | Simultaneous localization and mapping with an event camera |
CN109726356A (zh) * | 2019-01-17 | 2019-05-07 | 西安电子科技大学 | 一种动态视觉传感器的地址事件流数据去噪方法 |
Non-Patent Citations (3)
Title |
---|
Spatial attention based visual semantic learning for action recognition in still images;Yunpeng Zheng et al;《Neurocomputing》;20201106;383-396页 * |
基于地址-事件表示的高速二值连通域标记方法;闫石等;《传感技术学报》;20160315(第03期);362-367页 * |
多维视觉图像敏感区域智能标记方法仿真;包姣;《计算机仿真》;20171130;第34卷(第11期);324-327页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112581491A (zh) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109697726B (zh) | 一种基于事件相机的端对端目标运动估计方法 | |
CN109522854B (zh) | 一种基于深度学习和多目标跟踪的行人流量统计方法 | |
US20190362183A1 (en) | Method for processing a stream of video images | |
CN1107282C (zh) | 在短时连续图象中识别运动目标的方法 | |
CN110046659B (zh) | 一种基于tld的长时间单目标跟踪方法 | |
CN107248296B (zh) | 一种基于无人机和时序特征的视频交通流量统计方法 | |
CN106128121A (zh) | 基于局部特征分析的车辆排队长度快速检测算法 | |
CN111582253B (zh) | 基于事件触发的车牌跟踪识别方法 | |
CN111353496B (zh) | 一种红外弱小目标实时检测方法 | |
Gomaa et al. | Real-time algorithm for simultaneous vehicle detection and tracking in aerial view videos | |
CN116311063A (zh) | 监控视频下基于人脸识别的人员细粒度跟踪方法及系统 | |
CN113643330B (zh) | 一种基于动态语义特征的目标跟踪方法及系统 | |
CN112581491B (zh) | 基于地址事件连通域的运动目标定位方法 | |
CN111881837B (zh) | 基于阴影提取的视频sar运动目标检测方法 | |
CN110634154B (zh) | 一种面向速度大范围变化目标跟踪的模板匹配方法 | |
CN116012949B (zh) | 一种复杂场景下的人流量统计识别方法及系统 | |
Lee et al. | Vehicle counting based on a stereo vision depth maps for parking management | |
Hsieh et al. | Grid-based template matching for people counting | |
CN115565157A (zh) | 一种多摄像头多目标车辆跟踪方法及系统 | |
Makawana et al. | Moving vehicle detection and speed measurement in video sequence | |
Yeoh et al. | Accurate real-time object tracking with linear prediction method | |
Li et al. | Research on road traffic moving target detection method based on sequential inter frame difference and optical flow method | |
Wang et al. | A video traffic flow detection system based on machine vision | |
Mohana et al. | Vehicle detection and counting by using real time traffic flux through differential technique and performance evaluation | |
CN112598011B (zh) | 一种基于多特征融合的相关滤波跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |