CN117576153A - 一种目标跟踪方法及系统 - Google Patents
一种目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN117576153A CN117576153A CN202311498108.3A CN202311498108A CN117576153A CN 117576153 A CN117576153 A CN 117576153A CN 202311498108 A CN202311498108 A CN 202311498108A CN 117576153 A CN117576153 A CN 117576153A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- camera
- event
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000004927 fusion Effects 0.000 claims abstract description 71
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明提供了一种目标跟踪方法及系统,其中方法包括:获取事件相机采集的目标的事件流数据,以及帧相机采集的目标的图像帧;将事件流数据和图像帧进行融合,获得融合图像;基于融合图像进行目标识别,获得目标的位置信息;基于目标的位置信息,控制事件相机转动,以基于事件相机对目标进行跟踪。本发明通过将事件相机采集的事件流数据和帧相机采集的图像帧融合,实现高帧频的图像重建,再利用重建后的图像完成目标识别,输出目标的位置信息,最后利用识别结果的目标位置信息,运行基于事件相机的目标跟踪算法,实现目标的低延时持续跟踪,提高了目标跟踪的成功率和准确率,解决了复杂干扰条件下的高速运动目标跟踪实时性等问题。
Description
技术领域
本发明属于光电跟踪技术领域,更具体地,涉及一种目标跟踪方法及系统。
背景技术
光电跟踪技术在公共安全、消防、工业自动化、机器人等诸多领域应用广泛。具体而言,光电跟踪技术由光电探测系统捕获视场内的移动目标,并保持对目标的实时跟踪,确保目标始终处于光电探测的视场范围内。
目前传统光电跟踪技术,都是基于帧的传感器(如可见光相机、红外相机等),在复杂的环境条件下往往难以实现快速且准确的跟踪,通常运动目标易受光照、遮挡、姿态变化以及背景杂乱等干扰因素影响,从而导致成像模糊,目标跟踪失败,且跟踪延时长,不适用于高速移动目标的跟踪。
发明内容
针对现有技术的缺陷,本发明的目的在于提供一种目标跟踪方法及系统,旨在解决现有目标跟踪技术易受干扰因素影响导致跟踪失败且跟踪延时长的问题。
为实现上述目的,第一方面,本发明提供了一种目标跟踪方法,包括以下步骤:
步骤S101,获取事件相机采集的目标的事件流数据,以及帧相机采集的所述目标的图像帧;
步骤S102,将事件流数据和图像帧进行融合,获得融合图像;
步骤S103,基于融合图像进行目标识别,获得目标的位置信息;
步骤S104,基于所述目标的位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
在一个可选的示例中,步骤S102具体包括:
将事件流数据和图像帧输入至融合模型,获得融合模型输出的融合图像;所述融合模型基于脉冲神经网络构建,并基于样本事件流数据,样本图像帧以及对应的样本融合图像训练得到。
在一个可选的示例中,步骤S103具体包括:
对融合图像和所述目标的模板图像分别进行特征提取,获得融合图像的特征和模板图像的特征;
将融合图像的特征与模板图像的特征进行匹配,获得匹配结果;
基于匹配结果识别融合图像中的目标,获得目标的位置信息。
在一个可选的示例中,步骤S104具体包括:
基于所述目标的位置信息,控制所述事件相机转动,以使目标置于所述事件相机的视场中心;
基于事件相机采集的实时事件流数据进行目标定位,获得目标的实时位置信息;
基于目标的实时位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
在一个可选的示例中,所述事件相机和帧相机安装在同一转台上,且事件相机与帧相机的光轴保持平行。
第二方面,本发明提供了一种目标跟踪系统,包括:
事件相机,用于采集目标的事件流数据;
帧相机,用于采集所述目标的图像帧;
图像融合单元,用于将事件流数据和图像帧进行融合,获得融合图像;
目标识别单元,用于基于融合图像进行目标识别,获得目标的位置信息;
目标跟踪单元,用于基于所述目标的位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
在一个可选的示例中,所述图像融合单元具体用于:
将事件流数据和图像帧输入至融合模型,获得融合模型输出的融合图像;所述融合模型基于脉冲神经网络构建,并基于样本事件流数据,样本图像帧以及对应的样本融合图像训练得到。
在一个可选的示例中,所述目标识别单元具体用于:
对融合图像和所述目标的模板图像分别进行特征提取,获得融合图像的特征和模板图像的特征;
将融合图像的特征与模板图像的特征进行匹配,获得匹配结果;
基于匹配结果识别融合图像中的目标,获得目标的位置信息。
在一个可选的示例中,所述目标跟踪单元具体用于:
基于所述目标的位置信息,控制所述事件相机转动,以使目标置于所述事件相机的视场中心;
基于事件相机采集的实时事件流数据进行目标定位,获得目标的实时位置信息;
基于目标的实时位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
在一个可选的示例中,所述事件相机和帧相机安装在同一转台上,且事件相机与帧相机的光轴保持平行。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下有益效果:
本发明提供一种目标跟踪方法及系统,通过获取事件相机采集的目标的事件流数据,以及帧相机采集的目标的图像帧,将事件流数据和图像帧融合得到融合图像,实现事件流数据的高帧频的图像重建,再利用重建后的图像完成目标识别,输出目标的位置信息,最后利用识别结果的目标位置信息,运行基于事件相机的目标跟踪算法,实现目标的低延时持续跟踪,提高了目标跟踪的成功率和准确率,解决了复杂干扰条件下的高速运动目标跟踪实时性等问题。
附图说明
图1是本发明实施例提供的目标跟踪方法的流程示意图之一;
图2是本发明实施例提供的目标跟踪系统的架构图之一;
图3是本发明实施例提供的目标跟踪方法的流程示意图之二;
图4是本发明实施例提供的目标跟踪系统的架构图之二。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
针对现有技术的缺陷,本发明提供一种目标跟踪方法。图1是本发明实施例提供的目标跟踪方法的流程示意图之一,如图1所示,该方法包括以下步骤:
步骤S101,获取事件相机采集的目标的事件流数据,以及帧相机采集的所述目标的图像帧;
步骤S102,将事件流数据和图像帧进行融合,获得融合图像;
步骤S103,基于融合图像进行目标识别,获得目标的位置信息;
步骤S104,基于所述目标的位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
此处,事件相机是受生物视网膜启发的一种新型视觉设备,事件相机只输出运动时与亮度变化(帧微分)的有关信息,其帧频可以高达几百KHz。帧相机即基于帧的传感器构成的传统相机,传统相机以固定的速度输出一系列图像。由于事件相机的帧频比传统相机高很多,可以获取帧相机采集的某一个时刻的图像帧,以及对应的事件相机采集的多个时刻的事件组成的事件流数据,用于后续的图像融合。
需要说明的是,通过传统相机和事件相机的图像融合,使融合后的图像信息含有高时间分辨率(亮度变化)的事件流数据信息和低时间分辨率(丰富纹理)的传统相机灰度图像信息,使得在目标识别过程中,既能够使用传统的目标识别算法进行目标识别,又能够直接利用卷积神经网络进行人工智能目标识别,都能达到较好的目标识别效果,避免了光照、遮挡、姿态变化以及背景杂乱等干扰因素的影响。在此基础上进行目标跟踪,即可提高目标跟踪的成功率和准确率。
在目标跟踪过程中,通过控制转台带动事件相机转动,基于事件相机的异步感知特性,针对高速移动目标,获取事件特征运动轨迹,即可获得目标运动轨迹,实现几百KHz的跟踪带宽,达到微秒级的跟踪延时。基于事件相机的高帧频、低延时、高动态范围、低数据量的特点,使本发明的目标跟踪系统具有低延时、低功耗、高动态范围的特点,可以解决复杂干扰条件下的高速运动目标跟踪实时性等问题。此处,高速移动目标例如飞机、轮船等。
本发明实施例提供的方法,通过获取事件相机采集的目标的事件流数据,以及帧相机采集的目标的图像帧,将事件流数据和图像帧融合得到融合图像,实现事件流数据的高帧频的图像重建,再利用重建后的图像完成目标识别,输出目标的位置信息,最后利用识别结果的目标位置信息,运行基于事件相机的目标跟踪算法,实现目标的低延时持续跟踪,提高了目标跟踪的成功率和准确率,解决了复杂干扰条件下的高速运动目标跟踪实时性等问题。
基于上述实施例,步骤S102具体包括:
将事件流数据和图像帧输入至融合模型,获得融合模型输出的融合图像;所述融合模型基于脉冲神经网络构建,并基于样本事件流数据,样本图像帧以及对应的样本融合图像训练得到。
具体地,以人工神经元为单位构建脉冲神经网络,并且预先需要采集样本事件流数据,样本图像帧以及对应的样本融合图像,对初始的脉冲神经网络进行训练,从而获得融合模型。融合模型将事件相机获得的异步事件流视为刺激信号,动态融合事件流数据和图像帧,从而获得融合模型输出的融合图像。
可以理解的是,融合后的图像具有传统图像的高空间分辨率轮廓信息,也具有事件相机的高时间分辨率的事件信息,更有利于目标特征的快速提取,以及目标的准确识别。融合模型采用脉冲神经网络,可以进一步降低本发明的目标跟踪系统的功耗。
基于上述任一实施例,步骤S103具体包括:
对融合图像和所述目标的模板图像分别进行特征提取,获得融合图像的特征和模板图像的特征;
将融合图像的特征与模板图像的特征进行匹配,获得匹配结果;
基于匹配结果识别融合图像中的目标,获得目标的位置信息。
进一步地,模板图像可以是预先根据帧相机采集的目标图像制作而成。
需要说明的是,本发明实施例提供的目标识别方法可以进一步提高目标识别的准确性和效率,抗噪性也较好。
基于上述任一实施例,步骤S104具体包括:
基于所述目标的位置信息,控制所述事件相机转动,以使目标置于所述事件相机的视场中心;
基于事件相机采集的实时事件流数据进行目标定位,获得目标的实时位置信息;
基于目标的实时位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
具体地,考虑到目标识别过程中,目标在跟踪视场内,但不在跟踪视场中心,为了进一步提高跟踪效果,可以通过控制转台带动事件相机转动,使目标置于事件相机的视场中心;再次,利用事件相机的高帧频事件流数据,通过目标跟踪单元,运行基于事件相机的目标跟踪算法,实时输出目标位置信息;最后,利用目标跟踪单元实时输出的目标位置信息,控制转台带动事件相机转动,实现目标的低延时持续跟踪。
需要说明的是,由于传统相机的帧频较低,目标识别所输出的目标位置信息频率也较低,而本发明实施例利用基于事件相机的目标跟踪算法输出的目标位置信息频率较高,更有利于目标的实时(低延时)跟踪。
基于上述任一实施例,所述事件相机和帧相机安装在同一转台上,且事件相机与帧相机的光轴保持平行。
需要说明的是,事件相机和帧相机安装在同一转台上,可以通过伺服控制转动,且两个相机在安装的时候,经过校准,两个相机光轴保持平行(一致),可以进一步提高后续融合的效果,进而提高目标识别的准确性。
基于上述任一实施例,本发明提供一种基于事件相机和传统相机融合的低延时目标跟踪方法及系统,旨在解决现有光电跟踪系统中跟踪延时长的问题。
图2是本发明实施例提供的目标跟踪系统的架构图之一,如图2所示,目标跟踪系统主要由事件相机、传统相机、图像融合单元、目标识别单元、伺服控制单元、目标跟踪单元等部分组成。事件相机是受生物视网膜启发的一种新型视觉设备,事件相机只输出运动时与亮度变化(帧微分)的有关信息,其帧频可以高达几百KHz(积分时间为微秒级)。传统相机是以固定的速度(帧积分,积分时间为毫秒级)输出一系列图像。图像融合单元是一种结合考虑传统相机和事件相机的特性,以人工神经元(如LIF神经元)为单位构建脉冲神经网络,并将异步事件流视为刺激信号,动态融合传统相机和事件相机图像的一个工作单元。目标识别单元是利用目标识别算法进行特征提取、模板匹配、目标识别的一个工作单元。目标跟踪单元是基于事件相机的异步感知特性,针对高速移动目标,获取事件特征运动轨迹,实现几百KHz的跟踪带宽,达到微秒级的跟踪延时。伺服控制单元是本系统的执行机构,根据目标识别单元和目标跟踪单元实时输出的目标位置信息,带动安装在转台上的事件相机和传统相机转动,实现目标的持续跟踪。
在目标跟踪过程中,目标在事件相机上的像素位置会随着时间的变化而变化,在一段时间内,即可获得事件特征的运动轨迹。
图3是本发明实施例提供的目标跟踪方法的流程示意图之二,如图3所示,工作流程具体为:首先通过获取事件相机的事件流数据和传统相机的灰度图像数据,通过图像融合算法,实现事件流数据的高帧频的图像重建;其次,利用重建后的图像,通过特征提取、模板匹配的目标识别算法,完成目标识别,输出目标的位置信息;然后,利用识别结果的目标位置信息,伺服控制单元控制转台转动,将目标置于跟踪视场中心;再次,利用事件相机的高帧频事件流数据,通过目标跟踪单元,运行基于事件相机的目标跟踪算法,实时输出目标位置信息;最后,利用目标跟踪单元实时输出的目标位置信息,伺服控制单元控制转台转动,实现目标的低延时持续跟踪。
基于上述任一实施例,本发明提供了一种目标跟踪系统。图4是本发明实施例提供的目标跟踪系统的架构图之二,如图4所示,包括:
事件相机410,用于采集目标的事件流数据;
帧相机420,用于采集所述目标的图像帧;
图像融合单元430,用于将事件流数据和图像帧进行融合,获得融合图像;
目标识别单元440,用于基于融合图像进行目标识别,获得目标的位置信息;
目标跟踪单元450,用于基于所述目标的位置信息,控制所述事件相机410转动,以基于事件相机对所述目标进行跟踪。
本发明实施例提供的系统,通过获取事件相机采集的目标的事件流数据,以及帧相机采集的目标的图像帧,将事件流数据和图像帧融合得到融合图像,实现事件流数据的高帧频的图像重建,再利用重建后的图像完成目标识别,输出目标的位置信息,最后利用识别结果的目标位置信息,运行基于事件相机的目标跟踪算法,实现目标的低延时持续跟踪,提高了目标跟踪的成功率和准确率,解决了复杂干扰条件下的高速运动目标跟踪实时性等问题。
可以理解的是,上述各个模块的详细功能实现可参见前述方法实施例中的介绍,在此不做赘述。
另外,本发明实施例提供了另一种目标跟踪装置,其包括:存储器和处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于当执行所述计算机程序时,实现上述实施例中的方法。
此外,本发明还提供了一种计算机可读存储介质,所述存储介质上存储有计算机程序,当所述计算机程序被处理器执行时,实现上述实施例中的方法。
基于上述实施例中的方法,本发明实施例提供了一种计算机程序产品,当计算机程序产品在处理器上运行时,使得处理器执行上述实施例中的方法。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种目标跟踪方法,其特征在于,包括以下步骤:
步骤S101,获取事件相机采集的目标的事件流数据,以及帧相机采集的所述目标的图像帧;
步骤S102,将事件流数据和图像帧进行融合,获得融合图像;
步骤S103,基于融合图像进行目标识别,获得目标的位置信息;
步骤S104,基于所述目标的位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
2.根据权利要求1所述的方法,其特征在于,步骤S102具体包括:
将事件流数据和图像帧输入至融合模型,获得融合模型输出的融合图像;所述融合模型基于脉冲神经网络构建,并基于样本事件流数据,样本图像帧以及对应的样本融合图像训练得到。
3.根据权利要求1所述的方法,其特征在于,步骤S103具体包括:
对融合图像和所述目标的模板图像分别进行特征提取,获得融合图像的特征和模板图像的特征;
将融合图像的特征与模板图像的特征进行匹配,获得匹配结果;
基于匹配结果识别融合图像中的目标,获得目标的位置信息。
4.根据权利要求1所述的方法,其特征在于,步骤S104具体包括:
基于所述目标的位置信息,控制所述事件相机转动,以使目标置于所述事件相机的视场中心;
基于事件相机采集的实时事件流数据进行目标定位,获得目标的实时位置信息;
基于目标的实时位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述事件相机和帧相机安装在同一转台上,且事件相机与帧相机的光轴保持平行。
6.一种目标跟踪系统,其特征在于,包括:
事件相机,用于采集目标的事件流数据;
帧相机,用于采集所述目标的图像帧;
图像融合单元,用于将事件流数据和图像帧进行融合,获得融合图像;
目标识别单元,用于基于融合图像进行目标识别,获得目标的位置信息;
目标跟踪单元,用于基于所述目标的位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
7.根据权利要求6所述的系统,其特征在于,所述图像融合单元具体用于:
将事件流数据和图像帧输入至融合模型,获得融合模型输出的融合图像;所述融合模型基于脉冲神经网络构建,并基于样本事件流数据,样本图像帧以及对应的样本融合图像训练得到。
8.根据权利要求6所述的系统,其特征在于,所述目标识别单元具体用于:
对融合图像和所述目标的模板图像分别进行特征提取,获得融合图像的特征和模板图像的特征;
将融合图像的特征与模板图像的特征进行匹配,获得匹配结果;
基于匹配结果识别融合图像中的目标,获得目标的位置信息。
9.根据权利要求6所述的系统,其特征在于,所述目标跟踪单元具体用于:
基于所述目标的位置信息,控制所述事件相机转动,以使目标置于所述事件相机的视场中心;
基于事件相机采集的实时事件流数据进行目标定位,获得目标的实时位置信息;
基于目标的实时位置信息,控制所述事件相机转动,以基于事件相机对所述目标进行跟踪。
10.根据权利要求6至9任一项所述的系统,其特征在于,所述事件相机和帧相机安装在同一转台上,且事件相机与帧相机的光轴保持平行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311498108.3A CN117576153A (zh) | 2023-11-09 | 2023-11-09 | 一种目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311498108.3A CN117576153A (zh) | 2023-11-09 | 2023-11-09 | 一种目标跟踪方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117576153A true CN117576153A (zh) | 2024-02-20 |
Family
ID=89861663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311498108.3A Pending CN117576153A (zh) | 2023-11-09 | 2023-11-09 | 一种目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117576153A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117808847A (zh) * | 2024-02-29 | 2024-04-02 | 中国科学院光电技术研究所 | 融合仿生动态视觉的空间非合作目标特征跟踪方法 |
-
2023
- 2023-11-09 CN CN202311498108.3A patent/CN117576153A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117808847A (zh) * | 2024-02-29 | 2024-04-02 | 中国科学院光电技术研究所 | 融合仿生动态视觉的空间非合作目标特征跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gehrig et al. | Video to events: Recycling video datasets for event cameras | |
CN107179683B (zh) | 一种基于神经网络的交互机器人智能运动检测与控制方法 | |
Chen | Pseudo-labels for supervised learning on dynamic vision sensor data, applied to object detection under ego-motion | |
CN109934108B (zh) | 一种多目标多种类的车辆检测和测距系统及实现方法 | |
Iacono et al. | Towards event-driven object detection with off-the-shelf deep learning | |
CN112686928B (zh) | 一种基于多源信息融合的运动目标视觉跟踪方法 | |
CN102982518A (zh) | 红外与可见光动态图像的融合方法及装置 | |
CN201845345U (zh) | 一种基于主动视觉的面部表情识别数据采集系统 | |
CN117576153A (zh) | 一种目标跟踪方法及系统 | |
CN107133610B (zh) | 一种复杂路况下行车流量视觉检测与计数方法 | |
Cao et al. | NeuroGrasp: multimodal neural network with Euler region regression for neuromorphic vision-based grasp pose estimation | |
CN113112521A (zh) | 一种基于脉冲阵列的运动检测方法 | |
Haque et al. | Real-time acquisition of high quality face sequences from an active pan-tilt-zoom camera | |
Zhang et al. | EventMD: High-speed moving object detection based on event-based video frames | |
CN113378917A (zh) | 一种基于自注意力机制的事件相机目标识别的方法 | |
Ageishi et al. | Real-time hand-gesture recognition based on deep neural network | |
CN209785022U (zh) | 基于人脸识别的多人场景专注度识别装置 | |
Gehrig et al. | Video to events: Bringing modern computer vision closer to event cameras | |
CN116661498A (zh) | 一种基于动态视觉传感和神经网络的障碍物目标跟踪方法 | |
Wzorek et al. | Traffic sign detection with event cameras and DCNN | |
CN110324605A (zh) | 一种基于神经网络的智能裸眼3d显示系统 | |
CN201503590U (zh) | 复杂场景下图像目标提取与识别装置 | |
Chakravarthi et al. | Recent Event Camera Innovations: A Survey | |
Wang et al. | Research on appearance defect detection of power equipment based on improved faster-rcnn | |
Wang et al. | Research and Design of Human Behavior Recognition Method in Industrial Production Based on Depth Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |