CN116994075B - 一种基于复眼事件成像的小目标快速预警与识别方法 - Google Patents

一种基于复眼事件成像的小目标快速预警与识别方法 Download PDF

Info

Publication number
CN116994075B
CN116994075B CN202311255809.4A CN202311255809A CN116994075B CN 116994075 B CN116994075 B CN 116994075B CN 202311255809 A CN202311255809 A CN 202311255809A CN 116994075 B CN116994075 B CN 116994075B
Authority
CN
China
Prior art keywords
target
event
imaging
compound eye
targets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311255809.4A
Other languages
English (en)
Other versions
CN116994075A (zh
Inventor
陈向成
丰伟
杨军
蔡柏林
李国亮
李进
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Northwest Institute of Nuclear Technology
Original Assignee
Anhui University
Northwest Institute of Nuclear Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University, Northwest Institute of Nuclear Technology filed Critical Anhui University
Priority to CN202311255809.4A priority Critical patent/CN116994075B/zh
Publication of CN116994075A publication Critical patent/CN116994075A/zh
Application granted granted Critical
Publication of CN116994075B publication Critical patent/CN116994075B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于复眼事件成像的小目标快速预警与识别方法,包括步骤一:使用复眼事件相机进行大视场范围观测;步骤二:记录视场中出现的所有目标的事件成像,预识别与标记;步骤三:持续跟踪目标,预测目标轨迹;步骤四:保存中途丢失的目标的标记、事件成像及其轨迹;步骤五:根据分类结果使用对应的神经网络对目标进行精确识别;步骤六:记录并分析目标识别结果、事件成像变化过程以及目标轨迹。本发明通过将多孔径成像系统大视场高分辨率的特性和事件相机低数据带宽高速动态观测的特性与深度学习相结合,解决了目标检测中单一事件相机视场小、分辨率低、难以精确识别目标以及传统多孔径成像系统数据带宽过大无法实时处理的问题。

Description

一种基于复眼事件成像的小目标快速预警与识别方法
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于复眼事件成像的小目标快速预警与识别方法。
背景技术
当需要对大视场范围内的低慢小目标进行持续快速预警与识别时,传统的基于多孔径CMOS相机或CCD相机的方案虽然能够保证足够大的视场和足够高的分辨率,但其超大的数据量使处理过程复杂化,难以满足快速预警的需求。
事件相机(Event-based camera)是一种受生物启发的新型视觉传感器,有时也称动态视觉传感器(DVS,dynamic vision sensor)或DAVIS(Dynamic and Active-PixelVision Sensor)。相比于以固定帧率采集图像的标准相机,它具有低延迟、高动态范围、低功耗、高时间分辨率等特点。事件相机对于单个像素,仅在接受到的光强度发生改变时才输出事件信息,其输出的每一个数据都包括事件的地址(对应像素位置)和事件的性质(变亮还是变暗),具体包含——一个像素位置,一个用对数强度表示正或负变化的极性位,以及一个以微秒为单位的时间戳。那么根据上述原理,事件相机观测到的每个事件就可以被表示成,/>是事件所在像素的横坐标,/>是事件所在像素的纵坐标,/>是时间戳,/>是事件的极性,标志着事件光强的改变,且/>。因此,使用事件相机可以有效地解决传统相机高数据带宽所导致的难以对数据进行实时处理的问题。然而,单相机的视场范围有限,无法准确及时的锁定目标,同时单一视角图像分辨率有限,无法获取更多的目标信息以进一步识别目标,不利于对目标进行精确的判断。
相较于单眼,昆虫复眼在视野范围方面具有很大的优势,对于有的昆虫,其垂直方向视场角甚至可以达到360°。采用基于仿生复眼结构的多孔径成像系统,可以有效弥补单台事件相机视场过小的问题。该系统中,每台相机可以看作一个独立的单孔径系统,遵循相应的光学规律。孔径之间具有重叠的视场,增加了单个相机的通光孔径,在增大视场的同时保证了分辨率。多孔径结构中外层是一层曲面列阵化的相机阵列,阵列中的每个相机构成一个成像通道,成像通道由球面支撑体进行固定支撑。通过处于各个方位的成像通道将物空间分为若干个子视场,每个成像通道对应一个子视场,并对该视场内的目标进行探测。各个成像通道采集的图像,依据重叠信息及逆行融合进行拼接合成为一个大视场。孔径合成可以有效扩展成像的视场和分辨率。
发明内容
为解决上述问题,本发明提供了一种基于复眼事件成像的小目标快速预警与识别方法。
本发明提供了本发明提供了一种基于复眼事件成像的小目标快速预警与识别方法,包括如下步骤:
步骤一、使用复眼事件相机进行大视场范围观测;该步首先将期望观测的大视场分割为多个彼此部分交叠的子视场,然后逐一将子视场与事件相机视场对齐,最后将所有事件相机安装在一个半球壳式支架上并对其视场进行拼接,由此构成复眼事件相机组,对大视场范围进行高分辨率事件成像。
步骤二、记录视场范围内出现的所有目标的事件成像,并对目标进行预识别与标记。当上述复眼事件相机组观测到目标时,首先将目标的事件流信息转化为事件图像,并调整事件图像大小,将其转化为统一的分辨率;随后将调整后的事件图像送入预先使用包含飞鸟和无人机的事件图像的数据集训练好的卷积神经网络中,得到预识别结果;最后将识别结果标记在目标上。
步骤三、持续跟踪目标,预测目标轨迹,离散的记录目标的事件成像并不断更新预识别结果。持续跟踪已经观测到的目标,使用卡尔曼滤波对目标进行轨迹预测,分析目标运动趋势,在跟踪过程中离散的记录目标的事件成像并使用步骤二中的卷积神经网络对其进行识别,不断的更新目标上所标记的识别结果。
步骤四、保存中途丢失的目标的标记、事件成像及其轨迹,对能够持续跟踪的目标依据其事件成像的变化过程进行分类与标记。若出现在视场范围内目标丢失的情况,则保存丢失目标的相关信息以便于后期分析,若能够持续的对目标进行跟踪,则根据预识别结果以及跟踪过程中所记录目标的事件图像中像素位置的变化情况对目标进行分类,以区分飞鸟与无人机,并将分类结果标记在目标上。
步骤五、根据分类结果使用对应的神经网络对目标进行精确识别,并与预识别结果进行比对进而确定最终的识别结果。分别使用飞鸟事件图像数据集和无人机事件图像数据集训练两个卷积神经网络,根据目标上的类别标记选择对应的卷积神经网络仿照预识别的更新模式在跟踪过程中对目标进行识别,在目标飞离视场范围后对两次识别过程中的结果进行比对,选择相关性最高的结果作为最终的目标识别结果。
步骤六、记录并分析目标识别结果、事件成像变化过程以及目标轨迹。将能够全程跟踪识别的目标的各项数据保存,与中途丢失的目标的各项数据汇总,绘制一定时间段内所检测到全部目标的轨迹图,根据目标识别结果对轨迹图进行优化,以分析目标集群信息。
本发明的优点:本发明每台相机可以看作一个独立的单孔径系统,遵循相应的光学规律。孔径之间具有重叠的视场,增加了单个相机的通光孔径,在增大视场的同时保证了分辨率。多孔径结构中外层是一层曲面列阵化的相机阵列,阵列中的每个相机构成一个成像通道,成像通道由球面支撑体进行固定支撑。通过处于各个方位的成像通道将物空间分为若干个子视场,每个成像通道对应一个子视场,并对该视场内的目标进行探测。各个成像通道采集的图像,依据重叠信息及逆行融合进行拼接合成为一个大视场。孔径合成可以有效扩展成像的视场和分辨率,通过将多孔径成像系统大视场高分辨率的特性和事件相机低数据带宽高速动态观测的特性与深度学习相结合,实现对大视场范围内的低空、低速、小尺寸飞行物的快速预警与识别,解决了目标检测中单一事件相机视场小、分辨率低、难以精确识别目标以及传统多孔径成像系统数据带宽过大无法实时处理的问题。
附图说明
图1是本发明一种基于复眼事件成像的低慢小目标快速预警与识别方法流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,该实施例提供了一种基于复眼事件成像的小目标快速预警与识别方法,可用于对低空飞行的小型目标进行快速预警并区分其是否为飞鸟或无人机,包括如下步骤:
步骤一、使用复眼事件相机进行大视场范围观测。
当前事件相机的分辨率一般为640像素*480像素,像素尺寸小于15微米,利用这种事件相机观测较远目标时,视场和分辨率无法同时兼顾。本发明基于多孔径视场分割的基本原理,设计对应的成像系统。具体计算方式如下:
按照Triton EVS相机,其分辨率为640像素*480像素,像元尺寸15u,在焦距80mm情况下,其竖直视场角约为5.2°,水平视场角/>约为6.8°,可以计算出单个相机在300米处所能覆盖的区域约为水平方向长度为36米,竖直方向长度为27米。为了保留部分冗余视场,竖直方向上选择以5°为一个单位,可将半球形事件相机支架分为18层,其中1~17层由多台事件相机环形排列,第18层即顶层,仅放置一台事件相机,而前17层需要放置的事件相机台数由如下公式确定:
其中N表示该层所需事件相机的数目,n为层数,R为视场半径。
经计算,当使用18层共584台事件相机时,可以满足对半径300米范围内进行观测的需求,总分辨率约为1.8亿,其中每个像素约覆盖空间,可以满足对小目标的探测需求。
步骤二、记录视场范围内出现的所有目标的事件成像,并对目标进行预识别与标记。
当有目标出现在上述观测范围内时,对应子视场的事件相机触发并输出事件流信息,包括像素位置、变化极性以及一个时间戳。首先根据事件流中的像素位置信息将目标的事件流信息转化为事件图像,并调整事件图像大小为50像素*50像素,调整策略为:以最靠近矩形图像四条边界的可用像素点为新的矩形边界做新的矩形裁剪出新的事件图像,随后分别均等的向上下和左右边界补充像素,直至将其转化为统一的50*50分辨率;然后将调整后的事件图像送入预先使用包含飞鸟和无人机的事件图像的数据集训练好的卷积神经网络中,得到预识别结果;最后将识别结果标记在目标上完成预识别过程。
步骤三、持续跟踪目标,预测目标轨迹,离散的记录目标的事件成像并不断更新预识别结果。
根据目标在视场范围内移动的连续性持续跟踪已经观测到的目标,并在跟踪过程中使用卡尔曼滤波对目标进行轨迹预测,分析目标运动趋势以便于更精确的跟踪目标,在跟踪过程中离散的记录目标的事件成像,并使用步骤二中的卷积神经网络对其进行识别,不断的更新目标上所标记的识别结果。
具体策略为:由于对同一目标进行持续的跟踪,当一个目标的预识别完成后,可以立即再次根据该目标的事件流信息生成调整其事件图像并送入识别网络中进行识别,随后将该目标的标记更新为本次识别结果,依此类推,直至完成目标分类过程。
步骤四、保存中途丢失的目标的标记、事件成像及其轨迹,对能够持续跟踪的目标依据其事件成像的变化过程进行分类与标记。
该步骤分为两部分,其中,第一部分针对不能保持持续跟踪的目标,如果目标在跟踪过程中丢失(可能的情形为目标高度上升,超出可识别的最大范围,或是目标受到遮挡),则保留当前所获得的丢失目标的全部信息以用于后续分析。
第二部分则是针对能够保持持续跟踪的目标,在对目标进行持续的跟踪与识别的过程中,系统每隔0.5秒自动利用该目标的事件流信息生成目标的事件图像,具体生成方式与步骤二中相同,当收集到一定数量的目标事件图像(10~15个)后,则开始对目标进行分类识别。
所述步骤四中的目标分类过程如下:首先使用角点检测算法检测所有目标事件图像的轮廓,记录下轮廓中每个像素点的位置信息;然后根据事件图像生成顺序,依次使用pixelmatch算法判断相邻两张事件图像的相似度,以及根据每个像素点的精确位置信息判断每张事件图像轮廓中像素点间相对位置的变化,若判断结果没有超过预先设定的阈值,则可以认为跟踪过程中目标形态未发生变化并将目标归类为无人机,反之则将目标归类为飞鸟。
具体方法如下:
步骤五、根据分类结果使用对应的神经网络对目标进行精确识别,并与预识别结果进行比对进而确定最终的识别结果。
在成功区分出目标的类别(飞鸟或无人机)后,继续仿照预识别中的方法对目标进行识别,只是识别所使用的卷积神经网络更换为使用对应类别所训练的完成网络,这使得识别结果更加精确。最后,当目标飞离观测范围后,对所有识别结果进行加权计算,计算方式如下:
假设共对一个目标进行了15次识别,包括预识别10次,精确识别5次,且判定目标为飞鸟,识别结果为:
设定预识别权重为0.3,精确识别权重为0.7,可以计算出鸟A的信任度为:
鸟B的信任度为:
由此最终识别结果为鸟A.若出现结果相同的情况,则调整权重分配重新计算。
步骤六、记录并分析目标识别结果、事件成像变化过程以及目标轨迹。
记录所跟踪的所有目标的时间信息、轨迹以及识别结果,每隔一段时间将这些信息汇总合成到一张全尺寸大视场图像上并将同一时段内具有相同运动趋势的目标归类为同一集群,若同一集群中出现少量的不同类别的目标,则统一目标信息,例如同一集群共有10个目标,其中包括8个无人机目标和2个飞鸟目标,则将两个飞鸟目标也重新归类为无人机目标,并重新识别。
尽管参考附图详地公开了本发明,但应理解的是,这些描述仅仅是示例性的,并非用来限制本发明的应用。本发明的保护范围由附加权利要求限定,并可包括在不脱离本发明保护范围和精神的情况下针对发明所作的各种变型、改型及等效方案。

Claims (8)

1.一种基于复眼事件成像的小目标快速预警与识别方法,其特征在于,包括如下步骤:
步骤一、使用复眼事件相机进行大视场范围观测;
步骤一中的复眼事件相机的台数计算公式如下:
,其中N表示所需事件相机的数目,n为层数,R为视场半径;
步骤二、记录视场范围内出现的所有目标的事件成像,并对目标进行预识别与标记;
步骤三、持续跟踪目标,预测目标轨迹,离散的记录目标的事件成像并不断更新预识别结果;
步骤四、保存中途丢失的目标的标记、事件成像及其轨迹,对能够持续跟踪的目标依据其事件成像的变化过程进行分类与标记;
步骤五、根据分类结果使用对应的神经网络对目标进行精确识别,并与预识别结果进行比对进而确定最终的识别结果;
步骤六、记录并分析目标识别结果、事件成像变化过程以及目标轨迹。
2.根据权利要求1所述的一种基于复眼事件成像的小目标快速预警与识别方法,其特征在于,所述步骤一中的具体方法为首先将期望观测的大视场分割为多个彼此部分交叠的子视场,然后逐一将子视场与事件相机视场对齐,最后将所有事件相机安装在一个半球壳式支架上并对其视场进行拼接,由此构成复眼事件相机组,对大视场范围进行高分辨率事件成像。
3.根据权利要求2所述的一种基于复眼事件成像的小目标快速预警与识别方法,其特征在于,所述步骤二的具体过程为:当上述复眼事件相机组观测到目标时,首先将目标的事件流信息转化为事件图像,并调整事件图像大小,将其转化为统一的分辨率;随后将调整后的事件图像送入预先使用包含飞鸟和无人机的事件图像的数据集训练好的卷积神经网络中,得到预识别结果;最后将识别结果标记在目标上。
4.根据权利要求3所述的一种基于复眼事件成像的小目标快速预警与识别方法,其特征在于,所述步骤三的具体过程为:持续跟踪已经观测到的目标,使用卡尔曼滤波对目标进行轨迹预测,分析目标运动趋势,在跟踪过程中离散的记录目标的事件成像并使用步骤二中的卷积神经网络对其进行识别,不断的更新目标上所标记的识别结果。
5.根据权利要求4所述的一种基于复眼事件成像的小目标快速预警与识别方法,其特征在于,所述步骤四的具体过程为:若出现在视场范围内目标丢失的情况,则保存丢失目标的相关信息以便于后期分析,若能够持续的对目标进行跟踪,则根据预识别结果以及跟踪过程中所记录目标的事件图像中像素位置的变化情况对目标进行分类,以区分飞鸟与无人机,并将分类结果标记在目标上。
6.根据权利要求5所述的一种基于复眼事件成像的小目标快速预警与识别方法,其特征在于,所述步骤四中的目标分类过程如下:首先使用角点检测算法检测所有目标事件图像的轮廓,记录下轮廓中每个像素点的位置信息;然后根据事件图像生成顺序,依次使用pixelmatch算法判断相邻两张事件图像的相似度,以及根据每个像素点的精确位置信息判断每张事件图像轮廓中像素点间相对位置的变化,若判断结果没有超过预先设定的阈值,则可以认为跟踪过程中目标形态未发生变化并将目标归类为无人机,反之则将目标归类为飞鸟。
7.根据权利要求6所述的一种基于复眼事件成像的小目标快速预警与识别方法,其特征在于,所述步骤五的具体过程为:分别使用飞鸟事件图像数据集和无人机事件图像数据集训练两个卷积神经网络,根据目标上的类别标记选择对应的卷积神经网络仿照预识别的更新模式在跟踪过程中对目标进行识别,在目标飞离视场范围后对两次识别过程中的结果进行比对,选择相关性最高的结果作为最终的目标识别结果。
8.根据权利要求7所述的一种基于复眼事件成像的小目标快速预警与识别方法,其特征在于,所述步骤六的具体过程为:将全程跟踪识别的目标的各项数据保存,与中途丢失的目标的各项数据汇总,绘制一定时间段内所检测到全部目标的轨迹图,根据目标识别结果对轨迹图进行优化,以分析目标集群信息。
CN202311255809.4A 2023-09-27 2023-09-27 一种基于复眼事件成像的小目标快速预警与识别方法 Active CN116994075B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311255809.4A CN116994075B (zh) 2023-09-27 2023-09-27 一种基于复眼事件成像的小目标快速预警与识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311255809.4A CN116994075B (zh) 2023-09-27 2023-09-27 一种基于复眼事件成像的小目标快速预警与识别方法

Publications (2)

Publication Number Publication Date
CN116994075A CN116994075A (zh) 2023-11-03
CN116994075B true CN116994075B (zh) 2023-12-15

Family

ID=88523594

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311255809.4A Active CN116994075B (zh) 2023-09-27 2023-09-27 一种基于复眼事件成像的小目标快速预警与识别方法

Country Status (1)

Country Link
CN (1) CN116994075B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1932841A (zh) * 2005-10-28 2007-03-21 南京航空航天大学 基于仿生复眼的运动目标检测装置及其方法
JP2011151636A (ja) * 2010-01-22 2011-08-04 Mathematec Corp 複眼カメラおよびカメラ応用機器
CN109697726A (zh) * 2019-01-09 2019-04-30 厦门大学 一种基于事件相机的端对端目标运动估计方法
CN112884811A (zh) * 2021-03-18 2021-06-01 中国人民解放军国防科技大学 一种针对无人机集群的光电探测跟踪方法及系统
CN113724297A (zh) * 2021-08-31 2021-11-30 中国科学院长春光学精密机械与物理研究所 基于事件相机的跟踪方法
CN116698189A (zh) * 2023-06-06 2023-09-05 北京理工大学长三角研究院(嘉兴) 一种感算一体仿生复眼传感器及构建方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10951817B2 (en) * 2017-06-26 2021-03-16 Mitsubishi Electric Corporation Compound-eye imaging device, image processing method, and recording medium
WO2021145131A1 (ja) * 2020-01-17 2021-07-22 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1932841A (zh) * 2005-10-28 2007-03-21 南京航空航天大学 基于仿生复眼的运动目标检测装置及其方法
JP2011151636A (ja) * 2010-01-22 2011-08-04 Mathematec Corp 複眼カメラおよびカメラ応用機器
CN109697726A (zh) * 2019-01-09 2019-04-30 厦门大学 一种基于事件相机的端对端目标运动估计方法
CN112884811A (zh) * 2021-03-18 2021-06-01 中国人民解放军国防科技大学 一种针对无人机集群的光电探测跟踪方法及系统
CN113724297A (zh) * 2021-08-31 2021-11-30 中国科学院长春光学精密机械与物理研究所 基于事件相机的跟踪方法
CN116698189A (zh) * 2023-06-06 2023-09-05 北京理工大学长三角研究院(嘉兴) 一种感算一体仿生复眼传感器及构建方法

Also Published As

Publication number Publication date
CN116994075A (zh) 2023-11-03

Similar Documents

Publication Publication Date Title
CN111145545B (zh) 基于深度学习的道路交通行为无人机监测系统及方法
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN105302151B (zh) 一种飞机入坞引导和机型识别的系统及方法
CN111797716A (zh) 一种基于Siamese网络的单目标跟踪方法
CN110543867A (zh) 一种多摄像头条件下的人群密度估测系统及方法
Lookingbill et al. Reverse optical flow for self-supervised adaptive autonomous robot navigation
CN111967393A (zh) 一种基于改进YOLOv4的安全帽佩戴检测方法
CN101930611B (zh) 多视图面部追踪
CN111832400B (zh) 一种基于概率神经网络的口罩佩戴情况的监测系统及方法
CN110398720A (zh) 一种反无人机探测跟踪干扰系统及光电跟踪系统工作方法
CN109817013A (zh) 基于视频流的停车位状态识别方法及装置
CN105608417A (zh) 交通信号灯检测方法及装置
CN108711172B (zh) 基于细粒度分类的无人机识别与定位方法
AU2021255130B2 (en) Artificial intelligence and computer vision powered driving-performance assessment
CN114905512A (zh) 一种智能巡检机器人全景追踪及避障方法及系统
CN111127520B (zh) 一种基于视频分析的车辆跟踪方法和系统
CN113744195B (zh) 一种基于深度学习的hRPE细胞微管自动检测方法
CN117593766B (zh) 基于无人机拍摄图像处理的野生动物种群数量的调查方法
CN116994075B (zh) 一种基于复眼事件成像的小目标快速预警与识别方法
Notz et al. Extraction and assessment of naturalistic human driving trajectories from infrastructure camera and radar sensors
CN115082517B (zh) 基于数据增强的赛马场景多目标追踪方法
CN114137512B (zh) 一种毫米波雷达与深度学习视觉融合的前方多车辆跟踪方法
CN115984768A (zh) 一种基于固定型单目摄像头的多目标行人实时检测定位方法
CN112907624B (zh) 一种基于多波段信息融合的目标定位、跟踪方法及系统
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant