CN114387277A - 基于事件序列训练神经网络实现目标分割的方法及装置 - Google Patents

基于事件序列训练神经网络实现目标分割的方法及装置 Download PDF

Info

Publication number
CN114387277A
CN114387277A CN202111551202.1A CN202111551202A CN114387277A CN 114387277 A CN114387277 A CN 114387277A CN 202111551202 A CN202111551202 A CN 202111551202A CN 114387277 A CN114387277 A CN 114387277A
Authority
CN
China
Prior art keywords
event
target
channel
layer
target segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111551202.1A
Other languages
English (en)
Inventor
高爽
徐庶
刘庆杰
马金艳
管达志
陈博文
倪文辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanhu Research Institute Of Electronic Technology Of China
Original Assignee
Nanhu Research Institute Of Electronic Technology Of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanhu Research Institute Of Electronic Technology Of China filed Critical Nanhu Research Institute Of Electronic Technology Of China
Priority to CN202111551202.1A priority Critical patent/CN114387277A/zh
Publication of CN114387277A publication Critical patent/CN114387277A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于事件序列训练神经网络实现目标分割的方法及装置。所述分割方法包括:获取目标的事件序列,利用预定长度的时间窗将所述事件序列转换事件帧;将所述事件帧输入经过训练的目标分割网络,得到目标分割图;以及基于设定阈值将所述目标分割图分割为二值图。本发明采用事件相机获取目标事件序列,通过训练神经网络完成高速目标分割,仅需标注和训练几类目标即可完成对未经过训练的目标分割,具有类别无关特性。并且,能有效避免噪声的干扰,同时具有较强的环境适应性,在暗光下同样具有很好的鲁棒性。

Description

基于事件序列训练神经网络实现目标分割的方法及装置
技术领域
本发明属于计算机视觉及人工智能技术领域,具体涉及一种基于事件序列训练神经网络实现目标分割的方法及装置。
背景技术
在一些智能体的避障任务中,需要检测到迎面而来的障碍物,并对目标区域进行深度估计,以及时做出避障规划。障碍物的检测及目标区域的提取可用目标检测或目标分割的方法来实现。
智能体在进行目标检测时,每检测一类目标,都需要采集该类目标的数据并进行训练,耗费成本较大,并且智能体在实际环境中遇到的障碍物是多种多样的,不可能事先全部采集到。而传统的图像分割主要基于RGB图像,由于RGB图像是在固定帧率下拍摄的,因此在捕捉高速运动的目标时会形成运动模糊,并且在暗光条件下很难发现目标。
事件相机能异步地捕捉高速运动目标,并且在暗光下也具有鲁棒性,可以在一定程度上解决上述问题。对于事件相机,目前一般采用阈值分割法来分割运动目标,即利用高速运动目标的事件数多于背景的特点来分割出目标。然而,当存在背景噪声(例如背景晃动)时则难以准确分割出不相关的目标,因此环境适应性较弱。
发明内容
本发明旨在公开一种基于事件相机的目标分割方法及装置,以提高目标分割的抗噪声干扰能力及环境适应性。
根据本发明的第1方面,公开了一种目标分割方法,包括:
获取目标的事件序列,利用预定长度的时间窗将所述事件序列转换事件帧;
将所述事件帧输入经过训练的目标分割网络,得到目标分割图;以及
基于设定阈值将所述目标分割图分割为二值图。
在其他的一些示例中,每个事件帧包括第一通道、第二通道及第三通道;其中,对于任一时间窗,将该时间窗内所有p为正极性的事件累加,每个位置(x,y)处的p为正极性的累计事件个数作为该位置(x,y)处的像素值,得到事件帧的第一通道;将该时间窗内所有p为负极性的事件累加,每个位置(x,y)处的p为负极性的累计事件个数作为该位置(x,y)处的像素值,得到事件帧的第二通道;以及将平均时间面作为事件帧的第三通道。
在其他的一些示例中,所述将所述事件帧输入经过训练的目标分割网络,包括:输入到所述目标分割网络的事件帧包括第一通道、第二通道、第三通道,或者仅包括第三通道,或者仅包括第一通道和第二通道。
在其他的一些示例中,所述目标分割网络首先利用卷积层对输入的事件帧进行特征提取,再利用反卷积层将图像尺寸还原。
在其他的一些示例中,所述目标分割网络由编码器和解码器组成,所述编码器由多层卷积层组成,所述解码器由多层反卷积层组成,每个卷积层及反卷积层后面都连接有BN层和RELU层。
在其他的一些示例中,将输出尺寸一致的卷积层与反卷积层的输出叠加后输入下一层反卷积层。
在其他的一些示例中,所述第一层未采用轻量化网络结构,其后连接BN层和RELU层;其他层均采用轻量化网络结构,每一层卷积层由一深度可分离卷积层和一1x1卷积层组成,每一层反卷积层由一深度可分离反卷积层和一1x1卷积层组成,每个1x1卷积层后均连接有BN层和RELU层。
根据本发明的第2方面,还公开了一种目标分割装置,包括:
数据获取模块,用于获取目标的事件序列;
转换模块,利用预定长度的时间窗将所述事件序列转换事件帧;
数据预处理模块,用于对转换得到的事件帧进行预处理;以及
目标分割模块,利用经过训练的目标分割网络对经过预处理的事件帧进行计算,得到目标分割图,以及根据设定的阈值把所述目标分割图分割成二值图。
根据本发明的第3方面,还公开了一种目标分割网络训练方法,包括:
获取目标的事件序列,按时间窗长度将所述事件序列转换为事件帧,为所述事件帧标注目标区域及类别,构建用于训练目标分割网络的数据集;
利用所述数据集对目标分割网络进行训练。
在其他的一些示例中,用于构建数据集的事件帧包括第一通道、第二通道、第三通道。
根据本发明的第4方面,一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令在被处理器执行时实现如上述方案任一项所述的方法。
与现有分割方法相比,本发明采用事件相机获取目标事件序列,通过训练神经网络完成高速目标分割,仅需标注和训练几类目标即可完成对未经过训练的目标分割,具有类别无关特性。并且,能有效避免噪声的干扰,同时具有较强的环境适应性,在暗光下同样具有很好的鲁棒性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其他特征、目的和优点将会变得更明显:
图1为根据本发明实施例的基于事件相机的目标分割方法流程示意图;
图2为根据本发明一个实施例的目标分割网络结构示意图;
图3为根据本发明另一实施例的目标分割网络结构示意图;
图4为根据本发明再一实施例的目标分割网络结构示意图;
图5为采用本发明得到的目标分割结果示例;
图6为根据本发明实施例的目标分割网络训练方法流程示意图;
图7为根据本发明实施例的目标分割装置结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
在采用阈值分割法基于事件数据流进行目标分割时,例如将直方图峰值作为分割阈值进行目标分割容易受噪声影响,比如背景的晃动,或者有其他移动的物体,导致目标分割方法的环境适应性较弱。
为解决该问题,本发明公开了一种基于事件相机的目标分割方法,如图1所示,该方法包括如下步骤:
S101、获取目标的事件序列,利用预定长度的时间窗将所述事件序列转换事件帧;
利用事件相机获取目标的事件流数据,即事件序列。例如,事件序列为(x,y,p,t),其中(x,y)为事件的位置坐标;p为正负极性,正极性表示当前时刻的光强比上一时刻的光强更强,且变化超过一定阈值;反之负极性表示光强变弱;t表示当前事件的时间信息。
本发明中,按时间窗长度(例如5ms)将事件序列转换为事件帧。每个事件帧包括第一通道、第二通道及第三通道。具体地,对于任一时间窗,将该时间窗内所有p为正极性的事件累加,每个位置(x,y)处的p为正极性的累计事件个数作为该位置(x,y)处的像素值,得到事件帧的第一通道;将该时间窗内所有p为负极性的事件累加,每个位置(x,y)处的p为负极性的累计事件个数作为该位置(x,y)处的像素值,得到事件帧的第二通道;以及将平均时间面作为事件帧的第三通道。其中,时间窗内每个位置(x,y)处的累计事件数(即包含正负极性)为Ix,y,则平均时间面为
Figure BDA0003417242400000051
其中,t为每个事件的时间信息。
本发明通过组合三个通道,以组合的描述方式更全面地表达事件序列的特征。同时,由于RGB图像为三个通道,本发明采用该方法可以模拟三通道的处理方法。S102、将所述事件帧输入经过训练的目标分割网络,得到目标分割图;
在一些示例中,在将所述事件帧输入目标分割网络之前,可以对转换得到的事件帧进行预处理,包括对事件帧进行翻转、平移、旋转及缩放等处理中的一种或组合。例如,对转换得到的事件帧进行如下预处理,包括:
(i)中心裁剪步骤,例如将图像中心裁剪为8的倍数尺寸,从而方便GPU并行运算。
(ii)归一化处理步骤。考虑到三通道的事件帧保存为图片时,像素值在0-255范围内,因此,对事件帧I,采用如下方法进行归一化处理,以将像素值映射到[-1,1]:
Figure BDA0003417242400000052
其中,用于输入到所述目标分割网络的事件帧包括第一通道、第二通道、第三通道,或者仅包括第三通道,或者仅包括第一通道和第二通道。
尤其地,通过将正负事件累加描述和平均时间面描述进行组合,可以更加丰富地描述事件序列的特征。
本发明采用的目标分割网络结构如图2所示,该目标分割网络由编码器和解码器组成,其中conv表示卷积层,deconv表示反卷积层。每个卷积层和反卷积层后面都连接有BN层和RELU层。该目标分割网络首先利用卷积层对输入的事件帧进行特征提取,再利用反卷积层将图像尺寸还原,得到目标分割结果。
可以理解,所述目标分割网络中,卷积层与反卷积层的数量可以根据实际应用进行选择,例如如图2所示的那样,二者数量相同,也可以将二者数量设置为不同。然而,一般地,卷积层及反卷积层的数量大于等于3。
此外,可以对图2所示的目标分割网络进行轻量化设计,其结构如图3所示,采用深度可分离卷积进行轻量化设计。其中,dwconv表示深度可分离卷积层,dwdeconv表示深度可分离反卷积层。该轻量化神经网络中,第一层不进行轻量化,其后连接有BN层和RELU层。其他5层均进行轻量化,每一层卷积层由一深度可分离卷积层和一1x1卷积层组成,每一层反卷积层由一深度可分离反卷积层和一1x1卷积层组成,每个1x1卷积层后均连接有BN层和RELU层。
在另外的一些示例中,还可以采用图4所示的目标分割网络结构,其在图2所示网络结构基础上,将第一卷积层输出与第二反卷积层输出叠加后输入第三反卷积层,以及将第二卷积层输出与第一反卷积层输出叠加后输入第二反卷积层。
可以理解,进行叠加的层也可以根据实际应用进行选择,只要满足进行叠加的卷积层与反卷积层的输出尺寸一致,例如仅对其中的某一层或部分卷积层与反卷积层进行叠加,输入下一层反卷积层。
其中,可以按照图3所示的轻量化结构对图5所示的目标分割网络进行轻量化设计。
由于事件序列的特性是异步地捕捉高速运动目标,不受帧率的限制,因此分割网络具有较高的处理效率,才能满足异步性。然而,传统的分割网络如fcn、deeplab结构较大,一方面参数多,实际的无人体嵌入式系统内存可能无法满足需求;另一方面处理时间较长,使得无人机快速运动时可能来不及反应进行避障。
本发明网络结构简单,处理速度较快,并且参数数量少,可以应用到无人机嵌入式系统。传统的分割网络有上千万个参数,而本发明的基本网络中仅几万个参数,轻量化后可仅有3000多个参数,更加适用于板载内存小,内存受限的载体上使用,能够实现在快速运动,例如飞行时的快速避障。
同时,本发明采用卷积层连接反卷积层的网络结构,可以在不增加参数数量的情况下进一步提升分割准确率。与传统的图像分割网络(如deeplab等)相比,本发明采用的分割网络的层数少,并且通过进一步轻量化设计,大大缩小了目标分割的复杂度,尤其是适用于事件相机异步的特性。
S103、基于设定阈值将所述目标分割图分割为二值图。
上述目标分割网络直接输出的结果不是二值图,因此,根据设定的阈值把所述目标分割图分割成二值图。图5为采用上述方法得到的一个目标分割结果示例。
以下对所述目标分割网络的训练过程进行描述,其中该目标分割网络采用如图2-4任一所示的神经网络或其经过轻量化设计得到的网络结构。如图6所示,所述训练方法包括如下步骤:
S601、获取目标的事件序列,构建用于训练目标分割网络的数据集;
利用事件相机获取目标的事件流数据,即事件序列。该事件序列表示为(x,y,p,t),其中(x,y)为事件的位置坐标;p为正负极性;t表示当前事件的时间信息。
按时间窗长度(例如5ms)将所述事件序列转换为事件帧。其中,每个事件帧包括第一通道、第二通道及第三通道。
具体地,对于任一时间窗,将该时间窗内所有p为正极性的事件累加,每个位置(x,y)处的累计事件个数作为位置(x,y)处的像素值,得到事件帧的第一通道;将该时间窗内所有p为负极性的事件累加,每个位置(x,y)处的累计事件个数作为该位置(x,y)处的像素值,得到事件帧的第二通道;以及将平均时间面作为事件帧的第三通道。其中,时间窗内每个位置(x,y)处的累计事件数(即包含正负极性)为Ix,y,则平均时间面为
Figure BDA0003417242400000071
其中,t为每个事件的时间信息。
为所述事件帧标注目标区域及类别,每个事件帧对应一个标注,利用标注数据构建训练集、验证集以及测试集,例如比例为60%、20%、20%。
其中,用于构建数据集的事件帧包括第一通道、第二通道、第三通道,或者仅包括第三通道,或者仅包括第一通道和第二通道。
S602、利用所述数据集对目标分割网络进行训练;
将所述训练集输入目标分割网络进行训练。其中,损失函数采用交叉熵损失函数,或者采用dice loss、focal loss等损失函数。batch size(一次训练的样本数量)、优化器及学习率可根据需要设定。例如,batch size可以选择64,优化器选择为Adam,学习率设为0.001。
此外,在将所述训练集输入目标分割网络之前,可以对训练集中的事件帧进行预处理,包括对事件帧进行翻转、平移、旋转及缩放等处理中的一种或组合。例如,对事件帧进行如下预处理,包括:
(i)中心裁剪步骤,例如将图像中心裁剪为8的倍数尺寸。
(ii)归一化处理步骤。
本发明采用事件相机获取目标事件序列,通过训练神经网络完成高速目标分割,仅需标注和训练几类目标即可完成对未经过训练的目标分割,具有类别无关特性。
与阈值分割法相比,本发明采用神经网络进行训练,能有效避免噪声的干扰。
此外,由于采用事件相机获取目标数据,本发明具有较强的环境适应性,在暗光下同样具有很好的鲁棒性。
图7为根据本发明实施例的基于事件相机的目标分割装置组成示意图。在该实施例中,该装置包括:
数据获取模块701,例如事件相机,用于获取目标的事件序列;
转换模块702,利用预定长度的时间窗将所述事件序列转换事件帧;其中,每个事件帧包括第一通道、第二通道及第三通道。具体地,对于任一时间窗,将该时间窗内所有p为正极性的事件累加,每个位置(x,y)处的p为正极性的累计事件个数作为位置(x,y)处的像素值,得到事件帧的第一通道;将该时间窗内所有p为负极性的事件累加,每个位置(x,y)处的p为负极性的累计事件个数作为该位置(x,y)处的像素值,得到事件帧的第二通道;以及将平均时间面作为事件帧的第三通道。
数据预处理模块703,用于对转换得到的事件帧进行预处理;所述预处理包括对事件帧进行翻转、平移、旋转及缩放等处理中的一种或组合。例如,对转换得到的事件帧进行如下预处理,包括:
(i)中心裁剪步骤,例如将图像中心裁剪为8的倍数尺寸。
(ii)归一化处理步骤。
目标分割模块704,利用经过训练的目标分割网络对经过预处理的事件帧进行计算,得到目标分割图,以及根据设定的阈值把所述目标分割图分割成二值图。
该目标分割网络采用如图2所示的神经网络,如图3所示的轻量化神经网络,或者如图4所示的对输出进行叠加的神经网络。
根据本发明的实施例,还公开了一种非暂态计算机可读存储介质,用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本发明前述实施例中的基于事件相机的目标分割方法或目标分割网络训练方法对应的程序或指令。处理器通过运行所述非暂态软件程序或指令,实现上述方法实施例中的目标分割方法或目标分割网络训练方法。
所述处理器可以为中央处理器(Central Processing Unit,CPU),或者其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等芯片,或者上述各类芯片的组合。
虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明发明构思的情况下,可以对本本发明实施例的技术方案进行修改或等同替换都不应脱离本发明实施例的技术方案的精神和范围。

Claims (10)

1.一种目标分割方法,其特征在于,包括:
获取目标的事件序列,利用预定长度的时间窗将所述事件序列转换事件帧;
将所述事件帧输入经过训练的目标分割网络,得到目标分割图;以及
基于设定阈值将所述目标分割图分割为二值图。
2.根据权利要求1所述的目标分割方法,其特征在于,每个事件帧包括第一通道、第二通道及第三通道;其中,对于任一时间窗,将该时间窗内所有p为正极性的事件累加,每个位置(x,y)处的p为正极性的累计事件个数作为该位置(x,y)处的像素值,得到事件帧的第一通道;将该时间窗内所有p为负极性的事件累加,每个位置(x,y)处的p为负极性的累计事件个数作为该位置(x,y)处的像素值,得到事件帧的第二通道;以及将平均时间面作为事件帧的第三通道。
3.根据权利要求2所述的目标分割方法,其特征在于,所述将所述事件帧输入经过训练的目标分割网络,包括:输入到所述目标分割网络的事件帧包括第一通道、第二通道、第三通道,或者仅包括第三通道,或者仅包括第一通道和第二通道。
4.根据权利要求1所述的目标分割方法,其特征在于,所述目标分割网络由编码器和解码器组成,所述编码器由多层卷积层组成,所述解码器由多层反卷积层组成,每个卷积层及反卷积层后面都连接有BN层和RELU层。
5.根据权利要求4所述的目标分割方法,其特征在于,将输出尺寸一致的卷积层与反卷积层的输出叠加后输入下一层反卷积层。
6.根据权利要求4所述的目标分割方法,其特征在于,所述第一层未采用轻量化网络结构,其后连接BN层和RELU层;其他层均采用轻量化网络结构,每一层卷积层由一深度可分离卷积层和一1x1卷积层组成,每一层反卷积层由一深度可分离反卷积层和一1x1卷积层组成,每个1x1卷积层后均连接有BN层和RELU层。
7.一种目标分割装置,其特征在于,包括:
数据获取模块,用于获取目标的事件序列;
转换模块,利用预定长度的时间窗将所述事件序列转换事件帧;
数据预处理模块,用于对转换得到的事件帧进行预处理;以及
目标分割模块,利用经过训练的目标分割网络对经过预处理的事件帧进行计算,得到目标分割图,以及根据设定的阈值把所述目标分割图分割成二值图。
8.一种目标分割网络训练方法,其特征在于,包括:
获取目标的事件序列,按时间窗长度将所述事件序列转换为事件帧,为所述事件帧标注目标区域及类别,构建用于训练目标分割网络的数据集;
利用所述数据集对目标分割网络进行训练。
9.根据权利要求8所述的目标分割网络训练方法,其特征在于,用于构建数据集的事件帧包括第一通道、第二通道、第三通道。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令在被处理器执行时实现如权利要求1-9任一项所述的方法。
CN202111551202.1A 2021-12-17 2021-12-17 基于事件序列训练神经网络实现目标分割的方法及装置 Pending CN114387277A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111551202.1A CN114387277A (zh) 2021-12-17 2021-12-17 基于事件序列训练神经网络实现目标分割的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111551202.1A CN114387277A (zh) 2021-12-17 2021-12-17 基于事件序列训练神经网络实现目标分割的方法及装置

Publications (1)

Publication Number Publication Date
CN114387277A true CN114387277A (zh) 2022-04-22

Family

ID=81198209

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111551202.1A Pending CN114387277A (zh) 2021-12-17 2021-12-17 基于事件序列训练神经网络实现目标分割的方法及装置

Country Status (1)

Country Link
CN (1) CN114387277A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116416602A (zh) * 2023-04-17 2023-07-11 江南大学 基于事件数据与图像数据联合的运动目标检测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116416602A (zh) * 2023-04-17 2023-07-11 江南大学 基于事件数据与图像数据联合的运动目标检测方法及系统
CN116416602B (zh) * 2023-04-17 2024-05-24 江南大学 基于事件数据与图像数据联合的运动目标检测方法及系统

Similar Documents

Publication Publication Date Title
Hidalgo-Carrió et al. Learning monocular dense depth from events
CN108665496B (zh) 一种基于深度学习的端到端的语义即时定位与建图方法
CN110119728B (zh) 基于多尺度融合语义分割网络的遥感图像云检测方法
CN113052210B (zh) 一种基于卷积神经网络的快速低光照目标检测方法
CN112446383B (zh) 车牌识别方法及装置、存储介质、终端
EP3438872A1 (en) Method, apparatus and computer program for a vehicle
CN107067015B (zh) 一种基于多特征深度学习的车辆检测方法及装置
CN106886778B (zh) 一种监控场景下车牌字符分割与识别方法
Sankari et al. Estimation of dynamic background and object detection in noisy visual surveillance
RU2748763C1 (ru) Способ обнаружения и автосопровождения объектов целеуказания оптико-электронной системой беспилотного летательного аппарата
CN110599516A (zh) 一种运动目标检测方法、装置、存储介质及终端设备
CN104966095A (zh) 图像目标检测方法及装置
Getahun et al. A deep learning approach for lane detection
CN116258940A (zh) 一种多尺度特征及自适应权重的小目标检测方法
CN114387277A (zh) 基于事件序列训练神经网络实现目标分割的方法及装置
CN111881914B (zh) 一种基于自学习阈值的车牌字符分割方法及系统
Rahaman et al. Lane detection for autonomous vehicle management: PHT approach
Deepan et al. Road recognition from remote sensing imagery using machine learning
CN110121055B (zh) 用于对象识别的方法和设备
CN111062384A (zh) 一种基于深度学习的车窗精确定位方法
Savakis et al. Semantic background estimation in video sequences
Chen et al. Image detector based automatic 3D data labeling and training for vehicle detection on point cloud
CN112233079B (zh) 多传感器图像融合的方法及系统
WO2022061498A1 (en) Object detection and tracking
CN114565597A (zh) 一种基于YOLOv3-tiny-DB和迁移学习的夜间道路行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination