CN112232356A - 一种基于合群度和边界特征的事件相机去噪方法 - Google Patents

一种基于合群度和边界特征的事件相机去噪方法 Download PDF

Info

Publication number
CN112232356A
CN112232356A CN202011304341.XA CN202011304341A CN112232356A CN 112232356 A CN112232356 A CN 112232356A CN 202011304341 A CN202011304341 A CN 202011304341A CN 112232356 A CN112232356 A CN 112232356A
Authority
CN
China
Prior art keywords
event
point
boundary
stream data
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011304341.XA
Other languages
English (en)
Other versions
CN112232356B (zh
Inventor
李智
方宇强
李鹏举
贺俊
张雅声
程文华
刁华飞
陶雪峰
卢旺
杨虹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peoples Liberation Army Strategic Support Force Aerospace Engineering University
Original Assignee
Peoples Liberation Army Strategic Support Force Aerospace Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peoples Liberation Army Strategic Support Force Aerospace Engineering University filed Critical Peoples Liberation Army Strategic Support Force Aerospace Engineering University
Priority to CN202011304341.XA priority Critical patent/CN112232356B/zh
Publication of CN112232356A publication Critical patent/CN112232356A/zh
Application granted granted Critical
Publication of CN112232356B publication Critical patent/CN112232356B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Abstract

本发明公开了一种基于合群度和边界特征的事件相机去噪方法,包括:通过事件相机获取原始事件流数据并转化为点集形式,获取每个事件点的最近邻点;计算每个事件点的合群度,当合群度小于所有事件点合群度的算术平均值时,将该事件点作为背景噪声剔除;当最大边界张角大于180°且边界点权重值大于设定的边界阈值时,该事件点为边界特征事件点,提取边界特征事件点构成的目标独立的边界轮廓事件流数据;将原始事件流数据和边界轮廓事件流数据分别映射至像素平面,实现去噪效果的图像可视化。本发明有效去除了事件相机原始事件流数据中的背景噪声,极大简化了目标边界轮廓的数据结构,降低了数据传输的带宽,提高了事件相机去噪方法的处理效率。

Description

一种基于合群度和边界特征的事件相机去噪方法
技术领域
本发明属于图像处理技术领域,特别涉及一种基于合群度和边界特征的事件相机去噪方法。
背景技术
事件相机(Event Cameras)是一种新型动态成像仿生传感器,与传统的CMOS(Complementary Metal Oxide Semiconductor)相机相比,这种传感器的信息采集速度不受曝光时间和帧速率的限制,像素的响应时间在微秒级,甚至纳秒级,输出信号不是结构化的图像帧,而是运动(存在亮度变化)物体激发的事件流。当单个像素点位置的对数光强绝对变化超过特定阈值时,在该像素位置产生一个具有时间戳、像素坐标、极性的独立事件。事件相机具有高动态范围,高时间分辨率,低功耗的出色性能,并且不会受到运动模糊的影响,在目标跟踪和识别、图像去模糊、机器人实时交互等领域有广泛的应用前景。因此,基于事件相机的图像处理研究成为近年来不断发展的热点研究领域。
但在实际应用中,由于事件相机的自身结构和环境因素的影响,输出的事件流易受到干扰产生背景噪声和多重边界,影响图像质量和可视化效果。因此对事件相机输出数据进行去噪预处理是必要的。
目前,针对事件相机的去噪方法主要分为两类:
一类是利用动态时间窗口和累积固定数量事件相结合的方式将事件流转化成帧图像,再利用传统的去噪方法实现图像的去噪。如Xie X,Du J,Shi G,et al.DVS imagenoise removal using k-SVD method[C]∥International Conference on Graphic andImage Processing,2018,10615:106153U.中Xie等将20ms内累积的事件流转化成二值图像后,再采用K-SVD方法对生成的图像进行去噪处理。Munda G,Reinbacher C,Pock T.Real-time intensityimage reconstruction for event cameras using manifoldregularisation[J].International Journal of Computer Vision,2018,126(12):1381-1393.中Reinbacher等利用事件点间相邻时间戳诱导的流形对事件流进行图像重构,采用变分模型对重构的灰度图像进行去噪处理。但这类方法没有充分地利用事件相机特性,例如异步数据流和高时间分辨率,从而降低了对事件相机输出数据的处理效率。
另一类是直接对包含时间戳、像素坐标和极性信息的事件流数据进行处理。如江盟,刘舟,余磊.低维流形约束下的事件相机去噪算法[J].信号处理,2019.中江盟等利用事件点间相似信息建立图模型,同时结合图模型的流形约束,以实现对事件流数据的去噪。Baldwin,R Wes,Almatrafi,et al.Inceptive event time-surfaces for objectclassification using neuromorphic cameras.2019.中Baldwin等将事件相机去噪视为二进制分类任务,其以一个产生的事件是否真实为判断原则,提出了一种基于卷积神经网络(EDnCNN)的事件相机去噪方法。Feng Y,Lv H,Liu H,et al.Event Density BasedDenoising Method for Dynamic Vision Sensor[J].Applied Sciences,2020,10,2024.中Feng等根据相关性滤波的思想,提出了一种去除背景活动噪声和热点噪声的去噪方法。这类方法虽然能够有效提高事件相机去噪处理的效率,但还是无法解决由于事件相机本身特性而造成的数据结构复杂和目标边界事件堆积等问题,增加了后续在其他领域的应用难度。
因此现有事件相机的去噪方法仍然存在处理效率和处理效果无法兼顾的缺点。
发明内容
本发明的目的在于提供一种基于合群度和边界特征的事件相机去噪方法,在消除背景噪声的基础上,根据目标物体边界的特征提取出其有效边界,使目标物体具有高辨识度,最大程度的简化事件流的数据结构,以解决上述背景技术中提出的问题。
为实现上述的目的,本发明提供如下技术方案:一种基于合群度和边界特征的事件相机去噪方法,包括以下步骤:
步骤一:通过事件相机获取原始事件流数据;
步骤二:将原始事件流数据转化为点集形式,基于点集建立三维时空坐标系,在三维时空坐标系中,获取点集中每个事件点的最近邻点;
步骤三:计算每个事件点相对于该事件点的最近邻点的合群度,当该事件点的合群度小于所有事件点合群度的算术平均值时,将该事件点作为背景噪声剔除;
步骤四:在剔除背景噪声后的点集中,计算每个事件点的最大边界张角值和边界点权重值,当该事件点的最大边界张角值大于180°且边界点权重值大于设定的边界阈值时,视该事件点为边界特征事件点,提取出由所有边界特征事件点构成的目标独立的边界轮廓事件流数据;
步骤五:采用量化事件流的时间信息和累积事件点的方式,将所述原始事件流数据和所述边界轮廓事件流数据分别映射至像素平面,实现去噪效果的图像可视化。
所述步骤一中,通过事件相机获取原始事件流数据,包括:通过事件相机获取由包含时间戳、像素坐标和极性信息的各独立事件组成的原始事件流数据。
所述步骤二中,将原始事件流数据转化为点集形式,基于点集建立三维时空坐标系,在三维时空坐标系中,获取点集中每个事件点的最近邻点的过程包括:将原始事件流数据转化为点集形式,映射至以x,y,t为坐标轴的三维时空坐标系中,其中,x,y为事件点的像素坐标,t为时间戳;在三维时空坐标系中计算点集中每个事件点与剩余事件点的欧氏距离并排序,提取出排序中距离该事件点最近的k个点作为最近邻点,k的范围为6-10个。
所述步骤二中,欧氏距离d的计算方法包括:
Figure BDA0002787866820000031
其中,d为欧氏距离;x1、y1、t1为某一事件点在时空坐标系中的坐标;x2、y2、t2为另一事件点在时空坐标系中的坐标。
所述步骤三中合群度的计算方法包括:
Figure BDA0002787866820000032
其中,I表示合群度,x、y、t表示事件点的三维坐标,xi、yi、ti表示该事件点的最近邻点的三维坐标,k表示最近邻点个数,
Figure BDA0002787866820000033
分别表示最近邻点坐标值在三个维度方向的方差。
所述步骤四中最大边界张角值为:事件点与最近邻点组成的向量间构成的最大夹角值。
所述步骤四中边界点权重值包括:最近邻点在事件点周围分布的均匀程度值,计算方法包括:
Figure BDA0002787866820000034
Figure BDA0002787866820000035
其中,所述opi表示事件点与第i个最近邻点组成的向量,ox,oy分别表示中心事件点与最近邻点组成的向量在x,y方向上投影的标量和,k表示最近邻点个数。
步骤五中的像素平面包括:
以事件点的像素坐标为基准构建的二维平面。
步骤五中所述实现去噪效果的图像可视化包括:压缩原始事件流数据和边界轮廓事件流数据的时间信息,截取一段时间内累积的事件点,沿着时间轴方向映射至像素平面。
本发明具有如下有益效果:
1、本发明直接对包含有时间戳、像素坐标和极性信息的事件流数据进行处理,充分利用了事件相机的高动态范围和高时间分辨率特性,减少了将事件流转化为帧图像的步骤,使得对事件相机数据的去噪处理更加高效。
2、本发明从降低事件相机数据冗余和复杂度的角度出发,将目标物体边界处事件堆积问题转化为边界提取问题,在保证目标物体具有辨识度的情况下,简化了事件相机数据的结构,降低了数据传输的带宽,从而增强了事件相机的可应用性。
附图说明
下面根据附图和实施例对本发明作进一步详细说明。
图1是本发明的基于合群度和边界特征的事件相机去噪方法的流程方框示意图。
图2是事件点映射至三维坐标系的示意图。
图3是合群度示意图。
图4是最大边界张角示意图。
图5是边界点权重示意图。
图6(a)至图6(c)是本发明实施例去噪处理前后可视化效果对比,其中图6(a)列为原始数据图像,图6(b)列为K-NN算法去噪效果,图6(c)列为本发明方法去噪效果。
图7(a)至图7(b)是本发明实施例去噪处理前后物体边界的对比,其中图7(a)列为K-NN算法边界处去噪效果,图7(b)列为本发明方法边界处去噪效果。
具体实施方式
下面结合附图对本发明作具体说明。应该指出,所描述的实施例仅是为了说明的目的,而不是对本发明范围的限制。
如图1所示,本发明公开了一种基于合群度和边界特征的事件相机去噪方法,包括以下步骤:
步骤一:通过事件相机获取原始事件流数据;包括:通过事件相机获取由包含时间戳、像素坐标和极性信息的各独立事件组成的原始事件流数据。
例如:选用DAVIS346事件相机获取可表示为en={xn,yn,pn,tn}形式的一系列原始事件流数据,其中(xn,yn)表示像素坐标、pn表示事件极性、tn表示时间戳;
步骤二:将原始事件流数据转化为点集形式,基于点集建立三维时空坐标系,在三维时空坐标系中,获取点集中每个事件点的最近邻点;
包括:将原始事件流数据转化为点集形式,映射至以x,y,t为坐标轴的三维时空坐标系中;在三维时空坐标系中计算点集中,每个事件点与剩余事件点的欧氏距离并排序,提取出距离该事件点最近的k个点作为最近邻点,k的范围为6-10个。最近邻点数目小于此范围时,去噪效果不佳,大于此范围时,计算模型复杂,方法的性能下降。
所述步骤二中,欧氏距离d的计算方法包括:
Figure BDA0002787866820000051
其中,d为欧氏距离;x1、y1、t1为某一事件点在时空坐标系中的坐标;x2、y2、t2为另一事件点在时空坐标系中的坐标。
例如:将原始事件流数据转化为点集形式,基于点集建立时空坐标系,分别以事件点的像素坐标x,y和时间戳t为轴建立三维坐标系,如图2所示,通过计算每一事件点与其余事件点的欧式距离并排序,获取每个事件点的k个最近邻点,k的范围为6-10个,本实施例选取的k值为8,在仿真实验中,当k取值为8时,本方法的去噪效果较好且处理时间较短,能够在保证去噪效果良好的前提下提高处理的效率;
步骤三:计算每个事件点相对于该事件点的最近邻点的合群度,当该事件点的合群度小于所有事件点合群度的算术平均值时,将该事件点作为背景噪声剔除;
计算每个事件点相对于最近邻点的合群度,并以合群度为衡量标准剔除背景噪声,合群度定义为中心事件点与最近邻点的相对距离大小,如图3所示,图中x,y,t为事件点三维坐标,
Figure BDA0002787866820000054
为最近邻点各轴坐标值的平均值,合群度越小,表明该事件点越偏离最近邻点,需要被剔除;
所述合群度的计算公式为:
Figure BDA0002787866820000052
其中,I表示合群度,x、y、t表示事件点的三维坐标,xi、yi、ti表示该事件点的最近邻点的三维坐标,k表示最近邻点个数,
Figure BDA0002787866820000053
分别表示最近邻点坐标值在三个维度方向的方差,当该事件点的合群度I小于所有事件点合群度的算术平均值时,将该事件点作为背景噪声剔除。
步骤四:在剔除背景噪声后的点集中计算每个事件点的最大边界张角值和边界点权重值,当该事件点的最大边界张角值大于180°且边界点权重值大于设定的边界阈值时,视该事件点为边界特征事件点,提取出由所有边界特征事件点构成的目标独立的边界轮廓事件流数据;
该步骤为将目标边界事件堆积问题转化为边界提取问题的过程,包括:根据目标边界的特征设立评判指标,包括最大边界张角和边界点权重,通过计算最大边界张角和边界点权重筛选出边界事件点,当事件点的最大边界张角大于180°且边界点权重大于设定的边界阈值时,视该事件点为边界特征事件点,仅保留边界特征事件点,提取出目标的独立边界轮廓以解决目标边界事件堆积问题;
所述最大边界张角定义为中心事件点与最近邻点组成的向量opi(i=1,..,k)间构成的最大夹角,用ε表示,如图4所示,若ε≤180°,则说明最近邻点分布于该事件点的某一侧,则视该事件点为边界特征事件点,若ε>180°,则说明最近邻点均匀分布于事件点四周,视该事件点为非边界特征事件点。。
所述边界点权重定义为最近邻点在中心事件点周围分布的均匀程度,如图5所示,图中opi表示事件点与最近邻点组成的向量,op′i表示标准化后的向量,op′ix和op′iy表示标准归一化后的向量在x和y方向投影的标量,若事件点的边界点权重值大于设定阈值时,则表明最近邻点在事件点周围分布不均匀,偏向某一侧,则判定该点为边界特征事件点,否则为非边界特征事件点,边界点权重值为标准归一化后的向量在x或y方向投影的标量和,其计算公式为:
Figure BDA0002787866820000061
Figure BDA0002787866820000062
其中,所述opi表示事件点与第i个最近邻点组成的向量,i的取值范围是1到k;ox,oy分别表示中心事件点与最近邻点组成的向量在x,y方向上投影的标量和,k表示最近邻点个数。
所述边界阈值根据提取到的目标边界的连续性和完整性确定,在本实施例中设定边界阈值为1.2,取该值时,本方法提取到的目标边界具有较好的连续性和完整性,且不会出现多重边界。
步骤五:采用量化事件流的时间信息和累积事件点的方式,将所述原始事件流数据和所述边界轮廓事件流数据分别映射至像素平面,实现去噪效果的图像可视化。
步骤五中的像素平面包括:以事件点的像素坐标为基准构建的二维平面。所述实现去噪效果的图像可视化包括:压缩原始事件流数据和边界轮廓事件流数据的时间信息,截取一段时间内累积的事件点,沿着时间轴方向映射至像素平面。
例如:选取500个事件点,忽略其时间戳信息,将所有事件点沿时间轴方向投影至像素平面,通过重构目标的二维图像直观反映去噪效果。
在实验中,选取DAVIS346事件相机采集的原始数据作为样本进行实验验证,测试样本包括行人、车辆以及树林三种场景,实验结果如图6(a)至图6(c)所示。图6(a)是原始数据可视化图像,图6(b)是K-NN算法去噪效果可视化图像,图6(c)是本发明方法去噪效果可视化图像。从图中可以看出,与传统的K-NN算法相比,本发明方法更为彻底地去除了背景噪声,使物体边界处堆积的事件数量显著减少,从而获得了目标物体清晰独立的边界轮廓。
为进一步突显本发明方法对边界的处理效果,将K-NN算法与本发明方法加以对比,如图7(a)至图7(b)所示。图7(a)是K-NN算法去噪处理后物体的边界,图7(b)是本发明方法去噪处理后物体的边界。从图中可以明显看出,本发明方法去噪处理后的物体边界仅有一条,消除了多重边界,有效减少了物体边界处的冗余事件,相较于K-NN算法,本发明方法在简化数据结构方面具有更突出的效果。综上所述,本发明方法在最大程度降低事件数据量级的基础上,保证了目标物体完整的边界细节特征,取得了较好的去噪效果,增强了事件相机在其他领域的可应用性。
本发明具有如下有益效果:
1、本发明直接对包含有时间戳、像素坐标和极性信息的事件流数据进行处理,充分利用了事件相机的高动态范围和高时间分辨率特性,减少了将事件流转化为帧图像的步骤,使得对事件相机数据的去噪处理更加高效。
2、本发明从降低事件相机数据冗余和复杂度的角度出发,将目标物体边界处事件堆积问题转化为边界提取问题,在保证目标物体具有辨识度的情况下,简化了事件相机数据的结构,降低了数据传输的带宽,从而增强了事件相机的可应用性。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于合群度和边界特征的事件相机去噪方法,其特征在于,包括以下步骤:
步骤一:通过事件相机获取原始事件流数据;
步骤二:将原始事件流数据转化为点集形式,基于点集建立三维时空坐标系,在三维时空坐标系中,获取点集中每个事件点的最近邻点;
步骤三:计算每个事件点相对于该事件点的最近邻点的合群度,当该事件点的合群度小于所有事件点合群度的算术平均值时,将该事件点作为背景噪声剔除;
步骤四:在剔除背景噪声后的点集中,计算每个事件点的最大边界张角值和边界点权重值,当该事件点的最大边界张角值大于180°且边界点权重值大于设定的边界阈值时,视该事件点为边界特征事件点,提取出由所有边界特征事件点构成的目标独立的边界轮廓事件流数据;
步骤五:采用量化事件流的时间信息和累积事件点的方式,将所述原始事件流数据和所述边界轮廓事件流数据分别映射至像素平面,实现去噪效果的图像可视化。
2.如权利要求1所述的一种基于合群度和边界特征的事件相机去噪方法,其特征在于,所述步骤一中,通过事件相机获取原始事件流数据,包括:
通过事件相机获取由包含时间戳、像素坐标和极性信息的各独立事件组成的原始事件流数据。
3.如权利要求1或2所述的一种基于合群度和边界特征的事件相机去噪方法,其特征在于所述步骤二中,将原始事件流数据转化为点集形式,基于点集建立三维时空坐标系,在三维时空坐标系中,获取点集中每个事件点的最近邻点的过程包括:
将原始事件流数据转化为点集形式,映射至以x,y,t为坐标轴的三维时空坐标系中;其中,x,y为事件点的像素坐标,t为时间戳;
在三维时空坐标系中计算点集中每个事件点与剩余事件点的欧氏距离并排序,提取出排序中距离该事件点最近的k个点作为最近邻点,k的范围为6-10个。
4.如权利要求1或3所述的一种基于合群度和边界特征的事件相机去噪方法,其特征在于所述步骤二中,欧氏距离d的计算方法包括:
Figure FDA0002787866810000011
其中,d为欧氏距离;x1、y1、t1为某一事件点在时空坐标系中的坐标;x2、y2、t2为另一事件点在时空坐标系中的坐标。
5.如权利要求1所述的一种基于合群度和边界特征的事件相机去噪方法,其特征在于,所述步骤三中合群度的计算方法包括:
Figure FDA0002787866810000021
其中,I表示合群度,x、y、t表示事件点的三维坐标,xi、yi、ti表示该事件点的最近邻点的三维坐标,k表示最近邻点个数,
Figure FDA0002787866810000022
分别表示最近邻点坐标值在三个维度方向的方差。
6.如权利要求1所述的一种基于合群度和边界特征的事件相机去噪方法,其特征在于,所述步骤四中最大边界张角值为:事件点与最近邻点组成的向量间构成的最大夹角值。
7.如权利要求1所述的一种基于合群度和边界特征的事件相机去噪方法,其特征在于,所述步骤四中边界点权重值包括:最近邻点在事件点周围分布的均匀程度值,计算方法包括:
Figure FDA0002787866810000023
Figure FDA0002787866810000024
其中,所述opi表示事件点与第i个最近邻点组成的向量,ox,oy分别表示中心事件点与最近邻点组成的向量在x,y方向上投影的标量和,k表示最近邻点个数。
8.如权利要求1所述的一种基于合群度和边界特征的事件相机去噪方法,其特征在于,步骤五中的像素平面包括:
以事件点的像素坐标为基准构建的二维平面。
9.如权利要求1所述的一种基于合群度和边界特征的事件相机去噪方法,其特征在于,步骤五中所述实现去噪效果的图像可视化包括:
压缩原始事件流数据和边界轮廓事件流数据的时间信息,截取一段时间内累积的事件点,沿着时间轴方向映射至像素平面。
CN202011304341.XA 2020-11-19 2020-11-19 一种基于合群度和边界特征的事件相机去噪方法 Active CN112232356B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011304341.XA CN112232356B (zh) 2020-11-19 2020-11-19 一种基于合群度和边界特征的事件相机去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011304341.XA CN112232356B (zh) 2020-11-19 2020-11-19 一种基于合群度和边界特征的事件相机去噪方法

Publications (2)

Publication Number Publication Date
CN112232356A true CN112232356A (zh) 2021-01-15
CN112232356B CN112232356B (zh) 2023-09-22

Family

ID=74123732

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011304341.XA Active CN112232356B (zh) 2020-11-19 2020-11-19 一种基于合群度和边界特征的事件相机去噪方法

Country Status (1)

Country Link
CN (1) CN112232356B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113923319A (zh) * 2021-12-14 2022-01-11 成都时识科技有限公司 降噪装置、方法、芯片、事件成像装置及电子设备
CN114037741A (zh) * 2021-10-12 2022-02-11 中国电子科技南湖研究院 一种基于事件相机的自适应目标检测方法及装置
CN114885099A (zh) * 2022-05-10 2022-08-09 深圳锐视智芯科技有限公司 一种事件图像输出方法及相关装置
CN115273064A (zh) * 2022-07-14 2022-11-01 中国人民解放军国防科技大学 复杂运动背景下稀疏事件点小目标分割方法
WO2023092798A1 (zh) * 2021-11-25 2023-06-01 成都时识科技有限公司 动态视觉传感器的噪声过滤

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180137639A1 (en) * 2016-11-14 2018-05-17 Samsung Electronics Co., Ltd. Image vision processing method, device and equipment
WO2019172725A1 (en) * 2018-03-09 2019-09-12 Samsung Electronics Co., Ltd. Method and apparatus for performing depth estimation of object
CN111798395A (zh) * 2020-06-30 2020-10-20 武汉大学 基于tv约束的事件相机图像重建方法及系统
CN111931752A (zh) * 2020-10-13 2020-11-13 中航金城无人系统有限公司 一种基于事件相机的动态目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180137639A1 (en) * 2016-11-14 2018-05-17 Samsung Electronics Co., Ltd. Image vision processing method, device and equipment
WO2019172725A1 (en) * 2018-03-09 2019-09-12 Samsung Electronics Co., Ltd. Method and apparatus for performing depth estimation of object
CN111798395A (zh) * 2020-06-30 2020-10-20 武汉大学 基于tv约束的事件相机图像重建方法及系统
CN111931752A (zh) * 2020-10-13 2020-11-13 中航金城无人系统有限公司 一种基于事件相机的动态目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BALDWIN, RW ET.AL: "Event Probability Mask (EPM) and Event Denoising Convolutional Neural Network (EDnCNN) for Neuromorphic Cameras", 2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), pages 1698 - 1707 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114037741A (zh) * 2021-10-12 2022-02-11 中国电子科技南湖研究院 一种基于事件相机的自适应目标检测方法及装置
CN114037741B (zh) * 2021-10-12 2023-09-19 中国电子科技南湖研究院 一种基于事件相机的自适应目标检测方法及装置
WO2023092798A1 (zh) * 2021-11-25 2023-06-01 成都时识科技有限公司 动态视觉传感器的噪声过滤
CN113923319A (zh) * 2021-12-14 2022-01-11 成都时识科技有限公司 降噪装置、方法、芯片、事件成像装置及电子设备
CN114885099A (zh) * 2022-05-10 2022-08-09 深圳锐视智芯科技有限公司 一种事件图像输出方法及相关装置
CN115273064A (zh) * 2022-07-14 2022-11-01 中国人民解放军国防科技大学 复杂运动背景下稀疏事件点小目标分割方法
CN115273064B (zh) * 2022-07-14 2023-05-09 中国人民解放军国防科技大学 复杂运动背景下稀疏事件点小目标分割方法

Also Published As

Publication number Publication date
CN112232356B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
CN112232356A (zh) 一种基于合群度和边界特征的事件相机去噪方法
CN110020606B (zh) 一种基于多尺度卷积神经网络的人群密度估计方法
CN106875437B (zh) 一种面向rgbd三维重建的关键帧提取方法
CN110782477A (zh) 基于序列图像的运动目标快速检测方法、计算机视觉系统
CN110689482A (zh) 一种基于有监督逐像素生成对抗网络的人脸超分辨率方法
CN113011329A (zh) 一种基于多尺度特征金字塔网络及密集人群计数方法
CN109859246B (zh) 一种结合相关滤波与视觉显著性的低空慢速无人机跟踪方法
CN112104869B (zh) 一种视频大数据存储及转码优化系统
CN114220061B (zh) 一种基于深度学习的多目标跟踪方法
CN110599522A (zh) 一种视频序列中动态目标检测剔除方法
Fan et al. Multiscale cross-connected dehazing network with scene depth fusion
CN112703532A (zh) 图像处理方法、装置、设备及存储介质
Pan et al. Single-image dehazing via dark channel prior and adaptive threshold
CN111882581A (zh) 一种深度特征关联的多目标跟踪方法
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
CN112883940A (zh) 静默活体检测方法、装置、计算机设备及存储介质
CN112308087B (zh) 基于动态视觉传感器的一体化成像识别方法
CN111626944B (zh) 一种基于时空金字塔网络和对抗自然先验的视频去模糊方法
CN109064444B (zh) 基于显著性分析的轨道板病害检测方法
CN111127355A (zh) 一种对缺损光流图进行精细补全的方法及其应用
TWI381735B (zh) 影像監視設備之影像處理系統及其影像解析自動調適之方法
CN116596792A (zh) 一种面向智能船舶的内河雾天场景恢复方法、系统及设备
Schraml et al. A real-time pedestrian classification method for event-based dynamic stereo vision
CN115512263A (zh) 一种面向高空坠物的动态视觉监测方法及装置
CN111627047B (zh) 水下鱼类动态视觉序列运动目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant