CN116309781A - 一种基于跨模态融合的水下视觉目标测距方法及装置 - Google Patents

一种基于跨模态融合的水下视觉目标测距方法及装置 Download PDF

Info

Publication number
CN116309781A
CN116309781A CN202310557817.8A CN202310557817A CN116309781A CN 116309781 A CN116309781 A CN 116309781A CN 202310557817 A CN202310557817 A CN 202310557817A CN 116309781 A CN116309781 A CN 116309781A
Authority
CN
China
Prior art keywords
event
event sequence
feature
underwater
rgb frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310557817.8A
Other languages
English (en)
Other versions
CN116309781B (zh
Inventor
姜宇
王跃航
魏枫林
齐红
赵明浩
张凯欣
李志强
华聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202310557817.8A priority Critical patent/CN116309781B/zh
Publication of CN116309781A publication Critical patent/CN116309781A/zh
Application granted granted Critical
Publication of CN116309781B publication Critical patent/CN116309781B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种基于跨模态融合的水下视觉目标测距方法及装置,属于水下机器视觉技术领域,包括:获取水下的事件序列和RGB帧;通过体素网格方式对事件序列进行分段表征;对事件序列和RGB帧进行特征编码得到相应的特征描述子;通过自注意力机制对事件序列和RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;根据特征描述子和依赖关系对事件序列和RGB帧进行特征融合,得到跨模态融合信息;根据跨模态融合信息进行预测并得到水下视觉目标距离。通过将事件和RGB两种数据模态跨模态融合,有效提升水下视觉目标距离估计的准确率。适用于为水下三维重建、目标检测、识别追踪等任务提供新的数据表达。

Description

一种基于跨模态融合的水下视觉目标测距方法及装置
技术领域
本申请涉及一种基于跨模态融合的水下视觉目标测距方法及装置,属于水下机器视觉技术领域。
背景技术
随着科技的进步和发展,人类逐渐向海洋探索,开展海洋环境与生物的科学研究。在海洋探索中,水下视觉目标距离对水下目标检测,水下激光雷达,水下三维重建都有着重要意义。水下视觉目标距离通常由水下深度图像进行反应,深度图像也称为距离影像,也就是图像中记录拍摄设备到场景中各点的距离,反映了场景中物体的几何形状。目前,大多数水下距离估计方法都使用RGB图像进行距离估计,但由于水下视觉光照严重不足,视觉相机拍摄的水下场景往往暗淡模糊,因此仅仅依靠RGB图像很难估计出准确的水下距离。
事件相机是一种新型的基于仿生学的动态视觉传感器,具有低功耗、高动态范围以及高时空分辨率的特点,不同于传统相机捕获全局固定帧率图像,事件相机以异步方式在微秒级别上记录光度的变化信息,并将触发的事件流保存为稀疏离散的四元组数据,即(x,y,t,p),分别代表坐标、微秒级时间戳和极性。由于事件相机高动态范围以及高时空分辨率的特点,在机器视觉领域受到越来越多的关注,通常被应用于低光场景重建、目标检测、目标追踪、高动态范围成像、高速目标识别和轨迹恢复等领域。目前有部分方法将事件相机应用到具有挑战性的场景重建任务中,例如室外夜晚的低光场景或阳光充足的过曝光场景等,但这些基于事件相机的方法缺少足够充分的视觉信息,例如无法获取图像的初始像素值、只能针对亮度的变化信息进行处理,进而导致无法计算图像中每个像素的绝对值。因此,基于事件相机对水下目标距离进行估计还存在困难。此外,对于低光场景下的视觉信息表示,尤其对水下场景的视觉应用中,事件相机的潜力还尚未完全挖掘。
发明内容
本申请的目的在于提供一种基于跨模态融合的水下视觉目标测距方法及装置,通过跨模态融合的方法,利用事件序列和RGB帧实现水下视觉目标距离估计,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达。
为实现上述目的,本申请第一方面提供了一种基于跨模态融合的水下视觉目标测距方法,包括:
获取水下的事件序列和RGB帧;
针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
在一种实施方式中,所述获取水下的事件序列包括:
通过事件相机获取水下的异步事件序列;
将所述异步事件序列转换为同步事件序列,并将所述同步事件序列作为所述事件序列。
在一种实施方式中,所述针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征包括:
根据预设的时间周期对所述事件序列的进行均匀划分,得到多个事件窗口,其中,每个事件窗口均包括若干事件单元;
将所述事件序列中每个事件单元的微秒级时间戳进行正则化,得到每个事件单元的正则化时间戳;
根据所述正则化时间戳确定每个事件单元与每个事件窗口的对应关系,并通过体素网格方式对每个事件窗口进行体素网格表征。
在一种实施方式中,所述对所述事件序列和所述RGB帧进行特征编码包括:
通过预训练的ResNet-50网络分别提取所述事件序列和所述RGB帧中具有不同空间分辨率的特征,并通过以下公式进行计算,得到所述特征描述子;
Figure SMS_1
式中,
Figure SMS_2
表示RGB帧,/>
Figure SMS_3
表示ResNet-50网络,/>
Figure SMS_4
表示RGB帧的特征描述子,/>
Figure SMS_5
表示事件序列,/>
Figure SMS_6
表示事件序列的特征描述子。
在一种实施方式中,所述通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取之后还包括:
得到用于描述局部像素信息与全局像素信息之间关系的RGB帧依赖关系;
所述根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合。
在一种实施方式中,所述根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
根据所述特征描述子和所述依赖关系,对所述事件序列进行三尺度特征融合,得到具有不同空间分辨率的事件映射;
根据所述特征描述子和所述RGB帧依赖关系,对所述RGB帧进行三尺度特征融合,得到具有不同空间分辨率的帧特征映射;
通过聚合操作将各个所述事件映射和所述帧特征映射融合,得到跨模态融合信息。
在一种实施方式中,所述根据所述跨模态融合信息进行预测包括:
构建预测模型,通过有监督方式对所述预测模型进行训练,同时使用逐像素的L1损失函数约束训练,得到目标预测模型;
根据所述跨模态融合信息,通过所述目标预测模型进行预测,得到度量深度图;
将所述度量深度图转换为对数深度图,通过所述对数深度图得到所述水下视觉目标距离。
本申请第二方面提供了一种基于跨模态融合的水下视觉目标测距装置,包括:
相机模块,用于获取水下的事件序列和RGB帧;
体素网格事件表征模块,用于针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
特征编码模块,用于对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
自注意力模块,用于通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
特征融合模块,用于根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
预测模块,用于根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
本申请第三方面提供了一种电子设备,包括:存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述第一方面或者上述第一方面的任一实施方式中的步骤。
本申请第四方面提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现上述第一方面或者上述第一方面的任一实施方式中的步骤。
由上可见,本申请提供了一种基于跨模态融合的水下视觉目标测距方法及装置,首先获取水下的事件序列和RGB帧,并通过体素网格方式对事件序列进行分段表征;对事件序列和RGB帧进行特征编码得到相应的特征描述子,然后通过自注意力机制对事件序列和RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系,再根据特征描述子和依赖关系对事件序列和RGB帧进行特征融合,得到跨模态融合信息,进而可根据跨模态融合信息进行预测并得到水下视觉目标距离。通过本申请提出的水下视觉目标测距方法,将事件和RGB两种数据模态进行深度的跨模态融合,得到更高层次的跨模态融合信息,进而对事件序列和RGB帧以端到端的方式进行水下视觉目标距离估计,得到更为准确的水下视觉目标距离,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达,且能够有效提升上述应用任务的准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于跨模态融合的水下视觉目标测距方法的流程示意图;
图2为本申请实施例提供的一种对事件序列和RGB帧进行特征融合的流程示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其他实施例中也可以实现本申请。在其它情况下,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
下面结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本申请,但是本申请还可以采用其它不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施例的限制。
实施例一
本申请实施例提供了一种基于跨模态融合的水下视觉目标测距方法,如图1所示,该水下视觉目标测距方法包括:
步骤11:获取水下的事件序列和RGB帧;
可选的,所述获取水下的事件序列包括:
通过事件相机实时获取水下的异步事件序列;
将所述异步事件序列转换为同步事件序列,并将所述同步事件序列作为所述事件序列。
可选的,获取水下的RGB帧包括:通过RGB相机实时获取水下的RGB帧(也称RGB图像)。
步骤12:针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
在一种实施方式中,本申请实施例通过构建卷积神经网络对水下视觉目标距离进行估计,由于卷积神经网络仅接受同步形式的输入,因此首先将获取的异步事件序列转换为同步形式的事件序列,然后针对事件序列的异步稀疏性,通过卷积神经网络的体素网格事件表征模块对每一场景的事件序列采用体素网格方式进行分段表征,并将表征后的结果作为事件张量图,以便于能够适配卷积神经网络的输入。
可选的,所述针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征包括:
根据预设的时间周期对所述事件序列的进行均匀划分,得到多个事件窗口,其中,每个事件窗口均包括若干事件单元;
将所述事件序列中每个事件单元的微秒级时间戳进行正则化,得到每个事件单元的正则化时间戳;
根据所述正则化时间戳确定每个事件单元与每个事件窗口的对应关系,并通过体素网格方式对每个事件窗口进行体素网格表征。
具体的,根据预设的时间周期对事件序列的时间戳(即微秒级时间戳)进行均匀划分,得到多个事件窗口,进而可将事件序列中的每个事件单元按照时间戳所在的事件窗口,对目标子数据进行划分,以确定事件序列中每个事件单元的所对应的事件窗口编号。
在一种实施方式中,根据预设的时间周期,结合事件序列总体时间长度,确定划分的事件窗口数量为
Figure SMS_7
;随后,通过以下公式将事件序列的每个事件单元的微秒级时间戳进行正则化:
Figure SMS_8
式中,
Figure SMS_9
为当前处理事件单元的时间戳,/>
Figure SMS_10
为输出的正则化时间戳,/>
Figure SMS_11
和/>
Figure SMS_12
代表当前执行的事件窗口的最大时间戳和最小时间戳。
进一步地,对事件序列的每个事件窗口执行体素网格化过程,其计算公式如下:
Figure SMS_13
式中,
Figure SMS_14
为经过体素网格表征后得到的事件张量图,其输入为事件单元的四元组数据:/>
Figure SMS_15
,分别代表事件窗口中第/>
Figure SMS_16
个事件单元的坐标信息、时间戳和极性。其中,/>
Figure SMS_17
代表当前事件窗口中第/>
Figure SMS_18
个事件单元所在位置的亮度增加,并达到了预设增量阈值;/>
Figure SMS_19
则代表相反的过程。
步骤13:对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
在一种实施方式中,当通过上述卷积神经网络对水下视觉目标距离进行估计时,可在卷积神经网络设置一特征编码模块,以对所述事件序列和所述RGB帧进行特征编码,其中,该特征编码模块可以是在ImageNet上预训练的ResNet-50网络,也可以是其他网络,此处不做限定。
可选的,所述对所述事件序列和所述RGB帧进行特征编码包括:
通过预训练的ResNet-50网络分别提取所述事件序列和所述RGB帧中具有不同空间分辨率的特征,并通过以下公式进行计算,得到所述特征描述子;
Figure SMS_20
式中,
Figure SMS_21
表示RGB帧,/>
Figure SMS_22
表示ResNet-50网络,/>
Figure SMS_23
表示RGB帧的特征描述子,/>
Figure SMS_24
表示事件序列,/>
Figure SMS_25
表示事件序列的特征描述子。
步骤14:通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
在一种实施方式中,当通过上述卷积神经网络对水下视觉目标距离进行估计时,可通过卷积神经网络中的全连接网络充当自注意力模块,以对所述事件序列和所述RGB帧进行空间关系提取。
可选的,所述通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取之后还包括:
得到用于描述局部像素信息与全局像素信息之间关系的RGB帧依赖关系;
所述根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合。
步骤15:根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
可选的,所述根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
根据所述特征描述子和所述依赖关系,对所述事件序列进行三尺度特征融合,得到具有不同空间分辨率的事件映射;
根据所述特征描述子和所述RGB帧依赖关系,对所述RGB帧进行三尺度特征融合,得到具有不同空间分辨率的帧特征映射;
通过聚合操作将各个所述事件映射和所述帧特征映射融合,得到跨模态融合信息。
在一种实施方式中,如图2所示,当通过上述卷积神经网络对水下视觉目标距离进行估计时,可在卷积神经网络中构建一特征融合模块,该特征融合模块包括RGB三尺度融合编码模块和事件三尺度融合编码模块。对于RGB帧,分别将RGB特征编码集(即与RGB帧对应的特征描述子)缩放为[1/8, 1/16, 1/32],输入到所述RGB三尺度融合编码模块中;对于事件序列,分别将事件特征编码集(即与事件序列对应的特征描述子)缩放为[1/2, 1/4],得到两个尺度的事件。然后,将RGB三尺度融合编码模块的输出缩放为1/8,将其和两个尺度的事件输入到事件三尺度融合编码模块中,得到RGB与事件跨模态融合的特征融合集,作为所述跨模态融合信息。
步骤16:根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
在一种实施方式中,当通过上述卷积神经网络对水下视觉目标距离进行估计时,可在卷积神经网络中构建一个预测模块,将上述特征融合集输入,即可得到输出水下深度图像,该水下深度图像可以是度量深度图或对数深度图,进而可根据水下深度图像得到效果良好的水下视觉目标距离结果。
可选的,所述根据所述跨模态融合信息进行预测包括:
构建预测模型,通过有监督方式对所述预测模型进行训练,同时使用逐像素的L1损失函数约束训练,得到目标预测模型;
根据所述跨模态融合信息,通过所述目标预测模型进行预测,得到度量深度图;
将所述度量深度图转换为对数深度图,通过所述对数深度图得到所述水下视觉目标距离。
具体的,可先设置若干包含水下深度图像和相应的样本标签深度图像的训练集,然后以有监督方式对所述预测模型进行训练,同时使用逐像素的L1损失函数约束训练,得到目标预测模型,其中,L1损失函数的计算公式如下:
Figure SMS_26
式中,
Figure SMS_27
代表全部的训练集数量,/>
Figure SMS_28
为第j张估计的水下深度图像,/>
Figure SMS_29
代表相应的样本标签深度图像。
进一步的,由于对数深度图具有自适应学习显著的深度变化的优势,因此在所述目标预测模型输出度量深度图后,还可通过该模型根据度量深度图预测相应的对数深度图,以得到更为准确的水下视觉目标距离,具体计算公式如下:
Figure SMS_30
式中,
Figure SMS_31
表示对数深度图,/>
Figure SMS_32
表示度量深度图,/>
Figure SMS_33
表示最大度量深度图,
Figure SMS_34
表示控制系数,可根据实际情况进行设置,本申请实施例中设置为5.7。
由上可见,本申请实施例提供了一种基于跨模态融合的水下视觉目标测距方法,将事件和RGB两种数据模态进行深度的跨模态融合,得到更高层次的跨模态融合信息,进而对事件序列和RGB帧以端到端的方式进行水下视觉目标距离估计,得到更为准确的水下视觉目标距离,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达,且能够有效提升上述应用任务的准确率。
实施例二
本申请实施例提供了一种基于跨模态融合的水下视觉目标测距装置,该水下视觉目标测距装置包括相机模块、体素网格事件表征模块、特征编码模块、自注意力模块、特征融合模块以及预测模块:
其中,相机模块用于获取水下的事件序列和RGB帧;
体素网格事件表征模块用于针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
特征编码模块用于对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
自注意力模块用于通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
特征融合模块用于根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
预测模块用于根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
可选的,所述相机模块包括用于实时获取水下事件序列的事件相机,和用于实时获取水下RGB帧的RGB相机。
由上可见,本申请实施例提供的一种基于跨模态融合的水下视觉目标测距装置,将事件和RGB两种数据模态进行深度的跨模态融合,得到更高层次的跨模态融合信息,进而对事件序列和RGB帧以端到端的方式进行水下视觉目标距离估计,得到更为准确的水下视觉目标距离,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达,且能够有效提升上述应用任务的准确率。
实施例三
本申请实施例提供了一种电子设备,该电子设备包括存储器、处理器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,其中,存储器用于存储软件程序以及模块,处理器通过运行存储在存储器的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器和处理器通过总线连接。具体地,处理器通过运行存储在存储器的上述计算机程序时实现上述实施例一中的任一步骤。
应当理解,在本申请实施例中,所称处理器可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器 (DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器、快闪存储器和随机存储器,并向处理器提供指令和数据。存储器的一部分或全部还可以包括非易失性随机存取存储器。
由上可见,本申请实施例提供的一种电子设备,通过运行计算机程序实现实施例一中所述的水下视觉目标测距方法,将事件和RGB两种数据模态进行深度的跨模态融合,得到更高层次的跨模态融合信息,进而对事件序列和RGB帧以端到端的方式进行水下视觉目标距离估计,得到更为准确的水下视觉目标距离,为水下的三维重建、目标检测、识别和追踪等任务提供新的数据表达,且能够有效提升上述应用任务的准确率。
应当理解,上述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,上述计算机程序可存储于以计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,上述计算机程序包括计算机程序代码,上述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。上述计算机可读介质可以包括:能够携带上述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,上述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将上述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例所提供的方法及其细节举例可结合至实施例提供的装置和设备中,相互参照,不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各实例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟是以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同的方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其他的方式实现。例如,以上所描述的装置/设备实施例仅仅是示意性的,例如,上述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以由另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
上述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种基于跨模态融合的水下视觉目标测距方法,其特征在于,包括:
获取水下的事件序列和RGB帧;
针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
2.如权利要求1所述的水下视觉目标测距方法,其特征在于,所述获取水下的事件序列包括:
通过事件相机获取水下的异步事件序列;
将所述异步事件序列转换为同步事件序列,并将所述同步事件序列作为所述事件序列。
3.如权利要求1所述的水下视觉目标测距方法,其特征在于,所述针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征包括:
根据预设的时间周期对所述事件序列的进行均匀划分,得到多个事件窗口,其中,每个事件窗口均包括若干事件单元;
将所述事件序列中每个事件单元的微秒级时间戳进行正则化,得到每个事件单元的正则化时间戳;
根据所述正则化时间戳确定每个事件单元与每个事件窗口的对应关系,并通过体素网格方式对每个事件窗口进行体素网格表征。
4.如权利要求1所述的水下视觉目标测距方法,其特征在于,所述对所述事件序列和所述RGB帧进行特征编码包括:
通过预训练的ResNet-50网络分别提取所述事件序列和所述RGB帧中具有不同空间分辨率的特征,并通过以下公式进行计算,得到所述特征描述子;
Figure QLYQS_1
式中,
Figure QLYQS_2
表示RGB帧,/>
Figure QLYQS_3
表示ResNet-50网络,/>
Figure QLYQS_4
表示RGB帧的特征描述子,/>
Figure QLYQS_5
表示事件序列,/>
Figure QLYQS_6
表示事件序列的特征描述子。
5.如权利要求1所述的水下视觉目标测距方法,其特征在于,所述通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取之后还包括:
得到用于描述局部像素信息与全局像素信息之间关系的RGB帧依赖关系;
所述根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合。
6.如权利要求5所述的水下视觉目标测距方法,其特征在于,所述根据所述特征描述子、所述依赖关系和所述RGB帧依赖关系对所述事件序列和所述RGB帧进行特征融合包括:
根据所述特征描述子和所述依赖关系,对所述事件序列进行三尺度特征融合,得到具有不同空间分辨率的事件映射;
根据所述特征描述子和所述RGB帧依赖关系,对所述RGB帧进行三尺度特征融合,得到具有不同空间分辨率的帧特征映射;
通过聚合操作将各个所述事件映射和所述帧特征映射融合,得到跨模态融合信息。
7.如权利要求6所述的水下视觉目标测距方法,其特征在于,所述根据所述跨模态融合信息进行预测包括:
构建预测模型,通过有监督方式对所述预测模型进行训练,同时使用逐像素的L1损失函数约束训练,得到目标预测模型;
根据所述跨模态融合信息,通过所述目标预测模型进行预测,得到度量深度图;
将所述度量深度图转换为对数深度图,通过所述对数深度图得到所述水下视觉目标距离。
8.一种基于跨模态融合的水下视觉目标测距装置,其特征在于,包括:
相机模块,用于获取水下的事件序列和RGB帧;
体素网格事件表征模块,用于针对所述事件序列的异步稀疏性,通过体素网格方式对所述事件序列进行分段表征;
特征编码模块,用于对所述事件序列和所述RGB帧进行特征编码,得到分别与所述事件序列和所述RGB帧对应的特征描述子;
自注意力模块,用于通过自注意力机制对所述事件序列和所述RGB帧进行空间关系提取,得到用于描述局部事件与时空全局事件之间关系的依赖关系;
特征融合模块,用于根据所述特征描述子和所述依赖关系对所述事件序列和所述RGB帧进行特征融合,得到跨模态融合信息;
预测模块,用于根据所述跨模态融合信息进行预测,得到水下视觉目标距离。
9.一种电子设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
CN202310557817.8A 2023-05-18 2023-05-18 一种基于跨模态融合的水下视觉目标测距方法及装置 Active CN116309781B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310557817.8A CN116309781B (zh) 2023-05-18 2023-05-18 一种基于跨模态融合的水下视觉目标测距方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310557817.8A CN116309781B (zh) 2023-05-18 2023-05-18 一种基于跨模态融合的水下视觉目标测距方法及装置

Publications (2)

Publication Number Publication Date
CN116309781A true CN116309781A (zh) 2023-06-23
CN116309781B CN116309781B (zh) 2023-08-22

Family

ID=86826162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310557817.8A Active CN116309781B (zh) 2023-05-18 2023-05-18 一种基于跨模态融合的水下视觉目标测距方法及装置

Country Status (1)

Country Link
CN (1) CN116309781B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116682000A (zh) * 2023-07-28 2023-09-01 吉林大学 一种基于事件相机的水下蛙人目标检测方法
CN116912798A (zh) * 2023-09-14 2023-10-20 南京航空航天大学 基于跨模态噪声感知的自动驾驶事件相机目标检测方法
CN117576784A (zh) * 2024-01-15 2024-02-20 吉林大学 一种融合事件和rgb数据潜水员手势识别方法及其系统
CN117745596A (zh) * 2024-02-19 2024-03-22 吉林大学 一种基于跨模态融合的水下去遮挡方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686928A (zh) * 2021-01-07 2021-04-20 大连理工大学 一种基于多源信息融合的运动目标视觉跟踪方法
CN115484410A (zh) * 2022-09-15 2022-12-16 天津大学 基于深度学习的事件相机视频重建方法
CN115757857A (zh) * 2023-01-09 2023-03-07 吉林大学 一种水下三维跨模态联合检索方法、存储介质和电子设备
CN115761472A (zh) * 2023-01-09 2023-03-07 吉林大学 一种基于融合事件和rgb数据的水下暗光场景重建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686928A (zh) * 2021-01-07 2021-04-20 大连理工大学 一种基于多源信息融合的运动目标视觉跟踪方法
CN115484410A (zh) * 2022-09-15 2022-12-16 天津大学 基于深度学习的事件相机视频重建方法
CN115757857A (zh) * 2023-01-09 2023-03-07 吉林大学 一种水下三维跨模态联合检索方法、存储介质和电子设备
CN115761472A (zh) * 2023-01-09 2023-03-07 吉林大学 一种基于融合事件和rgb数据的水下暗光场景重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LIN WANG: "Event-Based High Dynamic Range Image and Very High Frame Rate Video Generation Using Conditional Generative Adversarial Networks", 《IEEE》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116682000A (zh) * 2023-07-28 2023-09-01 吉林大学 一种基于事件相机的水下蛙人目标检测方法
CN116682000B (zh) * 2023-07-28 2023-10-13 吉林大学 一种基于事件相机的水下蛙人目标检测方法
CN116912798A (zh) * 2023-09-14 2023-10-20 南京航空航天大学 基于跨模态噪声感知的自动驾驶事件相机目标检测方法
CN116912798B (zh) * 2023-09-14 2023-12-19 南京航空航天大学 基于跨模态噪声感知的自动驾驶事件相机目标检测方法
CN117576784A (zh) * 2024-01-15 2024-02-20 吉林大学 一种融合事件和rgb数据潜水员手势识别方法及其系统
CN117576784B (zh) * 2024-01-15 2024-03-26 吉林大学 一种融合事件和rgb数据潜水员手势识别方法及其系统
CN117745596A (zh) * 2024-02-19 2024-03-22 吉林大学 一种基于跨模态融合的水下去遮挡方法

Also Published As

Publication number Publication date
CN116309781B (zh) 2023-08-22

Similar Documents

Publication Publication Date Title
CN116309781B (zh) 一种基于跨模态融合的水下视觉目标测距方法及装置
Baldwin et al. Time-ordered recent event (TORE) volumes for event cameras
Basalamah et al. Scale driven convolutional neural network model for people counting and localization in crowd scenes
CN111563447B (zh) 一种基于密度图的人群密度分析与检测定位方法
CN110598558B (zh) 人群密度估计方法、装置、电子设备及介质
CN115761472B (zh) 一种基于融合事件和rgb数据的水下暗光场景重建方法
CN110689562A (zh) 一种基于生成对抗网络的轨迹回环检测优化方法
Jia et al. A two-step approach to see-through bad weather for surveillance video quality enhancement
Shakya et al. Deep learning algorithm for satellite imaging based cyclone detection
CN111079764B (zh) 一种基于深度学习的低照度车牌图像识别方法及装置
CN109934108B (zh) 一种多目标多种类的车辆检测和测距系统及实现方法
CN106128121A (zh) 基于局部特征分析的车辆排队长度快速检测算法
Hu et al. A multi-stage underwater image aesthetic enhancement algorithm based on a generative adversarial network
Zhu et al. Clf-net: Contrastive learning for infrared and visible image fusion network
CN114648547B (zh) 用于反无人机红外探测系统的弱小目标检测方法和装置
CN113705380A (zh) 雾天的目标检测方法、装置、电子设备以及存储介质
CN116519106B (zh) 一种用于测定生猪体重的方法、装置、存储介质和设备
CN111767826A (zh) 一种定时定点场景异常检测方法
CN111127355A (zh) 一种对缺损光流图进行精细补全的方法及其应用
JP7372391B2 (ja) 入力データにおける異常を検知するための概念
CN116416678A (zh) 一种运用人工智能技术实现动作捕捉及智能评判的方法
Apewokin et al. Embedded real-time surveillance using multimodal mean background modeling
Lin et al. EAGAN: Event‐based attention generative adversarial networks for optical flow and depth estimation
CN115249269A (zh) 目标检测方法、计算机程序产品、存储介质及电子设备
Dai et al. Adaptive illumination based depth sensing using deep superpixel and soft sampling approximation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant