CN110569387A - 基于深度哈希算法的雷达-图像跨模态检索方法 - Google Patents
基于深度哈希算法的雷达-图像跨模态检索方法 Download PDFInfo
- Publication number
- CN110569387A CN110569387A CN201910768290.7A CN201910768290A CN110569387A CN 110569387 A CN110569387 A CN 110569387A CN 201910768290 A CN201910768290 A CN 201910768290A CN 110569387 A CN110569387 A CN 110569387A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- image
- images
- network
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明属于机器学习、智能控制领域,提出了基于深度哈希算法的雷达‑图像跨模态检索方法。该方法首先利用移动机器人上的传感器获取点云文件和图像,以此来构建训练集和测试集;分别将训练集中点云和图像文件输入到构建的深度哈希网络中,进行特征学习并分别得到各自的二进制哈希码,以此训练深度哈希网络。检索时,根据训练完毕的深度哈希网络得到测试集中点云文件和图像各自的二进制哈希码,在公共汉明空间计算二者的汉明距离从而得到与待测试点云文件最相似的图像即为要检索的结果。本发明能够在摄像头由于环境因素造成的图像模糊或者不完整情况下,实现从点云检索出与之最相似的图像文件,从而能够更好的感知周围环境,获取丰富的图像信息。
Description
技术领域
本发明属于机器学习、智能控制领域,涉及了一种基于深度哈希算法的雷达-图像跨模态检索方法。
背景技术
随着现代科技的飞速发展,移动机器人也在迅猛发展中。伴随着人机交互而来的是传感器发展,其中传感器一般包括激光雷达、摄像头、GPS、超声波雷达。虽然传感器只是移动机器人的一部分,但其发挥的作用却超乎想象。当移动机器人在使用单一传感器进行环境感知时,其采集的数据信息会不可避免的存在一些误差。而且在复杂变化的环境中时,这些误差会更大。因此需要将多个传感器结合起来使用。
人们对于传感器技术在移动机器人上的应用与研究越来越深入。由于外部传感器为集多种学科于一身的产品,有些方面还在探索之中,随着外部传感器的进一步完善,移动机器人的功能越来越强大,将在许多领域为人类做出更大贡献,其中移动机器人主要依靠摄像头和激光雷达来感知周围的环境。目前通过摄像头进行拍摄,再对拍摄的图像进行分析来确定周围的环境,是移动机器人主要的感知途径之一。通过摄像头可以获取丰富的信息,而且价格低廉、携带方便、实时性更强和有利于后期图像的处理,但是摄像头很容易受到光照的影响并且它的测量距离比较近,大约10m。而由激光雷达获取的点云可以观测的距离相对较远(100m左右)而且点云的精度可以达到厘米级别,不受光照条件的影响,在夜间也可以正常工作。激光雷达所采集的点云数据具有图像所不具备的3D立体信息以及反射强度信息。
在光照不足或者夜晚的情况下,摄像头所采集的图像会受到极大的干扰,造成图像部分丢失。这时候移动机器人主要依靠激光雷达获取的点云数据来进行场景的感知,此时激光雷达的存在就显得尤为重要。因此基于跨模态检索对移动机器人场景感知具有重要意义。也使得人机交互变得更加直观形象。
在已有的点云-图像跨模态检索中,如本申请人提出的一种移动机器人视觉-雷达图像跨模态检索方法(申请号201810729617.5),该方法利用子空间学习的方法进行跨模态检索,首先通过深度学习网络提取点云和图像的特征,然后通过典型相关分析将两种模态的特征映射到子空间,最后计算欧式距离进行检索。虽然该方法实现了点云-图像的跨模态检索,但该方法不是一个端到端的学习过程,而且需要的存储空间较高,检索速率相对较慢。
基于哈希变换的跨模态方法的基本思想是利用不同模态的样本对信息,学习不同模态的哈希变换,将不同模态特征映射到一个汉明(Hamming)二值空间,然后在汉明空间实现快速的跨模态匹配。哈希映射学习的基本依据是相似样本的哈希编码是相似的。哈希类检索算法具有存储空间小、检索速度快等特点。目前现有的哈希算法主要应用在图像-文字的跨模态检索中,点云-图像的跨模态检索中还未见该算法的应用。
发明内容
本发明的目的是为了解决移动机器人在夜晚或者光线比较暗时,通过摄像头获取的图像模糊或者不完整的情况下,提出一种基于深度哈希算法的雷达-图像跨模态检索方法。本发明可以实现从测试点云数据检索出最相似的图像,以此来使移动机器人更加直观的感受周围环境,获取丰富的图像信息。且本方法具有所占存储空间小、检索速度快等优点。
为了实现上述目的,本发明采用如下技术方案:
本发明提出的一种基于深度哈希算法的雷达-图像跨模态检索方法,其特征在于,包括以下步骤:
1)利用移动机器人获取不同场景下包含有点云文件和对应图像的路线集合,从路线集合中分别选取训练集和测试集,分别将训练集和测试集中的点云和图像进行配,并将测试集中的所有图像作为检索库;具体步骤如下:
1-1)获取不同场景下包含有点云文件和对应图像信息的路线集合;具体方法如下:
在移动机器人上分别安装激光雷达、摄像机和GPS;设定多种不同场景,移动机器人在每种场景下的行进过程中,激光雷达持续360度扫描周围环境采集行进过程中每个采集点对应的点云文件,摄像机实时拍摄采集行进过程中每个采集点相应的图像,GPS记录点云文件和图像采集的经纬度坐标,分别得到每种场景下多条路线,将所有场景下获取的路线组成路线集合;
1-2)将采集到的设定距离内的点云文件和图像进行配对,创建相同标签,并分为训练集和测试集;其中测试集中所有的图像作为检索库;具体步骤如下:
1-2-1)在同一场景下,将其中一部分路线上采集到的点云文件和图像作为训练集,其余路线上采集到的点云文件和图像作为测试集;
1-2-2)根据GPS获取到的经纬度坐标,将训练集中设定距离内的点云文件和图像进行配对,并创建相同的标签;
1-2-3)根据GPS获取到的经纬度坐标,将测试集中设定距离内的点云文件和图像进行配对,作为后期检索任务的点云文件和图像输入;同时将测试集中所有的图像作为检索库;
2)建立深度哈希网络,包含点云深度学习子网络、图像深度学习子网络及哈希码学习部分;对训练集和测试集的点云文件和图像进行预处理,得到能够适应所述深度哈希网络的数据格式,具体步骤如下:
2-1)删除点云文件中的反射强度信息,使每个采集点的点云文件仅含有直角坐标的特性;
2-2)对删除反射强度信息的训练集和测试集中的点云文件进行随机采样,将采样后的点云文件进行归一化处理;
2-3)将训练集和测试集中所有的图像下采样至224x224;
3)对深度哈希网络进行训练,将步骤2)中预处理后的点云文件和图像输入到深度哈希网络中,同时构造相似性矩阵S,使不同模态间数据相互关联,从而得到图像深度学习子网络参数θx和点云深度学习子网络参数θy;具体方法如下:
点云深度学习子网络的输入为单个点云文件,输出为输入点云文件对应的c维特征向量,令训练集包含n个点云文件,将n个点云文件输入到点云深度学习子网络中,经过前向传播共得到n个c维特征向量;
图像深度学习子网络的输入大小是224x224x3,输出为c维特征向量,令训练集包含n个图像,将n个图像输入到图像深度学习子网络中,经过前向传播共得到n个c维特征向量;
令将训练集的图像和点云文件分别输入图像深度学习子网络和点云深度学习子网络学习到的特征如下:
F*i=f(xi;θx),F∈Rc×n
G*j=g(yj;θy),G∈Rc×n
式中,F*i是输入的训练集中第i个图像xi学习到的图像特征,F为所有图像特征构成的集合;第G*j是输入的训练集中第j个点云文件yj学习到点云特征,G为所有点云特征构成的集合;c是哈希码的长度;
将得到的各特征集合进行哈希码学习;表达式如下:
Bx=sign(a(F))
By=sign(b(G))
其中a和b是超参数,Bx为图像学习到的二进制哈希码,By为点云学习到的二进制哈希码;sign(·)是一个符号函数,表示为:
令图像深度学习子网络参数θx和点云深度学习子网络参数θy的目标函数α的表达式如下:
其中Sij为相似性矩阵S中的元素,若图像深度学习子网络输入的训练集中第i个图像xi和点云深度学习子网络输入的训练集中第j个点云文件yj数据的标签相同,则Sij=1,否则Sij=0;θij=0.5FTG,FT为集合F的转置;β,η均为超参数;||·||F表示F范数;
当图像深度学习子网络参数θx和点云深度学习子网络参数θy的目标函数α最小时,求解出图像深度学习子网络参数θx和点云深度学习子网络参数θy;从而得到训练完毕的深度哈希网络;
4)对于测试集点云文件中的任一待测试点云文件A,从测试集图像中检索出最相似的K张图像;具体步骤如下:
4-1)将测试集中的所有图像和点云文件A输入到训练完毕的深度哈希网络中,通过步骤3)得到的图像深度学习子网络参数θx和点云深度学习子网络参数θy进行前向传播从而得到各自的二进制哈希码B′x和B′y;
4-2)对得到的二进制哈希码B′x和B′y通过异或运算计算点云文件A与检索库中所有图像的Hamming距离,Hamming距离越小,表明不同模态之间的相似程度越高,反之,则相似程度越低;
4-3)将得到的Hamming距离按照升序顺序排列,选择距离最小的前K个结果作为检索得到与点云文件A最相似的图像;
5)在步骤4)的检索结果进行实际距离的计算,得到与测试点云最相似的图像;具体步骤如下:
5-1)通过GPS查询K个检索图像所对应采集地点及待测试点云文件A所对应采集地点的经纬度坐标,将各经纬度坐标转换为直角坐标,则有转换式:
X=r×cos(y′)×cos(x′)
Y=r×cos(y′)×sin(x′)
Z=r×sin(y′)
其中,x′代表K个检索图像所对应采集地点或待测试点云文件A所对应采集地点的经度坐标,y'代表K个检索图像所对应采集地点或待测试点云文件A所对应采集地点的纬度坐标,r是地球半径,由此可以得到各自的直角坐标X,Y,Z;则待测试点云文件A对应的采集点与检索出的各图像对应的采集点之间的实际距离公式如下:
式中,dis0.m表示待测试点云文件A对应的采集点与检索出的第m张图像对应的采集点之间的实际距离;X0,Y0,Z0分别为待测试点云文件A对应的采集点的直角坐标;Xm,YmZm分别为检索出的第m张图像对应的采集点的直角坐标,m=1,…,K;
5-2)将步骤5-1)中得到的K个实际距离dis0.mdis按照升序排列,距离最小所对应的图像即为检索得到与待测试点云文件A最相似的图像,检索完成。
本发明的特点及有益效果在于:
本发明能够从不受光照条件影响的点云数据中检索出与之最相似的图像,使移动机器人在不利环境的干扰下,可以有效的从检索库中检索出与给定点云数据最相似的图像,从而能够更好的感知周围环境,获取丰富的图像信息。并且该方法具有数据存储空间小,检索速度快等优势。因此本发明在实际用途中可以应用到室内智能小车以及无人汽车上,可以更快的检索出所需图像,实时性得到了保障,并且需要的存储空间小,能够有效的减少成本,对以后的商业化提供了可能。
附图说明
图1是本发明实施例所建立的深度哈希网络及其训练过程。
具体实施方式
本发明提出一种基于深度哈希算法的雷达-图像跨模态检索方法,下面结合具体实施例进一步详细说明如下。
本发明提出一种基于深度哈希算法的雷达-图像跨模态检索方法,包括以下步骤:
1)利用移动机器人获取不同场景下包含有点云文件和对应图像的路线集合,从路线集合中分别选取训练集和测试集,分别将训练集和测试集中的点云文件和图像进行配对,并将测试集中的所有图像作为检索库;具体步骤如下:
1-1)获取不同场景下包含有点云文件和对应图像信息的路线集合;具体方法如下:
在移动机器人(本实施例为一辆无线智能小车)上分别装有激光雷达(本实施例采用智能镭神C16-700A)、摄像头(本实施例采用海康威视DS-2CD1021FD-IW1)和GPS(本实施例采用康凯斯GT200),晴朗天气下,在不同场景(本实施例为5种场景,分别为室内停车场、室外停车场、校园、实验室大楼、公园、)通过激光雷达旋转360°特点,获取不同地点的点云数据,其中每个点具有直角坐标和反射强度坐标的特性,摄像头实时获取相应不同地点的RGB图像数据,GPS记录下经纬度坐标信息,每条路线采集时间大约是10分钟,同一场景下设置若干条左右(本实施例为5条)的行驶路线完成采集工作;
1-2)将采集到的设定距离内的点云文件和图像进行配对,创建相同标签,并分为训练集和测试集;其中测试集中所有的图像作为检索库;具体步骤如下:
1-2-1)在同一场景下,将其中三条路线上采集到的点云文件和图像作为训练集,另外两条路线上采集到的点云文件和图像作为测试集;
1-2-2)根据GPS获取到的经纬度坐标,将训练集设定距离内(本实施例为20m)的点云文件和图像进行配对,并创建相同的标签,用于后期相似性矩阵的生成;
1-2-3)根据GPS获取到的经纬度坐标,将测试集中设定距离内的点云文件和图像进行配对,作为后期检索任务的点云文件和图像输入;同时将测试集中所有的图像作为检索库;
本实施例中训练集中点云文件和图像数量各为5633个,测试集中点云和图像数量各为1545个,通过GPS将距离20m内的点云文件和图像配对;同时将测试集中所有的图像作为检索库;
2)建立深度哈希网络,包含点云深度学习子网络、图像深度学习子网络及哈希码学习部分,其中,点云深度学习子网络作用于点云模态数据,本实施例采用一个PointNet网络,该网络输出为学习到的点云数据,图像深度学习子网络作用于图像模态数据,本实施例采用一个卷积神经网络CNN-F,其数据输出为学习到的图像特征;对训练集和测试集的点云文件和图像进行预处理,得到能够适应所述深度哈希网络的数据格式,具体步骤如下:
2-1)通过NATLAB程序删除点云文件中的反射强度信息,使每个点只具有直角坐标的特性;
2-2)每一个点云文件大约含有两万个点,利用numpy库中的随机采样法(本实施例中把点云数量降至3000)处理点云文件,将采样后的点云文件进行归一化处理;
2-3)将训练集和测试集中所有的图像下采样至224x224;
3)参见图1,对深度哈希网络进行训练,将步骤2)中预处理后的点云文件和图像输入到深度哈希网络中,同时构造相似性矩阵S,使不同模态间数据相互关联,从而得到图像深度学习子网络参数θx和点云深度学习子网络参数θy;具体方法如下:其中在PointNet网络中输入为一帧的全部点云文件的集合,表示为一个Nx3的向量,其中N代表点云数量,N=3000,3对应直角坐标的三个分量,输入训练集中的点云文件先通过和一个T-Net(为一个对齐网络,是点云深度子网络的一部分)学习到的转换矩阵相乘来对齐,保证了PointNet网络的对特定空间转换的不变性,通过多次mlp(多层感知器)对各点云文件进行特征提取后,再用一个T-Net对特征进行对齐,在特征的各个维度上执行maxpooling(最大池化)操作来得到1024维全局特征,最后通过全连接层得到n个c维(本实施例c=128)特征向量;
图像输入到CNN-F网络中,其中网络有5个卷积层(C1-C5),以及三个(F1-F3)全连接层,在每一个卷积层中包含了激励函数RELU以及局部响应归一化(LRN)处理,然后在经过降采样(pool处理),图像深度学习子网络的输入大小是224x224x3,输出为c维特征向量,其中训练集包含有n个图像,将n个图像输入到图像深度学习子网络中,经过前向传播得到n个c维特征向量;
令将训练集的图像和点云文件分别输入图像深度学习子网络和点云深度学习子网络学习到的特征如下:
F*i=f(xi;θx),F∈Rc×n
G*j=g(yj;θy),G∈Rc×n
式中,F*i是输入的训练集中第i个图像xi学习到的图像特征,F为所有图像特征构成的集合;G*j是输入的训练集中第j个点云文件yj学习到点云特征,G为所有点云特征构成的集合;c是哈希码的长度;
将得到的各特征集合进行哈希码学习;表达式如下:
Bx=sign(a(F))
By=sign(b(G))
其中a和b均为超参数(本实施例中设定a=1.5,b=1.5),Bx为图像学习到的二进制哈希码,By为点云学习到的二进制哈希码;sign(·)是一个符号函数,表示为:
令图像深度学习子网络参数θx和点云深度学习子网络参数θy的目标函数α的表达式如下:
其中Sij为相似性矩阵S中的元素,若图像深度学习子网络输入的训练集中第i个图像xi和点云深度学习子网络输入的训练集中第j个点云文件yj的标签相同,则Sij=1,否则Sij=0;θij=0.5FTG,FT为集合F的转置;β,η均为超参数;||·||F表示F范数;
当图像深度学习子网络参数θx和点云深度学习子网络参数θy的目标函数α最小时,通过链式法则求解出图像深度学习子网络参数θx和点云深度学习子网络参数θy;从而得到训练完毕的深度哈希网络;
4)对于测试集点云文件中的任一待测试点云文件A,从测试集图像中检索出最相似的K张(本实施例中K=10)图像;具体步骤如下:
4-1)将测试集中的所有图像和点云文件A输入到训练完毕的深度哈希网络中,通过步骤3)得到的图像深度学习子网络参数θx和点云深度学习子网络参数θy进行前向传播从而得到各自的二进制哈希码B′x和B′y;
4-2)对得到的二进制哈希码B′x和B′y通过异或运算计算待测试点云文件A与检索库中所有图像的Hamming距离,Hamming距离越小,表明不同模态之间的相似程度越高,反之,则相似程度越低;
4-3)将得到的Hamming距离按照升序顺序排列,选择距离最小的前K个结果作为检索得到与待测试点云文件A最相似的图像;
5)对步骤4)的检索结果进行实际距离的计算,得到与待测试点云文件A最相似的图像;具体步骤如下:
5-1)通过GPS查询K个检索图像所对应采集地点或待测试点云文件A所对应采集地点的经纬度坐标,将各经纬度坐标转换为直角坐标,则有转换式:
X=r×cos(y′)×cos(x′)
Y=r×cos(y′)×sin(x′)
Z=r×sin(y′)
其中,x′代表K个检索图像所对应采集地点或待测试点云文件A所对应采集地点的经度坐标,y'代表K个检索图像所对应采集地点或待测试点云文件A所对应采集地点的纬度坐标,r是地球半径,由此可以得到各自的直角坐标X,Y,Z;则待测试点云文件A对应的采集点与检索出的各图像对应的采集点之间的实际距离公式如下:
式中,dis0.m表示待测试点云文件A对应的采集点与检索出的第m张图像对应的采集点之间的实际距离;X0,Y0,Z0分别为待测试点云文件A对应的采集点的直角坐标;Xm,YmZm分别为检索出的第m张图像对应的采集点的直角坐标,m=1,…,K;
5-2)将步骤5-1)中得到的K个实际距离dis0.mdis按照升序排列,距离最小所对应的图像即为检索得到与待测试点云文件A最相似的图像,检索完成。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (3)
1.一种基于深度哈希算法的雷达-图像跨模态检索方法,其特征在于,包括以下步骤:
1)利用移动机器人获取不同场景下包含有点云文件和对应图像的路线集合,从路线集合中分别选取训练集和测试集,分别将训练集和测试集中的点云和图像进行配,并将测试集中的所有图像作为检索库;具体步骤如下:
1-1)获取不同场景下包含有点云文件和对应图像信息的路线集合;具体方法如下:
在移动机器人上分别安装激光雷达、摄像机和GPS;设定多种不同场景,移动机器人在每种场景下的行进过程中,激光雷达持续360度扫描周围环境采集行进过程中每个采集点对应的点云文件,摄像机实时拍摄采集行进过程中每个采集点相应的图像,GPS记录点云文件和图像采集的经纬度坐标,分别得到每种场景下多条路线,将所有场景下获取的路线组成路线集合;
1-2)将采集到的设定距离内的点云文件和图像进行配对,创建相同标签,并分为训练集和测试集;其中测试集中所有的图像作为检索库;具体步骤如下:
1-2-1)在同一场景下,将其中一部分路线上采集到的点云文件和图像作为训练集,其余路线上采集到的点云文件和图像作为测试集;
1-2-2)根据GPS获取到的经纬度坐标,将训练集中设定距离内的点云文件和图像进行配对,并创建相同的标签;
1-2-3)根据GPS获取到的经纬度坐标,将测试集中设定距离内的点云文件和图像进行配对,作为后期检索任务的点云文件和图像输入;同时将测试集中所有的图像作为检索库;
2)建立深度哈希网络,包含点云深度学习子网络、图像深度学习子网络及哈希码学习部分;对训练集和测试集的点云文件和图像进行预处理,得到能够适应所述深度哈希网络的数据格式,具体步骤如下:
2-1)删除点云文件中的反射强度信息,使每个采集点的点云文件仅含有直角坐标的特性;
2-2)对删除反射强度信息的训练集和测试集中的点云文件进行随机采样,将采样后的点云文件进行归一化处理;
2-3)将训练集和测试集中所有的图像下采样至224x224;
3)对深度哈希网络进行训练,将步骤2)中预处理后的点云文件和图像输入到深度哈希网络中,同时构造相似性矩阵S,使不同模态间数据相互关联,从而得到图像深度学习子网络参数θx和点云深度学习子网络参数θy;具体方法如下:
点云深度学习子网络的输入为单个点云文件,输出为输入点云文件对应的c维特征向量,令训练集包含n个点云文件,将n个点云文件输入到点云深度学习子网络中,经过前向传播共得到n个c维特征向量;
图像深度学习子网络的输入大小是224x224x3,输出为c维特征向量,令训练集包含n个图像,将n个图像输入到图像深度学习子网络中,经过前向传播共得到n个c维特征向量;
令将训练集的图像和点云文件分别输入图像深度学习子网络和点云深度学习子网络学习到的特征如下:
F*i=f(xi;θx),F∈Rc×n
G*j=g(yj;θy),G∈Rc×n
式中,F*i是输入的训练集中第i个图像xi学习到的图像特征,F为所有图像特征构成的集合;第G*j是输入的训练集中第j个点云文件yj学习到点云特征,G为所有点云特征构成的集合;c是哈希码的长度;
将得到的各特征集合进行哈希码学习;表达式如下:
Bx=sign(a(F))
By=sign(b(G))
其中a和b是超参数,Bx为图像学习到的二进制哈希码,By为点云学习到的二进制哈希码;sign(·)是一个符号函数,表示为:
令图像深度学习子网络参数θx和点云深度学习子网络参数θy的目标函数α的表达式如下:
其中Sij为相似性矩阵S中的元素,若图像深度学习子网络输入的训练集中第i个图像xi和点云深度学习子网络输入的训练集中第j个点云文件yj数据的标签相同,则Sij=1,否则Sij=0;θij=0.5FTG,FT为集合F的转置;β,η均为超参数;||·||F表示F范数;
当图像深度学习子网络参数θx和点云深度学习子网络参数θy的目标函数α最小时,求解出图像深度学习子网络参数θx和点云深度学习子网络参数θy;从而得到训练完毕的深度哈希网络;
4)对于测试集点云文件中的任一待测试点云文件A,从测试集图像中检索出最相似的K张图像;具体步骤如下:
4-1)将测试集中的所有图像和点云文件A输入到训练完毕的深度哈希网络中,通过步骤3)得到的图像深度学习子网络参数θx和点云深度学习子网络参数θy进行前向传播从而得到各自的二进制哈希码B′x和B′y;
4-2)对得到的二进制哈希码B′x和B′y通过异或运算计算点云文件A与检索库中所有图像的Hamming距离,Hamming距离越小,表明不同模态之间的相似程度越高,反之,则相似程度越低;
4-3)将得到的Hamming距离按照升序顺序排列,选择距离最小的前K个结果作为检索得到与点云文件A最相似的图像;
5)在步骤4)的检索结果进行实际距离的计算,得到与测试点云最相似的图像;具体步骤如下:
5-1)通过GPS查询K个检索图像所对应采集地点及待测试点云文件A所对应采集地点的经纬度坐标,将各经纬度坐标转换为直角坐标,则有转换式:
X=r×cos(y′)×cos(x′)
Y=r×cos(y′)×sin(x′)
Z=r×sin(y′)
其中,x′代表K个检索图像所对应采集地点或待测试点云文件A所对应采集地点的经度坐标,y'代表K个检索图像所对应采集地点或待测试点云文件A所对应采集地点的纬度坐标,r是地球半径,由此可以得到各自的直角坐标X,Y,Z;则待测试点云文件A对应的采集点与检索出的各图像对应的采集点之间的实际距离公式如下:
式中,dis0.m表示待测试点云文件A对应的采集点与检索出的第m张图像对应的采集点之间的实际距离;X0,Y0,Z0分别为待测试点云文件A对应的采集点的直角坐标;Xm,YmZm分别为检索出的第m张图像对应的采集点的直角坐标,m=1,…,K;
5-2)将步骤5-1)中得到的K个实际距离dis0.mdis按照升序排列,距离最小所对应的图像即为检索得到与待测试点云文件A最相似的图像,检索完成。
2.根据权利要求1所述的雷达-图像跨模态检索方法,其特征在于,步骤2)中,所述点云深度学习子网络采用PointNet网络;所述图像深度学习子网络采用卷积神经网络CNN-F。
3.根据权利要求1所述的雷达-图像跨模态检索方法,其特征在于,步骤3)中,所述求解出图像深度学习子网络参数θx和点云深度学习子网络参数θy是通过链式法则实现。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910768290.7A CN110569387B (zh) | 2019-08-20 | 2019-08-20 | 基于深度哈希算法的雷达-图像跨模态检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910768290.7A CN110569387B (zh) | 2019-08-20 | 2019-08-20 | 基于深度哈希算法的雷达-图像跨模态检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110569387A true CN110569387A (zh) | 2019-12-13 |
CN110569387B CN110569387B (zh) | 2020-12-11 |
Family
ID=68775183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910768290.7A Active CN110569387B (zh) | 2019-08-20 | 2019-08-20 | 基于深度哈希算法的雷达-图像跨模态检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110569387B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111930972A (zh) * | 2020-08-04 | 2020-11-13 | 山东大学 | 利用标签层次信息的多媒体数据跨模态检索方法及系统 |
CN112732956A (zh) * | 2020-12-24 | 2021-04-30 | 江苏智水智能科技有限责任公司 | 基于感知多模态大数据的高效查询方法 |
CN114266992A (zh) * | 2021-12-13 | 2022-04-01 | 北京超星未来科技有限公司 | 目标检测方法、装置及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150254527A1 (en) * | 2014-03-04 | 2015-09-10 | Kabushiki Kaisha Toshiba | Methods for 3d object recognition and registration |
CN107924384A (zh) * | 2015-03-11 | 2018-04-17 | 阿雅斯迪公司 | 用于使用预测学习模型预测结果的系统和方法 |
US20180315221A1 (en) * | 2017-05-01 | 2018-11-01 | Lockheed Martin Corporation | Real-time camera position estimation with drift mitigation in incremental structure from motion |
CN109033245A (zh) * | 2018-07-05 | 2018-12-18 | 清华大学 | 一种移动机器人视觉-雷达图像跨模态检索方法 |
CN110059198A (zh) * | 2019-04-08 | 2019-07-26 | 浙江大学 | 一种基于相似性保持的跨模态数据的离散哈希检索方法 |
-
2019
- 2019-08-20 CN CN201910768290.7A patent/CN110569387B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150254527A1 (en) * | 2014-03-04 | 2015-09-10 | Kabushiki Kaisha Toshiba | Methods for 3d object recognition and registration |
CN107924384A (zh) * | 2015-03-11 | 2018-04-17 | 阿雅斯迪公司 | 用于使用预测学习模型预测结果的系统和方法 |
US20180315221A1 (en) * | 2017-05-01 | 2018-11-01 | Lockheed Martin Corporation | Real-time camera position estimation with drift mitigation in incremental structure from motion |
CN109033245A (zh) * | 2018-07-05 | 2018-12-18 | 清华大学 | 一种移动机器人视觉-雷达图像跨模态检索方法 |
CN110059198A (zh) * | 2019-04-08 | 2019-07-26 | 浙江大学 | 一种基于相似性保持的跨模态数据的离散哈希检索方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111930972A (zh) * | 2020-08-04 | 2020-11-13 | 山东大学 | 利用标签层次信息的多媒体数据跨模态检索方法及系统 |
CN111930972B (zh) * | 2020-08-04 | 2021-04-27 | 山东大学 | 利用标签层次信息的多媒体数据跨模态检索方法及系统 |
CN112732956A (zh) * | 2020-12-24 | 2021-04-30 | 江苏智水智能科技有限责任公司 | 基于感知多模态大数据的高效查询方法 |
CN114266992A (zh) * | 2021-12-13 | 2022-04-01 | 北京超星未来科技有限公司 | 目标检测方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110569387B (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | To learn or not to learn: Visual localization from essential matrices | |
Maddern et al. | 1 year, 1000 km: The oxford robotcar dataset | |
CN110569387B (zh) | 基于深度哈希算法的雷达-图像跨模态检索方法 | |
Komorowski et al. | Minkloc++: lidar and monocular image fusion for place recognition | |
CN111127538B (zh) | 一种基于卷积循环编码-解码结构的多视影像三维重建方法 | |
CN103679674A (zh) | 一种无人飞行器实时图像拼接方法及系统 | |
CN109033245B (zh) | 一种移动机器人视觉-雷达图像跨模态检索方法 | |
CN113706480A (zh) | 一种基于关键点多尺度特征融合的点云3d目标检测方法 | |
CN112613397B (zh) | 多视角光学卫星遥感影像目标识别训练样本集构建方法 | |
Wang et al. | Robust AUV visual loop-closure detection based on variational autoencoder network | |
CN114241464A (zh) | 基于深度学习的跨视角影像实时匹配地理定位方法及系统 | |
CN116222577B (zh) | 闭环检测方法、训练方法、系统、电子设备及存储介质 | |
CN110610650A (zh) | 一种基于深度学习和深度相机的点云语义地图的构建方法 | |
US20220196432A1 (en) | System and method for determining location and orientation of an object in a space | |
Ibrahim et al. | SAT3D: Slot attention transformer for 3D point cloud semantic segmentation | |
US20220164595A1 (en) | Method, electronic device and storage medium for vehicle localization | |
CN111950524B (zh) | 一种基于双目视觉和rtk的果园局部稀疏建图方法和系统 | |
Sánchez-Belenguer et al. | RISE: A novel indoor visual place recogniser | |
Qayyum et al. | Deep convolutional neural network processing of aerial stereo imagery to monitor vulnerable zones near power lines | |
Jia et al. | DispNet based stereo matching for planetary scene depth estimation using remote sensing images | |
CN115659836A (zh) | 一种基于端到端特征优化模型的无人系统视觉自定位方法 | |
CN115311867A (zh) | 隧道场景的定位方法、装置、计算机设备、存储介质 | |
CN113947751A (zh) | 一种基于深度学习方向特征的多尺度场景识别装置和方法 | |
Luo et al. | 3D point cloud-based place recognition: a survey | |
CN112528808A (zh) | 天体表面障碍物识别方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |