CN112597787B - 用于融合局部图像的方法、装置、服务器和介质 - Google Patents

用于融合局部图像的方法、装置、服务器和介质 Download PDF

Info

Publication number
CN112597787B
CN112597787B CN202010875848.4A CN202010875848A CN112597787B CN 112597787 B CN112597787 B CN 112597787B CN 202010875848 A CN202010875848 A CN 202010875848A CN 112597787 B CN112597787 B CN 112597787B
Authority
CN
China
Prior art keywords
image
sequence
matched
basic
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010875848.4A
Other languages
English (en)
Other versions
CN112597787A (zh
Inventor
郭培恺
倪凯
骆沛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heduo Technology Guangzhou Co ltd
Original Assignee
HoloMatic Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HoloMatic Technology Beijing Co Ltd filed Critical HoloMatic Technology Beijing Co Ltd
Priority to CN202010875848.4A priority Critical patent/CN112597787B/zh
Publication of CN112597787A publication Critical patent/CN112597787A/zh
Application granted granted Critical
Publication of CN112597787B publication Critical patent/CN112597787B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例公开了用于融合局部图像的方法、装置、服务器和介质。该方法的一具体实施方式包括:获取目标车载设备拍摄的地图图像序列集和与地图图像序列集中的每个地图图像对应的目标车辆数据。基于地图图像序列集确定待匹配图像序列和基本图像序列。从基本图像序列中选择与待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像。对待匹配图像序列与各个第一基本图像进行误差分析以生成图像误差值序列。将最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组。将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像。该实施方式及时精确的融合了多个地图图像序列,进而可以应用于自动驾驶领域。

Description

用于融合局部图像的方法、装置、服务器和介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于融合局部图像方法、装置、服务器和介质。
背景技术
图像融合,是将多源信息采集到的关于同一目标的图像数据综合成高质量图像的一项技术。目前,图像融合技术通常采用的方式为:通过对图像的像素数据或者特征数据进行处理而获得融合图像的过程。
然而,当采用上述方法进行图像融合时,经常会存在如下技术问题:
第一,图像融合不及时以及融合不精确,进而导致融合的图像难以用于车辆自动驾驶领域;
第二,针对任意多个地图图像序列的图像融合,存在大量相似度较高的图像,造成数据冗余以至于影响图像融合效率;
第三,不能同时对任意多个图像序列进行图像融合得到更好的体现结果,而且造成图像融合的精确度降低。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了用于融合局部图像的方法、装置、服务器和介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种用于融合局部图像的方法,该方法包括:获取目标车载设备拍摄的地图图像序列集和与上述地图图像序列集中的每个地图图像对应的目标车辆数据;基于上述地图图像序列集确定待匹配图像序列和基本图像序列,其中,上述待匹配图像序列是上述地图图像序列集中的一个地图图像序列,上述基本图像序列是上述地图图像序列集中的至少一个地图图像序列;对于上述待匹配图像序列中的每个待匹配图像,从上述基本图像序列中选择与上述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,得到第一基本图像序列;基于所获取的目标车辆数据,对上述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,得到图像误差值序列集;将上述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组;将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,得到融合后局部图像序列。
第二方面,本公开的一些实施例提供了一种用于融合局部图像的装置,装置包括:获取单元,被配置成获取目标车载设备拍摄的地图图像序列集和与上述地图图像序列集中的每个地图图像对应的目标车辆数据;选择单元,被配置成基于上述地图图像序列集确定待匹配图像序列和基本图像序列,其中,上述待匹配图像序列是上述地图图像序列集中的一个地图图像序列,上述基本图像序列是上述地图图像序列集中的至少一个地图图像序列;第一生成单元,被配置成对于上述待匹配图像序列中的每个待匹配图像,从上述基本图像序列中选择与上述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,得到第一基本图像序列;第二生成单元,被配置成基于所获取的目标车辆数据,对上述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,得到图像误差值序列集;第三生成单元,被配置成将上述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组;融合单元,被配置成将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,得到融合后局部图像序列。
第三方面,本公开的一些实施例提供了一种服务器,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;摄像头,被配置成采集图像;当上述一个或多个程序被上述一个或多个处理器执行,使得一个或多个处理器实现如第一方面中所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中所描述的方法。
本公开的上述各个实施例中的一个实施例具有如下有益效果:通过获取目标车载设备拍摄的图像序列集和与上述图像序列集中每个图像对应的目标车辆数据。然后,可以从图像序列集中选出一个图像序列作为待匹配图像序列,另外选出至少一个图像序列作为基本图像序列。由此,可以从基本图像序列中选出与待匹配图像序列中每个待匹配图像相匹配的至少一个基本图像。再然后,就可以生成每个待匹配图像与匹配的每个基本图像之间的误差值。从而,可以选出与每个待匹配图像与待匹配图像误差值最小的基本图像作为一个匹配图像组。因此,减少待融合图像之间的误差,提高融合的准确度。最后,可以将得到的每个匹配图像组中的各个图像进行融合生成融合后局部图像,得到融合后局部图像序列。该实施方式及时精确的融合了多个地图图像序列,进而可以应用于自动驾驶领域。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是根据本公开的一些实施例的用于融合局部图像方法的一个应用场景的示意图;
图2是根据本公开的用于融合局部图像方法的一些实施例的流程图;
图3是根据本公开的用于融合局部图像的装置的一些实施例的结构示意图;
图4是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是本公开的一些实施例的用于融合局部图像的方法的一个应用场景的示意图。
在图1的应用场景中,首先,计算设备101可以获取目标车载设备拍摄的图像序列集102和与上述图像序列集中的每个图像对应的目标车辆数据103。之后,基于上述图像序列集102确定待匹配图像序列104和基本图像序列105,其中,上述待匹配图像序列104是上述地图图像序列集102中的一个地图图像序列,上述基本图像序列105是上述地图图像序列集102中的至少一个地图图像序列。其次,对于上述待匹配图像序列104中的每个待匹配图像,从上述基本图像序列105中选出与上述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,得到第一基本图像序列106。进而,基于上述图像序列集102中的每个图像对应的目标车辆数据103,对上述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列107。将上述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组108。将所生成的图像组中的每个图像组108中的各个图像进行图像融合以生成融合后局部图像109,得到融合后局部图像序列。
需要说明的是,上述计算设备101可以是硬件,也可以是软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以安装在上述所列举的硬件设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的计算设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的计算设备。
继续参考图2,示出了根据本公开的用于融合局部图像的方法的一些实施例的流程200。该融合局部图像的方法,包括以下步骤:
步骤201,获取目标车载设备拍摄的地图图像序列集和与上述地图图像序列集中的每个地图图像对应的目标车辆数据。
在一些实施例中,用于融合局部图像方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从目标车载设备中获取拍摄的图像序列集和与上述图像序列集中的每个图像对应的目标车辆数据。具体的,目标车辆上可以装一个相机,例如,目标车辆在一次行驶过程中。该目标车辆的车载相机可以一秒钟拍一张图像,形成图像序列。多次行驶后得到图像序列集。其中,该目标车辆的车载相机在每次拍摄时,车载设备就会提供一条目标车辆的数据。
步骤202,基于上述地图图像序列集确定待匹配图像序列和基本图像序列。
在一些实施例中,基于步骤201中所得到的地图图像序列集,上述执行主体(例如图1所示的服务器)可以基于上述地图图像序列集确定待匹配图像序列和基本图像序列。其中,上述待匹配图像序列是上述地图图像序列集中的一个地图图像序列,上述基本图像序列是上述地图图像序列集中的至少一个地图图像序列。具体的,可以从地图图像序列集中随机选出一个地图图像序列作为待匹配图像序列。随机选出至少一个地图图像序列合并后作为基本图像序列。其中,基本图像序列也可以是随机选出一个或多个地图图像序列作为基本图像序列且与待匹配图像序列不相同的地图图像序列。
步骤203,对于上述待匹配图像序列中的每个待匹配图像,从上述基本图像序列中选择与上述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,得到第一基本图像序列。
在一些实施例中,上述执行主体可以对于上述待匹配图像序列中的每个待匹配图像。从上述基本图像序列中选择与上述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,得到第一基本图像序列。具体的,确定预设阈值以及每个待匹配图像与各个基本图像之间的相似度值,选出相似度大于预设阈值基本图像作为第一基本图像,得到第一基本图像序列。例如,预设阈值可以为0,那么,与待匹配图像相似度值大于0的多个基本图像可以作为第一基本图像。
在一些实施例的一些可选的实现方式中,上述执行主体从上述基本图像序列中选择与上述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,可以包括以下步骤:
第一步,对上述基本图像序列中的每个基本图像进行特征提取以生成特征词组,得到特征词组序列。例如,可以用尺度不变特征变换SIFT(Scale-invariant featuretransform)算法对上述基本图像序列中的每个基本图像进行特征提取,每个图像生成一个特征点集。然后,将特征点集中邻近的相似多个特征点作为一个类别并用特征词表示。其中,这些特征点都是从图像中提取的尺度不变的特征点。之后,每个图像可以有多个特征词作为一个特征词组。
作为示例,特征词组可以是:{1:“车头”,2:“鼻子”,3:“树叶”,4:“汽车”,5:“车灯”,6:“耳朵”,7:“眼睛”,8:“树干”}。
第二步,确定上述特征词组序列中各个特征词组中的各个特征词的类别,得到特征词类别组。具体的,对特征词组序列中各个特征词组中的各个特征词的特征词组进行分类,将相似特征作为一个类别。例如,“鼻子”,“耳朵”,可以作为同一个类别“人脸”。其中,SIFT提取的特征词类别个数可以是128个,组成一个128维的特征词类别组。实际应用中,特征词数量可能非常庞大,类别也相对较多。生成特征词类别组后更方便信息的提取。
作为示例,特征类别组可以是:{1:“自行车”,2:“人脸”,3:“树叶”,4:“汽车”,5:“车道线”,6:“垃圾箱”}。
第三步,基于上述特征词类别组,利用上述基本图像序列中的每个基本图像对应的特征词组中的各个特征词对上述基本图像进行特征描述以生成基本图像多维特征描述子。具体的,确定基本图像序列中的每个基本图像对应的特征词组中的各个特征词在特征词类别组中的类别,一个基本图像可以得到多个特征词类别,然后,利用多个特征词类别对该基本图像进行特征描述,得到与特征词类别组相同维度的基本图像多维特征描述子。其中,对于上述128维的特征词类别组,得到的基本图像多维特征描述子也可以是128维度的。
作为示例,基本图像a的特征可以是:
[“人脸”,“汽车”,“垃圾箱”]。那么,根据上述特征词类别组,基本图像a的多维特征描述子可以是:[010101]。
第四步,确定上述待匹配图像的多维特征描述子。
第五步,将上述待匹配图像的多维特征描述子与上述基本图像多维特征描述子序列中的各个基本图像多维特征描述子进行相似度对比以生成多个相似度值。具体的,将待匹配图像的多维特征描述子与各个基本图像多维特征描述子对应的维度进行比较得到相似度值序列。例如,待匹配图像的多维特征描述子与一个基本图像多维特征描述子在128维度的多维特征描述子中有一个维度相同,那么,相似度值可以是:1/128。
作为示例,待匹配图像多维特征描述子可以是a:[101010]。基本图像多维特征描述子可以是b:[010101]。那么,a与b之间的相似度值可以是:0。基本图像多维特征描述子可以是c:[110101]。由于a和c各个多维度特征描述子中第一个特征特征描述子是相同的。那么,a与c相似度值可以是:1/6。最后,得到待匹配图像的多维特征描述子与各个基本图像多维特征描述子之间的相似度序列。
第六步,将上述多个相似度值中大于预设阈值的相似度值所对应的基本图像多维特征描述子对应的基本图像作为第一基本图像。例如,预设阈值可以是:0。上述相似度值序列中各个相似度大于预设阈值的相似度所对应的基本图像作为第一基本图像。
在一些实施例的一些可选的实现方式中,上述执行主体基于上述特征词类别组,利用上述基本图像序列中的每个基本图像对应的特征词组中的各个特征词对上述基本图像进行特征描述以生成基本图像多维特征描述子,可以包括以下步骤:
第一步,基于上述特征词类别组,确定上述基本图像对应的特征词组中的各个特征词的特征词类别,得到基本图像特征词类别组。具体的,确定基本图像的特征词组中各个特征词在特征词类别组中的特征词类别,得到基本图像特征词类别组。例如,特征词是:“眼睛”。特征词的类别可以是:“人脸”。
第二步,利用上述基本图像特征词类别组中的各个基本图像特征词类别对上述基本图像进行特征描述以生成基本图像多维特征描述子。具体的,根据基本图像的特征词类别组中各个特征词类别以及各个特征词类别中特征词个数对该基本图像进行特征描述生成基本图像多维特征描述子。例如,特征词是:“眼睛”。特征词的类别可以是:“人脸”。那么,该特征词类别中有一个对应的特征词就记为:1。特征词类别组中的类别:“垃圾箱”没有相应的特征词,那么,该特征词类别记为:0。特征词是:“眼睛”,“鼻子”。特征词的类别可以是:“人脸”。
作为示例,基本图像特征词组可以是:{1:“车头”,2:“鼻子”,3:“树叶”,4:“汽车”,5:“车灯”,6:“耳朵”,7:“眼睛”,8:“树干”}。
特征词类别组可以是:{1:“自行车”,2:“人脸”,3:“树”,4:“汽车”,5:“车道线”,6:“垃圾箱”}。
基本图像特征词组中各个特征词的类别可以是:{1:“汽车”,2:“人脸”,3:“树”,4:“汽车”,5:“人脸”,6:“人脸”,7:“汽车”,8:“树”}。
那么,根据特征词类别组中各个类别的顺序,基本图像多维特征描述子可以是:[0,3,2,2,0,0]。
在一些实施例的一些可选的实现方式中,上述执行主体确定上述待匹配图像的多维特征描述子,可以包括以下步骤:
第一步,对上述待匹配图像进行特征提取以生成待匹配图像特征词组。例如,可以用SIFT算法对上述待匹配图像进行特征提取,生成一个特征点集。然后,将特征点集中邻近的相似多个特征点作为一个类别并用特征词表示。其中,这些特征点都是从图像中提取的尺度不变的特征点。之后,可以得到待匹配图像的多个特征词,作为待匹配图像特征词组。
第二步,基于上述特征词类别组,确定上述待匹配图像特征词组中的各个待匹配图像特征词的特征词类别,得到待匹配图像特征词类别组。具体的,确定待匹配图像特征词组中的各个特征词在特征词类别组中的类别。然后,利用多个特征词类别对该待匹配图像进行特征描述,得到与特征词类别组相同维度的待匹配图像特征词类别组。其中,对于上述128维的特征词类别组,得到的基本图像多维特征描述子也可以是128维度的。
作为示例,待匹配图像的特征词组可以是:[“车轮”,“树叶”,“直行车道线”]。那么,根据上述特征词类别组,待匹配图像特征词类别组可以是:{1:“汽车”,2:“树”,3:“车道线”}。
第三步,利用上述待匹配图像特征词类别序列中的各个待匹配图像特征词类别对上述待匹配图像进行特征描述以生成待匹配图像多维特征描述子。具体的,确定待匹配图像对应的特征词组中的各个特征词在特征词类别组中的类别,可以得到多个特征词类别。然后,利用多个特征词类别对该待匹配图像进行特征描述,得到与特征词类别组相同维度的待匹配图像多维特征描述子。其中,对于上述128维的特征词类别组,得到的待匹配图像多维特征描述子也可以是128维度的。
作为示例,作为示例,待匹配图像的特征可以是:
{1:“汽车”,2:“树”,3:“车道线”}。那么,根据上述特征词类别组,待匹配图像多维特征描述子可以是:[010101]。
步骤204,基于所获取的目标车辆数据,对上述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,得到图像误差序列集。
在一些实施例中,上述执行主体对上述待匹配图像序列中的每个待匹配图像与所对应的上述匹配基本图像序列中的各个匹配基本图像进行误差分析生成图像误差值序列。具体的,每个待匹配图像都有多个匹配基本图像,将每个待匹配图像与对应的各个匹配基本图像之间进行图像误差分析,得到图像误差值序列。
在一些实施例的一些可选的实现方式中,上述执行主体对所述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,可以包括以下步骤:
第一步,确定上述待匹配图像序列中的每个待匹配图像和与上述待匹配图像所对应的上述目标车辆数据。
在一些实施例中,上述目标车辆数据包括但不限于以下至少一项:目标车辆的旋转矩阵、章动角向量、旋进角向量、自转角向量、横轴平移向量、纵轴平移向量和竖轴平移向量。
第二步,利用以下公式对所述待匹配图像序列中的每个待匹配图像与所对应的所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析生成图像误差值序列:
Figure BDA0002652649010000111
其中,T表示旋转矩阵。
Te表示误差旋转矩阵。
x表示第x个图像。
i表示第i个图像。
x→i表示第x个图像到第i个图像。
i≠x表示两个图像不相同。
n表示n个图像序列。
Te(x→i)表示第x个图像到第i个图像的误差旋转矩阵。
E表示误差值序列。
x→x′表示所得到的第一基本图像序列中的第x→x′个第一基本图像序列。
E(x→x′)表示所得到的第一基本图像序列中的第x→x′个第一基本图像序列的图像误差值序列。
roll表示章动角向量。
yaw表示旋进角向量。
pitch表示自转角向量。
X表示横轴平移向量。
Y表示纵轴平移向量。
Z表示竖轴平移向量。
f(Te(x→i))表示第i个图像到第x个图像的误差值函数。
map_0表示待匹配图像序列。
map_1表示第一基本图像序列。
Figure BDA0002652649010000121
表示待匹配图像序列中第i个待匹配图像的旋转矩阵。
Figure BDA0002652649010000122
表示待匹配图像序列中的第x个图像的旋转矩阵。
Figure BDA0002652649010000123
表示第一基本图像序列中第i个图像的旋转矩阵。
Figure BDA0002652649010000124
表示第一基本图像序列中的第x个图像的旋转矩阵。
具体的,首先,确定第一基本图像序列中的每个第一基本图像与待匹配图像的各个误差旋转矩阵,然后,将误差旋转矩阵中的角向量绝对值和平移向量绝对值相加生成误差参数值,再将各个误差参数值相加得到误差值,得到误差值序列。
步骤205,将上述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组。
在一些实施例中,上述执行主体可以对于所得到的多个图像误差序值列中的每个图像误差值序列,将上述图像误差值序列中最小的图像误差值对应的第一基本图像与上述第一基本图像对应的待匹配图像进行组合生成图像组。具体的,得到待匹配图像与各个第一基本图像的误差值,从各个第一基本图像中选出一个与待匹配图像之间误差值最小的第一基本图像。然后,待匹配图像和所选出的第一基本图像作为一个图像组。
在一些实施例的一些可选的实现方式中,上述执行主体将上述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组,可以包括以下几个步骤:
第一步,确定上述图像误差值序列集中的每个图像误差值序列中的最小图像误差值,作为第一基本图像误差值。具体的,从图像误差值序列中选出一个最小图像误差值作为第一基本图像误差值。
第二步,将上述第一基本图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组。具体的,将待匹配图像与上述第一基本图像误差值对应的匹配基本图像进行组合生成图像组。
上述公式以及步骤205作为本公开的实施例的一个发明点,由此解决了背景技术提及的技术问题二,即针对任意多个地图图像序列的图像融合,存在大量相似度较高的图像,造成数据冗余以至于影响图像融合效率。首先获取上述待匹配图像序列中的每个待匹配图像和与上述待匹配图像所对应的上述目标车辆数据。其中,每个目标车辆数据可以包括目标车辆的旋转矩阵、章动角向量、旋进角向量、自转角向量、横轴平移向量、纵轴平移向量和竖轴平移向量。然后,利用待匹配图像序列中每个图像的旋转矩阵和第一基本图像序列中各个图像的旋转矩阵,得到图像之间的误差旋转矩阵。再然后,可以利用误差旋转矩阵的角向量和平移向量的绝对值求和,得到图像之间的误差值。从而,可以利用图像之间的误差值对多个大量图像进行筛选,得到误差最小的可融合图像组。达到了去除冗余数据的目的,且提高了图像融合的效率。
步骤206,将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,得到融合后局部图像序列。
在一些实施例中,上述执行主体可以将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,得到融合后局部图像序列。具体的,将所生成的图像组中的每个图像组中的各个图像进行融合生成融合后的图像,每个图像组得到一个融合后的图像,匹配图像组序列中多个图像组可以生成多个图像,得到融合后局部图像序列。
在一些实施例的一些可选的实现方式中,上述执行主体将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,可以包括以下步骤:
第一步,确定所生成的图像组中的每个图像组中的各个图像的平移向量以及位姿。具体的,图像位姿可以是描述刚体位置和姿态的矩阵。
第二步,利用下式将所生成的图像组中的每个图像组中的各个图像进行融合生成融合后的局部图像:
Figure BDA0002652649010000141
其中,T表示位姿矩阵。
P表示空间坐标值。
n表示图像序列集中各个图像序列的序号,n大于1。
x表示图像序号。
map_1、map_2、map_n-1以及map_n表示图像序列的序号。
map_0表示待匹配图像序列。
Figure BDA0002652649010000142
表示在待匹配图像序列中第x个图像的位姿矩阵。
Figure BDA0002652649010000143
表示在第n个图像序列中第x个图像的位姿矩阵。
Figure BDA0002652649010000144
表示第map_n个图像序列中图像的位姿转换到map_0待匹配图像序列中的位姿矩阵。
keyframe(x)表示第x个图像的位姿序号。
y表示第y个图像。
Figure BDA0002652649010000145
表示第n个图像序列中第x个图像的位姿矩阵。
landmark(y)表示第y个图像中特征点的空间坐标值。
Figure BDA0002652649010000146
表示第n个图像序列中的第y个图像中的特征点的空间坐标值。
Figure BDA0002652649010000147
表示第x个图像的位姿转换到map_0中后的位姿矩阵。
Figure BDA0002652649010000148
表示第y个图像中特征点转换到map_0中后的空间坐标值。
上述公式作为本公开的实施例的一个发明点,由此解决了背景技术提及的技术问题三,即不能同时对任意多个图像序列进行图像融合得到更好的体现结果,而且造成图像融合的精确度降低。首先,将多个地图图像序列中的每个地图图像序列中的每个地图图像融合到目标地图图像序列中对应目标地图图像中。其中,将多个地图图像序列的位姿变换到目标图像序列,可以是从多个地图图像序列中的每个地地图图像中选出与目标图像序列中各个目标图像最匹配的地图图像进行位姿变换。该地图图像进行位姿变换之后可以得到地图之间的融合后的图像。例如,目标地图图像序列为map_0。目标地图图像序列中各个地图图像为:map_0:{b0,c0}。地图图像序列可以是:map_1:{a1,c1},map_2:{a2,b2,d2}。那么,与map_0目标图像序列中图像b0的匹配基本图像为map_2地图图像序列中的第二个图像b2。与map_0目标图像序列中图像c0的匹配基本图像为map_1地图图像序列中的第二个图像c1。最后,将map_2地图图像序列中的图像b2和map_1地图图像序列中的图像c1融合到地图图像序列map_0的对应图像中去。得到融合后的目标图像序列。从而,对待融合的图像进行更好的选择,可以得到更好的图像融合结果,提高图像融合的精确度。
本公开的上述各个实施例中的一个实施例具有如下有益效果:通过获取目标车载设备拍摄的图像序列集和与上述图像序列集中每个图像对应的目标车辆数据。然后,可以从图像序列集中选出一个图像序列作为待匹配图像序列,另外选出至少一个图像序列作为基本图像序列。由此,可以从基本图像序列中选出与待匹配图像序列中每个待匹配图像相匹配的至少一个基本图像。再然后,就可以生成每个待匹配图像与匹配的每个基本图像之间的误差值。从而,可以选出与每个待匹配图像与待匹配图像误差值最小的基本图像作为一个匹配图像组。因此,减少待融合图像之间的误差,提高融合的准确度。最后,可以将得到的每个匹配图像组中的各个图像进行融合生成融合后局部图像,得到融合后局部图像序列。该实施方式及时精确的融合了多个地图图像序列,进而可以应用于自动驾驶领域。
进一步参考图3,作为对上述各图所示方法的实现,本公开提供了一种用于融合局部图像的装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,一些实施例的用于融合局部图像的装置300包括:获取单元301、选择单元302、第一生成单元303、第二生成单元304、第三生成单元305、融合单元306。其中,获取单元301,被配置成获取目标车载设备拍摄的地图图像序列集和与上述地图图像序列集中的每个地图图像对应的目标车辆数据;选择单元302,被配置成基于上述地图图像序列集确定待匹配图像序列和基本图像序列,其中,上述待匹配图像序列是上述地图图像序列集中的一个地图图像序列,上述基本图像序列是上述地图图像序列集中的至少一个地图图像序列;第一生成单元303,被配置成对于上述待匹配图像序列中的每个待匹配图像,从上述基本图像序列中选择与上述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,得到第一基本图像序列;第二生成单元304,被配置成基于所获取的目标车辆数据,对上述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,得到图像误差序列集;第三生成单元305,被配置成将上述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组;融合单元306,被配置成将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,得到融合后局部图像序列。
可以理解的是,该装置300中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置300及其中包含的单元,在此不再赘述。
下面参考图4,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的计算设备101)400的结构示意图。图4示出的服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400可以包括处理装置(例如中央处理器、图形处理器等)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储装置408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有电子设备400操作所需的各种程序和数据。处理装置401、ROM 402以及RAM403通过总线404彼此相连。输入/输出(I/O)接口404也连接至总线404。
通常,以下装置可以连接至I/O接口404:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置406;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置407;包括例如磁带、硬盘等的存储装置408;以及通信装置409。通信装置409可以允许电子设备400与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备400,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图4中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置409从网络上被下载和安装,或者从存储装置408被安装,或者从ROM 402被安装。在该计算机程序被处理装置401执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标车载设备拍摄的地图图像序列集和与上述地图图像序列集中的每个地图图像对应的目标车辆数据;基于上述地图图像序列集确定待匹配图像序列和基本图像序列,其中,上述待匹配图像序列是上述地图图像序列集中的一个地图图像序列,上述基本图像序列是上述地图图像序列集中的至少一个地图图像序列;对于上述待匹配图像序列中的每个待匹配图像,从上述基本图像序列中选择与上述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,得到第一基本图像序列;基于所获取的目标车辆数据,对上述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,得到图像误差序列集;将上述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组;将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,得到融合后局部图像序列。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、选择单元、第一生成单元、第二生成单元、第三生成单元、融合单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标车载设备拍摄的图像序列集的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方法。

Claims (9)

1.一种用于融合局部图像的方法,包括:
获取目标车载设备拍摄的地图图像序列集和与所述地图图像序列集中的每个地图图像对应的目标车辆数据;
基于所述地图图像序列集确定待匹配图像序列和基本图像序列,其中,所述待匹配图像序列是所述地图图像序列集中的一个地图图像序列,所述基本图像序列是所述地图图像序列集中的至少一个地图图像序列;
对于所述待匹配图像序列中的每个待匹配图像,从所述基本图像序列中选择与所述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,得到第一基本图像序列;
基于所获取的目标车辆数据,对所述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,得到图像误差值序列集;将所述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组;
将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,得到融合后局部图像序列;
其中,所述对所述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,包括:
确定所述待匹配图像序列中的每个待匹配图像和与所述待匹配图像所对应的所述目标车辆数据,其中,所述目标车辆数据包括以下至少一项:目标车辆的旋转矩阵、章动角向量、旋进角向量、自转角向量、横轴平移向量、纵轴平移向量和竖轴平移向量;
利用以下公式对所述待匹配图像序列中的每个待匹配图像与所对应的所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析生成图像误差值序列:
Figure FDA0003219772180000021
其中,T表示旋转矩阵;
Te表示误差旋转矩阵;
x表示第x个图像;
i表示第i个图像;
x→i表示第x个图像到第i个图像;
i≠x表示两个图像不相同;
n表示n个图像序列;
Te(x→i)表示第x个图像到第i个图像的误差旋转矩阵;
E表示误差值序列;
x→x′表示所得到的第一基本图像序列中的第x→x′个第一基本图像序列;
E(x→x′)表示所得到的第一基本图像序列中的第x→x′个第一基本图像序列的图像误差值序列;
roll表示章动角向量;
yaw表示旋进角向量;
pitch表示自转角向量;
X表示横轴平移向量;
Y表示纵轴平移向量;
Z表示竖轴平移向量;
f(Te(x→i))表示第i个图像到第x个图像的误差值函数;
nap_0表示待匹配图像序列;
map_1表示第一基本图像序列;
Ti map_0表示待匹配图像序列中第i个待匹配图像的旋转矩阵;
Figure FDA0003219772180000022
表示待匹配图像序列中的第x个图像的旋转矩阵;
Ti map_1表示第一基本图像序列中第i个图像的旋转矩阵;
Figure FDA0003219772180000031
表示第一基本图像序列中的第x个图像的旋转矩阵。
2.根据权利要求1所述的方法,其中,所述从所述基本图像序列中选择与所述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,包括:
对所述基本图像序列中的每个基本图像进行特征提取以生成特征词组,得到特征词组序列;
确定所述特征词组序列中各个特征词组中的各个特征词的类别,得到特征词类别组;
基于所述特征词类别组,利用所述基本图像序列中的每个基本图像对应的特征词组中的各个特征词对所述基本图像进行特征描述以生成基本图像多维特征描述子;
确定所述待匹配图像的多维特征描述子;
将所述待匹配图像的多维特征描述子与所述基本图像多维特征描述子序列中的各个基本图像多维特征描述子进行相似度对比以生成多个相似度值;
将所述多个相似度值中大于预设阈值的相似度值对应的基本图像作为第一基本图像。
3.根据权利要求2所述的方法,其中,所述基于所述特征词类别组,利用所述基本图像序列中的每个基本图像对应的特征词组中的各个特征词对所述基本图像进行特征描述以生成基本图像多维特征描述子,包括:
基于所述特征词类别组,确定所述基本图像对应的特征词组中的各个特征词的特征词类别,得到基本图像特征词类别组;
利用所述基本图像特征词类别组中的各个基本图像特征词类别对所述基本图像进行特征描述以生成基本图像多维特征描述子。
4.根据权利要求3所述的方法,其中,所述确定所述待匹配图像的多维特征描述子,包括:
对所述待匹配图像进行特征提取以生成待匹配图像特征词组;
基于所述特征词类别组,确定所述待匹配图像特征词组中的各个待匹配图像特征词的特征词类别,得到待匹配图像特征词类别组;
利用所述待匹配图像特征词类别组中的各个待匹配图像特征词类别对所述待匹配图像进行特征描述以生成待匹配图像多维特征描述子。
5.根据权利要求4所述的方法,其中,所述将所述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组,包括:
基于所述确定所述图像误差值序列集中的每个图像误差值序列中的最小图像误差值,作为第一基本图像误差值;
将所述第一基本图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组。
6.根据权利要求5所述的方法,其中,所述将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,包括:
确定所生成的图像组中的每个图像组中的各个图像的平移向量以及位姿;
利用下式将所生成的图像组中的每个图像组中的各个图像进行融合生成融合后的局部图像:
Figure FDA0003219772180000041
其中,T表示位姿矩阵;
P表示空间坐标值;
n表示图像序列集中各个图像序列的序号,n大于1;
x表示图像序号;
map_1、map_2、map_n-1以及map_n表示图像序列的序号;
map_0表示待匹配图像序列;
Figure FDA0003219772180000051
表示在待匹配图像序列中第x个图像的位姿矩阵;
Figure FDA0003219772180000052
表示在第n个图像序列中第x个图像的位姿矩阵;
Figure FDA0003219772180000053
表示第map_n个图像序列中图像的位姿转换到map_0待匹配图像序列中的位姿矩阵;
keyframe(x)表示第x个图像的位姿序号;
y表示第y个图像;
Figure FDA0003219772180000054
表示第n个图像序列中第x个图像的位姿矩阵;
landmark(y)表示第y个图像中特征点的空间坐标值;
Figure FDA0003219772180000055
表示第n个图像序列中的第y个图像中的特征点的空间坐标值;
Figure FDA0003219772180000056
表示第x个图像的位姿转换到map_0中后的位姿矩阵;
Figure FDA0003219772180000057
表示第y个图像中特征点转换到map_0中后的空间坐标值。
7.一种用于融合局部图像的装置,包括:
获取单元,被配置成获取目标车载设备拍摄的地图图像序列集和与所述地图图像序列集中的每个地图图像对应的目标车辆数据;
选择单元,被配置成基于所述地图图像序列集确定待匹配图像序列和基本图像序列,其中,所述待匹配图像序列是所述地图图像序列集中的一个地图图像序列,所述基本图像序列是所述地图图像序列集中的至少一个地图图像序列;
第一生成单元,被配置成对于所述待匹配图像序列中的每个待匹配图像,从所述基本图像序列中选择与所述待匹配图像的相似度大于预设阈值的基本图像作为第一基本图像,得到第一基本图像序列;
第二生成单元,被配置成基于所获取的目标车辆数据,对所述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,得到图像误差序列集;
第三生成单元,被配置成将所述图像误差值序列集中的每个图像误差值序列中最小的图像误差值对应的第一基本图像与待匹配图像进行组合以生成图像组;
融合单元,被配置成将所生成的图像组中的每个图像组中的各个图像进行图像融合以生成融合后局部图像,得到融合后局部图像序列;
其中,所述对所述待匹配图像序列中的每个待匹配图像与所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析以生成图像误差值序列,包括:
确定所述待匹配图像序列中的每个待匹配图像和与所述待匹配图像所对应的所述目标车辆数据,其中,所述目标车辆数据包括以下至少一项:目标车辆的旋转矩阵、章动角向量、旋进角向量、自转角向量、横轴平移向量、纵轴平移向量和竖轴平移向量;
利用以下公式对所述待匹配图像序列中的每个待匹配图像与所对应的所得到的第一基本图像序列中的每个第一基本图像序列中的各个第一基本图像进行误差分析生成图像误差值序列:
Figure FDA0003219772180000061
其中,T表示旋转矩阵;
Te表示误差旋转矩阵;
x表示第x个图像;
i表示第i个图像;
x→i表示第x个图像到第i个图像;
i≠x表示两个图像不相同;
n表示n个图像序列;
Te(x→i)表示第x个图像到第i个图像的误差旋转矩阵;
E表示误差值序列;
x→x′表示所得到的第一基本图像序列中的第x→x′个第一基本图像序列;
E(x→x′)表示所得到的第一基本图像序列中的第x→x′个第一基本图像序列的图像误差值序列;
roll表示章动角向量;
yaw表示旋进角向量;
pitch表示自转角向量;
X表示横轴平移向量;
Y表示纵轴平移向量;
Z表示竖轴平移向量;
f(Te(x→i))表示第i个图像到第x个图像的误差值函数;
nap_0表示待匹配图像序列;
map_1表示第一基本图像序列;
Figure FDA0003219772180000073
表示待匹配图像序列中第i个待匹配图像的旋转矩阵;
Figure FDA0003219772180000071
表示待匹配图像序列中的第x个图像的旋转矩阵;
Figure FDA0003219772180000074
表示第一基本图像序列中第i个图像的旋转矩阵;
Figure FDA0003219772180000072
表示第一基本图像序列中的第x个图像的旋转矩阵。
8.一种服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
摄像头,被配置成采集图像;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
9.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN202010875848.4A 2020-08-27 2020-08-27 用于融合局部图像的方法、装置、服务器和介质 Active CN112597787B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010875848.4A CN112597787B (zh) 2020-08-27 2020-08-27 用于融合局部图像的方法、装置、服务器和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010875848.4A CN112597787B (zh) 2020-08-27 2020-08-27 用于融合局部图像的方法、装置、服务器和介质

Publications (2)

Publication Number Publication Date
CN112597787A CN112597787A (zh) 2021-04-02
CN112597787B true CN112597787B (zh) 2021-10-15

Family

ID=75180123

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010875848.4A Active CN112597787B (zh) 2020-08-27 2020-08-27 用于融合局部图像的方法、装置、服务器和介质

Country Status (1)

Country Link
CN (1) CN112597787B (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017113048A1 (zh) * 2015-12-28 2017-07-06 华为技术有限公司 一种图像融合方法、装置及终端设备
CN109326006B (zh) * 2018-09-30 2023-03-28 阿波罗智联(北京)科技有限公司 地图融合方法和装置
CN109887087B (zh) * 2019-02-22 2021-02-19 广州小鹏汽车科技有限公司 一种车辆的slam建图方法及系统
CN110704563B (zh) * 2019-09-27 2022-06-28 Oppo广东移动通信有限公司 地图融合方法及装置、设备、存储介质
CN111292420B (zh) * 2020-02-28 2023-04-28 北京百度网讯科技有限公司 用于构建地图的方法和装置

Also Published As

Publication number Publication date
CN112597787A (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
CN108710885B (zh) 目标对象的检测方法和装置
CN111368685B (zh) 关键点的识别方法、装置、可读介质和电子设备
CN110321958B (zh) 神经网络模型的训练方法、视频相似度确定方法
US10970938B2 (en) Method and apparatus for generating 3D information
CN111414953B (zh) 点云分类方法和装置
CN111784776B (zh) 视觉定位方法及装置、计算机可读介质和电子设备
CN111428805B (zh) 显著性物体的检测方法、模型、存储介质及电子设备
CN112489114A (zh) 图像转换方法、装置、计算机可读存储介质及电子设备
CN111986265B (zh) 用于标定相机方法、装置、电子设备和介质
CN113255619A (zh) 车道线识别及定位方法、电子设备和计算机可读介质
CN110135428B (zh) 图像分割处理方法和装置
CN115578570A (zh) 图像处理方法、装置、可读介质及电子设备
CN114882465A (zh) 视觉感知方法、装置、存储介质和电子设备
CN111862351B (zh) 定位模型优化方法、定位方法和定位设备
CN112597787B (zh) 用于融合局部图像的方法、装置、服务器和介质
CN112258647A (zh) 地图重建方法及装置、计算机可读介质和电子设备
CN115393868B (zh) 文本检测方法、装置、电子设备和存储介质
CN113688928B (zh) 图像匹配方法、装置、电子设备和计算机可读介质
CN115393826A (zh) 三维车道线生成方法、装置、电子设备和计算机可读介质
CN115690845A (zh) 一种运动轨迹预测方法及装置
CN112487943B (zh) 关键帧去重的方法、装置和电子设备
CN110310251B (zh) 图像处理方法和装置
CN113204661B (zh) 实时路况更新方法、电子设备和计算机可读介质
CN115345931B (zh) 物体姿态关键点信息生成方法、装置、电子设备和介质
CN112435193B (zh) 一种点云数据去噪的方法、装置、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 201, 202, 301, No. 56-4 Fenghuang South Road, Huadu District, Guangzhou City, Guangdong Province, 510806

Patentee after: Heduo Technology (Guangzhou) Co.,Ltd.

Address before: 100095 101-15, 3rd floor, building 9, yard 55, zique Road, Haidian District, Beijing

Patentee before: HOLOMATIC TECHNOLOGY (BEIJING) Co.,Ltd.

CP03 Change of name, title or address