CN112270755A - 三维场景构建方法、装置、存储介质与电子设备 - Google Patents

三维场景构建方法、装置、存储介质与电子设备 Download PDF

Info

Publication number
CN112270755A
CN112270755A CN202011280508.3A CN202011280508A CN112270755A CN 112270755 A CN112270755 A CN 112270755A CN 202011280508 A CN202011280508 A CN 202011280508A CN 112270755 A CN112270755 A CN 112270755A
Authority
CN
China
Prior art keywords
scene
model
matching
image
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011280508.3A
Other languages
English (en)
Other versions
CN112270755B (zh
Inventor
高爽
李姬俊男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202011280508.3A priority Critical patent/CN112270755B/zh
Publication of CN112270755A publication Critical patent/CN112270755A/zh
Application granted granted Critical
Publication of CN112270755B publication Critical patent/CN112270755B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种三维场景构建方法、三维场景构建装置、计算机存储介质与电子设备,涉及计算机视觉技术领域。其中,所述三维场景构建方法包括:获取采集到的多张场景图像;根据场景图像之间的匹配关系,将场景图像划分为至少两个图像组;在至少一个图像组中添加与该图像组相邻的场景图像,以对至少一个图像组进行扩展;分别对每个图像组中的场景图像进行三维重建处理,得到每个图像组对应的局部场景模型;对局部场景模型进行合并处理,得到完整的三维场景模型。本公开能够解决图像采集过程复杂繁琐的问题,提高图像采集效率,降低图像采集成本,还能够提高局部场景模型之间的关联度,保证重建出的模型精度。

Description

三维场景构建方法、装置、存储介质与电子设备
技术领域
本公开涉及计算机视觉技术领域,特别涉及一种三维场景构建方法、三维场景构建装置、计算机存储介质与电子设备。
背景技术
三维重建是指对三维物体建立适合计算机表示和处理的数学模型,是在计算机环境下对其进行处理、操作和分析其性质的基础,也是在计算机中建立表达客观世界的虚拟现实的关键技术。
相关技术中,在对大型场景进行三维重建之前,一般需要对采图人员进行专业培训,以确保所采集图像的相邻子区域保证同时包含相同的控制点,进而,在后续重建出局部三维模型后,通过控制点进行拼接融合,得到完整的三维模型。然而,该方法需要进行大规模人工干预,成本较高且且效率较低。
发明内容
本公开的目的在于提供一种三维场景构建方法、三维场景构建装置、计算机存储介质与电子设备,进而至少在一定程度上避免了相关技术中采图过程复杂耗时、模型精度低的缺陷。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种三维场景构建方法,包括:获取采集到的多张场景图像;根据所述场景图像之间的匹配关系,将所述场景图像划分为至少两个图像组;在至少一个图像组中添加与该图像组相邻的场景图像,以对所述至少一个图像组进行扩展;分别对每个图像组中的所述场景图像进行三维重建处理,得到每个图像组对应的局部场景模型;对所述局部场景模型进行合并处理,得到完整的三维场景模型。
根据本公开的第二方面,提供一种三维场景构建装置,包括:图像采集模块,用于获取采集到的多张场景图像;图像匹配模块,用于根据所述场景图像之间的匹配关系,将所述场景图像划分为至少两个图像组;扩展模块,用于在至少一个图像组中添加与该图像组相邻的场景图像,以对所述至少一个图像组进行扩展;三维重建模块,用于分别对每个图像组中的所述场景图像进行三维重建处理,得到每个图像组对应的局部场景模型;合并模块,用于对所述局部场景模型进行合并处理,得到完整的三维场景模型。
根据本公开的第三方面,提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面的三维场景构建方法及其可能的实现方式。
根据本公开的第四方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述第一方面的三维场景构建方法及其可能的实现方式。
本公开的技术方案具有以下有益效果:
一方面,获取采集到的多张场景图像,根据所述场景图像之间的匹配关系,将所述场景图像划分为至少两个图像组,能够将属于同一个子场景的图像聚合在一起,保证各图像组内的相似度足够高,不同图像组之间的相似度足够低。进一步的,在至少一个图像组中添加与该图像组相邻的场景图像,以对所述至少一个图像组进行扩展,能够解决相关技术中在采图时需要人为控制各个子区域之间包含相同的控制点所导致的采图过程耗时复杂的技术问题,无需额外的硬件,仅利用摄像头即可进行图像采集,降低采图成本,并且还能够使得相邻场景图像中包含一定数量的公共点,避免因公共点数量过少而导致后续重建模型断开或重建失败的情况,保证模型的精度。另一方面,分别对每个图像组中的所述场景图像进行三维重建处理,得到每个图像组对应的局部场景模型,对所述局部场景模型进行合并处理,得到完整的三维场景模型,能够将大型场景拆分为多个部分进行三维重建,避免了在大型数据集下内存和计算资源的负担,缩短重建耗时,提高重建效率。
本公开应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本示例性实施方式中一种电子设备的结构示意图;
图2示出本示例性实施方式中一种三维场景构建方法的流程图;
图3示出本示例性实施方式中一种获取图像组方法的流程图;
图4示出本示例性实施方式中一种匹配关系模型的示意图;
图5A至图5D示出本示例性实施方式中一种三维场景构建方法的示意图;
图6示出本示例性实施方式中一种确定合并顺序方法的流程图;
图7示出本示例性实施方式中一种局部场景模型合并方法的流程图;
图8示出本示例性实施方式中一种确定尺度变换参数方法的流程图;
图9示出本示例性实施方式中一种确定旋转平移参数方法的流程图;
图10示出本示例性实施方式中一种三维场景构建方法的整体流程图;
图11示出本示例性实施方式中一种三维场景构建装置的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
本公开的示例性实施方式首先提供一种三维场景构建方法,其应用场景包括但不限于:当需要重建一个社区级大小的三维地图时,采图人员只需要手持手机或其他摄像头设备,充分采集目标区域的场景图像,执行本示例性实施方式的三维场景重建方法以将场景图像集切割成不同的子集,对各个子集进行扩展之后并进行三维重建,并对得到的各个局部场景模型进行合并,得到大型场景的三维模型(即三维地图)。
本公开的示例性实施方式还提供一种电子设备,用于执行上述三维场景构建方法。该电子设备可以是终端或云端的服务器,包括但不限于计算机、智能手机、可穿戴设备(如AR眼镜)、机器人、无人机等。一般的,电子设备包括处理器和存储器。存储器用于存储处理器的可执行指令,也可以存储应用数据,如图像数据、视频数据等;处理器配置为经由执行可执行指令来执行本示例性实施方式中的三维场景构建方法。
下面以图1中的移动终端100为例,对上述电子设备的构造进行示例性说明。本领域技术人员应当理解,除了特别用于移动目的的部件之外,图1中的构造也能够应用于固定类型的设备。
如图1所示,移动终端100具体可以包括:处理器110、内部存储器121、外部存储器接口122、USB(Universal Serial Bus,通用串行总线)接口130、充电管理模块140、电源管理模块141、电池142、天线1、天线2、移动通信模块150、无线通信模块160、音频模块170、扬声器171、受话器172、麦克风173、耳机接口174、传感器模块180、显示屏190、摄像模组191、指示器192、马达193、按键194以及SIM(Subscriber Identification Module,用户标识模块)卡接口195等。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括AP(Application Processor,应用处理器)、调制解调处理器、GPU(Graphics ProcessingUnit,图形处理器)、ISP(Image Signal Processor,图像信号处理器)、控制器、编码器、解码器、DSP(Digital Signal Processor,数字信号处理器)、基带处理器和/或NPU(Neural-Network Processing Unit,神经网络处理器)等。
编码器可以对图像或视频数据进行编码(即压缩),例如对拍摄的场景图像进行编码,形成对应的码流数据,以减少数据传输所占的带宽;解码器可以对图像或视频的码流数据进行解码(即解压缩),以还原出图像或视频数据,例如对场景图像的码流数据进行解码,得到完整的图像数据,便于执行本示例性实施方式的定位方法。移动终端100可以支持一种或多种编码器和解码器。这样,移动终端100可以处理多种编码格式的图像或视频,例如:JPEG(Joint Photographic Experts Group,联合图像专家组)、PNG(Portable NetworkGraphics,便携式网络图形)、BMP(Bitmap,位图)等图像格式,MPEG(Moving PictureExperts Group,动态图像专家组)1、MPEG2、H.263、H.264、HEVC(High Efficiency VideoCoding,高效率视频编码)等视频格式。
在一些实施方式中,处理器110可以包括一个或多个接口,通过不同的接口和移动终端100的其他部件形成连接。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括易失性存储器与非易失性存储器。处理器110通过运行存储在内部存储器121的指令,执行移动终端100的各种功能应用以及数据处理。
外部存储器接口122可以用于连接外部存储器,例如Micro SD卡,实现扩展移动终端100的存储能力。外部存储器通过外部存储器接口122与处理器110通信,实现数据存储功能,例如存储图像,视频等文件。
USB接口130是符合USB标准规范的接口,可以用于连接充电器为移动终端100充电,也可以连接耳机或其他电子设备。
充电管理模块140用于从充电器接收充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为设备供电;电源管理模块141还可以监测电池的状态。
移动终端100的无线通信功能可以通过天线1、天线2、移动通信模块150、无线通信模块160、调制解调处理器以及基带处理器等实现。天线1和天线2用于发射和接收电磁波信号。移动通信模块150可以提供应用在移动终端100上的包括2G/3G/4G/5G等无线通信的解决方案。无线通信模块160可以提供应用在移动终端100上的包括WLAN(Wireless LocalArea Networks,无线局域网)(如Wi-Fi(Wireless Fidelity,无线保真)网络)、BT(Bluetooth,蓝牙)、GNSS(Global Navigation Satellite System,全球导航卫星系统)、FM(Frequency Modulation,调频)、NFC(Near Field Communication,近距离无线通信技术)、IR(Infrared,红外技术)等无线通信解决方案。
移动终端100可以通过GPU、显示屏190及AP等实现显示功能,显示用户界面。例如,当用户开启拍摄功能时,移动终端100可以在显示屏190中显示拍摄界面和预览图像等。
移动终端100可以通过ISP、摄像模组191、编码器、解码器、GPU、显示屏190及AP等实现拍摄功能。例如,用户可以启动视觉定位的相关服务,触发开启拍摄功能,此时可以通过摄像模组191实时采集图像,并进行定位。
移动终端100可以通过音频模块170、扬声器171、受话器172、麦克风173、耳机接口174及AP等实现音频功能。
传感器模块180可以包括深度传感器1801、压力传感器180/2、陀螺仪传感器1803、气压传感器1804等,以实现相应的感应检测功能。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。马达193可以产生振动提示,也可以用于触摸振动反馈等。按键194包括开机键,音量键等。
移动终端100可以支持一个或多个SIM卡接口195,用于连接SIM卡,以实现通话与移动通信等功能。
图2示出了上述三维场景重建方法的示例性流程,可以包括:
步骤S210,获取采集到的多张场景图像;
步骤S220,根据所述场景图像之间的匹配关系,将所述场景图像划分为至少两个图像组;
步骤S230,在至少一个图像组中添加与该图像组相邻的场景图像,以对所述至少一个图像组进行扩展;
步骤S240,分别对每个图像组中的所述场景图像进行三维重建处理,得到每个图像组对应的局部场景模型;
步骤S250,对所述局部场景模型进行合并处理,得到完整的三维场景模型。
通过上述方法,一方面,获取采集到的多张场景图像,根据所述场景图像之间的匹配关系,将所述场景图像划分为至少两个图像组,能够将属于同一个子场景的图像聚合在一起,保证各图像组内的相似度足够高,不同图像组之间的相似度足够低。进一步的,在至少一个图像组中添加与该图像组相邻的场景图像,以对所述至少一个图像组进行扩展,能够解决相关技术中在采图时需要人为控制各个子区域之间包含相同的控制点所导致的采图过程耗时复杂的技术问题,无需额外的硬件,仅利用摄像头即可进行图像采集,降低采图成本,并且还能够使得相邻场景图像中包含一定数量的公共点,避免因公共点数量过少而导致后续重建模型断开或重建失败的情况,保证模型的精度。另一方面,分别对每个图像组中的所述场景图像进行三维重建处理,得到每个图像组对应的局部场景模型,对所述局部场景模型进行合并处理,得到完整的三维场景模型,能够将大型场景拆分为多个部分进行三维重建,避免了在大型数据集下内存和计算资源的负担,缩短重建耗时,提高重建效率。
以下对图2中的步骤进行具体说明。
步骤S210中,获取采集到的多张场景图像。
本步骤中,可以预先采集多张场景图像,该多张场景图像可以是通过同一摄像头拍摄的、同一场景在不同视角下的多张二维图像,或者,通过不同的摄像头采集的、同一场景下的不同视角的多张二维图像。
继续参考图2,步骤S220中,根据场景图像之间的匹配关系,将场景图像划分为至少两个图像组。
本步骤中,可以提取每张场景图像的特征点,特征点是图像中具有代表性的、辨识度较高的点或区域,例如图像中的角点、边缘点等梯度变化较大的像素点,例如在深度图像中,可以检测灰度值发生突变的区域,在该区域中提取特征点。本示例性实施方式可以采用FAST(Features From Accelerated Segment Test,基于加速分割检测的特征)、BRIEF(Binary Robust Independent Elementary Features,二进制鲁棒独立基本特征)、ORB(Oriented FAST and Rotated BRIEF,面向FAST和旋转BRIEF)、SIFT(Scale-InvariantFeature Transform,尺度不变特征变换)、SURF(Speeded Up Robust Features,加速鲁棒特征)、SuperPoint以及R2D2(Recurrent Replay Distributed DQN)等算法提取特征点。
进而,可以将任意两张场景图像的特征点进行匹配,以确定任意两张场景图像的匹配关系。
具体的,可以将任意两张场景图像的特征点进行匹配,以得到任意两张场景图像的匹配点对的数量,具体的,可以对特征点进行主方向分配,在特征点周围取沿着主方向的矩形区域块,每个矩形区域块统计25个像素的水平方向和垂直方向的Harr小波特征,将水平方向值之和、垂直方向值之和、水平方向绝对值之和以及垂直方向绝对值之和这四个值作为每个特征点对应的特征描述子,进而,可以计算特征描述子之间的欧式距离,当欧式距离小于距离阈值时,确定两张场景图片上的特征点为匹配点对。当匹配点对数量大于阈值时,可以确定上述任意两张场景图像具备匹配关系,并将匹配点对数量确定为上述任意两张场景图像之间的匹配度。
需要说明的是,在进行特征点匹配时,还可以根据任意两张图像的几何约束关系在任意两张场景图像的匹配点对中剔除误匹配点对。例如,可以采用RANSAC算法(RANdomSAmple Consensus,随机抽样一致,简称:RANSAC)估计两张图像之间的基础矩阵(如果相机内参数已知,可以估计本质矩阵),剔除不满足基础矩阵约束的错误匹配点对,从而能够保证匹配精度,避免错误匹配点对后续重建过程的影响。
在得到场景图像之间的匹配关系之后,参考图3,图3示出根据场景图像之间的匹配关系,将场景图像划分为至少两个图像组的流程图,包含步骤S310-步骤S320,以下结合图3对步骤S220进行解释。
在步骤S310中,根据场景图像之间的匹配关系构建匹配关系模型。
本步骤中,可以根据上述场景图片之间的匹配关系构建匹配关系模型G(V,E),示例性的,可以参考图4,图4示出上述匹配关系模型G(V,E)的示意图,其中,匹配关系模型中的顶点元素V表示场景图片,匹配关系模型中的边元素表示场景图片之间的匹配关系,任意两张场景图片之间的匹配点对数目为边元素的权值E。
在步骤S320中,基于匹配关系模型中边元素的权重,将匹配关系模型分割为多个子模型,得到每个子模型对应的图像组。
本步骤中,可以基于上述匹配关系模型中边元素的权重,将匹配关系模型分割为多个子模型,得到每个子模型对应的图像组。具体的,可以基于上述匹配关系模型中边元素的权重,采用归一化图割算法、自适应聚类算法或近邻聚类传播算法(AffinityPropagation,AP)等将上述匹配关系模型分割为多个子模型,以下实施例中以归一化聚类算法为例进行说明。
具体的,匹配关系模型G(V,E)可以通过删去某些边元素,将其分为两个非连接性点集A和B,使得A∪B=V,
Figure BDA0002780607480000092
这两个部分的不相似程度可以定义为原先连接两部分而现在被删去的所有边元素的权的总和,在图论中称之为割(cut),cut(A,B)=∑u∈A,v∈Bw(u,v),w(u,v)表示连接点u和点v的边元素的权值之和,它表示两点之间的相似程度,最小割算法就是使得该式的和最小的分割。
最小割算法可以保证类内相似度足够高,类间相似度足够低,当图像之间越相似,越可能属于同一个子场景,后续重建过程中越不会因为匹配点数过少,导致重建模型断开或重建失败。
然而,最小化分割可能存在切割后形成的子集中顶点元素数目相差过大的问题,为了满足切割后的子区域中顶点元素个数尽可能的相近,以保证内存和计算资源的合理分配和重建时间尽可能的相同,因而,本公开在最小化分割的基础上,基于归一化图割算法进行再次处理,归一化图割算法的具体算法可以参照以下公式(1):
Figure BDA0002780607480000091
Figure BDA0002780607480000101
其中,assoc(A,V)=∑u∈A,t∈Vw(u,t),assoc(A,V)的含义是A中所有点到图V中所有点之间连接边元素的权值之和(即A中所有的点和V中所有的点的联系程度);assoc(B,V)=∑v∈B,t∈Vw(v,t),assoc(B,V)的含义是B中所有点到图V中所有点之间连接边元素的权值之和(即B中所有的点和V中所有的点的联系程度);assoc(A,A)表示A中所有边元素的权值之和,assoc(B,B)表示B中所有边元素的权值之和。
示例性的,在得到上述公式(1)的基础上,可以定义同一个组内相似性度量函数Nassoc:
Figure BDA0002780607480000102
则上述公式(1)可以转化为Ncut(A,B)=2-Nassoc(A,B),通过该公式可知,当Ncut(A,B)越小时,则Nassoc(A,B)越大,即归一化图割在追求不同子集间点的权值最小的同时也追求同一子集间点的权值之和最大,以此来达到不同子集之间顶点元素个数相对均衡,以保证后续在进行三维重建时内存和计算资源的合理分配,以及,各个机器的重建时间尽可能的相同。
通过上述归一化图割算法,可以在无需人工干预的情况下将上述匹配关系模型分割为多个子模型(即将采集到的场景图像分为多个图像组),示例性的,可以参考图5A,基于图5A中的分割线OA、OB、OC、OD可以将图G(V,E)分割为四个子模型(P1、P2、P3、P4),每个子模型对应一个图像组,虚线表示被切割的边元素,被切割的边元素连接的是不同子模型中的顶点元素,以下称跨子模型边元素。需要说明的是,在通过归一化图割算法确定出上述分割线之后,可以先保留上述被切割边元素,以便于后续根据跨子模型边元素的权重对图像组进行扩展。
继续参考图2,步骤S230中,在至少一个图像组中添加与该图像组相邻的场景图像,以对至少一个图像组进行扩展。
为了增强不同区域之间的连接以便于后续模型的配准对齐,本步骤中通过将相邻两个子模型中一个子模型的顶点元素复制到另一个子模型,以对上述另一个子模型进行扩展。
具体的,可以先根据各个子模型之间的匹配度确定出与任一图像组场景相邻的图像组。示例性的,接着参照图5A,在得到多个子模型之后,可以计算任意两个子模型中跨子模型边元素的数目,进而,将每个子模型视为顶点元素,将跨子模型边元素数目作为任意两个子模型的之间的匹配度。参考图5B可知,子模型P1与子模型P2的匹配度为6,子模型P1与子模型P3的匹配度为6,子模型P1与子模型P4的匹配度为1;子模型P2与子模型P4的匹配度为4,子模型P3与子模型P4的匹配度为5。进而,当上述匹配度小于预设目标值(例如:2)时,可以忽略子模型P1对应的图像组中相关图像与子模型P4对应的图像组中相关图像的匹配关系,参考图5C,可以取消连接子模型P1与子模型P4之间的边元素,以确定两个子模型对应的图像组中的场景不相邻。从而,可以确定出子模型P1对应的图像组与P2、P3对应的图像组中的场景相邻,子模型P2对应的图像组与P1、P4对应的图像组中的场景相邻,子模型P3对应的图像组与P1、P4对应的图像组中的场景相邻。
进而,在一种实施方式中,可以先确定待扩展子模型,获取与待扩展子模型的场景相邻的其他子模型,进而,直接根据跨子模型边元素的权重由大到小的顺序依次选取跨子模型边元素。在选取好跨子模型边元素之后,可以获取跨子模型边元素两端顶点元素所在的子模型中包含的顶点元素数量,若两个子模型中的顶点元素数量均达到预设最大顶点元素数,则重新选取下一跨子模型边元素;若存在顶点元素数量未达到预设最大顶点元素数的子模型,则将跨子模型边元素的一端顶点元素复制到另一端顶点元素所在的子模型。从而,能够避免因顶点元素数量过大导致限制设备性能,影响后续三维重建速度的问题。
在另一种实施方式中,还可以先确定待扩展子模型,进而,获取与待扩展子模型的场景相邻的其他子模型,根据其他子模型与上述待扩展子模型之间的匹配度大小,依次从其他子模型中选取目标子模型,并根据目标子模型与待扩展子模型之间的跨子模型边元素的权重由大到小的顺序,选取跨子模型边元素。
示例性的,当将子模型P1确定为待扩展子模型时,可以确定与P1场景相邻的其他子模型为P2、P3。进一步的,可以确定出P1与P2之间的匹配度为6,P1与P3之间的匹配度为6,从而,示例性的,当二者不相等时,可以按照匹配度由大到小的顺序依次选取目标子模型,若二者相等时,则示例性的,可以先将子模型P2确定为目标子模型,并根据P1与P2之间的跨子模型边元素的权重由大到小的顺序,选取跨子模型边元素,将与跨子模型边元素相连接的顶点元素复制到子模型P1中;再将子模型P3确定为目标子模型,并根据P1与P3之间的跨子模型边元素的权重由大到小的顺序,选取跨子模型边元素,将与跨子模型边元素相连接的顶点元素复制到子模型P1中。
需要说明的是,在进行顶点元素复制的过程中,还可以实时记录已复制的顶点元素数量、复制后子模型中的顶点元素总数量,进而,可以计算上述已复制的顶点元素数量占复制后顶点元素总数量的比例,将该比例确定为匹配关系模型的重叠率。当重叠率达到预设重叠阈值(例如:0.25,可以根据实际情况自行设定,属于本公开的保护范围)时,可以确定完成对上述至少一个图像组的扩展。
在对各个子模型扩展完成之后,示例性的,可以参考图5D,图5D示出本示例性实施方式中一种三维场景重建方法的示意图,具体示出对各个图像组进行扩展之后形成的匹配关系模型的示意图,基于该图可知,扩展之后相邻两个子模型之间均存在一定数量的公共顶点元素,即相邻两个子模型对应的图像组中存在相同的场景图像,从而,一方面,本公开能够克服相关技术中依赖硬件、需要对采图人员进行专业培训,以使采集到的图像必须在不同的子区域中包含相同的控制点的问题,降低采图成本,提高采图效率;另一方面,本公开还能够避免因公共点数量过少而导致后续重建模型断开或重建失败的情况,保证模型的合并准确度及生成的模型精度。
示例性的,在对至少一个图像组进行扩展之后、在根据图像组进行三维重建之前,可以根据各图像组之间的匹配度确定各个图像组对应的局部场景模型的合并顺序。参考图6,图6示出确定不同图像组对应的局部场景模型的合并顺序的流程图,包括以下步骤S610至步骤S650:
步骤S610,确定不同图像组之间的匹配度。
其中,可以确定不同图像组之间的匹配度,具体的,可以将连接任意两个子模型的跨子模型边元素的数目确定为上述任意两个子模型对应的两个图像组之间的匹配度。
步骤S620,建立路径树,将任一图像组添加为路径树的根节点,将根节点确定为当前父节点。
其中,可以建立路径树,并将任一图像组确定为路径树的根节点,并将上述根节点确定为当前父节点。
示例性的,可以通过Kruskal算法(克鲁斯卡尔算法,指求加权连通图的最小生成树的算法)构造最小高度树,最小高度树的定义如下:对于具有树特征的无向图,我们可以选择任何节点作为根,生成的图就是一棵有根的树,在所有可能的有根数树,具有最小高度的被称为最小高度树。最小高度树具有的性质是,所有子节点到根节点的路径之和最小,从而,基于该路径,能够实现用最少的变换次数,合并所有的局部场景模型。
步骤S630,将未添加的图像组中与当前父节点的匹配度超过预设匹配阈值的图像组添加为当前父节点的子节点。
其中,可以将未添加的图像组中与当前父节点的匹配度超过预设匹配阈值的图像组添加为当前父节点的子节点。
步骤S640,在当前父节点的子节点中,选取与当前父节点的匹配度最低的子节点作为新的当前父节点,并跳转至将未添加的图像组中与当前父节点的匹配度超过预设匹配阈值的图像组添加为当前父节点的子节点的步骤。
其中,可以在上述当前父节点的子节点中,选取与当前父节点的匹配度最低的子节点作为新的父节点,并从其他未添加的图像组中,选取与当前父节点的匹配度超过预设匹配度阈值的图像组,将该图像组添加为上述当前父节点的子节点,直至将所有图像组全部添加至上述路径树中。
步骤S650,当图像组全部添加至路径树中,根据路径树确定图像组对应的局部场景模型的合并顺序。
其中,当将图像组全部添加至上述路径树中之后,可以将上述路径树确定为图像组对应的局部场景模型的合并顺序。从而,能够用最少的变换关系,合并所有的局部场景模型。
继续参考图2,步骤S240中,分别对每个图像组中的场景图像进行三维重建处理,得到每个图像组对应的局部场景模型。
本步骤中,可以将上述至少两个图像组中的场景图像分配到对应的至少两个机器中分别进行三维重建,以得到每个图像组对应的局部场景模型,从而,能够解决因单一机器的计算资源和内存资源不足所导致的重建失败的问题,缩短重建时间,提高重建效率。
示例性的,可以采用SFM算法(Structure form Motion,运动化结构,简称:SFM)对每个图像组中的场景图像进行三维重建,该方法包括图像匹配、初始像对选取、增量式添加、集束调整(Bundle Adjustment,BA)四个步骤。首先进行所有可能图像之间的特征匹配,随后进行几何验证,保留满足几何约束的匹配。若两幅图像之间的匹配对数量大于阈值,则认为这两幅图像存在场景的重叠;在所有图像中寻找两幅具有较多的匹配数量、且具有较宽的基线长度的图像作为重建的起点,以获得较为精确的初始三维结构;从剩下的图像中选出一个与当前重建结果有最多重叠部分的图像,加入当前模型。新加入图像的姿态参数由n点透视(Perspective-n-point,PnP)算法求出,并依据其参数引入新的三维点。如果一个图像已经被加入当前模型并且已估到其参数,则这幅图像被称作已经标定的图像。为了避免每次加入新的图像导致误差的累积,每加入若干幅图像之后利用BA算法进行一次全局参数优化;以上过程不断重复直到没有新的图像可以加入重建过程,得到每个图像组对应的局部场景模型。
继续参考图2,步骤S250中,对局部场景模型进行合并处理,得到完整的三维场景模型。
本步骤中,示例性的,可以参考图7,图7示出对局部场景模型进行合并处理,得到完整的三维场景模型的流程图,包括以下步骤S710至S730:
步骤S710,获取待合并的两个局部场景模型;每个局部场景模型对应一坐标系。
示例性的,上述两个局部场景模型可以是拼接顺序相邻的两个局部模型。
步骤S720,确定两个局部场景模型对应的两个坐标系之间的变换参数。
两个坐标系之间的变换参数可以包括两个坐标系之间的尺度变换参数、旋转平移参数。
示例性的,可以参考图8,图8示出确定两个局部场景模型对应的两个坐标系之间的尺度变换参数的流程图,包含步骤S810至步骤S820:
步骤S810,确定两个局部场景模型的至少两个公共点。
示例性的,可以获取两个局部场景模型对应的两个图像组共有的场景图像,根据两个图像组共有的场景图像中的特征点,确定两个局部场景模型的公共点。
步骤S820,根据至少两个公共点在两个坐标系下的距离之比,确定两个坐标系之间的尺度变换参数。
每个局部场景模型对应一坐标系,可以根据上述公共点在两个坐标系下的距离之比,确定两个坐标系之间的尺度变换参数。
以任意两个公共点(例如:坐标系k1中的点i和坐标系k2中的点j为公共点)为例进行说明,举例而言,在坐标系k1中,点i和点j之间的距离可以表示为
Figure BDA0002780607480000151
在坐标系k2中,点i和点j之间的距离可以表示为
Figure BDA0002780607480000152
进而,可以将上述两个距离之比确定为两个坐标系之间的尺度变换参数
Figure BDA0002780607480000153
Figure BDA0002780607480000154
进而,针对上述至少两个公共点,可以将得到的至少两个相对尺度的均值确定为上述两个坐标系之间的尺度变换参数sk1k2
Figure BDA0002780607480000155
图9示出本示例性实施方式中确定两个局部场景模型对应的两个坐标系之间的旋转平移参数(包括旋转矩阵和平移矩阵)的流程图,包括以下步骤S910至步骤S920:
步骤S910,获取至少两个公共点在两个坐标系下的位姿参数。
示例性的,可以获取两个局部场景模型的公共点(可以是不在同一条直线上的至少两个公共点),示例性的,公共点X在坐标系k1下的位姿参数可以表示为X1矩阵,公共点X在坐标系k2下的位姿参数可以表示为X2矩阵。
步骤S920,根据位姿参数,确定两个坐标系之间的旋转平移参数。
示例性的,可以根据上述公共点的位姿参数建立对应关系:X2=R12X1+t12,其中,R12表示3×3的正交旋转矩阵,t12表示平移矩阵,显然只要求解出R12和t12,即可确定出坐标系k1和坐标系k2之间的变换参数,从而将两个局部模型拼接在一起,以下对具体的求解过程进行说明:
示例性的,可以设定k1所在的局部坐标系为(R1,t1),设定k2所在的局部坐标系为(R2,t2),从而,上述位姿参数X1可以表示为:X1=R1X+t1,上述位姿参数X2可以表示为:X2=R2X+t2,进而,可以得到
Figure BDA0002780607480000161
从而,旋转矩阵
Figure BDA0002780607480000162
平移矩阵
Figure BDA0002780607480000163
类似的,可以参照上述步骤确定出合并顺序相邻的两个局部场景模型对应的两个坐标系之间的旋转平移参数。
继续参考图7,在步骤S730中,根据变换参数,将两个局部场景模型中的一个转换到另一个的坐标系中,并合并两个局部场景模型。
本步骤中,在得到上述尺度变换参数之后,可以根据上述尺度变换参数对上述两个坐标系对应的局部场景模型进行放缩处理,以避免建图时尺度不统一而导致的模型大小不一致,无法合并的问题,保证模型的合并准确度。
在得到上述旋转平移变换参数之后,可以根据上述旋转平移变换参数将两个局部场景模型中的其中一个转换到另一个的坐标系中,以合并上述两个局部场景模型。示例性的,对于所有的局部场景模型而言,可以选定任一局部模型对应的坐标系为标准坐标系,并将其他局部模型的坐标系均变换至上述标准坐标系下,以实现将所有的局部模型坐标系转换到上述标准坐标系下,得到完整的三维场景模型。
需要说明的是,在得到上述完整的三维场景模型(三维地图)之后,还可以基于上述三维场景构建方法的基础上加入AR导航,视觉定位等相关算法。进而,示例性的,在无GPS信号的室内情况下,可以将用户终端(例如:手机)拍摄到的二维图片,映射到重建好的三维地图上,以确定出终端的当前位姿,进一步的,可以生成导航信息发送到终端,实现室内导航服务、商场门店信息的AR显示等。
示例性的,图10示出本公开示例性实施方式中三维场景重建方法的整体流程图,包括以下步骤S1001-S1006:
在步骤S1001中,采集场景图像集;
在步骤S1002中,构造匹配关系模型(特征提取,并进行特征匹配,以根据匹配关系构建匹配关系模型);
在步骤S1003中,场景切割与扩展(通过归一化图割算法切割匹配关系模型,得到多个子模型;对每个子模型对应的图像组进行扩展)
在步骤S1004中,三维重建;
在步骤S1005中,子模型合并(构造最小高度树生成合并顺序,确定坐标系之间的变换参数,根据上述合并顺序和上述变换参数对各个局部场景模型进行合并)
在步骤S1006中,得到完整的三维场景模型。
本公开还提供了一种三维场景构建装置。参考图11所示,三维场景构建装置1100可以包括:
图像采集模块1110,用于获取采集到的多张场景图像。
图像匹配模块1120,用于根据场景图像之间的匹配关系,将场景图像划分为至少两个图像组。
扩展模块1130,用于在至少一个图像组中添加与该图像组相邻的场景图像,以对至少一个图像组进行扩展。
三维重建模块1140,用于分别对每个图像组中的场景图像进行三维重建处理,得到每个图像组对应的局部场景模型。
合并模块1150,用于对局部场景模型进行合并处理,得到完整的三维场景模型。
在一种实施方式中,图像匹配模块1120,被配置为:
确定场景图像的特征点;
将任意两张场景图像的特征点进行匹配,以确定任意两张场景图像的匹配关系。
在一种实施方式中,图像匹配模块1120,被配置为:
将任意两张场景图像的特征点进行匹配,得到任意两张场景图像的匹配点对的数量;
根据匹配点对的数量确定任意两张场景图像的匹配度。
在一种实施方式中,图像匹配模块1120,被配置为:
根据任意两张图像的几何约束关系,在任意两张场景图像的匹配点对中剔除误匹配点对。
在一种实施方式中,图像匹配模块1120,被配置为:
根据场景图像之间的匹配关系构建匹配关系模型;其中,匹配关系模型中的顶点元素表示场景图像,匹配关系模型中的边元素表示场景图像之间的匹配关系;
基于匹配关系模型中边元素的权重,将匹配关系模型分割为多个子模型,得到每个子模型对应的图像组。
在一种实施方式中,图像匹配模块1120,被配置为:
基于匹配关系模型中边元素的权重,采用归一化图割算法将匹配关系模型分割为多个子模型。
在一种实施方式中,扩展模块1130,被配置为:
将相邻两个子模型中一个子模型的顶点元素复制到另一个子模型,以对另一个子模型对应的图像组进行扩展。
在一种实施方式中,扩展模块1130,被配置为:
在匹配关系模型中确定跨子模型边元素的权重,跨子模型边元素连接不同子模型中的顶点元素;
按照权重的顺序依次选取跨子模型边元素,将跨子模型边元素的一端顶点元素复制到另一端顶点元素所在的子模型。
在一种实施方式中,扩展模块1130,被配置为:
判断跨子模型边元素两端顶点元素所在的子模型是否均达到预设最大顶点元素数,若是,则选取下一跨子模型边元素;若否,则执行将跨子模型边元素的一端顶点元素复制到另一端顶点元素所在的子模型的步骤。
在一种实施方式中,扩展模块1130,被配置为:
根据已复制的顶点元素数量占复制后顶点元素总数量的比例,确定匹配关系模型的重叠率;
当判断重叠率达到预设重叠阈值时,确定完成对至少一个图像组的扩展。
在一种实施方式中,三维重建模块1140,被配置为:
确定不同图像组之间的匹配度;
建立路径树,将任一图像组添加为路径树的根节点,将根节点确定为当前父节点;
将未添加的图像组中与当前父节点的匹配度超过预设匹配阈值的图像组添加为当前父节点的子节点;
在当前父节点的子节点中,选取与当前父节点的匹配度最低的子节点作为新的当前父节点,并跳转至将未添加的图像组中与当前父节点的匹配度超过预设匹配阈值的图像组添加为当前父节点的子节点的步骤;
当图像组全部添加至路径树中,根据路径树确定图像组对应的局部场景模型的合并顺序。
在一种实施方式中,合并模块1150,被配置为:
获取待合并的两个局部场景模型;每个局部场景模型对应一坐标系;
确定两个局部场景模型对应的两个坐标系之间的变换参数;
根据变换参数,将两个局部场景模型中的一个转换到另一个的坐标系中,并合并两个局部场景模型。
在一种实施方式中,合并模块1150,被配置为:
确定两个局部场景模型的至少两个公共点;
根据至少两个公共点在两个坐标系下的距离之比,确定两个坐标系之间的尺度变换参数。
在一种实施方式中,合并模块1150,被配置为:
获取两个局部场景模型对应的两个图像组共有的场景图像;
根据两个图像组共有的场景图像中的特征点,确定两个局部场景模型的公共点。
在一种实施方式中,合并模块1150,被配置为:
获取至少两个公共点在两个坐标系下的位姿参数;
根据位姿参数,确定两个坐标系之间的旋转平移参数。
上述三维场景构建装置1100中各部分的具体细节已经在对应的三维场景构建方法中进行了详细的描述,因此此处不再赘述。
本公开的示例性实施方式还提供了一种计算机可读存储介质,可以实现为一种程序产品的形式,其包括程序代码,当程序产品在电子设备上运行时,程序代码用于使电子设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。在一种实施方式中,该程序产品可以实现为便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在电子设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的示例性实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施方式。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施方式仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限定。

Claims (18)

1.一种三维场景构建方法,其特征在于,包括:
获取采集到的多张场景图像;
根据所述场景图像之间的匹配关系,将所述场景图像划分为至少两个图像组;
在至少一个图像组中添加与该图像组相邻的场景图像,以对所述至少一个图像组进行扩展;
分别对每个图像组中的所述场景图像进行三维重建处理,得到每个图像组对应的局部场景模型;
对所述局部场景模型进行合并处理,得到完整的三维场景模型。
2.根据权利要求1所述的方法,其特征在于,所述场景图像之间的匹配关系,通过以下方式确定:
确定所述场景图像的特征点;
将任意两张场景图像的特征点进行匹配,以确定所述任意两张场景图像的匹配关系。
3.根据权利要求2所述的方法,其特征在于,所述将任意两张场景图像的特征点进行匹配,以确定所述任意两张场景图像的匹配关系,包括:
将任意两张场景图像的特征点进行匹配,得到所述任意两张场景图像的匹配点对的数量;
根据所述匹配点对的数量确定所述任意两张场景图像的匹配度。
4.根据权利要求3所述的方法,其特征在于,在将任意两张场景图像的特征点进行匹配时,所述方法还包括:
根据所述任意两张图像的几何约束关系,在所述任意两张场景图像的匹配点对中剔除误匹配点对。
5.根据权利要求1所述的方法,其特征在于,所述根据所述场景图像之间的匹配关系,将所述场景图像划分为至少两个图像组,包括:
根据所述场景图像之间的匹配关系构建匹配关系模型;其中,所述匹配关系模型中的顶点元素表示场景图像,所述匹配关系模型中的边元素表示所述场景图像之间的匹配关系;
基于所述匹配关系模型中边元素的权重,将所述匹配关系模型分割为多个子模型,得到每个子模型对应的所述图像组。
6.根据权利要求5所述的方法,其特征在于,所述基于所述匹配关系模型中边元素的权重,将所述匹配关系模型分割为多个子模型,包括:
基于所述匹配关系模型中边元素的权重,采用归一化图割算法将所述匹配关系模型分割为多个子模型。
7.根据权利要求5所述的方法,其特征在于,所述在至少一个图像组中添加与该图像组相邻的场景图像,以对所述至少一个图像组进行扩展,包括:
将相邻两个子模型中一个子模型的顶点元素复制到另一个子模型,以对所述另一个子模型对应的图像组进行扩展。
8.根据权利要求7所述的方法,其特征在于,所述将相邻两个子模型中一个子模型的顶点元素复制到另一个子模型,包括:
在所述匹配关系模型中确定跨子模型边元素的权重,所述跨子模型边元素连接不同子模型中的顶点元素;
按照所述权重的大小顺序依次选取跨子模型边元素,将所述跨子模型边元素的一端顶点元素复制到另一端顶点元素所在的子模型。
9.根据权利要求8所述的方法,其特征在于,在将所述跨子模型边元素的一端顶点元素复制到另一端顶点元素所在的子模型之前,所述方法还包括:
判断所述跨子模型边元素两端顶点元素所在的子模型是否均达到预设最大顶点元素数,若是,则选取下一跨子模型边元素;若否,则执行将所述跨子模型边元素的一端顶点元素复制到另一端顶点元素所在的子模型的步骤。
10.根据权利要求8所述的方法,其特征在于,所述将相邻两个子模型中一个子模型的顶点元素复制到另一个子模型,还包括:
根据已复制的顶点元素数量占复制后顶点元素总数量的比例,确定所述匹配关系模型的重叠率;
当判断所述重叠率达到预设重叠阈值时,确定完成对所述至少一个图像组的扩展。
11.根据权利要求1所述的方法,其特征在于,在对所述局部场景模型进行合并处理前,所述方法还包括:
确定不同图像组之间的匹配度;
建立路径树,将任一图像组添加为所述路径树的根节点,将所述根节点确定为当前父节点;
将未添加的图像组中与所述当前父节点的匹配度超过预设匹配阈值的图像组添加为所述当前父节点的子节点;
在所述当前父节点的子节点中,选取与所述当前父节点的匹配度最低的子节点作为新的当前父节点,并跳转至所述将未添加的图像组中与所述当前父节点的匹配度超过预设匹配阈值的图像组添加为所述当前父节点的子节点的步骤;
当所述图像组全部添加至所述路径树中,根据所述路径树确定所述图像组对应的所述局部场景模型的合并顺序。
12.根据权利要求1所述的方法,其特征在于,所述对所述局部场景模型进行合并处理,得到完整的三维场景模型,包括:
获取待合并的两个局部场景模型;每个局部场景模型对应一坐标系;
确定所述两个局部场景模型对应的两个坐标系之间的变换参数;
根据所述变换参数,将所述两个局部场景模型中的一个转换到另一个的坐标系中,并合并所述两个局部场景模型。
13.根据权利要求12所述的方法,其特征在于,所述确定所述两个局部场景模型对应的两个坐标系之间的变换参数,包括:
确定所述两个局部场景模型的至少两个公共点;
根据所述至少两个公共点在所述两个坐标系下的距离之比,确定所述两个坐标系之间的尺度变换参数。
14.根据权利要求13所述的方法,其特征在于,所述确定所述两个局部场景模型的至少两个公共点,包括:
获取所述两个局部场景模型对应的两个图像组共有的场景图像;
根据所述两个图像组共有的场景图像中的特征点,确定所述两个局部场景模型的公共点。
15.根据权利要求13所述的方法,其特征在于,所述确定所述两个局部场景模型对应的两个坐标系之间的变换参数,包括:
获取所述至少两个公共点在所述两个坐标系下的位姿参数;
根据所述位姿参数,确定所述两个坐标系之间的旋转平移参数。
16.一种三维场景构建装置,其特征在于,包括:
图像采集模块,用于获取采集到的多张场景图像;
图像匹配模块,用于根据所述场景图像之间的匹配关系,将所述场景图像划分为至少两个图像组;
扩展模块,用于在至少一个图像组中添加与该图像组相邻的场景图像,以对所述至少一个图像组进行扩展;
三维重建模块,用于分别对每个图像组中的所述场景图像进行三维重建处理,得到每个图像组对应的局部场景模型;
合并模块,用于对所述局部场景模型进行合并处理,得到完整的三维场景模型。
17.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~15中任意一项所述的三维场景构建方法。
18.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~15中任意一项所述的三维场景构建方法。
CN202011280508.3A 2020-11-16 2020-11-16 三维场景构建方法、装置、存储介质与电子设备 Active CN112270755B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011280508.3A CN112270755B (zh) 2020-11-16 2020-11-16 三维场景构建方法、装置、存储介质与电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011280508.3A CN112270755B (zh) 2020-11-16 2020-11-16 三维场景构建方法、装置、存储介质与电子设备

Publications (2)

Publication Number Publication Date
CN112270755A true CN112270755A (zh) 2021-01-26
CN112270755B CN112270755B (zh) 2024-04-05

Family

ID=74340058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011280508.3A Active CN112270755B (zh) 2020-11-16 2020-11-16 三维场景构建方法、装置、存储介质与电子设备

Country Status (1)

Country Link
CN (1) CN112270755B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113740775A (zh) * 2021-08-17 2021-12-03 广州番禺电缆集团有限公司 一种电缆护层在线检测方法、装置、设备及储存介质
CN114140575A (zh) * 2021-10-21 2022-03-04 北京航空航天大学 三维模型构建方法、装置和设备
CN114820751A (zh) * 2022-03-10 2022-07-29 中国海洋大学 用于场景三维重建的方法及装置、三维重建系统
CN115661495A (zh) * 2022-09-28 2023-01-31 中国测绘科学研究院 一种紧凑划分及多层次合并策略的大规模SfM方法
WO2023173409A1 (zh) * 2022-03-18 2023-09-21 深圳市大疆创新科技有限公司 信息的显示方法、模型的对比方法、装置及无人机系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106097436A (zh) * 2016-06-12 2016-11-09 广西大学 一种大场景对象的三维重建方法
CN106960442A (zh) * 2017-03-01 2017-07-18 东华大学 基于单目红外的夜间机器人视觉大视场三维构建方法
CN110211043A (zh) * 2019-05-11 2019-09-06 复旦大学 一种用于全景图像拼接的基于网格优化的配准方法
CN111833447A (zh) * 2020-07-13 2020-10-27 Oppo广东移动通信有限公司 三维地图构建方法、三维地图构建装置及终端设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106097436A (zh) * 2016-06-12 2016-11-09 广西大学 一种大场景对象的三维重建方法
CN106960442A (zh) * 2017-03-01 2017-07-18 东华大学 基于单目红外的夜间机器人视觉大视场三维构建方法
CN110211043A (zh) * 2019-05-11 2019-09-06 复旦大学 一种用于全景图像拼接的基于网格优化的配准方法
CN111833447A (zh) * 2020-07-13 2020-10-27 Oppo广东移动通信有限公司 三维地图构建方法、三维地图构建装置及终端设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113740775A (zh) * 2021-08-17 2021-12-03 广州番禺电缆集团有限公司 一种电缆护层在线检测方法、装置、设备及储存介质
CN113740775B (zh) * 2021-08-17 2023-10-24 广州番禺电缆集团有限公司 一种电缆护层在线检测方法、装置、设备及储存介质
CN114140575A (zh) * 2021-10-21 2022-03-04 北京航空航天大学 三维模型构建方法、装置和设备
CN114820751A (zh) * 2022-03-10 2022-07-29 中国海洋大学 用于场景三维重建的方法及装置、三维重建系统
WO2023173409A1 (zh) * 2022-03-18 2023-09-21 深圳市大疆创新科技有限公司 信息的显示方法、模型的对比方法、装置及无人机系统
CN115661495A (zh) * 2022-09-28 2023-01-31 中国测绘科学研究院 一种紧凑划分及多层次合并策略的大规模SfM方法
CN115661495B (zh) * 2022-09-28 2023-04-18 中国测绘科学研究院 一种紧凑划分及多层次合并策略的大规模SfM方法

Also Published As

Publication number Publication date
CN112270755B (zh) 2024-04-05

Similar Documents

Publication Publication Date Title
CN112270755B (zh) 三维场景构建方法、装置、存储介质与电子设备
CN112269851B (zh) 地图数据更新方法、装置、存储介质与电子设备
CN113096185B (zh) 视觉定位方法、视觉定位装置、存储介质与电子设备
CN112270710B (zh) 位姿确定方法、位姿确定装置、存储介质与电子设备
CN112927271B (zh) 图像处理方法、图像处理装置、存储介质与电子设备
CN112270736B (zh) 增强现实处理方法及装置、存储介质和电子设备
CN112927362A (zh) 地图重建方法及装置、计算机可读介质和电子设备
CN111784734A (zh) 图像处理方法及装置、存储介质和电子设备
US11836887B2 (en) Video generation method and apparatus, and readable medium and electronic device
CN110944201A (zh) 一种视频去重压缩的方法、装置、服务器及存储介质
CN113313832B (zh) 三维模型的语义生成方法、装置、存储介质与电子设备
CN112927363A (zh) 体素地图构建方法及装置、计算机可读介质和电子设备
CN112288816B (zh) 位姿优化方法、位姿优化装置、存储介质与电子设备
CN115222974A (zh) 特征点匹配方法及装置、存储介质及电子设备
CN113269823A (zh) 深度数据获取方法、装置、存储介质与电子设备
CN114241039A (zh) 地图数据处理方法、装置、存储介质与电子设备
CN116630598A (zh) 大场景下的视觉定位方法、装置、电子设备及存储介质
CN115393761A (zh) 视频关键帧提取方法、装置、设备和存储介质
CN114419189A (zh) 地图构建方法及装置、电子设备、存储介质
CN115604528A (zh) 鱼眼图像压缩、鱼眼视频流压缩以及全景视频生成方法
KR102571876B1 (ko) 적어도 하나의 플렌옵틱 비디오를 리포커싱하기 위한 방법 및 디바이스
CN112598732A (zh) 目标设备定位方法、地图构建方法及装置、介质、设备
CN112911303B (zh) 图像编码方法、解码方法、装置、电子设备及存储介质
CN112381828B (zh) 基于语义和深度信息的定位方法、装置、介质与设备
CN112383765B (zh) 一种vr图像传输方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant