CN116823966A - 相机的内参标定方法、装置、计算机设备和存储介质 - Google Patents

相机的内参标定方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN116823966A
CN116823966A CN202310781261.0A CN202310781261A CN116823966A CN 116823966 A CN116823966 A CN 116823966A CN 202310781261 A CN202310781261 A CN 202310781261A CN 116823966 A CN116823966 A CN 116823966A
Authority
CN
China
Prior art keywords
points
dimensional
target
precision
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310781261.0A
Other languages
English (en)
Inventor
王海川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202310781261.0A priority Critical patent/CN116823966A/zh
Publication of CN116823966A publication Critical patent/CN116823966A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/86Arrangements for image or video recognition or understanding using pattern recognition or machine learning using syntactic or structural representations of the image or video pattern, e.g. symbolic string recognition; using graph matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及一种相机的内参标定方法、装置、计算机设备、存储介质和计算机程序产品。所述方法可应用于智能交通和电子地图,该方法包括:获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;获取与各第一精度图像对应的第二精度图像;第二精度图像的清晰度大于第一精度图像的清晰度;对各第二精度图像的特征点进行逆透视变换,得到不同深度下的目标物的三维点,对不同深度下的三维点进行逆深度融合,得到目标三维点;根据目标三维点以及与目标三维点对应的且为第一精度图像中的特征点,确定相机的初始位姿和初始内参;基于初始位姿和初始内参,对相机的内参进行优化。采用本方法能够有效提高相机的内参标定精度。

Description

相机的内参标定方法、装置、计算机设备和存储介质
技术领域
本申请涉及相机标定技术领域,特别是涉及一种相机的内参标定方法、装置、计算机设备、存储介质和计算机程序产品。
背景技术
相机标定目的是求出相机内参和外参,而相机的内参是矫正图像畸变的关键,内参标定精度越高,图像畸变矫正效果越好。
常用的内参标定方法有多种,如基于直线的内参标定方法,先检测场景中的直线,计算该直线的方向向量,利用该方向向量和相机的初始内参计算相机的内参,然后对相机的内参进行优化。然而,该内参标定方法在结构性纹理丰富的室内场景的内参标定精度较高,而对于室外场景,则内参标定的精度偏低。
发明内容
基于此,有必要针对上述技术问题,提供一种的相机的内参标定方法、装置、计算机设备、计算机可读存储介质和计算机程序产品,能够有效提高相机的内参标定精度。
第一方面,本申请提供了一种相机的内参标定方法,所述方法包括:
获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;
获取与各所述第一精度图像对应的第二精度图像;所述第二精度图像的清晰度大于所述第一精度图像的清晰度;
对各所述第二精度图像的特征点进行逆透视变换,得到不同深度下的所述目标物的三维点,对不同深度下的所述三维点进行逆深度融合,得到目标三维点;
根据所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点,确定所述相机的初始位姿和初始内参;
基于所述初始位姿和所述初始内参,对所述相机的内参进行优化。
第二方面,本申请还提供了一种相机的内参标定装置,所述装置包括:
第一获取模块,用于获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;
第二获取模块,用于获取与各所述第一精度图像对应的第二精度图像;所述第二精度图像的清晰度大于所述第一精度图像的清晰度;
处理模块,用于对各所述第二精度图像的特征点进行逆透视变换,得到不同深度下的所述目标物的三维点,对不同深度下的所述三维点进行逆深度融合,得到目标三维点;
第一优化模块,用于根据所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点,确定所述相机的初始位姿和初始内参;
第二优化模块,用于基于所述初始位姿和所述初始内参,对所述相机的内参进行优化。
在其中的一个实施例中,所述第二获取模块,用于获取在采集各所述第一精度图像时的位置信息;在数据库中,基于所述位置信息获取候选图像;从各所述第一精度图像中提取出特征向量;将各所述第一精度图像的特征向量与所述候选图像的特征向量进行匹配,得到匹配分值;依据所述匹配分值对所述候选图像进行图像筛选,得到与各所述第一精度图像对应的第二精度图像。
在其中的一个实施例中,所述装置还包括:
提取模块,用于对各所述第一精度图像进行特征点提取,得到所述目标物的第一特征点;对各所述第二精度图像进行特征点提取,得到所述目标物的第二特征点;
确定模块,还用于基于所述目标物的第一特征点与所述目标物的第二特征点之间的特征点匹配数,确定所述第一精度图像中的目标物与所述第二精度图像中的目标物之间的匹配状态;
所述处理模块,还用于当所述匹配状态满足预设匹配条件时,对各所述第二精度图像中针对所述目标物的第二特征点进行逆透视变换。
在其中的一个实施例中,所述处理模块,还用于对所述目标物的第一特征点与所述目标物的第二特征点进行匹配处理,得到匹配特征点对;
所述确定模块,还用于在所述匹配特征点对中选取特征点对;基于选取的所述特征点对确定第一映射矩阵,并根据所述第一映射矩阵对所述匹配特征点对中的针对所述目标物的第一特征点进行映射处理,得到第一映射特征点;基于所述第一映射特征点和所述匹配特征点对中的针对所述目标物的第二特征点确定第一误差值;当所述第一误差值小于或等于误差阈值所对应的特征点数量大于第一预设数量时,确定所述第一精度图像中的目标物与所述第二精度图像中的目标物匹配。
在其中的一个实施例中,所述确定模块,还用于当所述第一误差值小于或等于误差阈值所对应的特征点数量大于第一预设数量时,在所述匹配特征点对中选取所述误差值小于或等于误差阈值所对应的目标特征点对;当所述目标特征点对的数量大于内点数量阈值时,基于所述目标特征点对确定第二映射矩阵;根据所述第二映射矩阵对所述匹配特征点对中的针对所述目标物的第一特征点进行映射处理,得到第二映射特征点;基于所述第二映射特征点和所述匹配特征点对中的针对所述目标物的第二特征点确定第二误差值;当所述第二误差值小于或等于误差阈值所对应的特征点数量大于或等于第二预设数量时,确定所述第一精度图像中的目标物与所述第二精度图像中的目标物匹配。
在其中的一个实施例中,所述处理模块,还用于提取各所述第二精度图像的特征点;获取所述第二精度图像对应的相机旋转参数、相机偏移参数和相机内参;确定三维点约束参数;基于所述三维点约束参数、所述相机旋转参数、所述相机偏移参数、所述相机内参和所述特征点的像素坐标,确定不同深度下的所述目标物的三维点。
在其中的一个实施例中,所述深度是所述第二精度图像中的目标物与采集所述第二精度图像的高清相机之间的距离;
所述处理模块,还用于根据各所述距离确定逆深度融合系数;基于所述逆深度融合系数,对各所述距离下的所述三维点进行逆深度融合,得到目标三维点。
在其中的一个实施例中,所述第一优化模块,还用于对所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点进行噪点过滤,得到目标三维内点和对应的特征内点;基于所述目标三维内点和所述特征内点,确定所述相机的初始位姿和初始内参。
在其中的一个实施例中,所述第一优化模块,还用于对所述目标三维内点进行投影处理,得到投影特征点;基于所述投影特征点和所述特征内点对所述相机的内参进行优化,得到所述相机的初始位姿和初始内参。
在其中的一个实施例中,所述第一优化模块,还用于在所述目标三维点中选取待处理三维点;基于所述待处理三维点和所述待处理三维点对应的且为所述第一精度图像中的特征点,确定高精相机的位置和方向;根据所述位置和所述方向,确定所述目标三维点中的其它三维点与所述其它三维点对应的特征点之间的重投影误差;在所述目标三维点中,将所述重投影误差小于或等于误差阈值的三维点作为目标三维内点;在所述第一精度图像中,将所述目标三维内点对应的特征点作为特征内点。
在其中的一个实施例中,所述第一优化模块,还用于根据所述位置和所述方向,将所述目标三维点中的其它三维点投影至图像坐标系,得到投影特征点;确定所述投影特征点和所述其它三维点对应的特征点之间的误差;将所述误差作为所述其它三维点与所述其它三维点对应的特征点之间的重投影误差。
在其中的一个实施例中,所述第二优化模块,还用于基于所述初始内参对所述目标三维内点进行投影处理,得到投影特征点;基于所述投影特征点、所述特征点、所述初始位姿和所述初始内参,对所述相机的内参进行优化。
第三方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;
获取与各所述第一精度图像对应的第二精度图像;所述第二精度图像的清晰度大于所述第一精度图像的清晰度;
对各所述第二精度图像的特征点进行逆透视变换,得到不同深度下的所述目标物的三维点,对不同深度下的所述三维点进行逆深度融合,得到目标三维点;
根据所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点,确定所述相机的初始位姿和初始内参;
基于所述初始位姿和所述初始内参,对所述相机的内参进行优化。
第四方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;
获取与各所述第一精度图像对应的第二精度图像;所述第二精度图像的清晰度大于所述第一精度图像的清晰度;
对各所述第二精度图像的特征点进行逆透视变换,得到不同深度下的所述目标物的三维点,对不同深度下的所述三维点进行逆深度融合,得到目标三维点;
根据所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点,确定所述相机的初始位姿和初始内参;
基于所述初始位姿和所述初始内参,对所述相机的内参进行优化。
第五方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;
获取与各所述第一精度图像对应的第二精度图像;所述第二精度图像的清晰度大于所述第一精度图像的清晰度;
对各所述第二精度图像的特征点进行逆透视变换,得到不同深度下的所述目标物的三维点,对不同深度下的所述三维点进行逆深度融合,得到目标三维点;
根据所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点,确定所述相机的初始位姿和初始内参;
基于所述初始位姿和所述初始内参,对所述相机的内参进行优化。
上述相机的内参标定方法、装置、计算机设备、存储介质和计算机程序产品,获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;获取与各第一精度图像对应的第二精度图像;第二精度图像的清晰度大于第一精度图像的清晰度;对各第二精度图像的特征点进行逆透视变换,得到不同深度下的目标物的三维点,然后对不同深度下的三维点进行逆深度融合,从而可以有效避免视差对三角化精度的影响,有利于提高目标三维点的精度,而且还可以确保目标三维点共面。此外,根据共面的目标三维点以及与目标三维点对应的且为第一精度图像中的特征点确定相机的初始位姿和初始内参,基于初始位姿和初始内参对相机的内参进行优化,由于目标三维点的精度高且共面,可以有效提高内参的精度;而且,在进行优化时,并不是直接利用目标三维点和对应的特征点进行优化,而是先确定相机的初始位姿和初始内参,然后基于初始位姿和初始内参对相机的内参进行优化,从而可以避免出现畸变过拟合的问题,进而有效提高内参标定的精度,而且基于初始位姿和初始内参对相机的内参进行优化,可以确保相机的内存有效收敛。
附图说明
图1为一个实施例中相机的内参标定方法的应用环境图;
图2为一个实施例中相机的内参标定方法的流程示意图;
图3为一个实施例中采集到包含交通标牌的第一精度图像的示意图;
图4为一个实施例中在车辆的不同方位安装相机的示意图;
图5为一个实施例中在扩展现实设备上安装相机的示意图;
图6为一个实施例中对不同精度图像的特征点进行匹配的示意图;
图7为一个实施例中关于相机的位姿和交通标牌上的三维点的示意图;
图8为一个实施例中关于相机的位姿和路边建筑物(或墙壁)上的三维点的示意图;
图9为一个实施例中具有三维点的特征点和不具有三维点的特征点的示意图;
图10为一个实施例中存在畸变的图像的示意图;
图11为另一个实施例中具有三维点的特征点和不具有三维点的特征点的示意图;
图12为一个实施例中不存在畸变的图像的示意图;
图13为一个实施例中对不同精度图像中交通标牌的特征点进行匹配的示意图;
图14为一个实施例中对远距离的交通标牌进行三维点观测的示意图;
图15为一个实施例中对近距离的交通标牌进行三维点观测的示意图;
图16为一个实施例中对交通标牌进行识别的示意图;
图17为一个实施例中相机的内参标定装置的结构框图;
图18为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
需要说明的是,在以下的描述中,所涉及的术语“第一、第二和第三”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一、第二和第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
在对本申请的实施例进行描述之前,先对所涉及的技术进行说明,具体如下:
智能交通系统(Intelligent Traffic System,ITS)又称智能运输系统(Intelligent Transportation System),是将先进的科学技术(信息技术、计算机技术、数据通信技术、传感器技术、电子控制技术、自动控制理论、运筹学、人工智能等)有效地综合运用于交通运输、服务控制和车辆制造,加强车辆、道路、使用者三者之间的联系,从而形成一种保障安全、提高效率、改善环境、节约能源的综合运输系统。或者;
智能车路协同系统(Intelligent Vehicle Infrastructure CooperativeSystems,IVICS),简称车路协同系统,是智能交通系统的一个发展方向。车路协同系统是采用先进的无线通信和新一代互联网等技术,全方位实施车车、车路动态实时信息交互,并在全时空动态交通信息采集与融合的基础上开展车辆主动安全控制和道路协同管理,充分实现人车路的有效协同,保证交通安全,提高通行效率,从而形成的安全、高效和环保的道路交通系统。
本申请实施例提供的相机的内参标定方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。数据存储系统可以存储服务器104需要处理的数据。数据存储系统可以集成在服务器104上,也可以放在云上或其他网络服务器上。终端102获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;获取与各第一精度图像对应的第二精度图像;第二精度图像的清晰度大于第一精度图像的清晰度;对各第二精度图像的特征点进行逆透视变换,得到不同深度下的目标物的三维点,对不同深度下的三维点进行逆深度融合,得到目标三维点;根据目标三维点以及与目标三维点对应的且为第一精度图像中的特征点,确定相机的初始位姿和初始内参;基于初始位姿和初始内参,对相机的内参进行优化。或者,终端102在获取到移动过程中相机采集的包含目标物的至少两个第一精度图像之后,将这些第一精度图像发送至服务器104,由服务器104执行上述标定过程。
其中,终端102可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表、物联网设备、便携式可穿戴设备、车辆或车载设备等。该便携式可穿戴设备可为智能手表、智能手环、头戴设备等。
服务器104可以是独立的物理服务器,也可以是区块链系统中的服务节点,该区块链系统中的各服务节点之间形成点对点(P2P,Peer To Peer)网络,P2P协议是一个运行在传输控制协议(TCP,Transmission Control Protocol)协议之上的应用层协议。此外,服务器104还可以是多个物理服务器构成的服务器集群,可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
终端102与服务器104之间可以通过蓝牙、USB(Universal Serial Bus,通用串行总线)或者网络等通讯连接方式进行连接,本申请在此不做限制。
在一个实施例中,如图2所示,提供了一种相机的内参标定方法,该方法可由图1中的服务器或终端执行,或由服务器和终端协同执行,以该方法由图1中的终端执行为例进行说明,包括以下步骤:
S202,获取在移动过程中相机采集的包含目标物的至少两个第一精度图像。
其中,目标物可以是室外环境中的交通标牌,该交通标牌具体可以是路牌或广告牌,如图3所示;此外,还可以是室外环境中的标志性建筑物、具有图案的墙壁或海报等。
上述的各相机(也即摄像头)可以安装在车辆的相应方位上,如安装在车辆的前方、左侧、右侧和后方,如图4所示;或者,上述的各相机还可以安装在虚拟现实设备或扩展现实设备的不同方位上,如在虚拟现实设备或扩展现实设备的左上、左下、右上以及右下位置安装相机,如图5所示。扩展现实设备可以是集成了虚拟现实(Virtual Reality,VR)、增强现实(Augmented,Reality AR)和混合现实(Mixed Reality,MR)这三种技术的电子设备。因此,本申请的内参标定方法可应用于交通场景和扩展现实场景,如驾驶过程中对车辆上的摄像头进行内参标定,又如在运动过程中对扩展现实设备上的摄像头进行内参标定。需要指出的是,安装在车辆上的相机也可以是行车记录仪。
精度可以是图像的清晰度或分辨率。第一精度图像可以是由行车记录仪或智能终端(如手机)采集的精度小于或等于目标精度的图像,如标准精度(Standard Definition,SD)的图像,具体可以是分辨率在1280×720以下的图像。该标准精度也可称为标准分辨率。在实际应用中,该第一精度图像可以是用户在驾驶车辆时,依据众包任务采集的图像(简称众包图像),此时本申请的内参标定方法可应用在众包场景下的相机内参标定;或者,该第一精度图像也可以是用户驾驶车辆时由行车记录仪自动采集的图像,此时本申请的内参标定方法可应用在交通场景下的相机内参自动标定。
需要指出的是,众包场景是接收到众包任务时进行内参标定的场景,是交通场景中的一种特殊场景。
在一个实施例中,在移动过程中,终端获取由相机实时采集的包含目标物的n个第一精度图像,n为大于或等于2的正整数。例如,用户在驾驶车辆的过程中,车辆获取由安装在车辆上的相机实时采集的包含交通标牌的标精图像;又例如,用户在佩戴扩展现实设备的过程中,当用户处于运动状态时,扩展现实设备可以获取由安装在该扩展现实设备上的相机实时采集的包含墙壁或海报的标精图像。
S204,获取与各第一精度图像对应的第二精度图像;第二精度图像的清晰度大于第一精度图像的清晰度。
其中,第二精度图像可以是精度大于目标精度的图像,如高精度(HighDefinition,HD)的图像,具体可以是分辨率超过1280×720的图像。该高精度也可称为高分辨率,是由高精相机采集的图像。对于交通场景,该第二精度图像可以是由专业采集车上的高精相机采集的高精图像,如图3所示;在采集后,该第二精度图像保存于数据库中。需要指出的是,在保存第二精度图像之前,还可以从第二精度图像中提取出交通标牌的特征向量,然后将该特征向量与对应的第二精度图像保存于数据库中;此外,在保存图像时,还可以将采集各第二精度图像时的位置信息保存于数据库中。
在一个实施例中,终端可以从数据库中,依据位置信息获取与各第一精度图像匹配的第二精度图像。
为了进一步提高获取第二精度图像的准确率,还可以结合特征向量进行查找,具体地:终端获取在采集各第一精度图像时的位置信息;在数据库中,基于位置信息获取候选图像;从各第一精度图像中提取出特征向量;将各第一精度图像的特征向量与候选图像的特征向量进行匹配,得到匹配分值;依据匹配分值对候选图像进行图像筛选,得到与各第一精度图像对应的第二精度图像。
其中,该特征向量可以是局部特征向量,如利用SIFT(尺度不变特征转换,Scale-invariant feature transform)算法、SURF(Speeded-Up Robust Features,加速稳健特征)算法或ORB(Oriented Fast and Rotated Brief)算法提取的局部特征描述符;该特征向量还可以是全局特征向量,如利用颜色直方图算法或GIST(全局特征信息)算法提取的全局特征描述符。
例如,以车辆定位系统的位置信息作为初始值,配合图像检索可以有效提高图像的匹配精准度,具体过程如下:
首先,根据车辆定位系统的位置信息从数据库中确定候选图像,然后利用第一精度图像的特征向量进行图像检索,得到各第一精度图像对应的第二精度图像。其中,利用第一精度图像的特征向量进行图像检索的过程如下所述:
(1)特征提取:从各第一精度图像(如SD图像1~5)中提取特征向量。
(2)特征匹配:将第一精度图像的特征向量与数据库中候选图像的特征向量进行匹配,如图6所示。
其中,可以使用基于距离度量(如欧氏距离或余弦相似度)的方法进行匹配。
(3)相似度计算:根据匹配的特征向量计算第一精度图像与数据库中每个候选图像之间的相似度。
(4)结果排序:按照相似度从大到小的顺序对候选图像进行排序,从排序所得的图像序列中获取靠前的图像,从而得到各第一精度图像对应的第二精度图像,如得到SD图像1~5一一对应的HD图像。
S206,对各第二精度图像的特征点进行逆透视变换,得到不同深度下的目标物的三维点,对不同深度下的三维点进行逆深度融合,得到目标三维点。
其中,第二精度图像的特征点可以是第二精度图像中的针对目标物的点,如第二精度图像中的交通标牌的边缘点或内部点中的至少一种。
三维点可以是特征点对应的世界坐标系中的空间点,即采用逆透视变换所得关于特征点的三角化点。例如,如图7所示,图7中的黑点为交通标牌上面的三维点,三角代表相机的位姿;又例如,如图8所示,图8中的黑点为建筑物或道路旁的墙壁(或海报)上面的三维点,三角代表相机的位姿。
目标三维点是与每个第二精度图像中目标物的特征点均对应的、且经过逆深度融合的三维点。
深度可以是第二精度图像中的目标物与采集第二精度图像的高清相机之间的距离。当各第二精度图像是在不同位置采集所得时,各第二精度图像对应的深度是不同的。
在一个实施例中,终端在对各第二精度图像的特征点进行逆透视变换之前,还可以对各第一精度图像和对应的第二精度图像进行特征点匹配处理,得到特征点匹配数;当特征点匹配数满足预设匹配条件时,对各第二精度图像中针对目标物的第二特征点进行逆透视变换。
其中,特征点匹配数可以指:第一精度图像中关于目标物的特征点与第二精度图像中关于目标物的特征点匹配时,特征点匹配对的数量。
对于深度的计算,当第二精度图像为深度图像时,终端可以根据各第二精度图像中的目标物的像素值,确定采集各第二精度图像时的高精相机与目标物之间的距离;当第二精度图像不是深度图像时,终端获取采集第二精度图像时的位置信息,根据获取的各位置信息与目标物的位置信息确定采集各第二精度图像时的高精相机与目标物之间的距离。因此,在获得高精相机与目标物之间的距离之后,对各第二精度图像的特征点进行逆透视变换,得到各距离下的目标物的三维点。
S208,根据目标三维点以及与目标三维点对应的且为第一精度图像中的特征点,确定相机的初始位姿和初始内参。
其中,第一精度图像中的特征点是第一精度图像中的针对目标物的点,如第一精度图像中的交通标牌的边缘点或内部点中的至少一种。
在一个实施例中,S208之前,终端对目标三维点以及与目标三维点对应的且为第一精度图像中的特征点进行噪点过滤,得到目标三维内点和对应的特征内点;基于目标三维内点和特征内点,确定相机的初始位姿和初始内参。通过对特征点进行噪点过滤,可以将因测量误差和噪声等因素而产生的错误点(可称为外点)过滤掉,有利于提高内参标定的准确性。
其中,目标三维内点指的是真实的目标三维点,而非不真实的三维点,如对噪点三角化所得的虚假三维点;同理,特征内点指的是真实的特征点,而非不真实的特征点,如噪点。
对于噪点过滤,具体的步骤可以包括:终端在目标三维点中选取待处理三维点;基于待处理三维点和待处理三维点对应的且为第一精度图像中的特征点,确定高精相机的位置和方向;根据位置和方向,确定目标三维点中的其它三维点与其它三维点对应的特征点之间的重投影误差;在目标三维点中,将重投影误差小于或等于误差阈值的三维点作为目标三维内点;在第一精度图像中,将目标三维内点对应的特征点作为特征内点。
其中,高精相机的位置和方向是根据待处理三维点和对应的特征点构建的算法模型求解所得的。
当目标三维内点或特征内点的数量大于内点阈值时,表明该算法模型比较好,可以使用所有内点(包括目标三维内点和对应的特征内点)求解高精相机的位置和方向。
在一个实施例中,上述根据位置和方向,确定目标三维点中的其它三维点与其它三维点对应的特征点之间的重投影误差的步骤,具体可以包括:终端根据位置和方向,将目标三维点中的其它三维点投影至图像坐标系,得到投影特征点;确定投影特征点和其它三维点对应的特征点之间的误差;将误差作为其它三维点与其它三维点对应的特征点之间的重投影误差。
例如,可以采用RANSAC(Random Sample Consensus,随机抽样一致)算法来进行噪点过滤,该RANSAC算法是从一组含有外点(outliers)的数据中正确估计数学模型参数的迭代算法,该外点可以是数据中的噪声,如匹配中的误匹配和估计曲线中的离群点。其中,进行噪点过滤的步骤具体如下:
(1)随机选择一组特征点对,该特征点对是由目标三维点中的某个目标三维点和对应的特征点组成的,假设该特征点对中的目标三维点和对应的特征点为内点(inliers)。
(2)使用这些内点来求解相机的位置和方向。
(3)计算所有目标三维点和它们在第二精度图像中对应的特征点之间的重投影误差(reprojection error),并将误差小于一个阈值的点标记为内点。
(4)如果内点的数量大于一个阈值,说明当前的算法模型比较好,可以使用所有内点重新求解相机的位置和方向,并返回结果。
(5)如果内点的数量小于一个阈值,说明当前的算法模型不够好,需要重新随机选择一组特征点对,重复步骤(2)~(4)。
重复若干次,选择内点最多的算法模型作为最终结果。通过RANSAC算法可以有效地过滤掉外点,提高PnP问题的鲁棒性。
在PnP问题中,已知一组三维点和该三维点在第二精度图像中对应的特征点,需要求解高精相机的位置和方向,以便将三维点投影到第二精度图像中的对应位置。
在一个实施例中,终端根据目标三维点以及与目标三维点对应的且为第一精度图像中的特征点,对相机的内参进行粗优化,得到相机的初始位姿和初始内参。在粗优化过程中,不对相机的光心进行优化,对相机的焦距和畸变进行优化。
具体地,终端对目标三维内点进行投影处理,得到投影特征点;基于投影特征点和特征内点对相机的内参进行优化,得到相机的初始位姿和初始内参。
例如,终端对目标三维内点进行投影处理,得到投影特征点;基于投影特征点和特征内点构建投影误差方程,以及基于特征内点构建第一约束方程;根据投影误差方程和第一约束方程,确定相机的初始位姿和初始内参。
令目标三维内点在世界坐标系的坐标Pw=[X,Y,Z],该目标三维内点在相机坐标系的坐标为Pc=[Xc,Yc,Zc],在图像坐标系的二维内点的坐标为pi=[u,v],则投影误差方程可以为:
e=∑i(pi-K(PcwPwi+Tcw)) (1)
其中,r2=(u-u0)2+(v-v0)2,K表示相机坐标系到图像坐标系的映射,即公式(2),Pwi表示世界坐标系下的第i个目标三维内点,pi表示图像坐标系下的特征内点,ud和vd畸变后的图像坐标系的特征点,k1和k2分别表示一阶径向畸变和二阶径向畸变,u0和v0表示光心,在粗优化中设置为图像宽度和高度的一半,不做优化。多张图像可以加入更多的约束,通过上述公式(1)和公式(2)可以联合优化得到相机的初始内参及位姿。由于相机的内参未知,在PnP做外点滤除的时候,容易受到畸变的影响,如图9和图10是内参(即畸变)不准确对定位的影响,边缘点没有被矢量化出来,定位精度差,因此本申请并不一次性完成相机的内参进行优化,避免缺少边缘点而使内参优化过拟合,从而可以有利于提高标定的准确性。在图9中,由于相机畸变参数不准确,导致边缘点没有被重建出来,图中黑点代表没有对应三维点的特征点,小圆圈代表存在三维点的特征点;该图像一共1024个二维的特征点,有186个三维点。
S210,基于初始位姿和初始内参,对相机的内参进行优化。
其中,相机的内参可以指相机的内部参数,包括焦距、光心和畸变等参数。
对相机的内参进行优化可以是在以初始位姿和初始内参为初始值,对相机的内参进行精细优化。
在一个实施例中,终端基于初始内参对目标三维内点进行投影处理,得到投影特征点;基于投影特征点、特征点、初始位姿和初始内参,对相机的内参进行优化。
具体地,终端基于初始内参对目标三维内点进行投影处理,得到投影特征点;基于投影特征点和特征内点构建光束法平差优化方程,以及基于特征内点和初始内参中的畸变参数构建第二约束方程;根据光束法平差优化方程和第二约束方程,确定相机的内参,从而实现对相机内参的精细优化。
其中,光束法平差(Bundle Adjustment,BA)优化的目的是将重投影误差最小化。
例如,利用上述步骤计算的初始内参和初始位姿作为初始值,可以固定住目标物(如交通标牌)上的三维点,构建BA优化方程:
e=∑i(pi-π(RcwPwi+Tcw)) (3)
该BA优化方程和公式(1)类似,在精细优化过程中,光心可以放开优化,目标物上的三维点被固定住,即目标三维内点Pwi和特征内点pi不做任何更改,Rcw和Tcw的初始值来自于粗优化。多张图像可以构造一个全局的BA优化函数,通过Levenberg-Marquardt算法可以求最小二乘解,从而得到相机的内参。如图11所示,利用初始内参做初始值建立出来的三维点,图中黑点代表没有对应三维点的特征点,小圆圈代表存在三维点的特征点;该图像一共1024个二维的特征点,有380个三维点;因此,经过优化之后,可以得到如图12所示的结果,图12为图像去畸变的结果,边缘的杆和建筑基本都是垂直的,内参优化的精度大大提升。
上述实施例中,获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;获取与各第一精度图像对应的第二精度图像;第二精度图像的清晰度大于第一精度图像的清晰度;对各第二精度图像的特征点进行逆透视变换,得到不同深度下的目标物的三维点,然后对不同深度下的三维点进行逆深度融合,从而可以有效避免视差对三角化精度的影响,有利于提高目标三维点的精度,而且还可以确保目标三维点共面。此外,根据共面的目标三维点以及与目标三维点对应的且为第一精度图像中的特征点确定相机的初始位姿和初始内参,基于初始位姿和初始内参对相机的内参进行优化,由于目标三维点的精度高且共面,可以有效提高内参的精度;而且,在进行优化时,并不是直接利用目标三维点和对应的特征点进行优化,而是先进行粗优化,确定出相机的初始位姿和初始内参,然后基于初始位姿和初始内参对相机的内参进行精细优化,从而可以避免出现畸变过拟合的问题,进而有效提高内参标定的精度,而且基于初始位姿和初始内参对相机的内参进行优化,可以确保相机的内存有效收敛。
在一个实施例中,S206之前,该方法还包括:终端对各第一精度图像进行特征点提取,得到目标物的第一特征点;对各第二精度图像进行特征点提取,得到目标物的第二特征点;基于目标物的第一特征点与目标物的第二特征点之间的特征点匹配数,确定第一精度图像中的目标物与第二精度图像中的目标物之间的匹配状态。S206中的对各第二精度图像的特征点进行逆透视变换步骤,具体可以包括:终端当匹配状态满足预设匹配条件时,对各第二精度图像中针对目标物的第二特征点进行逆透视变换。
其中,第一特征点可以是在第一精度图像中提取的针对目标物的特征点。第二特征点可以是在第二精度图像中提取的针对目标物的特征点。
特征点匹配数可以指:第一精度图像中关于目标物的特征点与第二精度图像中关于目标物的特征点匹配时,特征点匹配对的数量。
匹配状态可以使匹配或不匹配。预设匹配条件指的是第一精度图像中关于目标物的特征点与第二精度图像中关于目标物的特征点匹配。
在一个实施例中,终端基于第一特征点和第二特征点对第一精度图像的目标物与第二精度图像的目标物进行特征匹配,得到目标物的第一特征点与目标物的第二特征点之间的特征点匹配数。
需要指出的是,当目标物的特征点匹配数大于某一阈值时,则确定两个图像中的目标物可能是同一实例,即为同一个物体,此时可以利用映射矩阵进一步校验,具体校验过程如下:
在一个实施例中,终端对目标物的第一特征点与目标物的第二特征点进行匹配处理,得到匹配特征点对;在匹配特征点对中选取特征点对;基于选取的特征点对确定第一映射矩阵,并根据第一映射矩阵对匹配特征点对中的针对目标物的第一特征点进行映射处理,得到第一映射特征点;基于第一映射特征点和匹配特征点对中的针对目标物的第二特征点确定第一误差值;当第一误差值小于或等于误差阈值所对应的特征点数量大于第一预设数量时,确定第一精度图像中的目标物与第二精度图像中的目标物匹配。
其中,第一映射矩阵可以是单应矩阵(Homography Matrix)或基础矩阵(Fundamental Matrix)。
第一预设数量可以是根据图像中的特征点数量计算出来的,例如预设内点比例为a%,则第一预设数量即为:特征点数量×a%。
对于目标物的匹配过程,具体可以包括:终端当第一误差值小于或等于误差阈值所对应的特征点数量大于第一预设数量时,在匹配特征点对中选取误差值小于或等于误差阈值所对应的目标特征点对,即误差值小于或等于误差阈值所对应的所有目标特征点对;当目标特征点对的数量大于内点数量阈值时,基于目标特征点对确定第二映射矩阵;根据第二映射矩阵对匹配特征点对中的针对目标物的第一特征点进行映射处理,得到第二映射特征点;基于第二映射特征点和匹配特征点对中的针对目标物的第二特征点确定第二误差值;当第二误差值小于或等于误差阈值所对应的特征点数量大于或等于第二预设数量时,确定第一精度图像中的目标物与第二精度图像中的目标物匹配。
例如,采用单应矩阵进行验证匹配的质量,具体步骤可以包括:
S1,从匹配特征点对中随机选择一组特征点对。
S2,使用选取的特征点对来计算单应矩阵,得到映射模型,并利用该映射模型对特征点对中的特征点进行映射,从而可以计算映射的误差。
S3,将误差小于误差阈值的特征点对中的点标记为内点,将误差大于误差阈值的特征点对中的点标记为外点。
S4,如果内点的数量大于预设的最小内点数量,那么使用所有内点来重新计算单应矩阵。
S5,重复执行S1~S4,直到达到预设的最大迭代次数或者找到了足够数量的内点。当内点的比例大于某一个阈值时,则认为两个目标物是正确的匹配。
又例如,可以采用基础矩阵进行验证匹配的质量,具体步骤可以包括:
S1,从匹配特征点对中随机选择一组特征点对。
S2,使用选取出来的特征点对来计算基础矩阵,得到映射模型,并利用该映射模型对特征点对中的特征点进行映射,从而可以计算映射的误差。
S3,将误差小于误差阈值的特征点对中的点标记为内点,将误差大于误差阈值的特征点对中的点标记为外点。
S4,如果内点的数量大于预设的最小内点数量,那么使用所有内点来重新计算基础矩阵。
S5,重复执行S1~S4,直到达到预设的最大迭代次数或者找到了足够数量的内点。当内点比例大于某一阈值时,则认为两个目标物是正确的匹配。
上述实施例中,对第二精度图像进行校验,可以提高获得第二精度图像的准确性,然后将该第二精度图像用来进行相机的内参标定,从而有利于提高相机内参标定的准确性。
在一个实施例中,S206中的对各第二精度图像的特征点进行逆透视变换,得到不同深度下的目标物的三维点的步骤,具体可以包括:终端提取各第二精度图像的特征点;获取第二精度图像对应的相机旋转参数、相机偏移参数和相机内参;确定三维点约束参数;基于三维点约束参数、相机旋转参数、相机偏移参数、相机内参和特征点的像素坐标,确定不同深度下的目标物的三维点。
其中,相机旋转参数和相机偏移参数属于相机的外参。提取的特征点可以是各第二精度图像中关于目标物的特征点。
三维点约束参数可以是三维点所在平面的法向量和偏移值。
该深度是第二精度图像中的目标物与采集第二精度图像的高清相机之间的距离;因此,S206中的对不同深度下的三维点进行逆深度融合,得到目标三维点的步骤,具体可以包括:终端根据各距离确定逆深度融合系数;基于逆深度融合系数,对各距离下的三维点进行逆深度融合,得到目标三维点。
常用的三维点是通过相机位姿直接三角化得到的,但是三角化所得的三维点并不共面,而且由于直行车辆和道路上的标牌的夹角比较小,得到的三维点精度比较差。在本申请中,采用逆透视变换(即IPM投影)的方式得到三角化点(即三维点),其中多帧图像之间通过逆深度进行融合,具体公式推导如下:
λPi=K(RcwPw+Tcw) (4)
其中,Pi、Pw、Rcw和Tcw分别表示图像坐标系的特征点、世界坐标系的三维点、世界坐标系到相机坐标系的旋转和世界坐标系到相机坐标系的偏移(offset);此外,K表示相机的内参,λ代表尺度因子。
对于目标物上的三维点,满足以下条件:
nPw+d=0 (5)
其中,n和d分别代表目标物所在平面的法向量和平面方程的偏移。已知图像坐标系的特征点,联合公式(4)和公式(5)可以求解尺度因子和世界坐标系的三维点。这样单帧图像即可求出世界坐标系的三维点。然而不同深度的图像上的特征点(即二维点)存在像素误差,距离越远误差越大,图14和图15是不同距离下观测到的三维点,为了提高三维点计算的准确性,对不同深度下的三维点进行逆深度融合。其中,逆深度融合的公式如下:
其中,σi表示逆深度融合系数,与距离(即深度)之间成正比,即离目标物(如交通标牌)越远,逆深度融合系数越大,置信度越低。
上述实施例中,不直接对第二精度图像中的特征点进行三角化,而是采用逆透视变换的方式得到三角化点(即三维点),为了避免因不同距离的第二精度图像中的特征点存在不同大小的像素误差而影响三维点的准确性,此时还采用逆深度融合的方式将不同距离的三维点进行融合,提高了三维点的准确性。
为了更加了解本申请的技术方案,这里结合交通场景进行说明,具体如下:
(1)用户在行驶过程中,通过行车记录仪采集的SD图像,结合车辆的位置信息以及SD图像的特征向量,从数据库中查找匹配的HD图像,具体过程包括:先利用位置信息在数据库中进行初步的筛选,得到候选图像;然后提取SD图像的特征向量,通常使用SIFT算法、SURF算法、ORB算法、颜色直方图方式或GIST算法提取;接着,对提取的特征向量进行特征匹配,即将SD图像的特征向量与数据库中的HD图像的特征向量进行匹配,通常使用基于距离度量的方法(如欧氏距离、余弦相似度等);在匹配的过程中,根据匹配的特征向量计算SD图像与数据库中每个候选图像之间的相似度;最后,按照相似度从大到小的顺序对候选图像进行排序,以便用户可以浏览最相关的HD图像。
此外,在采集到SD图像之后,还可以对SD图像进行标牌检测,如图16所示;此外,还可以在SD图像中提取特征点,例如先通过深度学习分割出SD图像中的动态障碍物,如行人车辆。
在利用位置信息和特征向量获得HD图像之后,将这些HD图像与SD图像进行特征匹配,如图6所示,图6的上图是行车记录仪采集的SD图像,下图是专业采集车采集的HD图像,利用位置信息+图像检索的方式找到最优的匹配,同一实例的交通标牌存在较多的匹配特征点。
当交通标牌上匹配的特征点数量大于某一阈值时,则确定该交通标牌是同一实例(即不同图像上的交通标牌为同一标牌),此时可以根据H矩阵或F矩阵进一步校验。
1)采用H矩阵进行校验的步骤,可以包括:
S1,从匹配特征点对中随机选择一组特征点对。
S2,使用选取的特征点对来计算H矩阵,获得映射模型a,并计算其他特征点对到这个映射模型a的误差。
S3,将误差小于阈值的特征点对标记为内点,将误差大于阈值的特征点对标记为外点。
S4,如果内点的数量大于预设的最小内点数量,那么使用所有内点来重新计算H矩阵。
S5,重复执行S1~S4,直到达到预设的最大迭代次数或者找到了足够数量的内点。当内点的比例大于某一个阈值时,则认为两个交通标牌是正确的匹配。
2)采用F矩阵进行校验的方式与H矩阵的校验方式类似,具体可以包括:
S1,从匹配特征点对中随机选择一组特征点对。
S2,使用选取的特征点对来计算基础矩阵,得到映射模型b,并计算其他点特征对到这个映射模型b的误差。
S3,将误差小于阈值的特征点对标记为内点,将误差大于阈值的特征点对标记为外点。
S4,如果内点的数量大于预设的最小内点数量,那么使用所有内点来重新计算F矩阵。
S5,重复执行S1~S4,直到达到预设的最大迭代次数或者找到了足够数量的内点。当内点的比例大于某一个阈值时,则认为两个交通标牌是正确的匹配。
(2)在获得匹配的HD图像之后,为了得到比较好的重建结果(即重建的三维点),本申请对交通标牌采用IPM投影得到三角化的三维点,多帧之间通过逆深度进行融合,具体公式推导如下:
λPi=K(RcwPw+Tcw)
其中,Pi、Pw、Rcw和Tcw分别表示图像坐标系的特征点、世界坐标系的三维点、世界坐标系到相机坐标系的旋转和世界坐标系到相机坐标系的偏移;此外,K表示相机的内参,λ代表尺度因子。
对于交通标牌上的三维点,满足以下条件:
nPw+d=0
其中,n和d分别代表交通标牌所在平面的法向量和平面方程的偏移。已知图像坐标系的特征点,联合上述两个可以求解尺度因子和世界坐标系的三维点。这样单帧图像即可求出世界坐标系的三维点。然而不同深度的图像上的特征点(即二维点)存在像素误差,距离越远误差越大,图14和图15是不同距离下观测到的三维点,为了提高三维点计算的准确性,对不同深度下的三维点进行逆深度融合。其中,逆深度融合的公式如下:
其中,σi与距离(即深度)之间成正比,即离交通标牌(如交通标牌)越远,σi越大,置信度越低。
(3)由于存在测量误差和噪声等因素,可能会出现一些不真实的错误点,这些错误点被称为外点。为了提高PnP问题的鲁棒性,通常需要使用RANSAC算法来进行外点滤除,具体步骤如下:
S1,随机选择一组三维点和该三维点在图像中对应的特征点,假设这些点是内点(inliers)。
S2,使用这些内点来求解相机的位置和方向。
S3,计算所有三维点和对应的特征点之间的重投影误差,并将误差小于误差阈值的点标记为内点。
S4,如果内点的数量大于预设数量,说明当前模型比较好,可以使用所有内点重新求解相机的位置和方向,并返回结果。
S5,如果内点的数量小于一个阈值,说明当前模型不够好,需要重新随机选择一组三维点和对应的特征点,重复S2~S4。
重复若干次后,选择内点最多的模型作为最终结果。因此,通过上述的RANSAC算法可以有效地过滤掉外点,提高PnP问题的鲁棒性。
需要指出的是,在本申请的三维点来自SD图像的重建,二维点来自SD图像的特征点检测。
在过滤掉外点之后,可以采用BA方式初步优化相机的内参和位姿,具体的初步优化过程如下:
令三维点在世界坐标系的坐标为Pw=[X,Y,Z],该目标三维内点在相机坐标系的坐标为Pc=[Xc,Yc,Zc],在图像坐标系的二维内点的坐标为pi=[u,v],则投影误差方程可以为:
e=∑i(pi-K(RcwPwi+Tcw))
其中,r2=(u-u0)2+(v-v0)2,K表示相机坐标系到图像坐标系的映射,即公式(2),Pwi表示世界坐标系下的第i个三维点,pi表示图像坐标系下的特征点,ud和vd畸变后的图像坐标系的特征点,k1和k2分别表示一阶径向畸变和二阶径向畸变,u0和v0表示光心,在粗优化中设置为图像宽度和高度的一半,不做优化。多张图像可以加入更多的约束,通过上述两个公式可以联合优化得到相机的初始内参及位姿。由于相机的内参未知,在PnP做外点滤除的时候,容易受到畸变的影响,如图9和图10是内参(即畸变)不准确对定位的影响,边缘点没有被矢量化出来,定位精度差,因此本申请先进行粗优化后进行精细优化的方式,以避免缺少边缘点而使内参优化过拟合,从而可以有利于提高标定的准确性。在图9中,由于相机畸变参数不准确,导致边缘点没有被重建出来,图中黑点代表没有对应三维点的特征点,小圆圈代表存在三维点的特征点;该图像一共1024个二维的特征点,有186个三维点。
(4)在获得相机的初始内参和初始位姿之后,对相机的内存进行精细优化,具体如下:
将上述步骤计算的初始内参和初始位姿作为初始值,可以固定住交通标牌上的三维点,构建BA优化方程:
在精细优化过程中,光心可以放开优化,交通标牌上的三维点被固定住,即三维点Pwi和特征点pi不做任何更改,Rcw和Tcw的初始值来自于粗优化。多张图像可以构造一个全局的BA优化函数,通过Levenberg-Marquardt算法可以求最小二乘解,从而得到相机的内参。如图11所示,利用初始内参做初始值建立出来的三维点,图中黑点代表没有对应三维点的特征点,小圆圈代表存在三维点的特征点;该图像一共1024个二维的特征点,有380个三维点;因此,经过优化之后,可以得到如图12所示的结果,图12为图像去畸变的结果,边缘的杆和建筑基本都是垂直的,内参优化的精度大大提升。
内参是相机的基本参数,本申请可以做到实时在线标定,大大提升了标定的灵活性。此外,在实际落地过程中,主要用于高精地图的变化发现,为高精地图的采集提供指导,可以大大减少采集里程,从而降低高精地图的采集和制作成本。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的相机的内参标定方法的相机的内参标定装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个相机的内参标定装置实施例中的具体限定可以参见上文中对于相机的内参标定方法的限定,在此不再赘述。
在一个实施例中,如图17所示,提供了一种相机的内参标定装置,包括:第一获取模块1702、第二获取模块1704、处理模块1706、第一优化模块1708和第二优化模块1710,其中:
第一获取模块1702,用于获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;
第二获取模块1704,用于获取与各第一精度图像对应的第二精度图像;第二精度图像的清晰度大于第一精度图像的清晰度;
处理模块1706,用于对各第二精度图像的特征点进行逆透视变换,得到不同深度下的目标物的三维点,对不同深度下的三维点进行逆深度融合,得到目标三维点;
第一优化模块1708,用于根据目标三维点以及与目标三维点对应的且为第一精度图像中的特征点,确定相机的初始位姿和初始内参;
第二优化模块1710,用于基于初始位姿和初始内参,对相机的内参进行优化。
在其中的一个实施例中,第二获取模块,用于获取在采集各第一精度图像时的位置信息;在数据库中,基于位置信息获取候选图像;从各第一精度图像中提取出特征向量;将各第一精度图像的特征向量与候选图像的特征向量进行匹配,得到匹配分值;依据匹配分值对候选图像进行图像筛选,得到与各第一精度图像对应的第二精度图像。
上述实施例中,获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;获取与各第一精度图像对应的第二精度图像;第二精度图像的清晰度大于第一精度图像的清晰度;对各第二精度图像的特征点进行逆透视变换,得到不同深度下的目标物的三维点,然后对不同深度下的三维点进行逆深度融合,从而可以有效避免视差对三角化精度的影响,有利于提高目标三维点的精度,而且还可以确保目标三维点共面。此外,根据共面的目标三维点以及与目标三维点对应的且为第一精度图像中的特征点确定相机的初始位姿和初始内参,基于初始位姿和初始内参对相机的内参进行优化,由于目标三维点的精度高且共面,可以有效提高内参的精度;而且,在进行优化时,并不是直接利用目标三维点和对应的特征点进行优化,而是先确定相机的初始位姿和初始内参,然后基于初始位姿和初始内参对相机的内参进行优化,从而可以避免出现畸变过拟合的问题,进而有效提高内参标定的精度,而且基于初始位姿和初始内参对相机的内参进行优化,可以确保相机的内存有效收敛。
在其中的一个实施例中,装置还包括:
提取模块,用于对各第一精度图像进行特征点提取,得到目标物的第一特征点;对各第二精度图像进行特征点提取,得到目标物的第二特征点;
确定模块,还用于基于目标物的第一特征点与目标物的第二特征点之间的特征点匹配数,确定第一精度图像中的目标物与第二精度图像中的目标物之间的匹配状态;
处理模块,还用于当匹配状态满足预设匹配条件时,对各第二精度图像中针对目标物的第二特征点进行逆透视变换。
在其中的一个实施例中,处理模块,还用于对目标物的第一特征点与目标物的第二特征点进行匹配处理,得到匹配特征点对;
确定模块,还用于在匹配特征点对中选取特征点对;基于选取的特征点对确定第一映射矩阵,并根据第一映射矩阵对匹配特征点对中的针对目标物的第一特征点进行映射处理,得到第一映射特征点;基于第一映射特征点和匹配特征点对中的针对目标物的第二特征点确定第一误差值;当第一误差值小于或等于误差阈值所对应的特征点数量大于第一预设数量时,确定第一精度图像中的目标物与第二精度图像中的目标物匹配。
在其中的一个实施例中,确定模块,还用于当第一误差值小于或等于误差阈值所对应的特征点数量大于第一预设数量时,在匹配特征点对中选取误差值小于或等于误差阈值所对应的目标特征点对;当目标特征点对的数量大于内点数量阈值时,基于目标特征点对确定第二映射矩阵;根据第二映射矩阵对匹配特征点对中的针对目标物的第一特征点进行映射处理,得到第二映射特征点;基于第二映射特征点和匹配特征点对中的针对目标物的第二特征点确定第二误差值;当第二误差值小于或等于误差阈值所对应的特征点数量大于或等于第二预设数量时,确定第一精度图像中的目标物与第二精度图像中的目标物匹配。
上述实施例中,对第二精度图像进行校验,可以提高获得第二精度图像的准确性,然后将该第二精度图像用来进行相机的内参标定,从而有利于提高相机内参标定的准确性。
在其中的一个实施例中,处理模块,还用于提取各第二精度图像的特征点;获取第二精度图像对应的相机旋转参数、相机偏移参数和相机内参;确定三维点约束参数;基于三维点约束参数、相机旋转参数、相机偏移参数、相机内参和特征点的像素坐标,确定不同深度下的目标物的三维点。
在其中的一个实施例中,深度是第二精度图像中的目标物与采集第二精度图像的高清相机之间的距离;
处理模块,还用于根据各距离确定逆深度融合系数;基于逆深度融合系数,对各距离下的三维点进行逆深度融合,得到目标三维点。
在其中的一个实施例中,第一优化模块,还用于对目标三维点以及与目标三维点对应的且为第一精度图像中的特征点进行噪点过滤,得到目标三维内点和对应的特征内点;基于目标三维内点和特征内点,确定相机的初始位姿和初始内参。
在其中的一个实施例中,第一优化模块,还用于对目标三维内点进行投影处理,得到投影特征点;基于投影特征点和特征内点对相机的内参进行优化,得到相机的初始位姿和初始内参。
在其中的一个实施例中,第一优化模块,还用于在目标三维点中选取待处理三维点;基于待处理三维点和待处理三维点对应的且为第一精度图像中的特征点,确定高精相机的位置和方向;根据位置和方向,确定目标三维点中的其它三维点与其它三维点对应的特征点之间的重投影误差;在目标三维点中,将重投影误差小于或等于误差阈值的三维点作为目标三维内点;在第一精度图像中,将目标三维内点对应的特征点作为特征内点。
在其中的一个实施例中,第一优化模块,还用于根据位置和方向,将目标三维点中的其它三维点投影至图像坐标系,得到投影特征点;确定投影特征点和其它三维点对应的特征点之间的误差;将误差作为其它三维点与其它三维点对应的特征点之间的重投影误差。
在其中的一个实施例中,第二优化模块,还用于基于初始内参对目标三维内点进行投影处理,得到投影特征点;基于投影特征点、特征点、初始位姿和初始内参,对相机的内参进行优化。
上述实施例中,不直接对第二精度图像中的特征点进行三角化,而是采用逆透视变换的方式得到三角化点(即三维点),为了避免因不同距离的第二精度图像中的特征点存在不同大小的像素误差而影响三维点的准确性,此时还采用逆深度融合的方式将不同距离的三维点进行融合,提高了三维点的准确性。
上述相机的内参标定装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图18所示。该计算机设备包括处理器、存储器、输入/输出接口、通信接口、显示单元和输入装置。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口、显示单元和输入装置通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、移动蜂窝网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种相机的内参标定方法。该计算机设备的显示单元用于形成视觉可见的画面,可以是显示屏、投影装置或虚拟现实成像装置,显示屏可以是液晶显示屏或电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图18中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述相机的内参标定方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述相机的内参标定方法的步骤。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述相机的内参标定方法的步骤。
需要说明的是,本申请所涉及的位置信息为经用户授权或者经过各方充分授权的信息,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (16)

1.一种相机的内参标定方法,其特征在于,所述方法包括:
获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;
获取与各所述第一精度图像对应的第二精度图像;所述第二精度图像的清晰度大于所述第一精度图像的清晰度;
对各所述第二精度图像的特征点进行逆透视变换,得到不同深度下的所述目标物的三维点,对不同深度下的所述三维点进行逆深度融合,得到目标三维点;
根据所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点,确定所述相机的初始位姿和初始内参;
基于所述初始位姿和所述初始内参,对所述相机的内参进行优化。
2.根据权利要求1所述的方法,其特征在于,所述获取与各所述第一精度图像对应的第二精度图像包括:
获取在采集各所述第一精度图像时的位置信息;
在数据库中,基于所述位置信息获取候选图像;
从各所述第一精度图像中提取出特征向量;
将各所述第一精度图像的特征向量与所述候选图像的特征向量进行匹配,得到匹配分值;
依据所述匹配分值对所述候选图像进行图像筛选,得到与各所述第一精度图像对应的第二精度图像。
3.根据权利要求1所述的方法,其特征在于,所述对各所述第二精度图像的特征点进行逆透视变换之前,所述方法还包括:
对各所述第一精度图像进行特征点提取,得到所述目标物的第一特征点;
对各所述第二精度图像进行特征点提取,得到所述目标物的第二特征点;
基于所述目标物的第一特征点与所述目标物的第二特征点之间的特征点匹配数,确定所述第一精度图像中的目标物与所述第二精度图像中的目标物之间的匹配状态;
所述对各所述第二精度图像的特征点进行逆透视变换包括:
当所述匹配状态满足预设匹配条件时,对各所述第二精度图像中针对所述目标物的第二特征点进行逆透视变换。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
对所述目标物的第一特征点与所述目标物的第二特征点进行匹配处理,得到匹配特征点对;
所述基于所述目标物的第一特征点与所述目标物的第二特征点之间的特征点匹配数,确定所述第一精度图像中的目标物与所述第二精度图像中的目标物之间的匹配状态包括:
在所述匹配特征点对中选取特征点对;
基于选取的所述特征点对确定第一映射矩阵,并根据所述第一映射矩阵对所述匹配特征点对中的针对所述目标物的第一特征点进行映射处理,得到第一映射特征点;
基于所述第一映射特征点和所述匹配特征点对中的针对所述目标物的第二特征点确定第一误差值;
当所述第一误差值小于或等于误差阈值所对应的特征点数量大于第一预设数量时,确定所述第一精度图像中的目标物与所述第二精度图像中的目标物匹配。
5.根据权利要求4所述的方法,其特征在于,所述当所述第一误差值小于或等于误差阈值所对应的特征点数量大于第一预设数量时,确定所述第一精度图像中的目标物与所述第二精度图像中的目标物匹配包括:
当所述第一误差值小于或等于误差阈值所对应的特征点数量大于第一预设数量时,在所述匹配特征点对中选取所述误差值小于或等于误差阈值所对应的目标特征点对;
当所述目标特征点对的数量大于内点数量阈值时,基于所述目标特征点对确定第二映射矩阵;
根据所述第二映射矩阵对所述匹配特征点对中的针对所述目标物的第一特征点进行映射处理,得到第二映射特征点;
基于所述第二映射特征点和所述匹配特征点对中的针对所述目标物的第二特征点确定第二误差值;
当所述第二误差值小于或等于误差阈值所对应的特征点数量大于或等于第二预设数量时,确定所述第一精度图像中的目标物与所述第二精度图像中的目标物匹配。
6.根据权利要求1所述的方法,其特征在于,所述对各所述第二精度图像的特征点进行逆透视变换,得到不同深度下的所述目标物的三维点包括:
提取各所述第二精度图像的特征点;
获取所述第二精度图像对应的相机旋转参数、相机偏移参数和相机内参;
确定三维点约束参数;
基于所述三维点约束参数、所述相机旋转参数、所述相机偏移参数、所述相机内参和所述特征点的像素坐标,确定不同深度下的所述目标物的三维点。
7.根据权利要求1或6所述的方法,其特征在于,所述深度是所述第二精度图像中的目标物与采集所述第二精度图像的高清相机之间的距离;
所述对不同深度下的所述三维点进行逆深度融合,得到目标三维点包括:
根据各所述距离确定逆深度融合系数;
基于所述逆深度融合系数,对各所述距离下的所述三维点进行逆深度融合,得到目标三维点。
8.根据权利要求1至6任一项所述的方法,其特征在于,所述根据所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点,确定所述相机的初始位姿和初始内参包括:
对所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点进行噪点过滤,得到目标三维内点和对应的特征内点;
基于所述目标三维内点和所述特征内点,确定所述相机的初始位姿和初始内参。
9.根据权利要求8所述的方法,其特征在于,所述基于所述目标三维内点和所述特征内点,确定所述相机的初始位姿和初始内参包括:
对所述目标三维内点进行投影处理,得到投影特征点;
基于所述投影特征点和所述特征内点对所述相机的内参进行优化,得到所述相机的初始位姿和初始内参。
10.根据权利要求8所述的方法,其特征在于,所述对所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点进行噪点过滤,得到目标三维内点和对应的特征内点包括:
在所述目标三维点中选取待处理三维点;
基于所述待处理三维点和所述待处理三维点对应的且为所述第一精度图像中的特征点,确定高精相机的位置和方向;
根据所述位置和所述方向,确定所述目标三维点中的其它三维点与所述其它三维点对应的特征点之间的重投影误差;
在所述目标三维点中,将所述重投影误差小于或等于误差阈值的三维点作为目标三维内点;
在所述第一精度图像中,将所述目标三维内点对应的特征点作为特征内点。
11.根据权利要求10所述的方法,其特征在于,所述根据所述位置和所述方向,确定所述目标三维点中的其它三维点与所述其它三维点对应的特征点之间的重投影误差包括:
根据所述位置和所述方向,将所述目标三维点中的其它三维点投影至图像坐标系,得到投影特征点;
确定所述投影特征点和所述其它三维点对应的特征点之间的误差;
将所述误差作为所述其它三维点与所述其它三维点对应的特征点之间的重投影误差。
12.根据权利要求1至6任一项所述的方法,其特征在于,所述基于所述初始位姿和所述初始内参,对所述相机的内参进行优化包括:
基于所述初始内参对所述目标三维内点进行投影处理,得到投影特征点;
基于所述投影特征点、所述特征点、所述初始位姿和所述初始内参,对所述相机的内参进行优化。
13.一种相机的内参标定装置,其特征在于,所述装置包括:
第一获取模块,用于获取在移动过程中相机采集的包含目标物的至少两个第一精度图像;
第二获取模块,用于获取与各所述第一精度图像对应的第二精度图像;所述第二精度图像的清晰度大于所述第一精度图像的清晰度;
处理模块,用于对各所述第二精度图像的特征点进行逆透视变换,得到不同深度下的所述目标物的三维点,对不同深度下的所述三维点进行逆深度融合,得到目标三维点;
第一优化模块,用于根据所述目标三维点以及与所述目标三维点对应的且为所述第一精度图像中的特征点,确定所述相机的初始位姿和初始内参;
第二优化模块,用于基于所述初始位姿和所述初始内参,对所述相机的内参进行优化。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至12中任一项所述的方法的步骤。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
16.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
CN202310781261.0A 2023-06-28 2023-06-28 相机的内参标定方法、装置、计算机设备和存储介质 Pending CN116823966A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310781261.0A CN116823966A (zh) 2023-06-28 2023-06-28 相机的内参标定方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310781261.0A CN116823966A (zh) 2023-06-28 2023-06-28 相机的内参标定方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN116823966A true CN116823966A (zh) 2023-09-29

Family

ID=88116232

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310781261.0A Pending CN116823966A (zh) 2023-06-28 2023-06-28 相机的内参标定方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN116823966A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117437288A (zh) * 2023-12-19 2024-01-23 先临三维科技股份有限公司 摄影测量方法、装置、设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117437288A (zh) * 2023-12-19 2024-01-23 先临三维科技股份有限公司 摄影测量方法、装置、设备及存储介质
CN117437288B (zh) * 2023-12-19 2024-05-03 先临三维科技股份有限公司 摄影测量方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN103530881B (zh) 适用于移动终端的户外增强现实无标志点跟踪注册方法
CN110568447A (zh) 视觉定位的方法、装置及计算机可读介质
WO2020043081A1 (zh) 定位技术
EP3274964B1 (en) Automatic connection of images using visual features
CN112489099B (zh) 点云配准方法、装置、存储介质及电子设备
CN111932627B (zh) 一种标识物绘制方法及系统
CN115272494B (zh) 相机与惯性测量单元的标定方法、装置和计算机设备
CN113192646A (zh) 目标检测模型构建方法及不同目标间距离监控方法、装置
CN112750203A (zh) 模型重建方法、装置、设备及存储介质
Kim et al. Interactive 3D building modeling method using panoramic image sequences and digital map
CN113240734A (zh) 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质
CN116823966A (zh) 相机的内参标定方法、装置、计算机设备和存储介质
CN115375857A (zh) 三维场景重建方法、装置、设备及存储介质
CN110766731A (zh) 一种全景影像与点云自动配准的方法、装置及存储介质
CN117132737B (zh) 一种三维建筑模型构建方法、系统及设备
CN112529006B (zh) 全景图片的检测方法、装置、终端及存储介质
Lu et al. Digitalization of traffic scenes in support of intelligent transportation applications
CN117726747A (zh) 补全弱纹理场景的三维重建方法、装置、存储介质和设备
CN116843754A (zh) 一种基于多特征融合的视觉定位方法及系统
CN112002007A (zh) 基于空地影像的模型获取方法及装置、设备、存储介质
CN113763438A (zh) 一种点云配准方法、装置、设备及存储介质
CN115830073A (zh) 地图要素重建方法、装置、计算机设备和存储介质
CN113902047B (zh) 图像元素匹配方法、装置、设备以及存储介质
CN114299230A (zh) 一种数据生成方法、装置、电子设备及存储介质
CN114549650A (zh) 相机标定方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40092675

Country of ref document: HK