CN113793392A - 一种相机参数标定方法及装置 - Google Patents

一种相机参数标定方法及装置 Download PDF

Info

Publication number
CN113793392A
CN113793392A CN202111137437.6A CN202111137437A CN113793392A CN 113793392 A CN113793392 A CN 113793392A CN 202111137437 A CN202111137437 A CN 202111137437A CN 113793392 A CN113793392 A CN 113793392A
Authority
CN
China
Prior art keywords
camera
dimensional
points
calibrated
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111137437.6A
Other languages
English (en)
Inventor
吴春阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202111137437.6A priority Critical patent/CN113793392A/zh
Publication of CN113793392A publication Critical patent/CN113793392A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)

Abstract

本发明实施例提供了一种相机参数标定方法及装置。该方法包括:选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。通过本发明,解决了在标定三维场景内相机的内外参数时,需要额外的装置预先标定出相机的内参数问题,达到简单、快速、高效的标定三维场景内相机内外参数的效果。

Description

一种相机参数标定方法及装置
技术领域
本发明实施例涉及计算机视觉及增强虚拟技术领域,具体而言,涉及一种相机参数标定方法及装置。
背景技术
随着视频监控在社会生活中的重要性日益提升,在电视墙或多个屏幕上显示监控视频流的传统二维监控系统,无法直观展示出摄像头的位置信息,这造成了监控人员无法方便直接地将视频内容与真实信息进行管理分析,增加了监控的困难。
目前,基于增强虚拟环境(Augmented Virtual Environment,AVE)的三维全景监控系统,将多路实时监控视频流与监控场景的三维数字模型进行融合展示,打破了传统二维监控系统割裂画面显示的局限,将孤立的摄像头信息融合到三维实景中,实现了对整个场景的三维实时监控。相比传统的二维监控系统,监控人员无需面对众多屏幕,便能直接获取监控内容,获得了更加立体直观的监控画面,对整个场景的感知具有重要的意义。
基于增强虚拟环境的三维全景监控系统的核心是监控视频流与监控场景的三维数字模型的配准融合,为了实现融合效果的精准,需要标定出三维场景内摄像机的内外参数,参数的精度直接决定了融合效果的好坏。
在现有相关技术中,在三维场景中的视点标定方法需要额外的装置预先标定出相机内参数,但很多应用场合,标定装置无法安放到现场,从而导致该方法无法应用的情况。同时,在内参数已知的情况下,使用直接线性变换的方法(Direct LinearTransformation,DLT)求解相机的外参数时误差过大。
发明内容
本发明实施例提供了一种相机参数标定方法及装置,以至少解决相关技术中标定三维场景内相机内外参数时,需要额外的装置预先标定出相机的内参数的问题。
根据本发明的一个实施例,提供了一种相机参数标定方法,包括:
选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
在一个示例性实施例中,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标之前,还包括:
获取所述三维数字模型以及所述二维图像,其中,所述三维数字模型为点云三维模型或者网格三维模。
在一个示例性实施例中,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标包括:
选取所述待标定场景的三维数字模型上n个特征点以及与所述特征点对应的n个对应点,其中,n≥4。
在一个示例性实施例中,将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数,包括:
利用主成分分析方法选取n个控制点,其中,n=4;
将所有所述特征点表示为4个控制点的线性组合
Figure BDA0003282596900000021
其中,
Figure BDA0003282596900000022
为特征点的三维坐标在世界坐标系下的非齐次坐标表示,αij为世界坐标系下的齐次重心坐标,
Figure BDA0003282596900000023
为所述控制点在世界坐标系下的非齐次坐标表示;
通过所述控制点的线性组合,得到
Figure BDA0003282596900000024
世界坐标系下对应的齐次重心坐标αij
确定相机的内参数及所述控制点在相机坐标系下的坐标
Figure BDA0003282596900000025
通过如下公式确定所述特征点在相机坐标系下的坐标
Figure BDA0003282596900000026
Figure BDA0003282596900000027
其中[R|t]为所述待标定相机的外参数;
根据所述特征点在相机坐标系下的坐标
Figure BDA0003282596900000028
以及所述特征点在世界坐标系下的坐标
Figure BDA0003282596900000029
估计出待标定相机的外参数。
在一个示例性实施例中,利用主成分分析方法选取n个控制点包括:
将第一个控制点选择在所有特征点的质心位置,根据如下公式获取所述第一个控制点在在世界坐标系下的坐标;
Figure BDA00032825969000000210
将其余所述控制点选择在数据主方向上,得到矩阵:
Figure BDA00032825969000000211
计算ATA的3个特征值λ123,以及对应的特征向量为ν123,根据如下公式得到其余3个控制点在世界坐标系下的坐标:
Figure BDA0003282596900000031
在一个示例性实施例中,在利用透视n点定位方法估计出待标定相机内参数和外参数之后,还包括:
将所述待标定相机的内参数和外参数应用于三维场景上进行渲染,并通过比较所述相机视角内容与对应的二维图像的内容以确定标定效果。
在一个示例性实施例中,其中所述外参数至少包括以下之一:平移参数、旋转参数;所述内参数至少包括以下之一:焦距、图像中心坐标。
根据本发明的另一个实施例,提供了一种相机参数标定装置,包括:选取模块,用于选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
估计模块,用于将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数
根据本发明的又一个实施例,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
根据本发明的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
通过本发明上述实施例,由于人工选取待标定场景的三维数字模型上的特征点的三维坐标及待标定相机所拍摄的二维图像上的对应点的二维坐标,并利用透视n点定位方法,可一次性、精准地估计出待标定相机的内参数和外参数。因此,可以解决在标定三维场景内相机内外参数时,需要额外的装置预先标定出相机的内参数问题,达到简单、快速、高效的标定三维场景内相机内外参数的效果。
附图说明
图1是根据本发明实施例的相机标定参数方法的流程图;
图2是根据本发明实施例的相机标定参数装置的结构框图;
图3是根据本发明另一实施例的相机参数标定方法的流程图;
图4是根据本发明实施例的求解相机的内外参数的流程图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明的实施例。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
下面对本发明实施例中涉及到如下技术术语进行简要说明。
增强虚拟环境(Augmented Virtual Environment,AVE):将现实的信息融入到虚拟世界中,以增强虚拟世界的感知。AVE技术预先建立了虚拟环境的三维模型,通过相机或定位装置的事先或实时标定,提取真实对象的二维动态图像或三维表面信息,实时将对象图像区域或三维表面融合到虚拟环境中,达到“虚中有实”的表现效果。
主成分分析(Principal Component Analysis,PCA),是一种使用最广泛的数据降维算法。
透视n点定位(Perspective-n-points,PnP):利用世界坐标系下空间3D点的坐标和图像坐标系下对应2D点坐标之间的几何关系求解相机位置的问题。
在本实施例中提供了一种相机参数标定方法,图1是根据本发明实施例的相机参数标定方法的流程图,如图1所示,该流程包括如下步骤:
步骤S102,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
步骤S104,将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
在本实施例的步骤S102之前,还可以包括:获取所述三维数字模型以及所述二维图像,其中,所述三维数字模型为点云三维模型或者网格三维模型。
在本实施例步骤S102中,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标包括:
选取所述待标定场景的三维数字模型上n个特征点以及与所述特征点对应的n个对应点,其中,n≥4。
在本实施例中,将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数,包括:
利用主成分分析方法选取n个控制点,其中,n=4;
将所有所述特征点表示为4个控制点的线性组合
Figure BDA0003282596900000041
其中,
Figure BDA0003282596900000042
为特征点的三维坐标在世界坐标系下的非齐次坐标表示,αij为世界坐标系下的齐次重心坐标,
Figure BDA0003282596900000043
为所述控制点在世界坐标系下的非齐次坐标表示;
通过所述控制点的线性组合,得到
Figure BDA0003282596900000044
世界坐标系下对应的齐次重心坐标αij
确定相机的内参数及所述控制点在相机坐标系下的坐标
Figure BDA0003282596900000045
通过如下公式确定所述特征点在相机坐标系下的坐标
Figure BDA0003282596900000046
Figure BDA0003282596900000047
其中[R|t]为所述待标定相机的外参数;
根据所述特征点在相机坐标系下的坐标
Figure BDA0003282596900000051
以及所述特征点在世界坐标系下的坐标
Figure BDA0003282596900000052
估计出待标定相机的外参数。
在本实施例中,利用主成分分析方法选取n个控制点包括:
将第一个控制点选择在所有特征点的质心位置,根据如下公式获取所述第一个控制点在在世界坐标系下的坐标;
Figure BDA0003282596900000053
将其余所述控制点选择在数据主方向上,得到矩阵:
Figure BDA0003282596900000054
计算ATA的3个特征值λ123,以及对应的特征向量为ν123,根据如下公式得到其余3个控制点在世界坐标系下的坐标:
Figure BDA0003282596900000055
在本实施例的步骤S104之后,还可以包括:将所述待标定相机的内参数和外参数应用于三维场景上进行渲染,并通过比较所述相机视角内容与对应的二维图像的内容以确定标定效果。
在本实施例中,其中所述外参数至少包括以下之一:平移参数、旋转参数;所述内参数至少包括以下之一:焦距、图像中心坐标。
通过上述步骤,利用透视n点定位方法,可一次性、精准地估计出待标定相机的内参数和外参数,解决了在标定三维场景内相机内外参数时,需要额外的装置预先标定出相机的内参数问题,达到简单、快速、高效的的效果,提高了标定三维场景内相机内外参数的效率。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
在本实施例中还提供了一种相机参数标定装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图2是根据本发明实施例的相机参数标定装置的结构框图,该装置可以位于待标定的相机中,如图2所示,该装置可包括:
选取模块10,用于选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
估计模块20,用于将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
为了便于对本发明所提供的技术方案的理解,下面将结合具体场景的实施例进行详细描述。
本实施例提供了一种相机参数标定方法,如图3所示,该方法可包括如下步骤:
步骤S302,准备好待标定场景的三维数字模型和待标定相机的二维图片,场景的三维数字模型可以为点云三维模型或者网格三维模型;
步骤S304,选取三维数字模型上的特征点的三维坐标及二维图像上的对应点二维坐标,选取n个特征点,n≥4,该特征点可以是设备的交叉点、边框等易选取的角点;
步骤S306,将步骤S304中选取到的点对作为输入,使用PnP方法估计相机的内外参数;
步骤S308,将得到的相机内外参数,应用于三维场景上进行渲染,比较视角内容和相机二维图片的内容是否一致,从而判断标定效果的优劣。
在本实施例步骤S306中,可按照图4的流程求解相机的内外参数,如图4所示该流程包括如下步骤:
在本实施例中,所述相机的外参数即相机的平移参数和旋转参数,相机的内参数即摄像机的焦距、图像中心坐标;
按照所述的PnP方法,假设摄像机的像素尺寸近似为矩形,光心在图像的中心,则未知的相机内参数只有焦距f,未知的相机外参数为[R|t],求解步骤为:
步骤S401,选择控制点:
按照PnP方法将所有3D点表示为4个控制点的线性组合:
Figure BDA0003282596900000061
其中,
Figure BDA0003282596900000062
为3D点,即三维数字模型上的三维坐标在世界坐标系下的非齐次坐标表示,αij是齐次重心坐标,
Figure BDA0003282596900000063
为控制点在世界坐标系下的非齐次坐标表示。
本发明使用PCA方法进行控制点的选取,第一个控制点选择在所有3D点的质心位置:
Figure BDA0003282596900000064
其余点选择在数据的主方向上。具体操作如下,计算矩阵:
Figure BDA0003282596900000071
计算ATA的3个特征值λ123,对应的特征向量为ν123,那么剩余的3个控制点
为:
Figure BDA0003282596900000072
上述操作实际上是找到点云的重心,以及点云的三个主方向,具有更好的计算精度。
步骤S402,计算齐次重心坐标αij
控制点确定后,即可根据式(1)得到每个世界坐标系下的
Figure BDA0003282596900000073
对应的齐次重心坐标αij
步骤S403,确定相机内参数,并求解控制点在相机坐标系下的坐标
Figure BDA0003282596900000074
步骤S404,恢复出3D点在相机坐标系下的坐标:
在本步骤中,对于3D点在相机坐标系下的坐标
Figure BDA0003282596900000075
有:
Figure BDA0003282596900000076
步骤S405,利用ICP算法估计出相机的外参数:
恢复出3D参考点在相机坐标系下的坐标
Figure BDA0003282596900000077
已知3D参考点在世界坐标系下的坐标
Figure BDA0003282596900000078
就知道所有的3D-2D匹配,于是就变成了已知匹配的ICP问题。利用这种方法计算出[R|t]后,可以利用其它迭代方法进行进一步精确地计算,由于已经提供了很好的初值,所以迭代也会很快。
在本实施例步骤S308中包括:可使用OSG或者OpenGL等三维引擎进行渲染,其中,相机外参数可经过转换作为模型视点矩阵,相机内参数经过转换作为定位矩阵,通过渲染虚拟相机视角看到的三维场景内容,与二维图像的内容进行对比,简单、直接地判断出标定效果的优劣。
本发明的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
在一个示例性实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本发明的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
在一个示例性实施例中,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
本实施例中的具体示例可以参考上述实施例及示例性实施方式中所描述的示例,本实施例在此不再赘述。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种相机参数标定方法,其特征在于,包括:
选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
2.根据权利要求1所述的方法,其特征在于,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标之前,还包括:
获取所述三维数字模型以及所述二维图像,其中,所述三维数字模型为点云三维模型或者网格三维模型。
3.根据权利要求1所述的方法,其特征在于,选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标包括:
选取所述待标定场景的三维数字模型上n个特征点以及与所述特征点对应的n个对应点,其中,n≥4。
4.根据权利要求3所述的方法,其特征在于,将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数,包括:
利用主成分分析方法选取n个控制点,其中,n=4;
将所有所述特征点表示为4个控制点的线性组合
Figure FDA0003282596890000011
其中,
Figure FDA00032825968900000110
为特征点的三维坐标在世界坐标系下的非齐次坐标表示,αij为世界坐标系下的齐次重心坐标,
Figure FDA0003282596890000013
为所述控制点在世界坐标系下的非齐次坐标表示;
通过所述控制点的线性组合,得到
Figure FDA0003282596890000014
在世界坐标系下对应的齐次重心坐标αij
确定相机的内参数及所述控制点在相机坐标系下的坐标
Figure FDA0003282596890000015
通过如下公式确定所述特征点在相机坐标系下的坐标
Figure FDA0003282596890000016
Figure FDA0003282596890000017
其中[R|t]为所述待标定相机的外参数;
根据所述特征点在相机坐标系下的坐标
Figure FDA0003282596890000018
以及所述特征点在世界坐标系下的坐标
Figure FDA0003282596890000019
估计出待标定相机的外参数。
5.根据权利要求4所述的方法,其特征在于,利用主成分分析方法选取n个控制点包括:
将第一个控制点选择在所有特征点的质心位置,根据如下公式获取所述第一个控制点在在世界坐标系下的坐标;
Figure FDA0003282596890000021
将其余所述控制点选择在数据主方向上,得到矩阵:
Figure FDA0003282596890000022
计算ATA的3个特征值λ123,以及对应的特征向量为ν123,根据如下公式得到其余3个控制点在世界坐标系下的坐标:
Figure FDA0003282596890000023
6.根据权利要求1所述的方法,其特征在于,在利用透视n点定位方法估计出待标定相机内参数和外参数之后,还包括:
将所述待标定相机的内参数和外参数应用于三维场景上进行渲染,并通过比较所述相机视角内容与对应的二维图像的内容以确定标定效果。
7.根据权利要求1所述的方法,其特征在于,其中所述外参数至少包括以下之一:平移参数、旋转参数;所述内参数至少包括以下之一:焦距、图像中心坐标。
8.一种相机参数标定装置,其特征在于,包括:
选取模块,用于选取待标定场景的三维数字模型上的特征点的三维坐标,以及在待标定相机所拍摄的二维图像上与所述特征点相对应的对应点的二维坐标;
估计模块,用于将所述特征点的三维坐标和对应点的二维坐标作为点对,利用透视n点定位方法估计出待标定相机的内参数和外参数。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被处理器执行时实现所述权利要求1至7任一项中所述的方法的步骤。
10.一种电子装置,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现所述权利要求1至7任一项中所述的方法的步骤。
CN202111137437.6A 2021-09-27 2021-09-27 一种相机参数标定方法及装置 Pending CN113793392A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111137437.6A CN113793392A (zh) 2021-09-27 2021-09-27 一种相机参数标定方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111137437.6A CN113793392A (zh) 2021-09-27 2021-09-27 一种相机参数标定方法及装置

Publications (1)

Publication Number Publication Date
CN113793392A true CN113793392A (zh) 2021-12-14

Family

ID=79184540

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111137437.6A Pending CN113793392A (zh) 2021-09-27 2021-09-27 一种相机参数标定方法及装置

Country Status (1)

Country Link
CN (1) CN113793392A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116182702A (zh) * 2023-01-31 2023-05-30 桂林电子科技大学 一种基于主成分分析的线结构光传感器标定方法及系统
CN117765098A (zh) * 2024-02-22 2024-03-26 青岛科技大学 一种相机辅助标定方法、系统、设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116182702A (zh) * 2023-01-31 2023-05-30 桂林电子科技大学 一种基于主成分分析的线结构光传感器标定方法及系统
CN116182702B (zh) * 2023-01-31 2023-10-03 桂林电子科技大学 一种基于主成分分析的线结构光传感器标定方法及系统
CN117765098A (zh) * 2024-02-22 2024-03-26 青岛科技大学 一种相机辅助标定方法、系统、设备及存储介质

Similar Documents

Publication Publication Date Title
CN107223269B (zh) 三维场景定位方法和装置
WO2018228436A1 (zh) 双视角图像校准及图像处理方法、装置、存储介质和电子设备
CN110838164B (zh) 基于物体点深度的单目图像三维重建方法、系统及装置
CN113240769B (zh) 空间链接关系识别方法及装置、存储介质
US20120162220A1 (en) Three-dimensional model creation system
CN108629810B (zh) 双目相机的标定方法、装置及终端
US10769811B2 (en) Space coordinate converting server and method thereof
CN110866977A (zh) 增强现实处理方法及装置、系统、存储介质和电子设备
CN113793392A (zh) 一种相机参数标定方法及装置
CN110648363A (zh) 相机姿态确定方法、装置、存储介质及电子设备
JP2004235934A (ja) キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
EP3998582A1 (en) Three-dimensional model generation method and three-dimensional model generation device
CN109934873B (zh) 标注图像获取方法、装置及设备
CN113689578A (zh) 一种人体数据集生成方法及装置
CN109902675B (zh) 物体的位姿获取方法、场景重构的方法和装置
CN110691228A (zh) 基于三维变换的深度图像噪声标记方法、装置和存储介质
CN111866467A (zh) 监控视频的三维覆盖空间确定方法、装置及存储介质
US10339702B2 (en) Method for improving occluded edge quality in augmented reality based on depth camera
CN117115434A (zh) 数据分割装置和方法
CN111260781B (zh) 一种生成图像信息的方法、装置和电子设备
Lai et al. Exploring manipulation behavior on video see-through head-mounted display with view interpolation
CN113177975A (zh) 基于球幕相机及激光雷达的深度计算方法及三维建模方法
JP2002135807A (ja) 3次元入力のためのキャリブレーション方法および装置
US20230410451A1 (en) Augmented reality implement apparatus and method using mobile scanned object model scaling
CN117095131B (zh) 物体运动关键点的三维重建方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination