CN112365547B - 基于多深度光栅可视点的相机矫正方法及系统 - Google Patents

基于多深度光栅可视点的相机矫正方法及系统 Download PDF

Info

Publication number
CN112365547B
CN112365547B CN202011232348.5A CN202011232348A CN112365547B CN 112365547 B CN112365547 B CN 112365547B CN 202011232348 A CN202011232348 A CN 202011232348A CN 112365547 B CN112365547 B CN 112365547B
Authority
CN
China
Prior art keywords
point
camera
correction
points
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011232348.5A
Other languages
English (en)
Other versions
CN112365547A (zh
Inventor
朱志林
潘博
孟乒乒
张伟香
方勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Evis Technology Co ltd
Original Assignee
Shanghai Evis Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Evis Technology Co ltd filed Critical Shanghai Evis Technology Co ltd
Priority to CN202011232348.5A priority Critical patent/CN112365547B/zh
Publication of CN112365547A publication Critical patent/CN112365547A/zh
Application granted granted Critical
Publication of CN112365547B publication Critical patent/CN112365547B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

本发明揭示了一种基于多深度光栅可视点的相机矫正方法及系统,所述方法包括:获取光栅在白板上的不同颜色的交界点作为特征点;选取不同深度的多个特征点,估计相机矫正前后匹配点的最优变换矩阵[R|t];通过重投影误差迭代优化旋转变化矩阵,直到重投影误差值小于阈值ε;保存矫正矩阵,对每次检测到的人眼位置做矫正,并根据定标数据做参数计算。本发明提出的基于多深度光栅可视点的相机矫正方法及系统,可提高光栅可视区位置定标的准确性,满足裸眼3D显示器的要求。

Description

基于多深度光栅可视点的相机矫正方法及系统
技术领域
本发明属于裸眼3D显示技术领域,涉及一种相机矫正方法,尤其涉及一种基于多深度光栅可视点的相机矫正方法及系统。
背景技术
随着结合人眼跟踪的裸眼3D显示器技术逐渐成熟,提高摄像头获取的人眼位置与光栅参数映射关系的定标数据的准确性成为亟待解决的问题。通过检测人眼的位置,改变光栅的参数,将三维内容呈现给观看者是基于人眼检测裸眼3D显示器的显示方式。这种显示方式可以给观看者更高的分辨率体验,但需要准确的人眼位置以及人眼位置与光栅参数映射的定标数据。
针对相机视锥体相对光栅面会出现旋转平移,影响定标数据的准确性的情况,对相机进行矫正,使定标出的可视点数据在同一深度面规则分布。通过矫正相机的方法避免了在相近深度情况下的光栅参数计算有偏差,保证了检测出的观看者有最优的观看体验。
有鉴于此,设计一种基于多深度光栅可视点的相机矫正方法,满足准确计算摄像头获取的世界坐标系位置与光栅参数映射关系的要求。
发明内容
本发明提供一种基于多深度光栅可视点的相机矫正方法及系统,可提高光栅可视区位置定标的准确性,满足裸眼3D显示器的要求。
为解决上述技术问题,根据本发明的一个方面,采用如下技术方案:
一种基于多深度光栅可视点的相机矫正方法,所述方法包括:
获取光栅在白板上的不同颜色的交界点作为特征点;
选取不同深度的多个特征点,估计相机矫正前后匹配点的最优变换矩阵[R|t];
通过重投影误差迭代优化旋转变化矩阵,直到重投影误差值小于阈值ε;
保存矫正矩阵,对每次检测到的人眼位置做矫正,并根据定标数据做参数计算。
作为本发明的一种实施方式,选择红绿颜色作为定标的颜色。
作为本发明的一种实施方式,所述获取光栅在白板上的不同颜色的交界点作为特征点步骤中,根据目前的基于方波拟合的定标方法确定红绿图中的可视区位置作为特征点,并且各个深度的可视点都是以已知的内参矩阵的中心点位置为原点;
对应的旋转平移后的3D点设置为其中,RG_Width为定标出的红绿光宽度,按照定标的RG_Width计算出3D点的x方向值,y值与矫正前的特征点y值一致,depth值取矫正前中心点位置的深度值为矫正后的深度值。
作为本发明的一种实施方式,通过最小二乘法估计相机矫正前后匹配点的最优变换矩阵[R|t]。
作为本发明的一种实施方式,选取不同深度中的多个特征点、通过最小二乘法拟合出符合当前匹配点的旋转平移矩阵[R|t]步骤中,目标函数如下:
式中,pi表示变换后的匹配点,pi'表示变换前的特征点。
作为本发明的一种实施方式,通过重投影误差迭代优化旋转变化矩阵、直到重投影误差值小于阈值ε步骤中,公式如下:
式中,pi表示变换后的匹配点,pi'表示变换前的特征点;ε为设置的迭代结束条件,即当重投影误差值小于阈值ε时结束迭代。
作为本发明的一种实施方式,将矫正矩阵保存、对每次检测到的人眼位置做矫正、并根据定标数据做参数计算步骤中,通过对相机获取的3D点位置做矫正,使光栅的可视点的位置参数在相机中的位置成规则的扇形,避免不同深度之间因为相机旋转导致的光栅参数计算偏差。
作为本发明的一种实施方式,所述矫正方法进一步包括:固定显示器与白板,保证显示器与白板互相平行。
根据本发明的另一个方面,采用如下技术方案:一种基于多深度光栅可视点的相机矫正系统,其特征在于,所述系统包括:
特征点获取模块,用以获取光栅在白板上的不同颜色的交界点作为特征点;
最优变换矩阵估计模块,用以选取不同深度的多个特征点,估计相机矫正前后匹配点的最优变换矩阵[R|t];
矩阵优化模块,用以通过重投影误差迭代优化旋转变化矩阵,直到重投影误差值小于阈值ε;
矫正模块,用以保存矫正矩阵,对每次检测到的人眼位置做矫正,并根据定标数据做参数计算。
作为本发明的一种实施方式,选择红绿颜色作为定标的颜色。
所述特征点获取模块用以根据目前的基于方波拟合的定标方法确定红绿图中的可视区位置作为特征点,并且各个深度的可视点都是以已知的内参矩阵的中心点位置为原点;对应的旋转平移后的3D点设置为其中,RG_Width为定标出的红绿光宽度,按照定标的RG_Width计算出3D点的x方向值,y值与矫正前的特征点y值一致,depth值取矫正前中心点位置的深度值为矫正后的深度值;
所述最优变换矩阵估计模块用以选取不同深度中的多个特征点、通过最小二乘法拟合出符合当前匹配点的旋转平移矩阵[R|t]步骤中,目标函数如下:其中,pi表示变换后的匹配点,pi'表示变换前的特征点;
所述矩阵优化模块用以通过重投影误差迭代优化旋转变化矩阵、直到重投影误差值小于阈值ε,公式如下:其中,pi表示变换后的匹配点,pi'表示变换前的特征点;ε为设置的迭代结束条件,即当重投影误差值小于阈值ε时结束迭代;
所述矫正模块用以将矫正矩阵保存、对每次检测到的人眼位置做矫正、并根据定标数据做参数计算步骤中,通过对相机获取的3D点位置做矫正,使光栅的可视点的位置参数在相机中的位置成规则的扇形,避免不同深度之间因为相机旋转导致的光栅参数计算偏差。
本发明的有益效果在于:本发明提出的基于多深度光栅可视点的相机矫正方法及系统,可提高光栅可视区位置定标的准确性,满足裸眼3D显示器的要求。
附图说明
图1为本发明一实施例中基于多深度光栅可视点的相机矫正方法的流程图。
图2为本发明一实施例中基于多深度光栅可视点的相机矫正方法的原理图。
具体实施方式
下面结合附图详细说明本发明的优选实施例。
为了进一步理解本发明,下面结合实施例对本发明优选实施方案进行描述,但是应当理解,这些描述只是为进一步说明本发明的特征和优点,而不是对本发明权利要求的限制。
该部分的描述只针对几个典型的实施例,本发明并不仅局限于实施例描述的范围。相同或相近的现有技术手段与实施例中的一些技术特征进行相互替换也在本发明描述和保护的范围内。
说明书中各个实施例中的步骤的表述只是为了方便说明,本申请的实现方式不受步骤实现的顺序限制。说明书中的“连接”既包含直接连接,也包含间接连接。
本发明揭示了一种基于多深度光栅可视点的相机矫正方法,所述方法包括:获取光栅在白板上的不同颜色的交界点作为特征点;选取不同深度的多个特征点,估计相机矫正前后匹配点的最优变换矩阵[R|t];通过重投影误差迭代优化旋转变化矩阵,直到重投影误差值小于阈值ε;保存矫正矩阵,对每次检测到的人眼位置做矫正,并根据定标数据做参数计算。
图1为本发明一实施例中基于多深度光栅可视点的相机矫正方法的流程图;请参阅图1,所述方法包括:
【步骤S1】固定显示器与白板,保证显示器与白板互相平行。
【步骤S2】获取光栅在白板上的不同颜色的交界点作为特征点。
在一实施例中,选择红绿颜色作为定标的颜色,但不局限于红绿颜色。
在本发明的一实施例中,根据目前的基于方波拟合的定标方法确定红绿图中的可视区位置作为特征点,并且各个深度的可视点都是以已知的内参矩阵的中心点位置为原点。对应的旋转平移后的3D点设置为其中的RG_Width为定标出的红绿光宽度,按照定标的RG_Width计算出3D点的x方向值,y值与矫正前的特征点y值一致,depth值取矫正前中心点位置的深度值为矫正后的深度值。
【步骤S3】选取不同深度的多个特征点,通过最小二乘法估计相机矫正前后匹配点的最优变换矩阵[R|t]。
在本发明的一实施例中,选取不同深度中的多个特征点,通过最小二乘法拟合出符合当前匹配点的旋转平移矩阵[R|t]。目标函数如下:
式中,pi表示变换后的匹配点,pi'表示变换前的特征点。
【步骤S4】通过重投影误差迭代优化旋转变化矩阵,直到重投影误差值小于阈值ε。
在本发明的一实施例中,通过重投影误差迭代优化旋转变化矩阵、直到重投影误差值小于阈值ε的步骤中,公式如下:
式中,pi表示变换后的匹配点,pi'表示变换前的特征点。ε为设置的迭代结束条件,即当重投影误差值小于阈值ε时结束迭代。
【步骤S5】保存矫正矩阵,对每次检测到的人眼位置做矫正,并根据定标数据做参数计算。
在本发明的一实施例中,将矫正矩阵保存,对每次检测到的人眼位置做矫正,并根据定标数据做参数计算计算。通过对相机获取的3D点位置做矫正,使光栅的可视点的位置参数在相机中的位置成规则的扇形,避免不同深度之间因为相机旋转导致的光栅参数计算偏差。
图2为本发明一实施例中一种基于多深度光栅可视点的相机矫正方法的原理图;请参阅图2,在本发明的一实施例中,所述方法包括:
获取红绿可视区特征点作为匹配点,红绿可视区即为相机抓取的光栅在白板上形成的红绿过渡区。
计算相机的旋转平移矩阵,实现将相机的视锥体从倾斜变换为与光栅面平行,如图中箭头的矫正方向所示。
通过矫正相机位置,优化人眼位置与光栅变化参数之间映射关系,避免相机旋转导致的光栅在相近深度的参数计算有偏差问题。
本发明还揭示一种基于多深度光栅可视点的相机矫正系统,所述系统包括:特征点获取模块、最优变换矩阵估计模块、矩阵优化模块及矫正模块。
特征点获取模块用以获取光栅在白板上的不同颜色的交界点作为特征点;最优变换矩阵估计模块用以选取不同深度的多个特征点,估计相机矫正前后匹配点的最优变换矩阵[R|t];矩阵优化模块用以通过重投影误差迭代优化旋转变化矩阵,直到重投影误差值小于阈值ε;矫正模块用以保存矫正矩阵,对每次检测到的人眼位置做矫正,并根据定标数据做参数计算。
在本发明的一实施例中,选择红绿颜色作为定标的颜色。
所述特征点获取模块用以根据目前的基于方波拟合的定标方法确定红绿图中的可视区位置作为特征点,并且各个深度的可视点都是以已知的内参矩阵的中心点位置为原点;对应的旋转平移后的3D点设置为其中,RG_Width为定标出的红绿光宽度,按照定标的RG_Width计算出3D点的x方向值,y值与矫正前的特征点y值一致,depth值取矫正前中心点位置的深度值为矫正后的深度值。
所述最优变换矩阵估计模块用以选取不同深度中的多个特征点、通过最小二乘法拟合出符合当前匹配点的旋转平移矩阵[R|t]步骤中,目标函数如下:其中,pi表示变换后的匹配点,pi'表示变换前的特征点。
所述矩阵优化模块用以通过重投影误差迭代优化旋转变化矩阵、直到重投影误差值小于阈值ε,公式如下:其中,pi表示变换后的匹配点,pi'表示变换前的特征点;ε为设置的迭代结束条件,即当重投影误差值小于阈值ε时结束迭代。
所述矫正模块用以将矫正矩阵保存、对每次检测到的人眼位置做矫正、并根据定标数据做参数计算步骤中,通过对相机获取的3D点位置做矫正,使光栅的可视点的位置参数在相机中的位置成规则的扇形,避免不同深度之间因为相机旋转导致的光栅参数计算偏差。
综上所述,本发明提出的基于多深度光栅可视点的相机矫正方法及系统,可提高光栅可视区位置定标的准确性,满足裸眼3D显示器的要求。
需要注意的是,本申请可在软件和/或软件与硬件的组合体中被实施;例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一些实施例中,本申请的软件程序可以通过处理器执行以实现上文步骤或功能。同样地,本申请的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中;例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本申请的一些步骤或功能可采用硬件来实现;例如,作为与处理器配合从而执行各个步骤或功能的电路。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
这里本发明的描述和应用是说明性的,并非想将本发明的范围限制在上述实施例中。实施例中所涉及的效果或优点可因多种因素干扰而可能不能在实施例中体现,对于效果或优点的描述不用于对实施例进行限制。这里所披露的实施例的变形和改变是可能的,对于那些本领域的普通技术人员来说实施例的替换和等效的各种部件是公知的。本领域技术人员应该清楚的是,在不脱离本发明的精神或本质特征的情况下,本发明可以以其它形式、结构、布置、比例,以及用其它组件、材料和部件来实现。在不脱离本发明范围和精神的情况下,可以对这里所披露的实施例进行其它变形和改变。

Claims (8)

1.一种基于多深度光栅可视点的相机矫正方法,其特征在于,所述方法包括:
获取光栅在白板上的不同颜色的交界点作为特征点;
按照定标数据所选取的特征点旋转平移后的3D点设置为其中,RG_Width为定标出的红绿光宽度,按照定标的RG_Width计算出3D点的x方向值,y值与矫正前的特征点y值一致,depth值取矫正前中心点位置的深度值为矫正后的深度值;
选取不同深度的多个特征点,通过最小二乘法估计相机矫正前后匹配点的最优变换矩阵[R|t];
通过重投影误差迭代优化旋转变化矩阵,直到重投影误差值小于阈值ε;
保存矫正矩阵,对每次检测到的人眼位置做矫正,并根据矫正人眼位置和定标数据做光栅参数计算;通过对相机获取的3D点位置做矫正,使光栅的可视点的位置参数在相机中的位置成规则的扇形。
2.根据权利要求1所述的基于多深度光栅可视点的相机矫正方法,其特征在于:
选择红绿颜色作为定标的颜色。
3.根据权利要求2所述的基于多深度光栅可视点的相机矫正方法,其特征在于:
所述获取光栅在白板上的不同颜色的交界点作为特征点步骤中,根据基于方波拟合的定标方法确定红绿图中的可视区位置作为特征点,并且各个深度的可视点都是以已知的内参矩阵的中心点位置为原点。
4.根据权利要求1所述的基于多深度光栅可视点的相机矫正方法,其特征在于:
选取不同深度中的多个特征点、通过最小二乘法拟合出符合当前匹配点的旋转平移矩阵[R|t]步骤中,目标函数如下:
式中,pi表示变换后的匹配点,pi'表示变换前的特征点。
5.根据权利要求1所述的基于多深度光栅可视点的相机矫正方法,其特征在于:
通过重投影误差迭代优化旋转变化矩阵、直到重投影误差值小于阈值ε步骤中,公式如下:
式中,pi表示变换后的匹配点,pi'表示变换前的特征点;ε为设置的迭代结束条件,即当重投影误差值小于阈值ε时结束迭代。
6.根据权利要求1所述的基于多深度光栅可视点的相机矫正方法,其特征在于:
所述矫正方法进一步包括:固定显示器与白板,保证显示器与白板互相平行。
7.一种基于多深度光栅可视点的相机矫正系统,其特征在于,所述系统包括:
特征点获取模块,用以获取光栅在白板上的不同颜色的交界点作为特征点;按照定标数据所选取的特征点旋转平移后的3D点设置为其中,RG_Width为定标出的红绿光宽度,按照定标的RG_Width计算出3D点的x方向值,y值与矫正前的特征点y值一致,depth值取矫正前中心点位置的深度值为矫正后的深度值;
最优变换矩阵估计模块,用以选取不同深度的多个特征点,通过最小二乘法估计相机矫正前后匹配点的最优变换矩阵[R|t];
矩阵优化模块,用以通过重投影误差迭代优化旋转变化矩阵,直到重投影误差值小于阈值ε;
矫正模块,用以保存矫正矩阵,对每次检测到的人眼位置做矫正,并根据矫正人眼位置和定标数据做光栅参数计算;通过对相机获取的3D点位置做矫正,使光栅的可视点的位置参数在相机中的位置成规则的扇形。
8.根据权利要求7所述的基于多深度光栅可视点的相机矫正系统,其特征在于:
选择红绿颜色作为定标的颜色;
所述特征点获取模块用以根据基于方波拟合的定标方法确定红绿图中的可视区位置作为特征点,并且各个深度的可视点都是以已知的内参矩阵的中心点位置为原点;
所述最优变换矩阵估计模块用以选取不同深度中的多个特征点、通过最小二乘法拟合出符合当前匹配点的旋转平移矩阵[R|t]步骤中,目标函数如下:其中,pi表示变换后的匹配点,pi'表示变换前的特征点;
所述矩阵优化模块用以通过重投影误差迭代优化旋转变化矩阵、直到重投影误差值小于阈值ε,公式如下:其中,pi表示变换后的匹配点,pi'表示变换前的特征点;ε为设置的迭代结束条件,即当重投影误差值小于阈值ε时结束迭代。
CN202011232348.5A 2020-11-06 2020-11-06 基于多深度光栅可视点的相机矫正方法及系统 Active CN112365547B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011232348.5A CN112365547B (zh) 2020-11-06 2020-11-06 基于多深度光栅可视点的相机矫正方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011232348.5A CN112365547B (zh) 2020-11-06 2020-11-06 基于多深度光栅可视点的相机矫正方法及系统

Publications (2)

Publication Number Publication Date
CN112365547A CN112365547A (zh) 2021-02-12
CN112365547B true CN112365547B (zh) 2023-08-22

Family

ID=74509624

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011232348.5A Active CN112365547B (zh) 2020-11-06 2020-11-06 基于多深度光栅可视点的相机矫正方法及系统

Country Status (1)

Country Link
CN (1) CN112365547B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108111838A (zh) * 2017-12-25 2018-06-01 上海玮舟微电子科技有限公司 一种裸眼3d显示校正治具及校正方法
CN110390686A (zh) * 2019-07-24 2019-10-29 张天 裸眼3d显示方法及系统
CN111160291A (zh) * 2019-12-31 2020-05-15 上海易维视科技有限公司 基于深度信息与cnn的人眼检测方法
CN111203881A (zh) * 2020-01-16 2020-05-29 河北工业大学 一种基于加权最小二乘法的在线反馈手眼标定方法
CN111784778A (zh) * 2020-06-04 2020-10-16 华中科技大学 基于线性求解非线性优化的双目相机外参标定方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108062776B (zh) * 2018-01-03 2019-05-24 百度在线网络技术(北京)有限公司 相机姿态跟踪方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108111838A (zh) * 2017-12-25 2018-06-01 上海玮舟微电子科技有限公司 一种裸眼3d显示校正治具及校正方法
CN110390686A (zh) * 2019-07-24 2019-10-29 张天 裸眼3d显示方法及系统
CN111160291A (zh) * 2019-12-31 2020-05-15 上海易维视科技有限公司 基于深度信息与cnn的人眼检测方法
CN111203881A (zh) * 2020-01-16 2020-05-29 河北工业大学 一种基于加权最小二乘法的在线反馈手眼标定方法
CN111784778A (zh) * 2020-06-04 2020-10-16 华中科技大学 基于线性求解非线性优化的双目相机外参标定方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Accurate camera calibration with color phase-shifting wedge grating;Bolin Cai et al.;《PROCEEDINGS OF SPIE》;20171231;第1-8页 *

Also Published As

Publication number Publication date
CN112365547A (zh) 2021-02-12

Similar Documents

Publication Publication Date Title
KR101742120B1 (ko) 영상 처리 장치 및 방법
US9787960B2 (en) Image processing apparatus, image processing system, image processing method, and computer program
CN107993263B (zh) 环视系统自动标定方法、汽车、标定装置及存储介质
JP7403594B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20220092819A1 (en) Method and system for calibrating extrinsic parameters between depth camera and visible light camera
JP5741007B2 (ja) 画像処理装置、画素補間方法およびプログラム
TW201308252A (zh) 深度測量之品質提升
CN107680140B (zh) 一种基于Kinect相机的深度图像高分辨率重构方法
CN111062966B (zh) 基于l-m算法和多项式插值对相机跟踪进行优化的方法
JP2018524896A (ja) 画像の深度マップを決定する方法および装置
CN110515092A (zh) 基于激光雷达的平面触摸方法
JP6942566B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
CN116310420A (zh) 一种基于邻域差值的图像相似度度量方法及装置
US20220006989A1 (en) Method for Automatically Restoring a Calibrated State of a Projection System
KR102023087B1 (ko) 카메라 캘리브레이션 방법
CN112365547B (zh) 基于多深度光栅可视点的相机矫正方法及系统
CN116894907B (zh) 一种rgbd相机纹理贴图优化方法及系统
KR101841750B1 (ko) 매칭 정보에 의한 입체 영상 보정 장치 및 그 방법
CN116385561A (zh) 一种摄像头与激光雷达标定方法
JP2009146150A (ja) 特徴位置検出方法及び特徴位置検出装置
CN116503248A (zh) 一种针对原油储罐的红外图像校正方法及校正系统
US10339702B2 (en) Method for improving occluded edge quality in augmented reality based on depth camera
CN113674139A (zh) 人脸图像的处理方法、装置、电子设备及存储介质
CN105773968B (zh) 利用摄像头定位的3d打印二次打印定位方法
US9582887B2 (en) Methods and apparatus for determining field of view dependent depth map correction values

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant