CN113436242B - 基于移动深度相机的获取静态物体高精度深度值方法 - Google Patents

基于移动深度相机的获取静态物体高精度深度值方法 Download PDF

Info

Publication number
CN113436242B
CN113436242B CN202110832945.XA CN202110832945A CN113436242B CN 113436242 B CN113436242 B CN 113436242B CN 202110832945 A CN202110832945 A CN 202110832945A CN 113436242 B CN113436242 B CN 113436242B
Authority
CN
China
Prior art keywords
depth
camera
depth camera
coordinate system
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110832945.XA
Other languages
English (en)
Other versions
CN113436242A (zh
Inventor
姜光
武桢
张彦
樊徐铭
陈珑文
贾静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202110832945.XA priority Critical patent/CN113436242B/zh
Publication of CN113436242A publication Critical patent/CN113436242A/zh
Application granted granted Critical
Publication of CN113436242B publication Critical patent/CN113436242B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于移动深度相机的获取静态物体高精度深度值方法,其实现过程是:(1)安装深度相机;(2)移动深度相机;(3)生成深度图;(4)建立当前位置的相机坐标系;(5)生成目标物体的三维点云;(6)判断深度相机位移次数是否满足条件;(7)生成目标物体高精度三维点云。本发明使用一台消费级深度相机和外置精密云台实现静态物体高精度深度值的获取,具有装置简单,成本较低,多场景适用,深度值精度高的优点,可用于精密的三维重建场景例如文物重建。

Description

基于移动深度相机的获取静态物体高精度深度值方法
技术领域
本发明属于计算机技术领域,更进一步涉及计算机视觉技术领域中的一种基于移动深度相机的获取静态物体高精度深度值方法。本发明通过移动深度相机,逐次获取空间点的深度,通过对深度数据的处理获得更高精度的深度信息。
背景技术
深度相机是获取场景中深度值的重要工具,深度值的获取是三维重建的重要基础。TOF深度相机通过测量光飞行时间来取得距离,市场上大部分深度相机一般采用脉冲调制方式,脉冲调制需要在发射端产生高频高强度激光脉冲,对物理器件性能和时间测量精度要求很高,所以提高测量精度较难。
目前,消费级的深度相机计算单元会对采集到深度值进行量化,存在量化损失,可以实现的精度在1mm~5mm,在精密的重建场景不能达到细节描绘的要求,例如,在文物重建场景中,由于传统深度相机的深度精度不够,获取的文物图片的细节不丰富,导致依此重建后的文物具体细节不到位,影响视觉体验。
奥比中光科技集团股份有限公司在其申请的专利文献“一种深度真值获取方法、装置、系统及深度相机”(申请号:CN202110347140.6申请日:2021.03.31申请公布号:CN113034567 A)中公开了一种利用深度学习生成高精度深度图像的方法。该方法采集目标区域的二维图像,利用目标二维图像和经过训练的神经网络获取目标区域的深度真值。为了获取训练神经网络所需的深度真值的样本,该方法设计了包含相机和激光雷达的系统,首先采集的不同姿态的目标物的二维图像和深度图像,然后将深度图像转换为点云数据,求解点云数据与二维图像的变换矩阵,最后利用变换矩阵将点云数据投影至相机的成像平面获取深度真值。该方法存在的不足之处是,训练神经网络时必须使用其所述的系统来获取所需的大量样本数据,由于训练网络过于依赖于场景的样本的选取,当场景变换后,不仅要重新训练网络,而且还需要根据场景的变换修改神经网络的权重,在实际场景中,需要耗费大量时间采集数据和训练网络。
朱才喜在其发表的论文“高精度TOF三维深度相机设计与实现”(西安电子科技大学,2020年硕士论文)中提出了一种改变TOF相机结构提高深度相机精度的方法。该方法引入了激光漫射扩散器改造TOF相机的光学设计,减少了光强的波动,避免了激光散斑对TOF相机成像质量的影响,提高了TOF相机测量精度。但是,该方法仍然存在的不足之处是,需要对深度相机传感器的硬件电路结构进行改造,目前只适合实验室使用,无法批量生产。
发明内容
本发明的目的在于针对上述已有技术的不足,提出了一种基于移动深度相机的获取静态物体高精度深度值方法,用于解决现有消费级深度相机获取深度信息的技术中存在的深度量化存在精度损失,深度学习训练需要多次采集样本和训练网络导致时间长,改造深度相机传感器的硬件电路导致消费者不易于直接获得设备的问题。
实现本发明目的的思路是,使用外置的精密云台将深度相机沿着深度相机坐标系z轴向同一个方向多次移动,每次移动后采集当前深度相机位置的深度图,生成三维点云,只要深度相机每次位移的长度小于深度相机计算单元的精度的十分之一,那么在深度相机移动的过程中,对于单个空间点,深度相机在所有位置采集到的深度值存在一个跃变,由该跃变发生的位置可以恢复深度量化导致的精度损失,确定深度相机初始位置目标物体的精确深度值。本发明不需要大量采集数据训练神经网络,也不需要对深度相机的内部结构进行改造,采用消费级深度相机就可以获取静态物体的高精度的深度信息。
实现本发明目的的具体步骤如下:
步骤1,安装深度相机:
将深度相机固定在精密云台上,深度相机坐标系的z轴平行于精密云台的移动方向;
步骤2,移动深度相机
将深度相机沿着深度相机坐标系z轴方向位移p′的长度,p′表示深度相机传感器的最高精度;
步骤3,生成深度图:
求至少十张二维深度图中相同坐标像素点的深度值的平均值,得到一张深度图;
步骤4,建立当前位置的深度相机坐标系:
构建一个三维的深度相机坐标系,其原点为深度相机移动后透镜的光心,x轴为深度相机二维成像的水平方向,y轴为深度相机二维成像的垂直方向,z轴为深度相机透镜的主光轴方向;
步骤5,生成目标物体的三维点云:
利用相机成像模型公式,将深度图转换为深度相机坐标系的三维点云,沿着三维点云中目标物体的边缘进行裁剪,得到当前位移后相机坐标系的目标物体的三维点云;
步骤6,判断深度相机位移次数是否等于n,若是,则得到n次位移后所有相机坐标系的目标物体三维点云,执行步骤7,否则,执行步骤2,其中,n=p/p′,p表示深度相机计算单元的精度;
步骤7,利用下式,计算深度相机第一次位移后深度相机坐标系的目标物体三维点云中每个点的深度值:
其中,Zm表示深度相机第一次位移后深度相机坐标系的目标物体三维点云中第m个点的深度值,∑表示求和操作,i表示深度相机位移次数的序号,Zmi表示深度相机在第i次位移后目标物体三维点云中的第m个点的深度值。
本发明与现有的相比,具有以下优点:
第一,由于本发明通过每次移动深度相机,采集该次移动后位置的目标物体的深度值,判断深度相机移动过程中采集的深度数据发生跃变的位置,由该位置恢复深度量化导致的精度损失,获得目标物体更高精度的深度信息,克服了现有技术在处理深度相机获取数据过程中存在精度量化导致精度损失的问题,使得本发明提高了深度相机的深度值精度。
第二,由于本发明通过移动深度相机,多次获取物体的深度信息,恢复深度量化导致的精度损失,克服了现有技术使用深度学习获得高精度深度信息时,需要采集大量样本训练网络的时间长,使用场景单一的问题,使得本发明具有获取物体高精度深度信息所需时间短,可适用多场景的优点。
第三,由于本发明移动深度相机的精密云台为外置设备,克服了现有技术中需要改造深度相机内部结构导致的相机成本增加,难以批量生产的问题,使得本发明具有了使用方便,成本较低的优点。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面参照附图1和实施例,对本发明的具体实现步骤做进一步的描述。
步骤1,安装深度相机。
本例实施过程中采用Azure Kinect深度相机,目标物体为一块黑板,黑板平面与相机坐标系的xoy平面夹角约为30°。将深度相机固定在精密云台上,深度相机坐标系的z轴平行于精密云台的移动方向,所述的精密云台是指能够提供低于0.1mm位移的装置。
步骤2,移动深度相机。
将深度相机沿着深度相机坐标系z轴方向位移,由于Azure Kinect深度相机的精度为1mm,所以确定位移长度为0.1mm。
步骤3,生成深度图。
为了减少测量抖动引起的误差,求至少十张二维深度图中相同坐标像素点的深度值的平均值,得到一张深度图。
步骤4,建立当前位置的相机坐标系。
构建一个三维的深度相机坐标系,其原点为深度相机移动后透镜的光心,x轴为相机二维成像的水平方向,y轴为相机二维成像的垂直方向,z轴为深度相机透镜的主光轴方向。
步骤5,生成目标物体的三维点云。
利用相机成像模型公式,将深度图转换为深度相机坐标系的三维点云,沿着三维点云中目标物体的边缘进行裁剪,得到当前位移后相机坐标系的目标物体的三维点云。
步骤6,判断深度相机位移次数是否等于10,若是,则得到10次位移后所有相机坐标系的目标物体三维点云,执行步骤7,否则,执行步骤2。
步骤7,生成目标物体的高精度三维点云。
对于空间中的一点(x,y,z),其精确深度为z,整数部分为zo,十分位为zf。深度相机在10个位置获得的一组深度数据为:
Z={z1,z2,z3,z4,z5,z6,z7,z8,z9,z10}
其中,zi表示第i次测得的深度结果。假设深度值量化的过程中遵循四舍五入的原则,相机向前移动的过程中,某一次必然发生向下跃变,对于精确深度z,有如下两种情况:
zf<5时,Z可以表示为
zf≥5时,Z可以表示为
假设第i次数据跃变,其精确值的小数位从0.5变化为0.4,则第i次的精确值为zi+0.4,则初始位置的精确的深度值为zi+0.4+(i-1)×0.1。经过分析,通过本发明方法可以获得精度为0.1mm的深度值。
在实际数据处理的过程中,对zi加总有向移动距离后获得一组数据Z′,将每次移动后采集的深度值变换到第一次移动后位置的深度坐标系下。
本实施例为相机沿着相机坐标系z轴正方向移动的情况:
zf<5时,Z′可以表示为
zf≥5时,Z′可以表示为
举例zf=2:
Z′={zo,zo+0.1,zo+0.2,zo+0.3,zo+0.4,zo+0.5,zo+0.6,zo+0.7,zo-0.2,zo-0.1}
精确值z为数据Z′的中位数,由于Z′按从小到大排列后,相邻数值的差相同,计算过程中可以用平均数代替,即对目标物体三维点云中的每个点进行相同的计算就可以得到目标物体的高精度三维点云,其精度为0.1mm。
以上实施例针对的是相机向前移动的情况,相机向后移动的情况分析方法和计算过程相同。
下面结合仿真实验,对本发明的效果做进一步的描述。
1、仿真条件:
仿真计算机的处理器是Intel(R)Core(TM)i5,内存是8.00GB,显卡是NVIDIAGeForce RTX 2060。仿真软件为visual studio 2015。深度相机的型号为微软公司的AzureKinect。
2、仿真内容与结果分析:
本发明的仿真实验是使用深度相机采集一次目标物体的深度图,生成三维点云作为对照组。使用外置的精密云台将深度相机沿着深度相机坐标系z轴向同一个方向每次移动0.1mm,共移动10次。采集每次移动后当前深度相机位置的深度图,生成该位置的深度图的三维点云。对10次位移后所有相机坐标系的目标物体三维点云进行数据分析,生成目标物体的高精度三维点云作为实验组。设三维点云中的点的坐标为(x,y,z),分别从对照组三维点云和实验组三维点云中取出y=-430的一组子点进行比较。
本发明仿真实验中的目标物体为一块黑板,黑板平面与深度相机坐标系的xoy平面夹角约为30°,理想情况下,三维点云为平滑的斜面,其一组子点为一条平滑的斜线。
参照附图2,对本发明的实验仿真效果作进一步的描述。
图2(a)是从对照组三维点云中取出y=-430的一组子点的二维散点示意图,图2(b)是从实验组三维点云中取出y=-430的一组子点的二维散点示意图。
由图2所示的结果,图2(a)的深度值的精度由深度相机的固有属性决定,深度值的量化台阶为1mm;图2(b)中的深度值与真值误差小,在本仿真实验的条件下,深度值几乎没有量化台阶,深度值的精度有很大提高。

Claims (2)

1.一种基于移动深度相机的获取静态物体高精度深度值方法,其特征在于,每移动一次深度相机,建立深度相机坐标系,生成深度图,生成目标物体的三维点云,得到所有位移后相机坐标系的目标物体三维点云,计算深度相机第一次位移后相机坐标系的目标物体三维点云中每个点的深度值;该方法的步骤包括如下:
步骤1,安装深度相机:
将深度相机固定在精密云台上,深度相机透镜的主光轴方向平行于精密云台的移动方向;
步骤2,移动深度相机:
将相机沿着相机坐标系z轴方向位移p′的长度,p′表示深度相机传感器的最高精度;
步骤3,生成深度图:
求至少十张二维深度图中相同坐标像素点的深度值的平均值,得到一张深度图;
步骤4,建立当前位置的相机坐标系:
构建一个三维的深度相机坐标系,其原点为深度相机移动后透镜的光心,x轴为相机二维成像的水平方向,y轴为相机二维成像的垂直方向,z轴为深度相机透镜的主光轴方向;
步骤5,生成目标物体的三维点云:
利用相机成像模型公式,将深度图转换为深度相机坐标系的三维点云,沿着三维点云中目标物体的边缘进行裁剪,得到当前位移后相机坐标系的目标物体的三维点云;
步骤6,判断深度相机位移次数是否等于n,若是,则得到n次位移后所有相机坐标系的目标物体三维点云,执行步骤7,否则,执行步骤2,其中,n=p/p′,p表示深度相机输出数据的精度;
步骤7,利用下式,计算深度相机第一次位移后相机坐标系的目标物体三维点云中每个点的深度值:
其中,Zm表示深度相机第一次位移后相机坐标系的目标物体三维点云中第m个点的深度值,∑表示求和操作,i表示深度相机位移次数的序号,Zmi表示深度相机在第i次位移后目标物体三维点云中的第m个点的深度值。
2.根据权利要求1所述的基于移动深度相机的获取静态物体高精度深度值方法,其特征在于:步骤(1)中所述的精密云台是指能够提供低于0.1mm位移的装置。
CN202110832945.XA 2021-07-22 2021-07-22 基于移动深度相机的获取静态物体高精度深度值方法 Active CN113436242B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110832945.XA CN113436242B (zh) 2021-07-22 2021-07-22 基于移动深度相机的获取静态物体高精度深度值方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110832945.XA CN113436242B (zh) 2021-07-22 2021-07-22 基于移动深度相机的获取静态物体高精度深度值方法

Publications (2)

Publication Number Publication Date
CN113436242A CN113436242A (zh) 2021-09-24
CN113436242B true CN113436242B (zh) 2024-03-29

Family

ID=77761410

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110832945.XA Active CN113436242B (zh) 2021-07-22 2021-07-22 基于移动深度相机的获取静态物体高精度深度值方法

Country Status (1)

Country Link
CN (1) CN113436242B (zh)

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105096259A (zh) * 2014-05-09 2015-11-25 株式会社理光 深度图像的深度值恢复方法和系统
EP3023932A1 (en) * 2014-11-19 2016-05-25 Thomson Licensing Method and device for correction of depth values in a depth map
CN106023303A (zh) * 2016-05-06 2016-10-12 西安电子科技大学 一种基于轮廓有效性提高三维重建点云稠密程度的方法
JP2017118396A (ja) * 2015-12-25 2017-06-29 Kddi株式会社 デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP2018025551A (ja) * 2016-08-04 2018-02-15 株式会社Hielero 点群データ変換システム及びその方法
CN107833270A (zh) * 2017-09-28 2018-03-23 浙江大学 基于深度相机的实时物体三维重建方法
CN108734772A (zh) * 2018-05-18 2018-11-02 宁波古德软件技术有限公司 基于Kinect fusion的高精度深度图像获取方法
CN109754426A (zh) * 2017-11-01 2019-05-14 虹软科技股份有限公司 一种用于验证的方法和装置
CN109872355A (zh) * 2019-01-25 2019-06-11 哈工大机器人(合肥)国际创新研究院 一种基于深度相机的最短距离获取方法及装置
JP2019114131A (ja) * 2017-12-25 2019-07-11 Kddi株式会社 時系列の奥行き画像におけるデプス値を補正するプログラム、装置及び方法
CN110047144A (zh) * 2019-04-01 2019-07-23 西安电子科技大学 一种基于Kinectv2的完整物体实时三维重建方法
CN110111380A (zh) * 2019-03-18 2019-08-09 西安电子科技大学 基于深度相机的3d图像传输及重建方法
CN110728671A (zh) * 2019-10-15 2020-01-24 西安电子科技大学 基于视觉的无纹理场景的稠密重建方法
CN111369611A (zh) * 2018-12-25 2020-07-03 曜科智能科技(上海)有限公司 图像像素深度值优化方法及其装置、设备和存储介质
CN111369666A (zh) * 2020-03-02 2020-07-03 中国电子科技集团公司第五十二研究所 一种基于多台rgbd相机的动态目标重建方法和装置
CN111798505A (zh) * 2020-05-27 2020-10-20 大连理工大学 一种基于单目视觉的三角化测量深度的稠密点云重建方法及系统
CN112132906A (zh) * 2020-09-22 2020-12-25 西安电子科技大学 一种深度相机与可见光相机之间的外参标定方法及系统
CN112258658A (zh) * 2020-10-21 2021-01-22 河北工业大学 一种基于深度相机的增强现实可视化方法及应用
CN113096189A (zh) * 2021-03-22 2021-07-09 西安交通大学 一种itof深度相机标定及深度优化方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102194234B1 (ko) * 2014-06-02 2020-12-22 삼성전자주식회사 깊이 카메라를 이용하여 피사체에 대응하는 깊이 값을 생성하는 방법 및 장치

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105096259A (zh) * 2014-05-09 2015-11-25 株式会社理光 深度图像的深度值恢复方法和系统
EP3023932A1 (en) * 2014-11-19 2016-05-25 Thomson Licensing Method and device for correction of depth values in a depth map
JP2017118396A (ja) * 2015-12-25 2017-06-29 Kddi株式会社 デプスカメラの内部パラメータを算出するプログラム、装置及び方法
CN106023303A (zh) * 2016-05-06 2016-10-12 西安电子科技大学 一种基于轮廓有效性提高三维重建点云稠密程度的方法
JP2018025551A (ja) * 2016-08-04 2018-02-15 株式会社Hielero 点群データ変換システム及びその方法
CN107833270A (zh) * 2017-09-28 2018-03-23 浙江大学 基于深度相机的实时物体三维重建方法
CN109754426A (zh) * 2017-11-01 2019-05-14 虹软科技股份有限公司 一种用于验证的方法和装置
JP2019114131A (ja) * 2017-12-25 2019-07-11 Kddi株式会社 時系列の奥行き画像におけるデプス値を補正するプログラム、装置及び方法
CN108734772A (zh) * 2018-05-18 2018-11-02 宁波古德软件技术有限公司 基于Kinect fusion的高精度深度图像获取方法
CN111369611A (zh) * 2018-12-25 2020-07-03 曜科智能科技(上海)有限公司 图像像素深度值优化方法及其装置、设备和存储介质
CN109872355A (zh) * 2019-01-25 2019-06-11 哈工大机器人(合肥)国际创新研究院 一种基于深度相机的最短距离获取方法及装置
CN110111380A (zh) * 2019-03-18 2019-08-09 西安电子科技大学 基于深度相机的3d图像传输及重建方法
CN110047144A (zh) * 2019-04-01 2019-07-23 西安电子科技大学 一种基于Kinectv2的完整物体实时三维重建方法
CN110728671A (zh) * 2019-10-15 2020-01-24 西安电子科技大学 基于视觉的无纹理场景的稠密重建方法
CN111369666A (zh) * 2020-03-02 2020-07-03 中国电子科技集团公司第五十二研究所 一种基于多台rgbd相机的动态目标重建方法和装置
CN111798505A (zh) * 2020-05-27 2020-10-20 大连理工大学 一种基于单目视觉的三角化测量深度的稠密点云重建方法及系统
CN112132906A (zh) * 2020-09-22 2020-12-25 西安电子科技大学 一种深度相机与可见光相机之间的外参标定方法及系统
CN112258658A (zh) * 2020-10-21 2021-01-22 河北工业大学 一种基于深度相机的增强现实可视化方法及应用
CN113096189A (zh) * 2021-03-22 2021-07-09 西安交通大学 一种itof深度相机标定及深度优化方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度相机的人体点云获取与配准;姚慧;电脑与信息技术;第28卷(第5期);1-4 *

Also Published As

Publication number Publication date
CN113436242A (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN110570429B (zh) 一种基于三维点云的轻量级实时语义分割方法
CN110675418A (zh) 一种基于ds证据理论的目标轨迹优化方法
CN111476827B (zh) 目标跟踪方法、系统、电子装置及存储介质
CN112771573A (zh) 基于散斑图像的深度估计方法及装置、人脸识别系统
CN103438826B (zh) 激光与视觉相结合的钢板的三维测量系统及方法
CN112257605B (zh) 基于自标注训练样本的三维目标检测方法、系统及装置
CN113361365B (zh) 定位方法和装置、设备及存储介质
CN110910437A (zh) 一种复杂室内场景的深度预测方法
EP4068210A1 (en) System and method for automated estimation of 3d orientation of a physical asset
CN113686314A (zh) 船载摄像头的单目水面目标分割及单目测距方法
CN110766751B (zh) 一种基于地面标记物的无人机悬停精度自测量方法
CN113160416B (zh) 一种用于煤流检测的散斑成像装置及方法
CN111047692A (zh) 一种三维建模方法、装置、设备及可读取存储介质
CN1223826C (zh) 影像测量系统和方法
CN113436242B (zh) 基于移动深度相机的获取静态物体高精度深度值方法
CN117095038A (zh) 用于激光扫描仪的点云滤波方法及系统
CN113790711B (zh) 一种无人机低空飞行位姿无控多视测量方法及存储介质
CN112488112B (zh) 目标对象识别方法、装置、电子设备及存储介质
CN113487676A (zh) 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置
CN110706289B (zh) 姿态测量方法及装置
CN113763457A (zh) 落差地形的标定方法、装置、电子设备和存储介质
CN111401194A (zh) 用于自动驾驶车辆的数据处理方法和装置
Wang et al. Automatic measurement of grid structures displacement through fusion of panoramic camera and laser scanning data
CN117146710B (zh) 基于主动视觉的动态投影三维重建系统及方法
CN113945159B (zh) 一种基于轮廓匹配的螺栓直径测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant