CN113436242A - 基于移动深度相机的获取静态物体高精度深度值方法 - Google Patents
基于移动深度相机的获取静态物体高精度深度值方法 Download PDFInfo
- Publication number
- CN113436242A CN113436242A CN202110832945.XA CN202110832945A CN113436242A CN 113436242 A CN113436242 A CN 113436242A CN 202110832945 A CN202110832945 A CN 202110832945A CN 113436242 A CN113436242 A CN 113436242A
- Authority
- CN
- China
- Prior art keywords
- depth
- camera
- depth camera
- coordinate system
- precision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000003068 static effect Effects 0.000 title claims abstract description 9
- 238000006073 displacement reaction Methods 0.000 claims abstract description 22
- 238000003384 imaging method Methods 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000004088 simulation Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 7
- 238000013139 quantization Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000026058 directional locomotion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于移动深度相机的获取静态物体高精度深度值方法,其实现过程是:(1)安装深度相机;(2)移动深度相机;(3)生成深度图;(4)建立当前位置的相机坐标系;(5)生成目标物体的三维点云;(6)判断深度相机位移次数是否满足条件;(7)生成目标物体高精度三维点云。本发明使用一台消费级深度相机和外置精密云台实现静态物体高精度深度值的获取,具有装置简单,成本较低,多场景适用,深度值精度高的优点,可用于精密的三维重建场景例如文物重建。
Description
技术领域
本发明属于计算机技术领域,更进一步涉及计算机视觉技术领域中的一种基于移动深度相机的获取静态物体高精度深度值方法。本发明通过移动深度相机,逐次获取空间点的深度,通过对深度数据的处理获得更高精度的深度信息。
背景技术
深度相机是获取场景中深度值的重要工具,深度值的获取是三维重建的重要基础。TOF深度相机通过测量光飞行时间来取得距离,市场上大部分深度相机一般采用脉冲调制方式,脉冲调制需要在发射端产生高频高强度激光脉冲,对物理器件性能和时间测量精度要求很高,所以提高测量精度较难。
目前,消费级的深度相机计算单元会对采集到深度值进行量化,存在量化损失,可以实现的精度在1mm~5mm,在精密的重建场景不能达到细节描绘的要求,例如,在文物重建场景中,由于传统深度相机的深度精度不够,获取的文物图片的细节不丰富,导致依此重建后的文物具体细节不到位,影响视觉体验。
奥比中光科技集团股份有限公司在其申请的专利文献“一种深度真值获取方法、装置、系统及深度相机”(申请号:CN202110347140.6申请日:2021.03.31申请公布号:CN113034567 A)中公开了一种利用深度学习生成高精度深度图像的方法。该方法采集目标区域的二维图像,利用目标二维图像和经过训练的神经网络获取目标区域的深度真值。为了获取训练神经网络所需的深度真值的样本,该方法设计了包含相机和激光雷达的系统,首先采集的不同姿态的目标物的二维图像和深度图像,然后将深度图像转换为点云数据,求解点云数据与二维图像的变换矩阵,最后利用变换矩阵将点云数据投影至相机的成像平面获取深度真值。该方法存在的不足之处是,训练神经网络时必须使用其所述的系统来获取所需的大量样本数据,由于训练网络过于依赖于场景的样本的选取,当场景变换后,不仅要重新训练网络,而且还需要根据场景的变换修改神经网络的权重,在实际场景中,需要耗费大量时间采集数据和训练网络。
朱才喜在其发表的论文“高精度TOF三维深度相机设计与实现”(西安电子科技大学,2020年硕士论文)中提出了一种改变TOF相机结构提高深度相机精度的方法。该方法引入了激光漫射扩散器改造TOF相机的光学设计,减少了光强的波动,避免了激光散斑对TOF相机成像质量的影响,提高了TOF相机测量精度。但是,该方法仍然存在的不足之处是,需要对深度相机传感器的硬件电路结构进行改造,目前只适合实验室使用,无法批量生产。
发明内容
本发明的目的在于针对上述已有技术的不足,提出了一种基于移动深度相机的获取静态物体高精度深度值方法,用于解决现有消费级深度相机获取深度信息的技术中存在的深度量化存在精度损失,深度学习训练需要多次采集样本和训练网络导致时间长,改造深度相机传感器的硬件电路导致消费者不易于直接获得设备的问题。
实现本发明目的的思路是,使用外置的精密云台将深度相机沿着深度相机坐标系z轴向同一个方向多次移动,每次移动后采集当前深度相机位置的深度图,生成三维点云,只要深度相机每次位移的长度小于深度相机计算单元的精度的十分之一,那么在深度相机移动的过程中,对于单个空间点,深度相机在所有位置采集到的深度值存在一个跃变,由该跃变发生的位置可以恢复深度量化导致的精度损失,确定深度相机初始位置目标物体的精确深度值。本发明不需要大量采集数据训练神经网络,也不需要对深度相机的内部结构进行改造,采用消费级深度相机就可以获取静态物体的高精度的深度信息。
实现本发明目的的具体步骤如下:
步骤1,安装深度相机:
将深度相机固定在精密云台上,深度相机坐标系的z轴平行于精密云台的移动方向;
步骤2,移动深度相机
将深度相机沿着深度相机坐标系z轴方向位移p′的长度,p′表示深度相机传感器的最高精度;
步骤3,生成深度图:
求至少十张二维深度图中相同坐标像素点的深度值的平均值,得到一张深度图;
步骤4,建立当前位置的深度相机坐标系:
构建一个三维的深度相机坐标系,其原点为深度相机移动后透镜的光心,x轴为深度相机二维成像的水平方向,y轴为深度相机二维成像的垂直方向,z轴为深度相机透镜的主光轴方向;
步骤5,生成目标物体的三维点云:
利用相机成像模型公式,将深度图转换为深度相机坐标系的三维点云,沿着三维点云中目标物体的边缘进行裁剪,得到当前位移后相机坐标系的目标物体的三维点云;
步骤6,判断深度相机位移次数是否等于n,若是,则得到n次位移后所有相机坐标系的目标物体三维点云,执行步骤7,否则,执行步骤2,其中,n=p/p′,p表示深度相机计算单元的精度;
步骤7,利用下式,计算深度相机第一次位移后深度相机坐标系的目标物体三维点云中每个点的深度值:
其中,Zm表示深度相机第一次位移后深度相机坐标系的目标物体三维点云中第m个点的深度值,∑表示求和操作,i表示深度相机位移次数的序号,Zmi表示深度相机在第i次位移后目标物体三维点云中的第m个点的深度值。
本发明与现有的相比,具有以下优点:
第一,由于本发明通过每次移动深度相机,采集该次移动后位置的目标物体的深度值,判断深度相机移动过程中采集的深度数据发生跃变的位置,由该位置恢复深度量化导致的精度损失,获得目标物体更高精度的深度信息,克服了现有技术在处理深度相机获取数据过程中存在精度量化导致精度损失的问题,使得本发明提高了深度相机的深度值精度。
第二,由于本发明通过移动深度相机,多次获取物体的深度信息,恢复深度量化导致的精度损失,克服了现有技术使用深度学习获得高精度深度信息时,需要采集大量样本训练网络的时间长,使用场景单一的问题,使得本发明具有获取物体高精度深度信息所需时间短,可适用多场景的优点。
第三,由于本发明移动深度相机的精密云台为外置设备,克服了现有技术中需要改造深度相机内部结构导致的相机成本增加,难以批量生产的问题,使得本发明具有了使用方便,成本较低的优点。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面参照附图1和实施例,对本发明的具体实现步骤做进一步的描述。
步骤1,安装深度相机。
本例实施过程中采用Azure Kinect深度相机,目标物体为一块黑板,黑板平面与相机坐标系的xoy平面夹角约为30°。将深度相机固定在精密云台上,深度相机坐标系的z轴平行于精密云台的移动方向,所述的精密云台是指能够提供低于0.1mm位移的装置。
步骤2,移动深度相机。
将深度相机沿着深度相机坐标系z轴方向位移,由于Azure Kinect深度相机的精度为1mm,所以确定位移长度为0.1mm。
步骤3,生成深度图。
为了减少测量抖动引起的误差,求至少十张二维深度图中相同坐标像素点的深度值的平均值,得到一张深度图。
步骤4,建立当前位置的相机坐标系。
构建一个三维的深度相机坐标系,其原点为深度相机移动后透镜的光心,x轴为相机二维成像的水平方向,y轴为相机二维成像的垂直方向,z轴为深度相机透镜的主光轴方向。
步骤5,生成目标物体的三维点云。
利用相机成像模型公式,将深度图转换为深度相机坐标系的三维点云,沿着三维点云中目标物体的边缘进行裁剪,得到当前位移后相机坐标系的目标物体的三维点云。
步骤6,判断深度相机位移次数是否等于10,若是,则得到10次位移后所有相机坐标系的目标物体三维点云,执行步骤7,否则,执行步骤2。
步骤7,生成目标物体的高精度三维点云。
对于空间中的一点(x,y,z),其精确深度为z,整数部分为zo,十分位为zf。深度相机在10个位置获得的一组深度数据为:
Z={z1,z2,z3,z4,z5,z6,z7,z8,z9,z10}
其中,zi表示第i次测得的深度结果。假设深度值量化的过程中遵循四舍五入的原则,相机向前移动的过程中,某一次必然发生向下跃变,对于精确深度z,有如下两种情况:
假设第i次数据跃变,其精确值的小数位从0.5变化为0.4,则第i次的精确值为zi+0.4,则初始位置的精确的深度值为zi+0.4+(i-1)×0.1。经过分析,通过本发明方法可以获得精度为0.1mm的深度值。
在实际数据处理的过程中,对zi加总有向移动距离后获得一组数据Z′,将每次移动后采集的深度值变换到第一次移动后位置的深度坐标系下。
本实施例为相机沿着相机坐标系z轴正方向移动的情况:
举例zf=2:
Z′={zo,zo+0.1,zo+0.2,zo+0.3,zo+0.4,zo+0.5,zo+0.6,zo+0.7,zo-0.2,zo-0.1}
精确值z为数据Z′的中位数,由于Z′按从小到大排列后,相邻数值的差相同,计算过程中可以用平均数代替,即对目标物体三维点云中的每个点进行相同的计算就可以得到目标物体的高精度三维点云,其精度为0.1mm。
以上实施例针对的是相机向前移动的情况,相机向后移动的情况分析方法和计算过程相同。
下面结合仿真实验,对本发明的效果做进一步的描述。
1、仿真条件:
仿真计算机的处理器是Intel(R)Core(TM)i5,内存是8.00GB,显卡是NVIDIAGeForce RTX 2060。仿真软件为visual studio 2015。深度相机的型号为微软公司的AzureKinect。
2、仿真内容与结果分析:
本发明的仿真实验是使用深度相机采集一次目标物体的深度图,生成三维点云作为对照组。使用外置的精密云台将深度相机沿着深度相机坐标系z轴向同一个方向每次移动0.1mm,共移动10次。采集每次移动后当前深度相机位置的深度图,生成该位置的深度图的三维点云。对10次位移后所有相机坐标系的目标物体三维点云进行数据分析,生成目标物体的高精度三维点云作为实验组。设三维点云中的点的坐标为(x,y,z),分别从对照组三维点云和实验组三维点云中取出y=-430的一组子点进行比较。
本发明仿真实验中的目标物体为一块黑板,黑板平面与深度相机坐标系的xoy平面夹角约为30°,理想情况下,三维点云为平滑的斜面,其一组子点为一条平滑的斜线。
参照附图2,对本发明的实验仿真效果作进一步的描述。
图2(a)是从对照组三维点云中取出y=-430的一组子点的二维散点示意图,图2(b)是从实验组三维点云中取出y=-430的一组子点的二维散点示意图。
由图2所示的结果,图2(a)的深度值的精度由深度相机的固有属性决定,深度值的量化台阶为1mm;图2(b)中的深度值与真值误差小,在本仿真实验的条件下,深度值几乎没有量化台阶,深度值的精度有很大提高。
Claims (2)
1.一种基于移动深度相机的获取静态物体高精度深度值方法,其特征在于,每移动一次深度相机,建立深度相机坐标系,生成深度图,生成目标物体的三维点云,得到所有位移后相机坐标系的目标物体三维点云,计算深度相机第一次位移后相机坐标系的目标物体三维点云中每个点的深度值;该方法的步骤包括如下:
步骤1,安装深度相机:
将深度相机固定在精密云台上,深度相机坐标系的z轴平行于精密云台的移动方向;
步骤2,移动深度相机:
将相机沿着相机坐标系z轴方向位移p′的长度,p′表示深度相机传感器的最高精度;
步骤3,生成深度图:
求至少十张二维深度图中相同坐标像素点的深度值的平均值,得到一张深度图;
步骤4,建立当前位置的相机坐标系:
构建一个三维的深度相机坐标系,其原点为深度相机移动后透镜的光心,x轴为相机二维成像的水平方向,y轴为相机二维成像的垂直方向,z轴为深度相机透镜的主光轴方向;
步骤5,生成目标物体的三维点云:
利用相机成像模型公式,将深度图转换为深度相机坐标系的三维点云,沿着三维点云中目标物体的边缘进行裁剪,得到当前位移后相机坐标系的目标物体的三维点云;
步骤6,判断深度相机位移次数是否等于n,若是,则得到n次位移后所有相机坐标系的目标物体三维点云,执行步骤7,否则,执行步骤2,其中,n=p/p′,p表示深度相机输出数据的精度;
步骤7,利用下式,计算深度相机第一次位移后相机坐标系的目标物体三维点云中每个点的深度值:
其中,Zm表示深度相机第一次位移后相机坐标系的目标物体三维点云中第m个点的深度值,∑表示求和操作,i表示深度相机位移次数的序号,Zmi表示深度相机在第i次位移后目标物体三维点云中的第m个点的深度值。
2.根据权利要求1所述的基于移动深度相机的获取静态物体高精度深度值方法,其特征在于:步骤(1)中所述的精密云台是指能够提供低于0.1mm位移的装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110832945.XA CN113436242B (zh) | 2021-07-22 | 2021-07-22 | 基于移动深度相机的获取静态物体高精度深度值方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110832945.XA CN113436242B (zh) | 2021-07-22 | 2021-07-22 | 基于移动深度相机的获取静态物体高精度深度值方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113436242A true CN113436242A (zh) | 2021-09-24 |
CN113436242B CN113436242B (zh) | 2024-03-29 |
Family
ID=77761410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110832945.XA Active CN113436242B (zh) | 2021-07-22 | 2021-07-22 | 基于移动深度相机的获取静态物体高精度深度值方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113436242B (zh) |
Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105096259A (zh) * | 2014-05-09 | 2015-11-25 | 株式会社理光 | 深度图像的深度值恢复方法和系统 |
US20150350627A1 (en) * | 2014-06-02 | 2015-12-03 | Samsung Electronics Co., Ltd. | Method and apparatus for generating depth value corresponding to subject using depth camera |
EP3023932A1 (en) * | 2014-11-19 | 2016-05-25 | Thomson Licensing | Method and device for correction of depth values in a depth map |
CN106023303A (zh) * | 2016-05-06 | 2016-10-12 | 西安电子科技大学 | 一种基于轮廓有效性提高三维重建点云稠密程度的方法 |
JP2017118396A (ja) * | 2015-12-25 | 2017-06-29 | Kddi株式会社 | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 |
JP2018025551A (ja) * | 2016-08-04 | 2018-02-15 | 株式会社Hielero | 点群データ変換システム及びその方法 |
CN107833270A (zh) * | 2017-09-28 | 2018-03-23 | 浙江大学 | 基于深度相机的实时物体三维重建方法 |
CN108734772A (zh) * | 2018-05-18 | 2018-11-02 | 宁波古德软件技术有限公司 | 基于Kinect fusion的高精度深度图像获取方法 |
CN109754426A (zh) * | 2017-11-01 | 2019-05-14 | 虹软科技股份有限公司 | 一种用于验证的方法和装置 |
CN109872355A (zh) * | 2019-01-25 | 2019-06-11 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度相机的最短距离获取方法及装置 |
JP2019114131A (ja) * | 2017-12-25 | 2019-07-11 | Kddi株式会社 | 時系列の奥行き画像におけるデプス値を補正するプログラム、装置及び方法 |
CN110047144A (zh) * | 2019-04-01 | 2019-07-23 | 西安电子科技大学 | 一种基于Kinectv2的完整物体实时三维重建方法 |
CN110111380A (zh) * | 2019-03-18 | 2019-08-09 | 西安电子科技大学 | 基于深度相机的3d图像传输及重建方法 |
CN110728671A (zh) * | 2019-10-15 | 2020-01-24 | 西安电子科技大学 | 基于视觉的无纹理场景的稠密重建方法 |
CN111369611A (zh) * | 2018-12-25 | 2020-07-03 | 曜科智能科技(上海)有限公司 | 图像像素深度值优化方法及其装置、设备和存储介质 |
CN111369666A (zh) * | 2020-03-02 | 2020-07-03 | 中国电子科技集团公司第五十二研究所 | 一种基于多台rgbd相机的动态目标重建方法和装置 |
CN111798505A (zh) * | 2020-05-27 | 2020-10-20 | 大连理工大学 | 一种基于单目视觉的三角化测量深度的稠密点云重建方法及系统 |
CN112132906A (zh) * | 2020-09-22 | 2020-12-25 | 西安电子科技大学 | 一种深度相机与可见光相机之间的外参标定方法及系统 |
CN112258658A (zh) * | 2020-10-21 | 2021-01-22 | 河北工业大学 | 一种基于深度相机的增强现实可视化方法及应用 |
CN113096189A (zh) * | 2021-03-22 | 2021-07-09 | 西安交通大学 | 一种itof深度相机标定及深度优化方法 |
-
2021
- 2021-07-22 CN CN202110832945.XA patent/CN113436242B/zh active Active
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105096259A (zh) * | 2014-05-09 | 2015-11-25 | 株式会社理光 | 深度图像的深度值恢复方法和系统 |
US20150350627A1 (en) * | 2014-06-02 | 2015-12-03 | Samsung Electronics Co., Ltd. | Method and apparatus for generating depth value corresponding to subject using depth camera |
EP3023932A1 (en) * | 2014-11-19 | 2016-05-25 | Thomson Licensing | Method and device for correction of depth values in a depth map |
JP2017118396A (ja) * | 2015-12-25 | 2017-06-29 | Kddi株式会社 | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 |
CN106023303A (zh) * | 2016-05-06 | 2016-10-12 | 西安电子科技大学 | 一种基于轮廓有效性提高三维重建点云稠密程度的方法 |
JP2018025551A (ja) * | 2016-08-04 | 2018-02-15 | 株式会社Hielero | 点群データ変換システム及びその方法 |
CN107833270A (zh) * | 2017-09-28 | 2018-03-23 | 浙江大学 | 基于深度相机的实时物体三维重建方法 |
CN109754426A (zh) * | 2017-11-01 | 2019-05-14 | 虹软科技股份有限公司 | 一种用于验证的方法和装置 |
JP2019114131A (ja) * | 2017-12-25 | 2019-07-11 | Kddi株式会社 | 時系列の奥行き画像におけるデプス値を補正するプログラム、装置及び方法 |
CN108734772A (zh) * | 2018-05-18 | 2018-11-02 | 宁波古德软件技术有限公司 | 基于Kinect fusion的高精度深度图像获取方法 |
CN111369611A (zh) * | 2018-12-25 | 2020-07-03 | 曜科智能科技(上海)有限公司 | 图像像素深度值优化方法及其装置、设备和存储介质 |
CN109872355A (zh) * | 2019-01-25 | 2019-06-11 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度相机的最短距离获取方法及装置 |
CN110111380A (zh) * | 2019-03-18 | 2019-08-09 | 西安电子科技大学 | 基于深度相机的3d图像传输及重建方法 |
CN110047144A (zh) * | 2019-04-01 | 2019-07-23 | 西安电子科技大学 | 一种基于Kinectv2的完整物体实时三维重建方法 |
CN110728671A (zh) * | 2019-10-15 | 2020-01-24 | 西安电子科技大学 | 基于视觉的无纹理场景的稠密重建方法 |
CN111369666A (zh) * | 2020-03-02 | 2020-07-03 | 中国电子科技集团公司第五十二研究所 | 一种基于多台rgbd相机的动态目标重建方法和装置 |
CN111798505A (zh) * | 2020-05-27 | 2020-10-20 | 大连理工大学 | 一种基于单目视觉的三角化测量深度的稠密点云重建方法及系统 |
CN112132906A (zh) * | 2020-09-22 | 2020-12-25 | 西安电子科技大学 | 一种深度相机与可见光相机之间的外参标定方法及系统 |
CN112258658A (zh) * | 2020-10-21 | 2021-01-22 | 河北工业大学 | 一种基于深度相机的增强现实可视化方法及应用 |
CN113096189A (zh) * | 2021-03-22 | 2021-07-09 | 西安交通大学 | 一种itof深度相机标定及深度优化方法 |
Non-Patent Citations (1)
Title |
---|
姚慧: "基于深度相机的人体点云获取与配准", 电脑与信息技术, vol. 28, no. 5, pages 1 - 4 * |
Also Published As
Publication number | Publication date |
---|---|
CN113436242B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563923B (zh) | 获得稠密深度图的方法及相关装置 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
CN106949845B (zh) | 基于双目立体视觉的二维激光振镜扫描系统及标定方法 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN111965624A (zh) | 激光雷达与相机的标定方法、装置、设备和可读存储介质 | |
CN110689562A (zh) | 一种基于生成对抗网络的轨迹回环检测优化方法 | |
CN109993793A (zh) | 视觉定位方法及装置 | |
CN110300292A (zh) | 投影畸变校正方法、装置、系统及存储介质 | |
US20190079158A1 (en) | 4d camera tracking and optical stabilization | |
CN113361365B (zh) | 定位方法和装置、设备及存储介质 | |
CN111612852A (zh) | 用于验证相机参数的方法和装置 | |
CN111666876A (zh) | 用于检测障碍物的方法、装置、电子设备和路侧设备 | |
CN111524238B (zh) | 一种基于编码点驱动的三维点云变形方法 | |
CN113686314A (zh) | 船载摄像头的单目水面目标分割及单目测距方法 | |
CN111862208B (zh) | 一种基于屏幕光通信的车辆定位方法、装置及服务器 | |
CN113160416A (zh) | 一种用于煤流检测的散斑成像装置及方法 | |
CN107478172B (zh) | 基于双目视觉的激光三维曲线轮廓定位投影方法 | |
KR20220026423A (ko) | 지면에 수직인 평면들의 3차원 재구성을 위한 방법 및 장치 | |
CN113436242B (zh) | 基于移动深度相机的获取静态物体高精度深度值方法 | |
CN108592789A (zh) | 一种基于bim和机器视觉技术的钢结构工厂预拼装方法 | |
CN112965052A (zh) | 一种单目相机目标测距方法 | |
CN112556596A (zh) | 三维变形测量系统、方法、装置和存储介质 | |
Xu et al. | Multimodal 3D Facade Reconstruction Using 3D LiDAR and Images | |
CN110579169A (zh) | 基于云计算的立体视觉高精度测量方法和存储介质 | |
CN112308905B (zh) | 一种平面标志物的坐标确定方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |