CN110673114B - 校准三维相机深度的方法、装置、计算机装置及存储介质 - Google Patents
校准三维相机深度的方法、装置、计算机装置及存储介质 Download PDFInfo
- Publication number
- CN110673114B CN110673114B CN201910795247.XA CN201910795247A CN110673114B CN 110673114 B CN110673114 B CN 110673114B CN 201910795247 A CN201910795247 A CN 201910795247A CN 110673114 B CN110673114 B CN 110673114B
- Authority
- CN
- China
- Prior art keywords
- planar object
- image area
- object image
- phase value
- pixel point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种校准三维相机深度的方法、装置、计算机装置及计算机可读存储介质,所述方法包括:获取三维相机与校准平面的距离为标准距离时各像素点第一相位值,得到使用第一相位值表示的第一深度图像;获取三维相机与校准平面的距离为测试距离时各像素点第二相位值,得到用第二相位值表示的第二深度图像;截取第二深度图像中平面物体图像区域像素点的相位值,删除非平面物体图像区域像素点的相位值;根据平面物体图像区域像素点的相位值和第一深度图像像素点的相位值计算非平面物体图像区域像素点的预测相位值;根据预测相位值和平面物体图像区域像素点的相位值校准三维相机拍摄图像的深度信息。通过所述方法使得三维相机的深度校准更加准确。
Description
技术领域
本发明涉及三维相机校准领域,具体涉及一种校准三维相机深度的方法、校准三维相机深度的装置、计算机装置及计算机存储介质。
背景技术
三维相机能检测出拍摄空间的景深距离,随着机器视觉、自动驾驶等技术的逐步发展,采用三维相机进行物体识别、行为识别、场景建模的相关应用越来越多。三维相机通过测量光飞行时间来取得物体与相机之间的距离,具体而言就是通过三维相机向所述物体连续发射激光脉冲,然后用传感器接收反射光线,通过探测激光脉冲的往返时间来得到确切的目标物距离。然而,因为激光的速度非常快,通过直接测光飞行时间实现难度较大,一般通过检测光波的相位偏移来实现所述物体与三维相机之间距离的测量。现有的三维相机在出厂之前要对相机的测量深度进行校准,现有的做法是通过不同的已知距离的待测图像中的各相素点与三维相机之间的相位值来判断三维相机对深度信息的测量是否准确。但是在实际校准中,由于待测图像大小的限制,当测试距离超过预设距离时,获取的测试图片的信息会包含非平面信息,例如会包含测试图片以外的天花板、地面、相邻墙面信息,由于获取的图像信息中包含了非平面信息,造成三维相机获取的深度信息不准确,不能达到校准三维相机深度的目的。
发明内容
鉴于以上内容,有必要提出一种校准三维相机深度的方法及装置、计算机装置和计算机可读存储介质,可以减少校准三维相机深度的过程中非平面图像信息对校准结果的影响。
本申请的第一方面提供一种校准三维相机深度的方法,所述方法包括:
获取待校准的三维相机与校准平面的距离为标准距离时各像素点的第一相位值,得到使用所述第一相位值表示的第一深度图像;
获取所述三维相机与所述校准平面的距离为测试距离时各像素点的第二相位值,得到用所述第二相位值表示的第二深度图像,所述第二深度图像中包括平面物体图像区域和非平面物体图像区域;
截取所述第二深度图像中平面物体图像区域像素点的相位值,并删除非平面物体图像区域像素点的相位值;
根据所述平面物体图像区域像素点的相位值和所述第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值;
根据非平面物体图像区域像素点的所述预测相位值和所述平面物体图像区域像素点的相位值校准所述三维相机拍摄图像的深度信息。
优选地,截取所述第二深度图像中平面物体图像区域像素点的相位值的方法包括:
在预设数据库中查找与所述测试距离对应的平面物体图像区域的像素范围,根据所述像素范围在第二深度图像中将相同像素范围标记为平面物体图像区域像素点,并将所述第二深度图像中平面物体图像区域像素点以外的像素点标记为非平面物体图像区域像素点;
其中,所述数据库中存储了不同测试距离时,深度图像中平面物体图像区域范围。
优选地,所述根据所述平面物体图像区域像素点的相位值和第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值的方法包括:
在第一深度图像中查找与平面物体图像区域像素点位置相对应的像素点的相位值;
将平面物体图像区域中各像素点的相位值减去第一深度图像中对应位置的各像素点的相位值,得到由所述相位值的差值构成的差值相位信息图;
将所述差值相位信息图中各像素点的差值相位值分别除以所述差值相位信息图的几何中心对应的相位值,得到由非平面物体图像区域各像素点的比值相位值构成的非平面物体图像区域的比值相位信息图;
根据所述非平面物体图像区域中各像素点的比值相位值采用预设的拟合算法拟合出第二深度图像中非平面物体图像区域中各像素点的比值相位值;
将所述非平面物体图像区域的比值相位信息进行逆运算,得到非平面物体图像区域的预测相位值;
整合并输出所述非平面物体图像区域的各像素点的预测相位值与所述平面物体图像区域中各像素点的相位值。
优选地,根据所述非平面物体图像区域中各像素点的比值相位值采用预设的拟合算法拟合出第二深度图像中非平面物体图像区域中各像素点的比值相位值的步骤包括:
以所述比值相位信息图的几何中心的像素点作为原点坐标,沿水平和竖直方向建立二维空间直角坐标系,其中,所述坐标原点的比值相位值为1;
沿所述直角坐标轴中心点原点坐标分别沿横、纵坐标轴向四个方向获取非平面物体图像区域内位于横、纵坐标轴上的四组比值相位值数据;
分别将非平面物体图像区域内横、纵坐标轴上比值相位值采用非线性拟合的方式拟合出非平面物体图像区域内坐标轴上的比值相位值;
分别将非平面物体图像区域中横坐标中的每一点与非平面物体图像区域中纵坐标中的每一点进行相乘运算,得到非平面物体图像区域对应位置的比值相位值。
优选地,将所述非平面物体图像区域的比值相位信息进行逆运算,得到非平面物体图像区域的预测相位值的步骤包括:
将非平面物体图像区域的各像素点的比值相位值乘以所述差值相位信息图的几何中心的差值相位值,得到非平面物体图像区域中各像素点的差值相位值;
将所述非平面物体图像区域中各像素点的差值相位值加上所述第一深度图像中非平面物体图像区域中与所述非平面物体图像区域对应位置的像素点相位值,得到所述非平面物体图像区域中各像素点的预测相位值。
优选地,整合并输出所述非平面物体图像区域的各像素点的预测相位值与所述平面物体图像区域中各像素点的相位值的方法包括:
获取所述非平面物体图像区域中各像素点的预测相位值,将所述预测相位值按照非平面物体图像区域像素点的位置对应存储于所述第二深度图像,其中所述校准后的第二深度图像中包含平面物体图像区域像素点的相位值和非平面物体图像区域像素点的预测相位值,进而使用校准后的第二深度图像中的相位值校正深度。
本申请的第二方面提供一种校准三维相机深度的装置,所述装置包括:
第一获取模块,用于获取待校准的三维相机与校准平面的距离为标准距离时各像素点的第一相位值,得到使用所述第一相位值表示的第一深度图像;
第二获取模块,用于获取所述三维相机与所述校准平面的距离为测试距离时各像素点的第二相位值,得到用所述第二相位值表示的第二深度图像,所述第二深度图像中包括平面物体图像区域和非平面物体图像区域;
截取模块,用于截取所述第二深度图像中平面物体图像区域像素点的相位值,并删除非平面物体图像区域像素点的相位值;
计算模块,用于根据所述平面物体图像区域像素点的相位值和所述第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值;
校准模块,用于根据非平面物体图像区域像素点的所述预测相位值和所述平面物体图像区域像素点的相位值校准所述三维相机拍摄图像的深度信息。
本申请的第三方面提供一种计算机装置,所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如前所述校准三维相机深度的方法。
本申请的第四方面提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述校准三维相机深度的方法。
本发明校准三维相机深度的方法根据所述待测图片中非平面物体图像区域的相位值利用数学方法计算出非平面物体图像区域像素点的相位值,通过非平面物体图像区域和非平面物体图像区域像素点的相位值获取测试图像上各像素点的深度信息,利用所述深度信息完成对所述三维相机深度的校准,使得三维相机的深度校准更加准确。
附图说明
图1是本发明实施例一提供的校准三维相机深度的方法的应用环境架构示意图。
图2是本发明实施例一提供的校准三维相机深度的方法的应用场景示意图。
图3是本发明实施例二提供的校准三维相机深度的方法流程图。
图4是本发明实施例二提供的校准三维相机深度的比值深度信息图中直角坐标示意图。
图5是本发明实施例三提供的校准三维相机深度的装置的结构示意图。
图6是本发明实施例四提供的计算机装置示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
实施例一
参阅图1所示,为本发明实施例一提供的校准三维相机深度的方法的应用环境架构示意图。
本发明中的校准三维相机深度的方法应用在计算机装置1中,所述计算机装置1和三维相机2通过网络建立通信连接。所述网络可以是有线网络,也可以是无线网络,例如无线电、无线保真(Wireless Fidelity,WIFI)、蜂窝、卫星、广播等。
所述计算机装置1可以为安装有校准三维相机深度的软件的电子设备,例如个人电脑、服务器等,其中,所述服务器可以是单一的服务器、服务器集群或云服务器等。
所述三维相机2用于获取图像的二维图像信息和深度信息。
请一并参阅图2,为本发明实施例一提供的校准三维相机深度的方法的应用场景示意图。所述示意图中,一墙面作为校准平面,所述墙面为材质一致的平面,三维相机距离所述墙面之间的距离为测试距离,所述测试距离可以在一预设范围内调整,所述三维相机用于拍摄所述墙面,生成深度图像,所述深度图像用于校准所述三维相机的准确性,所述三维相机的具体校准方法参实施例二。
实施例二
请参阅图3所示,是本发明第二实施例提供的校准三维相机深度的方法的流程图。根据不同的需求,所述流程图中步骤的顺序可以改变,某些步骤可以省略。
步骤S1、获取待校准的三维相机与校准平面的距离为标准距离时各像素点的第一相位值,得到使用所述第一相位值表示的第一深度图像。
所述校准平面是材质或反射率一致的平面。所述标准距离为三维相机与所述校准平面之间的距离。当所述三维相机与所述校准平面为标准距离时,所述三维相机获取到的图像中仅包含平面物体图像区域,不包含非平面图像区域,所述非平面物体图像区域为与所述标准平面相邻的墙面、天花、地板等。
如表1所示为三维相机获取了距离校准平面为0.6米时的第一深度图像中的部分像素相位值,表中的数值为第一深度图像中各像素点的相位值。
表1
774 | 769 | 743 | 741 | 734 | 675 | 727 | 736 | 741 | 802 | 811 |
767 | 759 | 737 | 733 | 728 | 672 | 724 | 729 | 733 | 796 | 803 |
683 | 679 | 657 | 658 | 652 | 617 | 657 | 666 | 667 | 715 | 720 |
680 | 675 | 654 | 651 | 651 | 616 | 655 | 659 | 663 | 710 | 716 |
675 | 670 | 653 | 648 | 649 | 612 | 654 | 657 | 659 | 711 | 715 |
655 | 652 | 635 | 635 | 630 | 592 | 637 | 642 | 644 | 691 | 695 |
664 | 658 | 641 | 635 | 633 | 593 | 643 | 644 | 651 | 706 | 713 |
668 | 659 | 643 | 638 | 634 | 596 | 643 | 646 | 649 | 710 | 716 |
668 | 664 | 644 | 638 | 636 | 596 | 642 | 650 | 651 | 714 | 721 |
711 | 701 | 679 | 679 | 673 | 617 | 676 | 679 | 684 | 753 | 764 |
713 | 706 | 684 | 680 | 675 | 619 | 676 | 682 | 683 | 758 | 766 |
步骤S2、获取所述三维相机与所述校准平面的距离为测试距离时各像素点的第二相位值,得到用所述第二相位值表示的第二深度图像,所述第二深度图像中包括平面物体图像区域和非平面物体图像区域。
所述测试距离为三维相机与校准平面之间的距离。在一实施方式中,所述测试距离可以根据三维相机的所要校准的拍摄距离调整为0.6米到3.5米之间的任意距离。对于相同的校准平面,当测试距离超过一预设距离时,获取到的第二深度图像中会包含校准平面的平面物体图像区域和与校准平面所在平面相邻的墙面、天花板、地面等其他非平面物体图像区域。
在本发明一实施方式中,所述三维相机所要校准的测试距离为1.2米。当测试距离为1.2米是获取的第二深度图像中包含了校准平面的平面图像区域和与校准平面所在平面相邻的墙面、天花板、地面等其他非平面物体图像区域。所述三维相机获取了距离校准平面为1.2米时的第二深度图像中的各像素相位值,如表2所示第二深度图像部分像素的相位值。
表2
1530 | 1523 | 1468 | 1472 | 1439 | 1309 | 1436 | 1447 | 1453 | 1568 | 1582 |
1519 | 1506 | 1456 | 1452 | 1425 | 1300 | 1428 | 1425 | 1449 | 1557 | 1562 |
1390 | 1384 | 1337 | 1336 | 1324 | 1233 | 1326 | 1333 | 1339 | 1429 | 1485 |
1384 | 1371 | 1334 | 1323 | 1328 | 1228 | 1320 | 1329 | 1338 | 1416 | 1420 |
1378 | 1360 | 1328 | 1321 | 1315 | 1223 | 1318 | 1322 | 1333 | 1418 | 1428 |
1346 | 1338 | 1307 | 1301 | 1292 | 1194 | 1293 | 1300 | 1307 | 1385 | 1401 |
1379 | 1352 | 1326 | 1317 | 1310 | 1211 | 1313 | 1315 | 1325 | 1420 | 1431 |
1352 | 1323 | 1326 | 1318 | 1313 | 1214 | 1315 | 1320 | 1328 | 1427 | 1432 |
1385 | 1378 | 1327 | 1320 | 1317 | 1221 | 1317 | 1325 | 1333 | 1435 | 1448 |
1452 | 1437 | 1402 | 1386 | 1381 | 1269 | 1379 | 1396 | 1399 | 1508 | 1539 |
1454 | 1432 | 1402 | 1389 | 1389 | 1271 | 1383 | 1346 | 1386 | 1519 | 1544 |
步骤S3、截取所述第二深度图像中平面物体图像区域像素点的相位值,并删除非平面物体图像区域像素点的相位值。
在本发明一实施方式中,截取所述第二深度图像中平面物体图像区域像素点的相位值的方法可以包括:
在预设数据库中查找与所述测试距离对应的平面物体图像区域的像素范围,根据所述像素范围在第二深度图像中将相同像素范围标记为平面物体图像区域像素点,并将所述第二深度图像中平面物体图像区域像素点以外的像素点标记为非平面物体图像区域像素点;
其中,所述数据库中存储了不同测试距离时,深度图像中平面物体图像区域范围。
举例而言,例如当测量距离为1.2米时,在数据库中查找测量距离为1.2米对应的平面物体图像区域的范围为200×300,以第二深度图像的几何中心分别向上下左右四个方向按照所述平面物体图像区域的范围查找所述平面物体图像区域像素点的相位值,并删除非平面物体图像区域像素点的相位值,由此得到如表3所示的第二深度图像中的平面物体图像区域的部分像素的相位值,由于一张深度图像中像素点数量巨大,为了方便说明,本实施例表格中仅截取包括平面物体图像区域和非平面物体图像区域的部分像素值作为举例说明。表3中的空格区域表示已经删除掉相位值的非平面物体图像区域的像素点的位置,所述平面物体图像区域即为校准平面所在平面的部分,
表3
1337 | 1336 | 1324 | 1233 | 1326 | 1333 | 1339 | ||||
1334 | 1323 | 1328 | 1228 | 1320 | 1329 | 1338 | ||||
1328 | 1321 | 1315 | 1223 | 1318 | 1322 | 1333 | ||||
1307 | 1301 | 1292 | 1194 | 1293 | 1300 | 1307 | ||||
1326 | 1317 | 1310 | 1211 | 1313 | 1315 | 1325 | ||||
1326 | 1318 | 1313 | 1214 | 1315 | 1320 | 1328 | ||||
1327 | 1320 | 1317 | 1221 | 1317 | 1325 | 1333 | ||||
步骤S4、根据所述平面物体图像区域像素点的相位值和所述第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值。
在本发明一实施方式中,所述根据所述平面物体图像区域像素点的相位值和第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值可以包括:
在第一深度图像中查找与平面物体图像区域像素点位置相对应的像素点的相位值。
将平面物体图像区域中各像素点的相位值减去第一深度图像中对应位置的各像素点的相位值,得到由所述相位值的差值构成的差值相位信息图,例如将表3中的相位值减去表1中对应区域的相位值,得到表4由所述相位值的差值构成的部分差值相位信息图。
表4
680 | 678 | 672 | 616 | 669 | 667 | 672 | ||||
680 | 672 | 677 | 612 | 665 | 670 | 675 | ||||
675 | 673 | 666 | 611 | 664 | 665 | 674 | ||||
672 | 666 | 662 | 602 | 656 | 658 | 663 | ||||
685 | 682 | 677 | 618 | 670 | 671 | 674 | ||||
683 | 680 | 679 | 618 | 672 | 674 | 679 | ||||
683 | 682 | 681 | 625 | 675 | 675 | 682 | ||||
将所述差值相位信息图中各像素点的差值相位值分别除以所述差值相位信息图的几何中心对应的相位值,得到由非平面物体图像区域各像素点的比值相位值构成的非平面物体图像区域的比值相位信息图。如表4所示所述差值相位信息图的几何中心对应的相位值为602,将表中其他像素点的相位值分别除以几何中心对应的相位值602,得到如表5所示的部分像素的比值相位信息图。
表5
1.12957 | 1.12625 | 1.11628 | 1.02326 | 1.11129 | 1.10797 | 1.11628 | ||||
1.12957 | 1.11628 | 1.12459 | 1.01661 | 1.10465 | 1.11296 | 1.12126 | ||||
1.12126 | 1.11794 | 1.10631 | 1.01495 | 1.10299 | 1.10465 | 1.11960 | ||||
1.11628 | 1.10631 | 1.09967 | 1 | 1.08970 | 1.09302 | 1.10133 | ||||
1.13787 | 1.1329 | 1.12458 | 1.02658 | 1.11296 | 1.11462 | 1.11960 | ||||
1.13455 | 1.12957 | 1.12791 | 1.02658 | 1.11628 | 1.11960 | 1.12791 | ||||
1.13455 | 1.13289 | 1.13123 | 1.03821 | 1.12126 | 1.12126 | 1.13289 | ||||
根据所述非平面物体图像区域中各像素点的比值相位值采用预设的拟合算法拟合出第二深度图像中非平面物体图像区域中各像素点的比值相位值。
其中,根据所述非平面物体图像区域中各像素点的比值相位值采用预设的拟合算法拟合出第二深度图像中非平面物体图像区域中各像素点的比值相位值的步骤可以包括:
以所述比值相位信息图的几何中心的像素点作为原点坐标,沿水平和竖直方向建立二维空间直角坐标系,如图4是校准三维相机深度的比值深度信息图中直角坐标示意图所示,其中,所述坐标原点的比值相位值为1。沿所述直角坐标轴中心点原点坐标分别沿横、纵坐标轴向四个方向获取非平面物体图像区域内位于横、纵坐标轴上的四组比值相位值分别为{1.11628,1.10631,1.09967,1},{1,1.08970,1.09302,1.10133},{1.02326,1.01661,1.01495,1},{1,1.02658,1.02658,1.03821},分别选取这四组数据采用非线性拟合的方式,拟合出非平面物体图像区域图像中横纵坐标位置的比值相位,如表6所示,是拟合出来的非平面物体图像区域中横纵坐标位置部分像素点的相位值,表6中加粗部分的相位值为横纵坐标轴上的比值相位值。
表6
分别将非平面物体图像区域中横坐标中的每一点与非平面物体图像区域中纵坐标中的每一点进行相乘运算,得到非平面物体图像区域对应位置的比值相位值。如表7所示表中加粗部分的相位值为利用非平面物体图像区域中横坐标中的每一点与非平面物体图像区域中纵坐标中的每一点进行相乘运算得到的所述非平面物体图像区域的比值相位值。
表7
将所述非平面物体图像区域的比值相位信息进行逆运算,得到非平面物体图像区域的预测相位值。
其中,将所述非平面物体图像区域的比值相位信息进行逆运算,得到非平面物体图像区域的预测相位值的步骤可以包括:
将非平面物体图像区域的各像素点的比值相位值乘以所述差值相位信息图的几何中心的差值相位值,得到非平面物体图像区域中各像素点的差值相位值。例如将表7中各像素点的相位值分别乘以如表4所述差值相位信息图的几何中心的差值相位值602,得到非平面物体图像区域中各像素点的差值相位值;
将所述非平面物体图像区域中各像素点的差值相位值加上所述第一深度图像与所述非平面物体图像区域对应位置的像素点相位值,得到所述非平面物体图像区域中各像素点的预测相位值。
整合并输出所述非平面物体图像区域的各像素点的预测相位值与所述平面物体图像区域中各像素点的相位值。获取所述非平面物体图像区域中各像素点的预测相位值,将所述预测相位值按照非平面物体图像区域像素点的位置对应存储于所述第二深度图像,其中所述校准后的第二深度图像中包含平面物体图像区域像素点的相位值和非平面物体图像区域像素点的预测相位值,进而使用校准后的第二深度图像中的相位值校正深度。如表8所示,所述校准后的第二深度图像中部分像素点的相位值,其中所述校准后的第二深度图像中包含平面物体图像区域像素点的相位值和非平面物体图像区域像素点的预测相位值。如表8中所示,黑色加粗部分的数字是非平面物体图像区域像素点的预测相位值在,中间区域未加粗的数字是平面物体图像区域像素点的相位值。
表8
步骤S5、根据非平面物体图像区域像素点的所述预测相位值和所述平面物体图像区域像素点的相位值校准所述三维相机拍摄图像的深度信息。
在本发明一实施方式中,根据预测第二深度图像中非平面物体图像区域像素点的所述预测相位值和所述平面物体图像区域像素点的相位值如表8所示,根据所述相位值,利用三维相机相位值和深度值的对应关系得到所述三维相机拍摄图像的深度信息。所述根据三维相机相位值和深度值的对应关系为现有技术,在此不再赘述。
上述图3详细介绍了本发明的校准三维相机深度的方法,下面结合第5-6图,对实现所述校准三维相机深度的方法的软件装置的功能模块以及实现所述校准三维相机深度的方法的硬件装置架构进行介绍。
应所述了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
实施例三
图5为本发明校准三维相机深度的装置较佳实施例的结构图。
在一些实施例中,校准三维相机深度的装置10运行于计算机装置中。所述计算机装置通过网络连接了多个用户终端。所述校准三维相机深度的装置10可以包括多个由程序代码段所组成的功能模块。所述校准三维相机深度的装置10中的各个程序段的程序代码可以存储于计算机装置的存储器中,并由所述至少一个处理器所执行,以实现校准三维相机深度的功能。
本实施例中,所述校准三维相机深度的装置10根据其所执行的功能,可以被划分为多个功能模块。参阅图5所示,所述功能模块可以包括:第一获取模块101、第二获取模块102、截取模块103、计算模块104、校准模块105。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在本实施例中,关于各模块的功能将在后续的实施例中详述。
第一获取模块101,用于获取待校准的三维相机与校准平面的距离为标准距离时各像素点的第一相位值,得到使用所述第一相位值表示的第一深度图像。
所述校准平面是材质或反射率一致的平面。所述标准距离为三维相机与所述校准平面之间的距离。当所述三维相机与所述校准平面为标准距离时,所述三维相机获取到的图像中仅包含平面物体图像区域,不包含非平面图像区域,所述非平面物体图像区域为与所述标准平面相邻的墙面、天花、地板等。
如表1所示为三维相机获取了距离校准平面为0.6米时的第一深度图像中的部分像素相位值,表中的数值为第一深度图像中各像素点的相位值。
第二获取模块102,用于获取所述三维相机与所述校准平面的距离为测试距离时各像素点的第二相位值,得到用所述第二相位值表示的第二深度图像,所述第二深度图像中包括平面物体图像区域和非平面物体图像区域。
所述测试距离为三维相机与校准平面之间的距离。在一实施方式中,所述测试距离可以根据三维相机的所要校准的拍摄距离调整为0.6米到3.5米之间的任意距离。对于相同的校准平面,当测试距离超过一预设距离时,获取到的第二深度图像中会包含校准平面的平面物体图像区域和与校准平面所在平面相邻的墙面、天花板、地面等其他非平面物体图像区域。
在本发明一实施方式中,所述三维相机所要校准的测试距离为1.2米。当测试距离为1.2米是获取的第二深度图像中包含了校准平面的平面图像区域和与校准平面所在平面相邻的墙面、天花板、地面等其他非平面物体图像区域。所述三维相机获取了距离校准平面为1.2米时的第二深度图像中的各像素相位值,如表2所示第二深度图像部分像素的相位值。
截取模块103,用于截取所述第二深度图像中平面物体图像区域像素点的相位值,并删除非平面物体图像区域像素点的相位值。
在本发明一实施方式中,截取所述第二深度图像中平面物体图像区域像素点的相位值的方法可以包括:
在预设数据库中查找与所述测试距离对应的平面物体图像区域的像素范围,根据所述像素范围在第二深度图像中将相同像素范围标记为平面物体图像区域像素点,并将所述第二深度图像中平面物体图像区域像素点以外的像素点标记为非平面物体图像区域像素点;
其中,所述数据库中存储了不同测试距离时,深度图像中平面物体图像区域范围。
举例而言,例如当测量距离为1.2米时,在数据库中查找测量距离为1.2米对应的平面物体图像区域的范围为200×300,以第二深度图像的几何中心分别向上下左右四个方向按照所述平面物体图像区域的范围查找所述平面物体图像区域像素点的相位值,并删除非平面物体图像区域像素点的相位值,由此得到如表3所示的第二深度图像中的平面物体图像区域的部分像素的相位值,由于一张深度图像中像素点数量巨大,为了方便说明,本实施例表格中仅截取包括平面物体图像区域和非平面物体图像区域的部分像素值作为举例说明。表3中的空格区域表示已经删除掉相位值的非平面物体图像区域的像素点的位置,所述平面物体图像区域即为校准平面所在平面的部分。
计算模块104,用于根据所述平面物体图像区域像素点的相位值和第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值。
在本发明一实施方式中,所述根据所述平面物体图像区域像素点的相位值和第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值可以包括:
在第一深度图像中查找与平面物体图像区域像素点位置相对应的像素点的相位值。
将平面物体图像区域中各像素点的相位值减去第一深度图像中对应位置的各像素点的相位值,得到由所述相位值的差值构成的差值相位信息图,例如将表3中的相位值减去表1中对应区域的相位值,得到表4由所述相位值的差值构成的部分差值相位信息图。
将所述差值相位信息图中各像素点的差值相位值分别除以所述差值相位信息图的几何中心对应的相位值,得到由非平面物体图像区域各像素点的比值相位值构成的非平面物体图像区域的比值相位信息图。如表4所示所述差值相位信息图的几何中心对应的相位值为602,将表中其他像素点的相位值分别除以几何中心对应的相位值602,得到如表5所示的部分像素的比值相位信息图。
根据所述非平面物体图像区域中各像素点的比值相位值采用预设的拟合算法拟合出第二深度图像中非平面物体图像区域中各像素点的比值相位值。
其中,根据所述非平面物体图像区域中各像素点的比值相位值采用预设的拟合算法拟合出第二深度图像中非平面物体图像区域中各像素点的比值相位值的步骤可以包括:
以所述比值相位信息图的几何中心的像素点作为原点坐标,沿水平和竖直方向建立二维空间直角坐标系,如图4是校准三维相机深度的比值深度信息图中直角坐标示意图所示,其中,所述坐标原点的比值相位值为1。沿所述直角坐标轴中心点原点坐标分别沿横、纵坐标轴向四个方向获取非平面物体图像区域内位于横、纵坐标轴上的四组比值相位值分别为{1.11628,1.10631,1.09967,1},{1,1.08970,1.09302,1.10133},{1.02326,1.01661,1.01495,1},{1,1.02658,1.02658,1.03821},分别选取这四组数据采用非线性拟合的方式,拟合出非平面物体图像区域图像中横纵坐标位置的比值相位,如表6所示,是拟合出来的非平面物体图像区域中横纵坐标位置部分像素点的相位值,表6中加粗部分的相位值为横纵坐标轴上的比值相位值。
分别将非平面物体图像区域中横坐标中的每一点与非平面物体图像区域中纵坐标中的每一点进行相乘运算,得到非平面物体图像区域对应位置的比值相位值。如表7所示表中加粗部分的相位值为利用非平面物体图像区域中横坐标中的每一点与非平面物体图像区域中纵坐标中的每一点进行相乘运算得到的所述非平面物体图像区域的比值相位值。
将所述非平面物体图像区域的比值相位信息进行逆运算,得到非平面物体图像区域的预测相位值。
其中,将所述非平面物体图像区域的比值相位信息进行逆运算,得到非平面物体图像区域的预测相位值的步骤可以包括:
将非平面物体图像区域的各像素点的比值相位值乘以所述差值相位信息图的几何中心的差值相位值,得到非平面物体图像区域中各像素点的差值相位值。例如将表7中各像素点的相位值分别乘以如表4所述差值相位信息图的几何中心的差值相位值602,得到非平面物体图像区域中各像素点的差值相位值;
将所述非平面物体图像区域中各像素点的差值相位值加上所述第一深度图像与所述非平面物体图像区域对应位置的像素点相位值,得到所述非平面物体图像区域中各像素点的预测相位值。
整合并输出所述非平面物体图像区域的各像素点的预测相位值与所述平面物体图像区域中各像素点的相位值。获取所述非平面物体图像区域中各像素点的预测相位值,将所述预测相位值按照非平面物体图像区域像素点的位置对应存储于所述第二深度图像,其中所述校准后的第二深度图像中包含平面物体图像区域像素点的相位值和非平面物体图像区域像素点的预测相位值,进而使用校准后的第二深度图像中的相位值校正深度。如表8所示,所述校准后的第二深度图像中部分像素点的相位值,其中所述校准后的第二深度图像中包含平面物体图像区域像素点的相位值和非平面物体图像区域像素点的预测相位值。如表8中所示,黑色加粗部分的数字是非平面物体图像区域像素点的预测相位值在,中间区域未加粗的数字是平面物体图像区域像素点的相位值。
校准模块105,用于根据非平面物体图像区域像素点的所述预测相位值和所述平面物体图像区域像素点的相位值校准所述三维相机拍摄图像的深度信息。
在本发明一实施方式中,根据预测第二深度图像中非平面物体图像区域像素点的所述预测相位值和所述平面物体图像区域像素点的相位值如表8所示,根据所述相位值,利用三维相机相位值和深度值的对应关系得到所述三维相机拍摄图像的深度信息。所述根据三维相机相位值和深度值的对应关系为现有技术,在此不再赘述。
实施例四
图6为本发明计算机装置较佳实施例的示意图。
所述计算机装置1包括存储器20、处理器30以及存储在所述存储器20中并可在所述处理器30上运行的计算机程序40,例如校准三维相机深度的程序。所述处理器30执行所述计算机程序40时实现上述校准三维相机深度的方法实施例中的步骤,例如图3所示的步骤S1~S5。或者,所述处理器30执行所述计算机程序40时实现上述校准三维相机深度的装置实施例中各模块/单元的功能,例如图5中的单元101-105。
示例性的,所述计算机程序40可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器20中,并由所述处理器30执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,所述指令段用于描述所述计算机程序40在所述计算机装置1中的执行过程。例如,所述计算机程序40可以被分割成图5中的第一获取模块101、第二获取模块102、截取模块103、计算模块104、校准模块105。
所述计算机装置1可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,所述示意图仅仅是计算机装置1的示例,并不构成对计算机装置1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算机装置1还可以包括输入输出设备、网络接入设备、总线等。
所称处理器30可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者所述处理器30也可以是任何常规的处理器等,所述处理器30是所述计算机装置1的控制中心,利用各种接口和线路连接整个计算机装置1的各个部分。
所述存储器20可用于存储所述计算机程序40和/或模块/单元,所述处理器30通过运行或执行存储在所述存储器20内的计算机程序和/或模块/单元,以及调用存储在存储器20内的数据,实现所述计算机装置1的各种功能。所述存储器20可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机装置1的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器20可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述计算机装置1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,所述计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在本发明所提供的几个实施例中,应所述理解到,所揭露的计算机装置和方法,可以通过其它的方式实现。例如,以上所描述的计算机装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
另外,在本发明各个实施例中的各功能单元可以集成在相同处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在相同单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。计算机装置权利要求中陈述的多个单元或计算机装置也可以由同一个单元或计算机装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种校准三维相机深度的方法,其特征在于,所述方法包括:
获取待校准的三维相机与校准平面的距离为标准距离时各像素点的第一相位值,得到使用所述第一相位值表示的第一深度图像;
获取所述三维相机与所述校准平面的距离为测试距离时各像素点的第二相位值,得到用所述第二相位值表示的第二深度图像,所述第二深度图像中包括平面物体图像区域和非平面物体图像区域;
截取所述第二深度图像中平面物体图像区域像素点的相位值,并删除非平面物体图像区域像素点的相位值;
根据所述平面物体图像区域像素点的相位值和所述第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值;
根据非平面物体图像区域像素点的所述预测相位值和所述平面物体图像区域像素点的相位值校准所述三维相机拍摄图像的深度信息。
2.如权利要求1所述的校准三维相机深度的方法,其特征在于,截取所述第二深度图像中平面物体图像区域像素点的相位值的方法包括:
在预设数据库中查找与所述测试距离对应的平面物体图像区域的像素范围,根据所述像素范围在第二深度图像中将相同像素范围标记为平面物体图像区域像素点,并将所述第二深度图像中平面物体图像区域像素点以外的像素点标记为非平面物体图像区域像素点;
其中,所述数据库中存储了不同测试距离时,深度图像中平面物体图像区域范围。
3.如权利要求1所述的校准三维相机深度的方法,其特征在于,所述根据所述平面物体图像区域像素点的相位值和第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值的方法包括:
在第一深度图像中查找与平面物体图像区域像素点位置相对应的像素点的相位值;
将平面物体图像区域中各像素点的相位值减去第一深度图像中对应位置的各像素点的相位值,得到由所述相位值的差值构成的差值相位信息图;
将所述差值相位信息图中各像素点的差值相位值分别除以所述差值相位信息图的几何中心对应的相位值,得到由非平面物体图像区域各像素点的比值相位值构成的非平面物体图像区域的比值相位信息图;
根据所述非平面物体图像区域中各像素点的比值相位值采用预设的拟合算法拟合出第二深度图像中非平面物体图像区域中各像素点的比值相位值;
将所述非平面物体图像区域的比值相位信息进行逆运算,得到非平面物体图像区域的预测相位值;
整合并输出所述非平面物体图像区域的各像素点的预测相位值与所述平面物体图像区域中各像素点的相位值。
4.如权利要求3所述的校准三维相机深度的方法,其特征在于,根据所述非平面物体图像区域中各像素点的比值相位值采用预设的拟合算法拟合出第二深度图像中非平面物体图像区域中各像素点的比值相位值的步骤包括:
以所述比值相位信息图的几何中心的像素点作为原点坐标,沿水平和竖直方向建立二维空间直角坐标系,其中,所述原点坐标的比值相位值为1;
沿所述二维空间直角坐标系的原点坐标分别沿横、纵坐标轴向四个方向获取非平面物体图像区域内位于横、纵坐标轴上的四组比值相位值数据;
分别将非平面物体图像区域内横、纵坐标轴上比值相位值采用非线性拟合的方式拟合出非平面物体图像区域内坐标轴上的比值相位值;
分别将非平面物体图像区域中横坐标中的每一点与非平面物体图像区域中纵坐标中的每一点进行相乘运算,得到非平面物体图像区域对应位置的比值相位值。
5.如权利要求4所述的校准三维相机深度的方法,其特征在于,将所述非平面物体图像区域的比值相位信息进行逆运算,得到非平面物体图像区域的预测相位值的步骤包括:
将非平面物体图像区域的各像素点的比值相位值乘以所述差值相位信息图的几何中心的差值相位值,得到非平面物体图像区域中各像素点的差值相位值;
将所述非平面物体图像区域中各像素点的差值相位值加上所述第一深度图像中非平面物体图像区域中与所述非平面物体图像区域对应位置的像素点相位值,得到所述非平面物体图像区域中各像素点的预测相位值。
6.如权利要求3所述的校准三维相机深度的方法,其特征在于,整合并输出所述非平面物体图像区域的各像素点的预测相位值与所述平面物体图像区域中各像素点的相位值的方法包括:
获取所述非平面物体图像区域中各像素点的预测相位值,将所述预测相位值按照非平面物体图像区域像素点的位置对应存储于所述第二深度图像,其中所述校准后的第二深度图像中包含平面物体图像区域像素点的相位值和非平面物体图像区域像素点的预测相位值,进而使用校准后的第二深度图像中的相位值校正深度。
7.一种校准三维相机深度的装置,其特征在于,所述装置包括:
第一获取模块,用于获取待校准的三维相机与校准平面的距离为标准距离时各像素点的第一相位值,得到使用所述第一相位值表示的第一深度图像;
第二获取模块,用于获取所述三维相机与所述校准平面的距离为测试距离时各像素点的第二相位值,得到用所述第二相位值表示的第二深度图像,所述第二深度图像中包括平面物体图像区域和非平面物体图像区域;
截取模块,用于截取所述第二深度图像中平面物体图像区域像素点的相位值,并删除非平面物体图像区域像素点的相位值;
计算模块,用于根据所述平面物体图像区域像素点的相位值和所述第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值;
校准模块,用于根据非平面物体图像区域像素点的所述预测相位值和所述平面物体图像区域像素点的相位值校准所述三维相机拍摄图像的深度信息。
8.如权利要求7所述的校准三维相机深度的装置,其特征在于,根据所述平面物体图像区域像素点的相位值和第一深度图像像素点的相位值计算并输出所述非平面物体图像区域像素点的预测相位值的方法包括:
在第一深度图像中查找与平面物体图像区域像素点位置相对应的像素点的相位值;
将平面物体图像区域中各像素点的相位值减去第一深度图像中对应位置的各像素点的相位值,得到由所述相位值的差值构成的差值相位信息图;
将所述差值相位信息图中各像素点的差值相位值分别除以所述差值相位信息图的几何中心对应的相位值,得到由非平面物体图像区域各像素点的比值相位值构成的非平面物体图像区域的比值相位信息图;
根据所述非平面物体图像区域中各像素点的比值相位值采用预设的拟合算法拟合出第二深度图像中非平面物体图像区域中各像素点的比值相位值;
将所述非平面物体图像区域的比值相位信息进行逆运算,得到非平面物体图像区域的预测相位值;
整合并输出所述非平面物体图像区域的各像素点的预测相位值与所述平面物体图像区域中各像素点的相位值。
9.一种计算机装置,其特征在于:所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1-6中任一项所述的校准三维相机深度的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述的校准三维相机深度的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910795247.XA CN110673114B (zh) | 2019-08-27 | 2019-08-27 | 校准三维相机深度的方法、装置、计算机装置及存储介质 |
TW108131443A TWI736965B (zh) | 2019-08-27 | 2019-08-30 | 校準三維相機深度之方法、裝置、電腦裝置及存儲介質 |
US16/681,966 US11043009B2 (en) | 2019-08-27 | 2019-11-13 | Method and device for calibrating depth of 3D camera, and computer device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910795247.XA CN110673114B (zh) | 2019-08-27 | 2019-08-27 | 校准三维相机深度的方法、装置、计算机装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110673114A CN110673114A (zh) | 2020-01-10 |
CN110673114B true CN110673114B (zh) | 2023-04-18 |
Family
ID=69075740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910795247.XA Active CN110673114B (zh) | 2019-08-27 | 2019-08-27 | 校准三维相机深度的方法、装置、计算机装置及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11043009B2 (zh) |
CN (1) | CN110673114B (zh) |
TW (1) | TWI736965B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111757101B (zh) * | 2020-07-15 | 2022-04-08 | 季华实验室 | 线阵相机静态检校装置及其检校方法 |
CN115442591B (zh) * | 2022-11-04 | 2023-03-24 | 合肥的卢深视科技有限公司 | 相机质量测试方法、系统、电子设备和存储介质 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001039512A1 (en) * | 1999-11-26 | 2001-05-31 | Sanyo Electric Co., Ltd. | Device and method for converting two-dimensional video to three-dimensional video |
US8570320B2 (en) * | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
US9117281B2 (en) * | 2011-11-02 | 2015-08-25 | Microsoft Corporation | Surface segmentation from RGB and depth images |
US9225959B2 (en) * | 2012-01-10 | 2015-12-29 | Samsung Electronics Co., Ltd. | Method and apparatus for recovering depth value of depth image |
CN104169970B (zh) * | 2012-04-18 | 2018-01-05 | 索尼公司 | 用于确定图像的景深图的方法和光学系统 |
KR101871235B1 (ko) * | 2012-06-05 | 2018-06-27 | 삼성전자주식회사 | 깊이 영상 생성 방법 및 장치, 깊이 영상 처리 방법 및 장치 |
US20140139632A1 (en) * | 2012-11-21 | 2014-05-22 | Lsi Corporation | Depth imaging method and apparatus with adaptive illumination of an object of interest |
RU2012154657A (ru) * | 2012-12-17 | 2014-06-27 | ЭлЭсАй Корпорейшн | Способы и устройство для объединения изображений с глубиной, генерированных с использованием разных способов формирования изображений с глубиной |
US20150374210A1 (en) * | 2013-03-13 | 2015-12-31 | Massachusetts Institute Of Technology | Photometric stereo endoscopy |
US10269104B2 (en) * | 2013-04-29 | 2019-04-23 | Nokia Technologies Oy | Method and apparatus for fusing distance data from a distance sensing camera with an image |
US10061028B2 (en) * | 2013-09-05 | 2018-08-28 | Texas Instruments Incorporated | Time-of-flight (TOF) assisted structured light imaging |
TWI485361B (zh) * | 2013-09-11 | 2015-05-21 | Univ Nat Taiwan | 三維形貌輪廓量測裝置及其方法 |
CN105323571B (zh) * | 2014-06-17 | 2017-09-29 | 立普思股份有限公司 | 影像相位补正方法 |
US9773155B2 (en) * | 2014-10-14 | 2017-09-26 | Microsoft Technology Licensing, Llc | Depth from time of flight camera |
KR102283423B1 (ko) * | 2014-12-18 | 2021-07-30 | 엘지이노텍 주식회사 | 영상 획득 장치 및 이를 포함하는 휴대용 단말기와 그 장치의 영상 획득 방법 |
CN104729429B (zh) * | 2015-03-05 | 2017-06-30 | 深圳大学 | 一种远心成像的三维形貌测量系统标定方法 |
US10250833B2 (en) * | 2015-04-20 | 2019-04-02 | Samsung Electronics Co., Ltd. | Timestamp calibration of the 3D camera with epipolar line laser point scanning |
US10451740B2 (en) * | 2016-04-26 | 2019-10-22 | Cepton Technologies, Inc. | Scanning lidar systems for three-dimensional sensing |
EP3507765A4 (en) * | 2016-09-01 | 2020-01-01 | Duelight LLC | SYSTEMS AND METHODS FOR FOCUS ADJUSTMENT BASED ON TARGET DEVELOPMENT INFORMATION |
US10070042B2 (en) * | 2016-12-19 | 2018-09-04 | Intel Corporation | Method and system of self-calibration for phase detection autofocus |
DE102017126378A1 (de) * | 2017-11-10 | 2019-05-16 | Infineon Technologies Ag | Verfahren zum Verarbeiten eines Rohbildes einer Time-of-Flight-Kamera, Bildverarbeitungsvorrichtung und Computerprogramm |
US10663567B2 (en) * | 2018-05-04 | 2020-05-26 | Microsoft Technology Licensing, Llc | Field calibration of a structured light range-sensor |
US11500100B2 (en) * | 2019-04-15 | 2022-11-15 | Microsoft Technology Licensing, Llc | Time-of-flight measurements using linear inverse function |
-
2019
- 2019-08-27 CN CN201910795247.XA patent/CN110673114B/zh active Active
- 2019-08-30 TW TW108131443A patent/TWI736965B/zh not_active IP Right Cessation
- 2019-11-13 US US16/681,966 patent/US11043009B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN110673114A (zh) | 2020-01-10 |
US20210065402A1 (en) | 2021-03-04 |
US11043009B2 (en) | 2021-06-22 |
TW202109457A (zh) | 2021-03-01 |
TWI736965B (zh) | 2021-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111383279B (zh) | 外参标定方法、装置及电子设备 | |
CN111179358A (zh) | 标定方法、装置、设备及存储介质 | |
CN110988849B (zh) | 雷达系统的标定方法、装置、电子设备及存储介质 | |
US20190096092A1 (en) | Method and device for calibration | |
CN109828250B (zh) | 一种雷达标定方法、标定装置及终端设备 | |
CN110926475B (zh) | 一种无人机航点生成方法、装置及电子设备 | |
CN111080662A (zh) | 车道线的提取方法、装置及计算机设备 | |
CN110673114B (zh) | 校准三维相机深度的方法、装置、计算机装置及存储介质 | |
CN114387347B (zh) | 确定外参标定的方法、装置、电子设备及介质 | |
CN112927306B (zh) | 拍摄装置的标定方法、装置及终端设备 | |
CN113111513B (zh) | 传感器配置方案确定方法、装置、计算机设备及存储介质 | |
CN114862929A (zh) | 三维目标检测方法、装置、计算机可读存储介质及机器人 | |
CN113256742A (zh) | 界面展示方法、装置、电子设备和计算机可读介质 | |
CN111080682A (zh) | 点云数据的配准方法及装置 | |
CN112200851A (zh) | 一种基于点云的目标检测方法、装置及其电子设备 | |
CN107067441B (zh) | 摄像机标定方法及装置 | |
CN116977671A (zh) | 基于图像空间定位的目标跟踪方法、装置、设备及存储介质 | |
CN107734324B (zh) | 一种闪光灯照度均匀性的测量方法、系统及终端设备 | |
CN115457202B (zh) | 一种三维模型更新的方法、装置及存储介质 | |
CN109345560B (zh) | 增强现实设备的运动跟踪精度测试方法及装置 | |
CN111336938A (zh) | 一种机器人及其物体距离检测方法和装置 | |
CN110853087B (zh) | 一种视差估计方法、装置、存储介质及终端 | |
CN114913105A (zh) | 激光点云融合方法、装置、服务器及计算机可读存储介质 | |
CN115439550A (zh) | 一种相机标定方法、测距方法、设备及存储介质 | |
CN109374919B (zh) | 一种基于单个拍摄设备确定移动速度的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |