CN106247951B - 一种基于深度图像的物体测量方法 - Google Patents
一种基于深度图像的物体测量方法 Download PDFInfo
- Publication number
- CN106247951B CN106247951B CN201610750073.1A CN201610750073A CN106247951B CN 106247951 B CN106247951 B CN 106247951B CN 201610750073 A CN201610750073 A CN 201610750073A CN 106247951 B CN106247951 B CN 106247951B
- Authority
- CN
- China
- Prior art keywords
- testee
- coordinate
- depth
- depth image
- actual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度图像的物体测量方法,用以获取被测物体的大小并展现,包括以下步骤:1)获取被测物体的深度图像;2)根据深度图像中所有像素点的数据,获取被测物体边缘的坐标数据;3)将被测物体边缘上像素点转化为实际坐标;4)根据实际坐标获取被测物体实际的长度、宽度及实际物体边框;5)在可交互界面中根据被测物体实际的长度、宽度与深度绘制该被测物体并显示。与现有技术相比,本发明具有测量准确、可交互等优点。
Description
技术领域
本发明涉及三维图形学领域,尤其是涉及一种基于深度图像的物体测量方法。
背景技术
在三维图形学中,深度映射是指一种图像或者图像通道,这种图像包含着深度信息,而深度信息则是指从一个视角中获得的物体表面的距离值,深度映射有很多的应用。例如:模拟稠密的半透明媒介对物体的效应;模拟景深效应;阴影映射等。
常见的深度摄像头有微软开发的Kinect和英特尔开发的RealSense Camera。Kinect感应器是一个外型类似网络摄影机的装置。Kinect有三个镜头,中间的镜头是RGB彩色摄影机,左右两边镜头则分别为红外线发射器和红外线CMOS摄影机所构成的3D结构光深度感应器。Kinect还搭配了追焦技术,底座马达会随着对焦物体移动跟着转动。Kinect也内建阵列式麦克风,由多组麦克风同时收音,比对后消除杂音。Kinect有一个官方sdk以及三个非官方驱动。Kinect的应用开发包括虚拟应用、3D建模、机械控制等。而英特尔推出的首款集成了3D深度和2D镜头模块的RealSense 3D摄像头,它能实现高度精确的手势识别、面部特征识别,将帮助机器理解人的动作和情感。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种测量准确、可交互的基于深度图像的物体测量方法。
本发明的目的可以通过以下技术方案来实现:
一种基于深度图像的物体测量方法,用以获取被测物体的大小并展现,包括以下步骤:
1)获取被测物体的深度图像;
2)根据深度图像中所有像素点的数据,获取被测物体边缘的坐标数据;
3)将被测物体边缘上像素点转化为实际坐标;
4)根据实际坐标获取被测物体实际的长度、宽度及实际物体边框;
5)在可交互界面中根据被测物体实际的长度、宽度与深度绘制该被测物体并显示。
所述的步骤2)具体包括以下步骤:
21)根据深度图像中所有像素点的数据采用遍历算法获取被测物体的最左、最右、最上和最下四个端点的图像坐标;
22)根据四个端点的图像坐标绘制边缘矩形,并获取被测物体的边缘坐标。
所述的步骤5)具体包括以下步骤:
51)将在被测物体的实际边框范围外的像素点用白色显示;
52)在实际边框范围内的像素点根据采用灰度按照深度比例进行填充并展示。
所述的被测物体为规则物体,包括长方体、圆柱体和四面体。
所述的步骤5)还包括以下步骤:
采用与实际边框范围内的像素点灰度和白色均不同的颜色显示边框。
与现有技术相比,本发明具有以下优点:
一、测量准确:本发明通过深度图像中的三维信息获取被测物体的准确位置和实际边框,从而准确的计算出物体的长度、宽度和深度。
二、可交互:本发明通过在可交互界面上显示深度图像中的物体,更加生动,便于后续的渲染、动态等图像处理。
附图说明
图1为图1是本创新工作方法的流程图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
实施例:
如图1所示,本方法的实现方式包括以下步骤:
第一步、获取深度图像。
首先创建realSense摄像头的一个运行实例:
PXCProjection*p=device->CreateProjection();
然后获取深度图片:
PXCImage*image=depth;
第二步、找出物体边缘。
通过遍历算法找到找到物体最左、最右、最上、最下四个端点并根据这四个端点的坐标画出边缘矩形。
最下端点:
point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_BOTTOM_MOST);
int pointImageX=(int)point.x;
int pointImageY=(int)point.y;
int bottomX=(int)point.x;
int bottomY=(int)point.y;
最上端点:
point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_TOP_MOST);
pointImageX=(int)point.x;
pointImageY=(int)point.y;
int topX=(int)point.x;
int topY=(int)point.y;
最左端点:
point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_LEFT_MOST);
pointImageX=(int)point.x;
pointImageY=(int)point.y;
int leftX=(int)point.x;
int leftY=(int)point.y;
最右端点:
point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_RIGHT_MOST);
pointImageX=(int)point.x;
pointImageY=(int)point.y;
int rightX=(int)point.x;
int rightY=(int)point.y;
最近端点:
point=blobData->QueryExtremityPoint(PXCBlobData::EXTREMITY_CLOSEST);
pointImageX=(int)point.x;
pointImageY=(int)point.y;
pointImageZ=(int)point.z;
最远端点:
得到并画出矩形边缘:
第三步、计算物体大小。
首先将边缘坐标的像素值转化为真实值,然后计算长度及大小。
坐标转换:
float BX=vertices[bottomY*width+bottomX].x;
float BY=vertices[bottomY*width+bottomX].y;
float BZ=vertices[bottomY*width+bottomX].z;
计算大小:
fout<<"size:"<<abs(LX-RX)<<'*'<<abs(TY-BY)<<endl;
第四步、显示深度图像以及物体边框。
从摄像头实例中获得深度图像,限制一定的深度范围,将这个范围中的像素点用白色显示出来,其他部分不显示,就获得了我们需要的深度图像。物体边框在第二步中获取时同时完成了显示。
第五步、显示物体的长度、宽度、深度值。
利用官方sdk中原来的用户界面,将界面中显示的内容改成物体的长度、宽度、深度值。
HWND hwndValue=GetDlgItem(hwndDlg,IDC_BlobSmooth);
EnableWindow(hwndValue,true);
wchar_t line[256];
swprintf_s(line,L"%.2f",length);
SetWindowText(hwndValue,line);
HWND hwndValue1=GetDlgItem(hwndDlg,IDC_MaxBlobs);
EnableWindow(hwndValue1,true);
wchar_t line1[256];
swprintf_s(line1,L"%.2f",wwidth);
SetWindowText(hwndValue1,line1);
HWND hwndValue2=GetDlgItem(hwndDlg,IDC_MAX_DEPTH);
EnableWindow(hwndValue2,true);
wchar_t line2[256];
swprintf_s(line2,L"%.2f",ddepth);
SetWindowText(hwndValue2,line2);
实施效果
利用深度头像测量一些不同形状大小的物体,并与手工测量的标准值进行比较。为了方便分析误差,在实验中主要使用规则的物体,例如长方体、圆柱体等。
测试结果如表1所示:
表1规则物体的测试结果误差分析
对象 | 测量值 | 实际值 | 误差 |
物体1 | 58.4*56.8*223.5 | 57*57*224 | 1.01% |
物体2 | 57.1*223.6*58.2 | 57*224*57 | 0.82% |
物体3 | 196.3*92.8*80.2 | 195*92*81 | 0.84% |
物体4 | 201.7*149.7*50.4 | 202*148*52 | 1.46% |
物体5 | 200.4*93.4*41.2 | 195*90*41 | 2.34% |
物体6 | 93.0*93.6*178.3 | 90*90*180 | 2.76% |
物体7 | 46.2*100.8*50.4 | 45*102*50 | 1.55% |
物体8 | 79.6*160.6*27.1 | 80*162*28 | 1.53% |
物体9 | 56.1*76.5*36.4 | 56*76*37 | 0.82% |
物体10 | 53.4*29.8*86.6 | 53*28*86 | 2.63% |
物体11 | 231.2*168.8*53.2 | 230*170*54 | 0.90% |
物体12 | 193.2*154.7*38.8 | 190*150*38 | 2.31% |
从表格中可以看出,测试结果比较理想。准确率达到了98.42%。同时,手工测量的误差也影响了误差的计算。
Claims (1)
1.一种基于深度图像的物体测量方法,用以获取被测物体的大小并展现,所述的被测物体为规则物体,包括长方体、圆柱体和四面体,其特征在于,包括以下步骤:
1)获取被测物体的深度图像;
2)根据深度图像中所有像素点的数据,获取被测物体边缘的坐标数据,具体包括以下步骤:
21)根据深度图像中所有像素点的数据采用遍历算法获取被测物体的最左、最右、最上和最下四个端点的图像坐标;
22)根据四个端点的图像坐标绘制边缘矩形,并获取被测物体的边缘坐标;
3)将被测物体边缘上像素点转化为实际坐标;
4)根据实际坐标获取被测物体实际的长度、宽度及实际物体边框;
5)在可交互界面中根据被测物体实际的长度、宽度与深度绘制该被测物体并显示,具体包括以下步骤:
51)将在被测物体的实际边框范围外的像素点用白色显示;
52)在实际边框范围内的像素点根据采用灰度按照深度比例进行填充并展示;
53)采用与实际边框范围内的像素点灰度和白色均不同的颜色显示边框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610750073.1A CN106247951B (zh) | 2016-08-29 | 2016-08-29 | 一种基于深度图像的物体测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610750073.1A CN106247951B (zh) | 2016-08-29 | 2016-08-29 | 一种基于深度图像的物体测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106247951A CN106247951A (zh) | 2016-12-21 |
CN106247951B true CN106247951B (zh) | 2019-04-02 |
Family
ID=57597894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610750073.1A Active CN106247951B (zh) | 2016-08-29 | 2016-08-29 | 一种基于深度图像的物体测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106247951B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650542A (zh) * | 2016-12-29 | 2017-05-10 | 浙江理工大学 | 多功能手持式物体扫描仪 |
CN106667496B (zh) * | 2017-02-10 | 2020-05-05 | 广州帕克西软件开发有限公司 | 一种面部数据测量方法及装置 |
CN106931906A (zh) * | 2017-03-03 | 2017-07-07 | 浙江理工大学 | 一种基于双目立体视觉的物体三维尺寸简便测量方法 |
US10698068B2 (en) | 2017-03-24 | 2020-06-30 | Samsung Electronics Co., Ltd. | System and method for synchronizing tracking points |
US10523918B2 (en) | 2017-03-24 | 2019-12-31 | Samsung Electronics Co., Ltd. | System and method for depth map |
CN107909574B (zh) * | 2017-08-23 | 2021-04-13 | 陈皊皊 | 图像识别系统 |
CN109357637B (zh) * | 2018-12-11 | 2021-12-10 | 长治学院 | 一种基于深度相机的卷板机卷板曲率半径和厚度测量方法 |
CN112797897B (zh) * | 2019-04-15 | 2022-12-06 | Oppo广东移动通信有限公司 | 物体几何参数的测量方法、装置和终端 |
CN110260839B (zh) * | 2019-04-27 | 2020-02-07 | 绿桥(泰州)生态修复有限公司 | 目标间距测量系统 |
CN110136193B (zh) * | 2019-05-08 | 2021-06-11 | 广东嘉腾机器人自动化有限公司 | 基于深度图像的矩体箱体三维尺寸测量方法及存储介质 |
CN110470216B (zh) * | 2019-07-10 | 2022-01-28 | 湖南交工智能技术有限公司 | 一种三镜头高精度视觉测量方法及装置 |
TWI709725B (zh) * | 2019-12-03 | 2020-11-11 | 阿丹電子企業股份有限公司 | 箱體的體積量測裝置及體積量測方法 |
CN112146628B (zh) * | 2020-08-31 | 2024-04-19 | 深圳市慧鲤科技有限公司 | 测量方法及装置、电子设备及存储介质 |
CN112991426A (zh) * | 2021-05-06 | 2021-06-18 | 荣旗工业科技(苏州)股份有限公司 | 一种焊锡长度的视觉测量方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2286297A2 (en) * | 2008-05-22 | 2011-02-23 | Matrix Electronic Measuring, L.p. | Stereoscopic measurement system and method |
CN102135417A (zh) * | 2010-12-26 | 2011-07-27 | 北京航空航天大学 | 一种全自动三维特征提取方法 |
CN104952058A (zh) * | 2014-03-28 | 2015-09-30 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
CN105139407A (zh) * | 2015-09-08 | 2015-12-09 | 江苏大学 | 一种基于Kinect传感器的颜色深度匹配植株识别方法 |
CN105243658A (zh) * | 2015-09-08 | 2016-01-13 | 江苏大学 | 一种基于Kinect传感器的植株深度特征识别方法 |
-
2016
- 2016-08-29 CN CN201610750073.1A patent/CN106247951B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2286297A2 (en) * | 2008-05-22 | 2011-02-23 | Matrix Electronic Measuring, L.p. | Stereoscopic measurement system and method |
CN102135417A (zh) * | 2010-12-26 | 2011-07-27 | 北京航空航天大学 | 一种全自动三维特征提取方法 |
CN104952058A (zh) * | 2014-03-28 | 2015-09-30 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
CN105139407A (zh) * | 2015-09-08 | 2015-12-09 | 江苏大学 | 一种基于Kinect传感器的颜色深度匹配植株识别方法 |
CN105243658A (zh) * | 2015-09-08 | 2016-01-13 | 江苏大学 | 一种基于Kinect传感器的植株深度特征识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106247951A (zh) | 2016-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106247951B (zh) | 一种基于深度图像的物体测量方法 | |
CN106705837B (zh) | 一种基于手势的物体测量方法及装置 | |
CN101697233B (zh) | 一种基于结构光的三维物体表面重建方法 | |
CN105027562B (zh) | 用于将数字信息投影到真实环境中的真实对象上的方法和系统 | |
CN110473293B (zh) | 虚拟对象处理方法及装置、存储介质和电子设备 | |
CN108735052B (zh) | 一种基于slam的增强现实自由落体实验方法 | |
CN109584295A (zh) | 对图像内目标物体进行自动标注的方法、装置及系统 | |
US11308655B2 (en) | Image synthesis method and apparatus | |
CN106663334A (zh) | 使用网格雕塑利用深度相机的3d扫描 | |
CN105359187A (zh) | 使用深度相机数据的高性能平面检测 | |
CN101101505A (zh) | 一种实现三维增强现实的方法及系统 | |
CN104537705B (zh) | 基于增强现实的移动平台三维生物分子展示系统和方法 | |
CN102840827B (zh) | 一种基于单目机器视觉的非接触三维扫描方法 | |
TWI502546B (zh) | 推擠一模型通過二維場景的系統、方法和電腦程式商品 | |
CN109471533B (zh) | 一种vr/ar教室内的学生端系统及其使用方法 | |
CN109741382A (zh) | 一种基于Kinect V2的实时三维重建方法与系统 | |
CN109949900B (zh) | 三维脉波的显示方法、装置、计算机设备及存储介质 | |
CN103747196B (zh) | 一种基于Kinect传感器的投影方法 | |
CN106056992A (zh) | Ar增强现实教学系统 | |
CN106125994A (zh) | 坐标匹配方法及使用该坐标匹配方法的操控方法和终端 | |
CN106600669A (zh) | 基于可变色荧光画板和增强现实的装置及运行方法 | |
CN102509224A (zh) | 基于深度影像获取技术的人体试衣方法 | |
Deng et al. | Registration of multiple rgbd cameras via local rigid transformations | |
CN110152293A (zh) | 操控对象的定位方法及装置、游戏对象的定位方法及装置 | |
CN111435069B (zh) | 测量体积的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |