CN104279960B - 用移动设备进行物体尺寸测量的方法 - Google Patents

用移动设备进行物体尺寸测量的方法 Download PDF

Info

Publication number
CN104279960B
CN104279960B CN201410541470.9A CN201410541470A CN104279960B CN 104279960 B CN104279960 B CN 104279960B CN 201410541470 A CN201410541470 A CN 201410541470A CN 104279960 B CN104279960 B CN 104279960B
Authority
CN
China
Prior art keywords
point
image
actual
measured
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410541470.9A
Other languages
English (en)
Other versions
CN104279960A (zh
Inventor
方贤勇
陈尚文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN201410541470.9A priority Critical patent/CN104279960B/zh
Publication of CN104279960A publication Critical patent/CN104279960A/zh
Application granted granted Critical
Publication of CN104279960B publication Critical patent/CN104279960B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

针对现有测量手段的不足,本发明提出一种用于移动设备的、仅需要拍摄一幅图像即可实现快速准确测量的获得所拍摄图像中物体尺寸的测量方法。其具体方法如下:用于移动设备的物体尺寸测量方法,包括获取原始数据的步骤、对原始数据进行预处理的步骤、计算逻辑焦距的步骤、计算获取单位坐标长度e的步骤,以及输出图像信息的步骤;有益的技术效果:本发明克服前人移动图像测量方法需要移动设备且不准确的问题,提出一种新的仅需拍摄一幅图像就可以完成测距的移动图像测量方法。该发明根据加速度传感器静止拍摄时的一个重力分解信息计算出设备方向,并进一步结合投影几何技术,完成测量场景中两点间距离,达到快速、准确的测距。

Description

用移动设备进行物体尺寸测量的方法
技术领域
本发明属于测量技术领域,尤其属于基于单幅图像的测量领域,具体涉及一种用移动设备进行物体尺寸测量的方法。
背景技术
传统的距离测量方法,如量尺测量、激光测量和电磁波测量等方法,不仅要求携带设备较多,而且无法进行脱离现场的测量。图像测量是指通过图像处理的方法,对包含在图像中的场景进行测量的方法。随着图像处理技术的发展,利用图像实施测量成为研究的热点之一。图像具有保存现场的能力,可以在获取图像后在脱离现场的情况下进行测量,图像的这种属性,弥补了传统测量方法的不足。但是目前还缺少简单高效的图像测量方法。为此,本文提出了一种结合移动设备内置传感器的图像测量方法。
已有的图像测量方法主要有三类。第一类是借助于额外的附加设备,结合图像处理技术实现图像的测量。该类方法需要携带附加的设备,且需要按照固定的位置配置,实际使用中不具有便携性。第二类是采用标定物的方法。这类方法使用场景中人工放置的已知其信息的特定标定图案(如国际象棋棋盘、同心圆和平行圆等)对相机进行标定,求解场景平面与实际平面之间的单应性关系,然后计算场景中点之间的距离。由于要求场景中有特定的标定图案,不仅受标定图案大小、光照强度、角点检测的影响较大,而且不适应于范围较大的场景。最后一类是采用标定相机的方法。这类方法利用双目视觉,通过已经标定的两个相机获取一对图像,再根据两幅图像之间的视差来计算场景中两点之间的关系。该测量方法需要使用两个相对位置关系已知的相机对场景进行测量,设备要求高,且不利用实际场景的应用。
近年来,随着平板电脑和智能手机的普及,使用移动设备实现便捷的移动图像测量方法也引起了研究者的关注,现有方法需要移动设备拍摄两幅图像,根据设备传感器在移动过程中记录的信息获取两次拍摄之间的距离,利用两幅图像的视差实现距离计算,但是重力对设备加速度传感器的影响非常大,因此利用该方法记录设备的移动距离具有较大的误差。
发明内容
针对现有测量手段的不足,本发明提出一种用于移动设备的、仅需要拍摄一幅图像即可实现快速准确测量的获得所拍摄图像中物体尺寸的测量方法。其具体方法如下:
用移动设备进行物体尺寸测量的方法,包括获取原始数据的步骤、对原始数据进行预处理的步骤、计算逻辑焦距f的步骤、计算获取单位坐标长度e的步骤,以及输出图像信息的步骤;所述获取原始数据的步骤:用移动设备拍摄一幅图像,并记录拍摄图像时的加速度值;由移动设备建立摄像坐标系;
所述对原始数据进行预处理的步骤:由移动设备对获取的加速度值进行降噪处理;
所述计算逻辑焦距f的步骤:在所述的图像上标注出两条不重合的线段,并输入该两条线段所对应的实际长度值,由移动设备依据标注在图像上的两条线段、所分别对应的实际长度值以及降噪处理后的加速度值换算出逻辑焦距f;
所述计算获取单位坐标长度e的步骤:由移动设备依据标注在图像上的一条线段、该线段所对应的实际长度值、降噪处理后的加速度值以及换算得到的逻辑焦距f计算出单位坐标长度e;
所述图像信息包括图像中两点之间的实际水平距离、图像中单个点的实际垂直高度和实际深度,具体为:
获取输出图像中指定的两点之间的实际水平距离步骤为:由操作者通过移动设备在获取的图像上标记两个点,由移动设备依据前叙步骤获得的逻辑焦距f、单位坐标长度e、降噪处理后的加速度值以及该两点在图像上的位置计算得到该两点之间的实际水平距离;
获取图像中单个点的实际垂直高度和实际深度的步骤为:由操作者通过移动设备在获取的图像上标注一个点,由移动设备依据前叙步骤获得的逻辑焦距f、单位坐标长度e、降噪处理后的加速度值以及该点在图像上的位置计算得到该点的实际垂直高度和实际深度。
有益的技术效果
本方法克服前人移动图像测量方法需要移动设备且不准确的问题,提出一种新的仅需拍摄一幅图像就可以完成测距的移动图像测量方法。该方法根据加速度传感器静止拍摄时的一个重力分解信息计算出设备方向,并进一步结合投影几何技术,完成测量场景中两点间距离,达到快速、准确的测距。
此外,本方法中所利用的加速度传感器在静止时,只受重力加速度和很小的随机噪声的影响。设备在拍摄照片时是静止的,此时内置的加速度传感器提供了重力在设备各个方向上的分量,即提供了设备的方向。本文提出了利用拍摄时,静止状态的加速度传感器提供的设备方向信息,结合相机的投影几何,测量水平参考平面上物体间距、物体高度、物体深度和设备距离高度等信息。
进一步,本方法只需简单的交互就可完成,具有广泛的适用性。本方法不需要额外的设备辅助或者附加的标定物,也不需要多次拍摄,只需简单的交互和静止时拍摄一幅图像即可完成。这一技术不仅适用于室内测量,还可以方便地应用到野外复杂的现场环境,具有很高的应用价值。
附图说明
图1是本发明方法的流程框图。
图2是本发明方法的测量原理图。
图3是加速度值分解的示意图。
图4是第1个实施例中所采用的图像。
图5是第2个实施例中所采用的图像。
图6是本发明方法所使用的移动设备的结构框图。
图中的序号为:摄像模块 1、加速度传感器模块 2、数据处理模块 3、显示模块 4、交互输入模块 5、存储模块 6。
具体实施方式
现结合附图详细说明本发明的结构特点。
参见图1,用移动设备进行物体尺寸测量的方法,包括获取原始数据的步骤、对原始数据进行预处理的步骤、计算逻辑焦距f的步骤、计算获取单位坐标长度e的步骤,以及输出图像信息的步骤;
所述获取原始数据的步骤:用移动设备拍摄一幅图像,并记录与拍摄图像相对应的加速度值;由移动设备建立摄像坐标系;所述对原始数据进行预处理的步骤:由移动设备对获取的加速度值进行降噪处理;所述计算逻辑焦距f的步骤:在所述的图像上标注出两条不重合的线段,并输入该两条线段所对应的实际长度值,由移动设备依据标注在图像上的两条线段、所分别对应的实际长度值以及降噪处理后的加速度值换算出逻辑焦距f;所述计算获取单位坐标长度e的步骤:由移动设备依据标注在图像上的一条线段、该线段所对应的实际长度值、降噪处理后的加速度值以及换算得到的逻辑焦距f计算出单位坐标长度e;所述图像信息包括图像中两点之间的实际水平距离、图像中单个点的实际垂直高度和实际深度;具体为:获取图像中两点之间的实际水平距离的步骤为:由操作者通过移动设备在获取的图像上标记两个点,由移动设备依据前叙步骤获得的逻辑焦距f、单位坐标长度e、降噪处理后的加速度值以及该两点在图像上的位置计算得到该两点之间的实际水平距离;
获取图像中单个点的实际垂直高度和实际深度的步骤为:通过移动设备在获取的图像上标注一个点,由移动设备依据前叙步骤获得的逻辑焦距f、单位坐标长度e、降噪处理后的加速度值以及该点在图像上的位置计算得到该点的实际垂直高度和实际深度。
参见图6,所述移动设备包含摄像模块1、加速度传感器模块2、数据处理模块3、显示模块4、交互输入模块5以及存储模块6;数据处理模块3分别与摄像模块1、加速度传感器模块2、显示模块4、交互输入模块5和存储模块6相连接;其中,摄像模块1为视觉成像器件,负责拍摄场景以获取图像;加速度传感器模块2负责采集并输出加速度数值;数据处理模块3负责数据的处理和计算;显示模块4为显示屏或具有触摸输入功能的显示屏;交互输入模块5为物理键盘或显示在显示模块4上的虚拟键盘,用于指点或输入场景图像的象素、位置和长度信息;存储模块6由外置或内置的各种存储卡和存储器构成,用于存储输入、输出的数据;
优选的方案是,所述移动设备为手机或平板电脑。进一步说,移动设备为采用安卓系统的三星、小米、华为、联想、酷派的智能手机或平板电脑,以及苹果公司的ipod touch、ipad或iphone。
参见图1,本方法获取并输出图像中指定的两点之间的实际水平距离、指定的单个点的实际垂直高度和实际深度的步骤具体如下:
按如下步骤获取图片中物体的尺寸信息:
步骤一、获取原始数据的步骤:
数据处理模块3实时读取并缓存200组加速度传感器模块2输出的加速度值;
当摄像模块1对需要测量的实际场景拍摄一幅图像时,由数据处理模块3将该图像以及自拍摄图像时刻起向前的100组原始的加速度值gi一同存入移动设备的存储模块6中待用,i取1至100;
由数据处理模块3建立摄像坐标系OXYZ:所述摄像坐标系OXYZ以摄像模块1的镜头的视点为光心V,以摄像模块1的镜头的中心点为原点O,以移动设备的X轴方向为摄像坐标系的X轴,以移动设备的Y轴方向为摄像坐标系的Y轴,以穿过原点O且垂直于由摄像坐标系的X轴和摄像坐标系的Y轴构成的XOY面的直线为摄像坐标系的Z轴;
参见图3,图像I是摄像模块1对含有物体的场景进行拍摄而得到的像,以图像I的中心点为原点O,建立摄像坐标系OXYZ,其中:图像I的横向和纵向分别对应坐标系的X轴和Y轴,过原点O且垂直于XOY面的直线为坐标系的Z轴。图像I所在的平面称为成像面,被拍摄物体所在的水平面称为水平面。摄像模块的光心V,也称为视点,代表了摄像模块1的位置,位于OXYZ坐标系的Z轴上。此外,图中镜头视点V到镜头原点O之间的距离即为待求的逻辑焦距f。
进一步说,摄像模块1应在对焦清晰且不抖动的环境中,对放置于平面上的待测物体进行拍摄,摄像模块1根据透视投影原理将镜头视域范围的三维空间成像到图像中,从而得到有待测物体的二维场景图像。
为了确保测试的精度,可以选择移动设备1所能达到的最大分辨率和清晰度以获得最佳成像效果。加速度传感器2在摄像模块1拍摄照片前启动,并记录摄像模块拍摄时刻前至少0.1秒内加速度传感器数据。将摄像模块1获取的图像以及加速度传感器模块2获取的所有数据保存到数据存储6模块。
步骤二、对原始数据进行预处理的步骤:
由数据处理模块3按加权平均法将由步骤一获得的100组原始的加速度数值gi进行降噪和消除异常值的处理,获得预处理后的加速度数值g;
由数据处理模块3将预处理后的加速度数值g按摄像坐标系OXYZ分解为X轴加速度分量gx、Y轴加速度分量gy和Z轴加速度分量gz,并保存到存储模块6中待用;
在本发明中,计算逻辑焦距f时需要用到重力加速度。因为重力加速度的方向垂直于水平面,所以预处理后的加速度数值g所对应的矢量方向是垂直指向拍摄场景的水平面的,如图3所示。这样,移动设备拍摄照片时从加速度传感器模块2获取的加速度数据是该水平面的法向量,相应的,所述水平面在摄像坐标系OXYZ下的平面方程为:
gxx+gyy+gzz+d=0;
其中:gx、gy和gz分别为预处理后的加速度数值g在摄像坐标系OXYZ下的X轴加速度分量gx、Y轴加速度分量gy和Z轴加速度分量gz。d为水平面相对于成像面的相对深度,在后续地推导过程中可以论证得知,水平面相对于成像面的相对深度d与各计算输出值无关。
步骤三、计算逻辑焦距f的步骤:
现结合图2对获取逻辑焦距f的步骤原理进一步阐述。如图2所示,在所述图像显示的场景水平面中标记两处已知长度的线段,分别记为图像第一定标线段AB和图像第二定标线段CD;所述图像第一定标线段AB和图像第二定标线段CD分别对应实际场景中实际第一定标线段A′B′和实际第二定标线段C′D′,实际长度值分别为LA′B′和LC′D′
图像image,I是摄像模块1拍摄水平面物体后得到像。由数据处理模块3将该保存在存储模块6中的图像I读取并显示在显示模块4上;图像I中的图像第一定标线段AB的两端分别称为端点A和端点B,图像I中的图像第二定标线段CD的两端分别称为端点C和端点D。
由于此时的图像中心点与镜头中心点相对应,图像I的原点即为镜头原点。以图像I的中心点为原点O建立摄像坐标系OXYZ,其中:图像I的横向和纵向分别对应X和Y轴,过图像原点O且垂直于XOY面的直线为Z轴。为便于描述,将图像I所在的平面简称为成像面,被拍摄的物体所在的水平面简称为水平面。摄像模块1的光心V,也称为视点,代表了摄像模块1的位置,位于摄像坐标系OXYZ的Z轴上。视点V到原点O之间的距离即为待求的逻辑焦距f。
通过交互输入模块5将图像第一定标线段AB的两端和图像第二定标线段CD的两端在显示模块4上的位置分别标记出来,其中,图像第一定标线段AB的两端分别为端点A和端点B,图像第一定标线段AB的实际长度为LA′B′;图像第二定标线段CD的两端分别为端点C和端点D,图像第二定标线段CD的实际长度为LC′D′;端点A、端点B、实际第一定标线段A′B′的实际长度值为LA′B′、端点C、端点D和实际第二定标线段C′D′的实际长度值为LC′D′均存在存储模块6中待用;
由数据处理模块3将端点A、端点B、端点C和端点D在显示模块4所显示的图像中的二维位置转换为在摄像坐标系OXYZ下的坐标值,依次为:端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、端点C的三维坐标值(Cx,Cy,0)和端点D的三维坐标值(Dx,Dy,0);
由数据处理模块3将端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、图像第一定标线段AB所对应的实际长度值LAB′、端点C的三维坐标值(Cx,Cy,0)、端点D的三维坐标值(Dx,Dy,0)、图像第二定标线段CD所对应的实际长度值LCD′、以及由步骤二获得的X轴加速度分量gx,Y轴加速度分量gy和Z轴加速度分量gz带入式I,计算得到逻辑焦距f,并保存至存储模块6中待用;
其中,
T2=2gz(BxAy-AxBy)(gy(Ax-Bx)+gx(By-Ay));
T 3 = ( g x 2 + g y 2 ) ( B x A y - A x B y ) 2 ;
T 4 = g z 2 ;
T5=-(gxgzBx+gygzBy+gxgzAx+gygzAy);
T 6 = g x 2 A x A y + g x g y B x A y + g x g y A x B y + g y 2 B y A y ;
T 7 = ( g x 2 + g y 2 ) ( C x - D x ) 2 + ( g y 2 + g z 2 ) ( C y - D y ) 2 + 2 g x g y ( D x - C x ) ( D y - C y ) ;
T8=2gz(DxCy-CxDy)(gy(Cx-Dx)+gx(Dy-Cy));
T 9 = ( g x 2 + g y 2 ) ( D x C y - C x D y ) 2 ;
T 10 = g z 2 ;
T11=-(gxgzDx+gygzDy+gxgzCx+gygzCy);
T 12 = g x 2 C x C y + g x g y D x C y + g x g y C x C y + g y 2 D y C y ;
gx、gy、gz分别为预处理后的加速度数值g的x向、y向及z向的加速度分量;Ax、Ay为端点A的三维坐标值(Ax,Ay,0)的x向、y向坐标值;式中,Bx、By、……、Dx、Dy的含义以此类推。
结合图2对逻辑焦距f的计算原理分析如下。以显示在显示模块4上的取图像I中的端点A为例子,由数据处理模块3将端点A在显示模块4上的二维位置数据转换为摄像坐标系OXYZ下的端点A的三维坐标值(Ax,Ay,0);
由视点V和端点A所确定的直线VA关于参数t的参数方程为:
x y z = A x t A y t f - f t ;
设直线VA与水平面的交点为A′;交点A′在摄像坐标系OXYZ下的坐标为A′(A′x,A′y,A′z)。由于端点A表示水平面上的交点A′在图像I中的投影点,因此可联合水平面的平面方程与直线CA的参数方程,计算出图像I上的端点A(Ax,Ay,0)逆投影到水平面上交点A′(A′x,A′y,A′z)的关系:
其中,
根据上式即可由端点A求解出交A′的坐标。(上述参数化方程表示中的参数t,是常见的表示方式。比如:参数x的方程f,常写成f(x)或者f,而f则是2*x等等形式。)
通过上式可以推广到计算图像I中任意一点到水平面上逆投影点的坐标。
通过交互输入模块5输入图像I中的两条线段所对应的实际长度:实际第一条定标线段A′B′的长度值为LAB′,其在图像I上的像的两端点在摄像坐标系OXYZ的坐标分别为A(Ax,Ay,0)和B(Bx,By,0)。将端点A和端点B的连线逆投影到水平面上,得到对应的线段为A′B′,其两个端点分别是A′(A′x,A′y,0)和B′(Bx′,By′,0);实际第二条线段C′D′的长度值为LC′D′,其两个端点分别为C(Cx,Cy,0)和D(Dx,Dy,0)。同样将该线段逆投影到水平面上,可得到线段C′D′以及其相应的端点C′(Cx′,Cy′,0)和D′(D′x,D′y,0)。于是,有如下的LA′B′和LC′D′的比例关系:
L A ′ B ′ L C ′ D ′ = | | A ′ B ′ | | | | C ′ D ′ | | = T 10 f 2 + T 11 f + T 12 T 7 f 2 + T 8 f + T 9 × T 1 f 2 + T 2 f + T 3 T 4 f 2 + T 5 f + T 6
这里,|| ||表示2-范式形式的长度,即欧氏距离。由于LA′B′和LC′D′之比的公式中,仅有一个未知数f,因此可方便的计算出逻辑焦距f。
步骤四、计算获取单位坐标长度e的步骤:
由数据处理模块3将由步骤三得到端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、图像第一定标线段AB所对应的实际长度值LA′B′和逻辑焦距f,以及由步骤二获得的x轴加速度分量gx,Y轴加速度分量gy和Z轴加速度分量gz带入式II,计算得到单位坐标长度e并保存至存储模块6中待用;
结合图2对单位坐标长度e的计算原理分析如下。
所述的单位坐标长度e是将坐标距离与实际距离联系起来媒介。如图2所示,单位坐标长度e是指在摄像坐标系OXYZ中,由以单位坐标长度e所代表的实际空间长度。当单位坐标长度e已知时,计算真实空间中两点之间的距离可以通过坐标距离乘以单位坐标长度e获得。单位坐标长度e等于摄像坐标系OXYZ中两点之间实际长度除以这两点之间的坐标长度,因此可以通过步骤三中两条已知长度线段的其中一条来实现。假设用第三步的图像第一条定标线段AB进行计算,单位坐标长度e可以用下面的公式计算:
e = L A ′ B ′ | | A ′ B ′ | | = T 4 f 2 + T 5 f + T 6 T 1 f 2 + T 2 f + T 3 L A ′ B ′ .
步骤五、输出图像信息的步骤:
设在实际场景的水平面上有第一待测点E′和第二待测点F′,在穿过第一待测点E′且垂直水平面的直线上设有第三待测点G′,即第一待测点E′是第三待测点G′在场景的水平面上投影的垂足;由在摄像模块1拍摄获得的图像的上与第一待测点E′、第二待测点F′和第三待测点G′分别对应点是图像第一待测点E、图像第二待测点F和图像第三待测点G;
1)获取实际场景水平面中实际第一待测点E′和实际第二待测点F′之间的水平距离值LE′F′;由操作者通过交互输入模块5标记出与实际第一待测点E′相对应的图像第一待测点E、以及与实际第二待测点F′相对应的图像第二待测点F在显示模块4所显示的图像中的二维位置,由数据处理模块3将图像第一待测点E和图像第二待测点F在显示模块4上的二维位置坐标转换为摄像坐标系OXYZ下的图像第一待测点E的三维坐标值(Ex,Ey,0)和图像第二待测点F的三维坐标值(Fx,Fy,0)并一同代入式III,获得指定区域的实际的水平长度值LE′F′
其中,
T14=2gz(FxEy-ExFy)(gy(Ex-Fx)+gx(Fy-Ey));
T 15 = ( g x 2 + g y 2 ) ( F x E y - E x F y ) 2 ;
T 16 = g z 2 ;
T17=-(gxgzFx+gygzFy+gxgzEx+gygzEy);
T 18 = g x 2 E x E y + g x g y F x E y + g x g y E x F y + g y 2 F y E y ;
式中的f和e分别为步骤三中的逻辑焦距和步骤四中的单位坐标长度;
2)获取实际场景水平面上方的实际第三待测点G′的垂直高度值HE′G′
由于实际第一待测点E′是实际第三待测点G′在场景水平面上的垂足,故实际第一待测点E′与实际第三待测点G′之间的线段E′G′的长度大小即为实际第三待测点G′的垂直高度值HE′G′;通过交互输入模块5标记出图像第一待测点E和图像第三待测点G在显示模块4所显示的图像中的二维位置,由数据处理模块3将图像第一待测点E和图像第三待测点G在显示模块4上的二维位置信息分别转换为摄像坐标系OXYZ下的图像第一待测点E的三维坐标值(Ex,Ey,0)和图像第三待测点G的三维坐标值(Gx,Gy,0)并一同代入式IV,获得实际第三待测点G′的垂直高度值HE′G′
其中,
T20=2gz(GxEy-ExGy)(gy(Ex-Gx)+gx(Gy-Ey));
T 21 = ( g x 2 + g y 2 ) ( G x E y - E x G y ) 2 ;
T 22 = g z 2 ;
T23=-(gxgzGx+gygzGy+gxgzEx+gygzEy);
T 24 = g x 2 E x E y + g x g y G x E y + g x g y E x G y + g y 2 G y E y ;
获取垂直高度值HE′G′的理论分析如下:参见图2,实际场景中的线段E′G′垂直与水平面,且其长度值为HE′G′表示图像I中物体的需待测的实际高度,线段E′G′与线段EG对应;其中:E(Ex,Ey,0)和G(Gx,Gy,0)是线段EG的两个端点,与端点E′相对应的端点E表示图像中物体的底部与水平面的交点;与端点G′相对应的端点G表示图像中物体待测高度点,即顶点。相应的,图像中线段EG在水平面上的逆投影为实际场景中的线段E′G′。重力加速度g为水平面的方向向量。向量g与向量之间的夹角θ:
θ = arccos ( C G → · g | | C G → | | | | g | | ) = arccos ( g x G x + g y G y - g z f g x 2 + g y 2 + ( g z - f ) 2 G x 2 + G y 2 + f 2 ) ;
利用测量物体长度的公式计算LE′G′可以得到如下的高度HE′G′计算公式:
H E ′ G ′ = L E ′ G ′ t a n θ .
3)获取实际场景中单个点的实际深度;
所述单个点的深度为场景水平面内点的实际深度或场景水平面上方悬空点的实际深度;
3.1)所述场景水平面内点的实际深度为移动设备内摄像模块1的镜头与位于场景水平面内的实际第一待测点E′之间的直线距离;通过交互输入模块5标记出图像第一待测点E在显示模块4所显示的图像中的位置;由数据处理模块3将图像第一待测点E在显示模块4上的位置信息转换为摄像坐标系OXYZ下的图像第一待测点E坐标值(Ex,Ey,0)并代入式V,获得场景水平面内点的深度DE′
3.2)所述场景水平面上方悬空点的实际深度,为移动设备内摄像模块1的镜头与位于场景水平面上方的实际第三待测点G′之间的直线距离;
通过交互输入模块5标记出图像第三待测点G在显示模块4所显示的图像中的位置;由数据处理模块3读取图像第三待测点G在摄像坐标系OXYZ下的图像第三待测点G坐标值(Gx,Gy,0),连同步骤三得到的逻辑焦距f和步骤四所得到的单位坐标长度e一同代入式VI,获得场景水平面上方悬空点的深度DG′
上述计算结果通过显示模块4显示。
在本步骤中,造成场景水平面上方悬空点的深度的计算公式与场景水平面内点的深度的计算公式不同的原因是由于计算场景水平面上方悬空点的深度时需要借助于该点到水平面的距离才能计算该点的深度,即需要用户输入该点在水平面上的垂点。假设场景水平面上方悬空点是实际第三待测点G′,实际第三待测点G′的垂足是实际第一待测点E′;在图像中,与实际第三待测点G′和实际第一待测点E′相对应的点分别为图像第三待测点G和图像第一待测点E,其在摄像坐标系OXYZ下的三维坐标分别为G(Gx,Gy,0)和E(Ex,Ey,0),则实际第三待测点G′的深度DG′可以通过下面的公式计算:
D G ′ = ( G x 2 + G y 2 + f 2 | | g x G x + g y G y - fg z | | - T 19 f 2 + T 20 f + T 21 T 22 f 2 + T 23 f + T 24 s i n ( a r cos ( g x G x + g y G y - fg z G x 2 + G y 2 + f 2 g x 2 + g y 2 + g z 2 ) ) ) e
进一步说,对由步骤一获得的100组原始的加速度数值gi进行降噪和消除异常值的处理的具体方法如下:
所述加速度传感器模块2按0.001s为取样周期,进行加速度值的取样和输出;
数据处理模块3实时读取并缓存200组由加速度传感器模块2传递来的原始加速度数据;当摄像模块1拍摄一幅图像后,由数据处理模块3将该图像以及自拍摄图像时刻起向前的100组原始的加速度值gi(1≤i≤100)一同存入移动设备的存储模块6中待用;
数据处理模块3按获取的时间先后顺序将所述的100组原始的加速度数值gi进行排列,其中,g1为拍照时刻的加速度值;g2为自拍照时刻起向前的第1个加速值,以此类推,g100为自拍照时刻起向前的第99个加速值;
上述原始的加速度数值gi分别对应一个权值wi=101-i(1≤i≤100),并带入式VII,获得预处理后的加速度数值g:
实施例1:
移动设备采用的是iPad Air,包含所需要硬件模块:摄像模块、加速度传感器模块、数据处理模块、数据显示模块、交互输入模块以及数据存储模块。后置摄像头分辨率为500万,拍摄图像的大小为2592×1936。下图为实际的测量图,实施例2:为室内实际测量图。对图4测量的步骤具体如下:
步骤一、获取原始数据的步骤:
由iPad Air拍摄一幅图像并获取自拍摄图像时刻起向前的100组原始的加速度值gi
由iPad Air建立摄像坐标系OXYZ:iPad Air的镜头的视点为光心V,iPad Air的镜头的中心点为原点O,以iPad Air的X轴方向(宽边方向)为摄像坐标系的X轴,以移动设备的Y轴方向(长边方向)为摄像坐标系的Y轴,以穿过原点O且垂直于由摄像坐标系的X轴和摄像坐标系的Y轴构成的XOY面的直线为摄像坐标系的Z轴;
步骤二、对原始数据进行预处理的步骤:
由iPad Air按加权平均法将由步骤一获得的100组原始的加速度数值gi进行降噪和消除异常值的处理,获得预处理后的加速度数值g;所述加权平均法公式为由iPad Air将预处理后的加速度数值g按摄像坐标系OXYZ分解为X轴加速度分量gx、Y轴加速度分量gy和Z轴加速度分量gz
步骤三、计算逻辑焦距f的步骤:
iPad Air将在步骤一中获取的图像显示在显示屏上;
图4中的地板砖为边长为60cm的标准尺寸的方块,且地板砖与场景水平面相互重合。故在iPad Air显示的图像上的地板砖上标注出两处已知长度的端点及线段,分别记为实际第一定标线段A′B′和实际第二定标线段C′D′;其中,实际第一定标线段A′B′的长度等于3块地板砖的长边,即180cm,实际第二定标线段C′D′等于1块地板砖的边长,即60cm。
由iPad Air将显示屏上的端点A、端点B、端点C和端点D所对应的二维位置坐标转换为摄像坐标系OXYZ下的坐标值,依次为端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、端点C的三维坐标值(Cx,Cy,0)和端点D的三维坐标值(Dx,Dy,0);
由iPad Air将端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、端点A与端点B之间的实际长度值LA′B′、端点C的三维坐标值(Cx,Cy,0)、端点D的三维坐标值(Dx,Dy,0和端点C与端点D之间的实际长度值LC′D′=60cm,以及由步骤二获得的X轴加速度分量gx,Y轴加速度分量gy和Z轴加速度分量gz带入从而计算得到逻辑焦距f;
步骤四、计算获取单位坐标长度e的步骤:
由iPad Air将由步骤三得到端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、端点A与端点B之间的实际长度值LA′B′=120cm和逻辑焦距f,以及由步骤二获得的X轴加速度分量gx,Y轴加速度分量gy和Z轴加速度分量gz带入从而计算得到单位坐标长度e;
步骤五、输出图像中指定的两点之间的水平距离、指定的单个点的垂直高度和深度的步骤:参见图4,在墙壁上有一个插座,插座的底边上设有点N′,该点N′在底板上的垂足为点M′,点N′与点M′之间的距离为HM′N′;在图片中的底板上放置有水壶,所述水壶的上筒壁上设有点S′,该点S′在底板上的垂足为点T′,点S′与点T′之间的距离为HS′T′;此外,在底板上取一条长度等于2块地板砖边长的线段LJ′K′=120cm;在底板上取一条长度等于由4*2块地板砖拼成的矩形的对角线长度的线段LE′F′=120cm。即点N′和点S′位于实际底面(水平面)的上方,点M′、点T′、点K′、点J′、点A′、点B′、点C′和点D′均位于实际底面(水平面)中,点M′和点T′分别为点N′和点S′的垂足。实际场景中的,点M′、点T′、点K′、点J′、点A′、点B′、点C′和点D′均分别对应图4照片中的,点M、点T、点K、点J、点A、点B、点C和点D;各点的尺寸分别按如下方式计算:
1)获取图4中点E和点F所对应的实际水平距离值LE′F′
在iPad Air的显示屏上标记出点J和点K。iPad Air根据步骤三获得的逻辑焦距f以及步骤四获得的单位坐标长度e,并通过式I计算出线段J′K′的长度值,具体结果见本实施例的附表1。
2)获取场景水平面上方的点N′的垂直高度值;
在iPad Air的显示屏上标记出端点M、端点N、端点S和端点T。由iPad Air根据步骤三获得的逻辑焦距f以及步骤四获得的单位坐标长度e,并通过式IV分别计算出线段M′N′和线段S′T′的实际长度。
3)获取指定区域中单个点的单个点的深度;
由iPad Air通过场景水平面内点的实际深度的函数式获得
由iPad Air通过式VI分别获取点N′和点S′的深度,通过式VII分别获取点M′和点T′的实际深度值。本实施例的测量值与计算结果如下表1所示:
由上表可见,采用本方法的最大误差小于2%,平均误差小于0.93%。
实施例2:
移动设备仍采用的是iPad Air,包含所需要硬件模块:摄像模块、加速度传感器模块、数据处理模块、数据显示模块、交互输入模块以及数据存储模块。后置摄像头分辨率为500万,拍摄图像的大小为2592×1936。图5为实际室外的测量图。对应图5的实际场景中,在篮球支柱上分别标记有点N′和S′,其中,点N′在底板上的垂足为点M′,点N′与点M′之间的距离为HM′N′;点S′在底板上的垂足为点T′,点S′与点T′之间的距离为HS′T′;此外,长度方向的罚球线记为线段A′B′,宽度方向的罚球线记为线段C′D′,由长度方向的罚球线与宽度方向的罚球线所确认的对角线记为线段J′K′,由罚球圈的两端所确定的线段记为线段E′F′。即点N′和点S′位于实际底面水平面、篮球场的上方,点M′、点T′、点K′、点J′、点A′、点B′、点C′、点D′、点E′和点F′均位于实际底面水平面、篮球场中,点M′和点T′分别为点N′和点S′的垂足。实际场景中的,点M′、点T′、点K′、点J′、点A′、点B′、点C′和点点M′、点T′、点K′、点J′、点A′、点B′、点D′均分别对应图4照片中的,点M、点T、点K、点J、点A、点B、点C和点D。由于篮球场地是标准的场地,其罚球线、罚球圈的尺寸是已知且唯一的。按照本发明所述的方法可以迅速计算出指定点的尺寸信息,对图5测量的步骤具体如下:
步骤一、获取原始数据的步骤:
由iPad Air拍摄一幅图像并获取自拍摄图像时刻起向前的100组原始的加速度值gi
由iPad Air建立摄像坐标系OXYZ:iPad Air的镜头的视点为光心V。Air的镜头的中心点为原点O,以iPad Air的X向(宽边方向)为摄像坐标系的X轴,以移动设备的Y方向(长边方向)为摄像坐标系的Y轴,以穿过原点O且垂直于由摄像坐标系的X轴和摄像坐标系的Y轴构成的XOY直线为摄像坐标系的Z;
步骤二、对原始数据进行预处理的步骤:
由iPad Air按式VII所示的加权平均法将由步骤一获得的100组原始的加速度数值gi进行降噪和消除异常值的处理,获得预处理后的加速度数值g;
由iPad Air将预处理后的加速度数值g按摄像坐标系OXYZ分解为X轴加速度分量gx、Y轴加速度分量gy和Z轴加速度分量gz
步骤三、计算逻辑焦距f步骤:
由iPad Air将在步骤一中获取的图像显示在显示屏上;
图5中的篮球场地为2010年的国际标准篮球场地。故在iPad Air显示的图像上的篮球场地上标注出两处已知长度的端点及线段,分别记为第一定标线段AB和第二定标线段CD;其中,第一定标线段AB所对应的实际长度值是三秒区矩形的长边的长度,第二定标线段CD所对应的实际长度是三秒区矩形的短边的长度。
由iPad Air将显示屏上的端点A、端点B、端点C和端点D所对应的二维位置坐标转换为摄像坐标系OXYZ下的坐标值,依次为端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、端点C的三维坐标值(Cx,Cy,0)和端点D的三维坐标值(Dx,Dy,0);
由iPad Air将端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、端点A与端点B之间的实际长度值LAB′、端点C的三维坐标值(Cx,Cy,0)、端点D的三维坐标值(Dx,Dy,0和端点C与端点D之间的实际长度值LC′D′=60cm,以及由步骤二获得的X轴加速度分量gx,Y轴加速度分量gy和Z轴加速度分量gz带入式I,从而计算得到逻辑焦距f
步骤四、计算获取单位坐标长度e的步骤:
由iPad Air将由步骤三得到端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、端点A与端点B之间的实际长度值LA′B′和逻辑焦距f,以及由步骤二获得的X轴加速度分量gx,Y轴加速度分量gy和Z轴加速度分量gz带入式II,从而计算得到单位坐标长度e;
步骤五、输出图像中指定的两点之间的水平距离、指定的单个点的垂直高度和深度的步骤:1)获取场景水平面(篮球场)中点J′和点K′之间的水平距离值;
图5中点J和点K为三秒区对角线的两个端点。在iPad Air的显示屏上标记出与点J′和点K′相对应的点J和点K。iPad Air根据步骤三获得的逻辑焦距f、步骤四获得的单位坐标长度e以及式III计算出图5中线段JK所对应的实际长度值LJ′K′
2)获取场景水平面上方的第二待测点N的垂直高度值;
图5中端点N为篮架中的一点。端点M为端点N相对于底面的垂足。图5中端点S为篮架中低于N的一点。端点T为篮架与篮球场地的交点,且端点T为端点S相对于底面的垂足。在iPad Air的显示屏上标记出端点M、端点N、端点S和端点T。
iPad Air根据步骤三获得的逻辑焦距f步骤四获得的单位坐标长度e以及式IV分别计算出图5相片中线段MN和线段ST所对应的实际长度值。
3)获取指定区域中单个点的单个点的深度;
由iPad Air通过式V分别获取图片中点M和点T所对应的实际深度;由iPad Air通过式VI分别获取获取图片中点N和点S所对应的实际深度。本实施例的测量值与计算结果如下表2所示:
由上表可见,采用本方法的最大误差小于61%,平均误差小于0.40%。
进一步说,本方法的测量范围在0.1米至500米之间;更进一步说,本方法最佳的测量范围在0.5米至30米之间,此范围内的误差值小于小于5米或大于30米的范围。
综上所述,本发明利用移动设备进行基于单幅图像的移动测量方法。仅需要一个内置或外置有摄像头和加速度传感器的移动设备,即可实现快速、准确的测量。与现有技术相比,具有如下优点:
1、不需要携带其他附加的设备,也不需要特殊规格的标定板。
2、只需要拍摄一幅图像就可实现对场景的测量,不需要拍摄多幅图像或者视频。
3、计算量较小,计算速度更快。
4、能够测量的信息多,不仅能测量水平面中物体的长度,还可以计算水平面上物体的高度以及移动设备摄像模块到水平面上物体的距离深度等信息。

Claims (4)

1.用移动设备进行物体尺寸测量的方法,所述移动设备包含摄像模块(1)、加速度传感器模块(2)、数据处理模块(3)、显示模块(4)、交互输入模块(5)以及存储模块(6);数据处理模块(3)分别与摄像模块(1)、加速度传感器模块(2)、显示模块(4)、交互输入模块(5)和存储模块(6)相连接;其中,摄像模块(1)为视觉成像器件,负责拍摄场景以获取图像;加速度传感器模块(2)负责采集并输出加速度数值;数据处理模块(3)负责数据的处理和计算;显示模块(4)为显示屏或具有触摸输入功能的显示屏;交互输入模块(5)为物理键盘或显示在显示模块(4)上的虚拟键盘,用于指点或输入场景图像的象素、位置和长度信息;存储模块(6)由外置或内置的各种存储卡和存储器构成,用于存储输入、输出的数据;
其特征在于:包括依次进行的5个步骤:获取原始数据的步骤、对原始数据进行预处理的步骤、计算逻辑焦距f的步骤、计算获取单位坐标长度e的步骤,以及输出图像信息的步骤;其中,
所述获取原始数据的步骤:用移动设备拍摄一幅图像,并记录与拍摄图像相对应的加速度值;由移动设备建立摄像坐标系;
所述对原始数据进行预处理的步骤:由移动设备对获取的加速度值进行降噪处理;所述计算逻辑焦距f的步骤:在所述的图像上标注出两条不重合的线段,并输入该两条线段所对应的实际长度值,由移动设备依据标注在图像上的两条线段、所分别对应的实际长度值以及降噪处理后的加速度值换算出逻辑焦距f;
所述计算获取单位坐标长度e的步骤:由移动设备依据标注在图像上的一条线段、该线段所对应的实际长度值、降噪处理后的加速度值以及换算得到的逻辑焦距f计算出单位坐标长度e;
所述图像信息包括图像中两点之间的实际水平距离、图像中单个点的实际垂直高度和实际深度;其中,获取图像中两点之间的实际水平距离的步骤为:由操作者通过移动设备在获取的图像上标记两个点,由移动设备依据前叙步骤获得的逻辑焦距f、单位坐标长度e、降噪处理后的加速度值以及该两点在图像上的位置计算得到该两点之间的实际水平距离;获取图像中单个点的实际垂直高度和实际深度的步骤为:通过移动设备在获取的图像上标注一个点,由移动设备依据前叙步骤获得的逻辑焦距f、单位坐标长度e、降噪处理后的加速度值以及该点在图像上的位置计算得到该点的实际垂直高度和实际深度。
2.如权利要求1所述的用移动设备进行物体尺寸测量的方法,其特征在于:本方法获取并输出图像中指定的两点之间的实际水平距离、指定的单个点的实际垂直高度和实际深度的步骤具体如下:
步骤一、获取原始数据的步骤:
数据处理模块(3)实时读取并缓存100组加速度传感器模块(2)输出的加速度值;当摄像模块(1)对需要测量的实际场景拍摄一幅图像时,由数据处理模块(3)将该图像以及自拍摄图像时刻起向前的100组原始的加速度值gi一同存入移动设备的存储模块(6)中待用,i取1至100;由数据处理模块(3)建立摄像坐标系OXYZ:所述摄像坐标系OXYZ以摄像模块(1)的镜头的视点为光心V,以摄像模块(1)的镜头的中心点为原点O,以移动设备的X轴方向为摄像坐标系的X轴,以移动设备的Y轴方向为摄像坐标系的Y轴,以穿过原点O且垂直于由摄像坐标系的X轴和摄像坐标系的Y轴构成的XOY面的直线为摄像坐标系的Z轴;
步骤二、对原始数据进行预处理的步骤:
由数据处理模块(3)按加权平均法将由步骤一获得的100组原始的加速度数值gi进行降噪和消除异常值的处理,获得预处理后的加速度数值g;由数据处理模块(3)将预处理后的加速度数值g按摄像坐标系OXYZ分解为X轴加速度分量gx、Y轴加速度分量gy和Z轴加速度分量gz,并保存到存储模块(6)中待用;
步骤三、计算逻辑焦距f的步骤:
由数据处理模块(3)将保存在存储模块(6)中的图像读取并显示在显示模块(4)上;
在所述图像显示的场景水平面中标记两处已知长度的线段,分别记为图像第一定标线段AB和图像第二定标线段CD;所述图像第一定标线段AB和图像第二定标线段CD分别对应实际场景中实际第一定标线段A′B′和实际第二定标线段C′D′,实际长度值分别为LA′B′和LC′D′
通过交互输入模块(5)将图像第一定标线段AB的两端和图像第二定标线段CD的两端在显示模块(4)上的位置分别标记出来,其中,图像第一定标线段AB的两端分别为端点A和端点B,图像第一定标线段AB的实际长度为LA′B′;图像第二定标线段CD的两端分别为端点C和端点D,图像第二定标线段CD的实际长度为LC′D′;端点A、端点B、实际第一定标线段A′B′的实际长度值为LA′B′、端点C、端点D和实际第二定标线段C′D′的实际长度值为LC′D′均存在存储模块(6)中待用;
由数据处理模块(3)将端点A、端点B、端点C和端点D在显示模块(4)所显示的图像中的二维位置转换为在摄像坐标系OXYZ下的坐标值,依次为端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、端点C的三维坐标值(Cx,Cy,0)和端点D的三维坐标值(Dx,Dy,0);
由数据处理模块(3)将端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、图像第一定标线段AB所对应的实际长度值LA′B′、端点C的三维坐标值(Cx,Cy,0)、端点D的三维坐标值(Dx,Dy,0)、图像第二定标线段CD所对应的实际长度值LC′D′、以及由步骤二获得的X轴加速度分量gx,Y轴加速度分量gy和Z轴加速度分量gz带入式I,计算得到逻辑焦距f,并保存至存储模块(6)中待用;
其中,
T2=2gz(BxAy-AxBy)(gy(Ax-Bx)+gx(By-Ay));
T 3 = ( g x 2 + g y 2 ) ( B x A y - A x B y ) 2 ;
T 4 = g z 2 ;
T5=-(gxgzBx+gygzBy+gxgzAx+gygzAy);
T 6 = g x 2 A x A y + g x g y B x A y + g x g y A x B y + g y 2 B y A y ;
T 7 = ( g x 2 + g y 2 ) ( C x - D x ) 2 + ( g y 2 + g z 2 ) ( C y - D y ) 2 + 2 g x g y ( D x - C x ) ( D y - C y ) ;
T8=2gz(DxCy-CxDy)(gy(Cx-Dx)+gx(Dy-Cy));
T 9 = ( g x 2 + g y 2 ) ( D x C y - C x D y ) 2 ;
T 10 = g z 2 ;
T11=-(gxgzDx+gygzDy+gxgzCx+gygzCy(;
T 12 = g x 2 C x C y + g x g y D x C y + g x g y C x D y + g y 2 D y C y ;
gx、gy、gz分别为预处理后的加速度数值g的x向、y向及z向的加速度分量;Ax、Ay为端点A的三维坐标值(Ax,Ay,0)的x向、y向坐标值;式中,Bx、By、……、Dx、Dy的含义以此类推;
步骤四、计算获取单位坐标长度e的步骤:
由数据处理模块(3)将由步骤三得到端点A的三维坐标值(Ax,Ay,0)、端点B的三维坐标值(Bx,By,0)、图像第一定标线段AB所对应的实际长度值LA′B′和逻辑焦距f,以及由步骤二获得的X轴加速度分量gx,Y轴加速度分量gy和Z轴加速度分量gz带入式II,计算得到单位坐标长度e并保存至存储模块(6)中待用;
步骤五、输出图像信息的步骤:
设在实际场景的水平面上有第一待测点E′和第二待测点F′,在穿过第一待测点E′且垂直水平面的直线上设有第三待测点G′,即第一待测点E′是第三待测点G′在场景的水平面上投影的垂足;由在摄像模块(1)拍摄获得的图像的上与第一待测点E′、第二待测点F′和第三待测点G′分别对应点是图像第一待测点E、图像第二待测点F和图像第三待测点G;
1)获取实际场景水平面中实际第一待测点E′和实际第二待测点F′之间的水平距离值LE′F′
由操作者通过交互输入模块(5)标记出与实际第一待测点E′相对应的图像第一待测点E、以及与实际第二待测点F′相对应的图像第二待测点F在显示模块(4)所显示的图像中的二维位置,由数据处理模块(3)将图像第一待测点E和图像第二待测点F在显示模块(4)上的二维位置坐标转换为摄像坐标系OXYZ下的图像第一待测点E的三维坐标值(Ex,Ey,0)和图像第二待测点F的三维坐标值(Fx,Fy,0)并一同代入式III,获得指定区域的实际的水平长度值LE′F′
其中,
T14=2gz(FxEy-ExFy)(gy(Ex-Fx)+gz(Fy-Ey));
T 15 = ( g x 2 + g y 2 ) ( F x E y - E x F y ) 2 ;
T 16 = g z 2 ;
T17=-(gxgzFx+gygzFy+gxgzEx+gygzEy);
T 18 = g x 2 E x E y + g x g y F x E y + g x g y E x F y + g y 2 F y E y ;
式中的f和e分别为步骤三中的逻辑焦距和步骤四中的单位坐标长度;
2)获取实际场景水平面上方的实际第三待测点G′的垂直高度值HE′G′
由于实际第一待测点E′是实际第三待测点G′在场景水平面上的垂足,故实际第一待测点E′与实际第三待测点G′之间的线段E′G′的长度大小即为实际第三待测点G′的垂直高度值HE′G′
通过交互输入模块(5)标记出图像第一待测点E和图像第三待测点G在显示模块(4)所显示的图像中的二维位置,由数据处理模块(3)将图像第一待测点E和图像第三待测点G在显示模块(4)上的二维位置信息分别转换为摄像坐标系OXYZ下的图像第一待测点E的三维坐标值(Ex,Ey,0)和图像第三待测点G的三维坐标值(Gx,Gy,0)并一同代入式IV,获得实际第三待测点G′的垂直高度值HE′G′
其中,
T 21 = ( g x 2 + g y 2 ) ( G x E y - E x G y ) 2 ;
T 22 = g z 2 ;
T23=-(gxgzGx+gygzGy+gxgzEx+gygzEy);
T 24 = g x 2 E x E y + g x g y G x E y + g x g y E x G y + g y 2 G y E y ;
3)获取实际场景中单个点的深度;
所述单个点的深度为场景水平面内点的深度或场景水平面上方悬空点的深度;
所述场景水平面内点的深度为移动设备内摄像模块(1)的镜头与位于场景水平面内的实际第一待测点E′之间的直线距离;通过交互输入模块(5)标记出图像第一待测点E在显示模块(4)所显示的图像中的位置;由数据处理模块(3)将图像第一待测点E在显示模块(4)上的位置信息转换为摄像坐标系OXYZ下的图像第一待测点E坐标值(Ex,Ey,0)并代入式V,获得场景水平面内点的深度DE′
所述场景水平面上方悬空点的深度,为移动设备内摄像模块(1)的镜头与位于场景水平面上方的实际第三待测点G′之间的直线距离;
通过交互输入模块(5)标记出图像第三待测点G在显示模块(4)所显示的图像中的位置;由数据处理模块(3)读取图像第三待测点G在摄像坐标系OXYZ下的图像第三待测点G坐标值(Gx,Gy,0),连同步骤三得到的逻辑焦距f和步骤四所得到的单位坐标长度e一同代入式VI,获得场景水平面上方悬空点的深度DG′
上述计算结果通过显示模块(4)显示。
3.如权利要求2所述的用移动设备进行物体尺寸测量的方法,其特征在于,
对由步骤一获得的100组原始的加速度数值gi进行降噪和消除异常值的处理的具体方法如下:
所述加速度传感器模块(2)按0.001s为取样周期,进行加速度值的取样和输出;数据处理模块(3)实时读取并缓存200组由加速度传感器模块(2)传递来的原始加速度数据;
当摄像模块(1)拍摄一幅图像后,由数据处理模块(3)将该图像以及自拍摄图像时刻起向前的100组原始的加速度值gi一同存入移动设备的存储模块(6)中待用;其中,1≤i≤100;
数据处理模块(3)按获取的时间先后顺序将所述的100组原始的加速度数值gi进行排列,其中,g1为拍照时刻的加速度值;g2为自拍照时刻起向前的第1个加速值,以此类推,g100为自拍照时刻起向前的第99个加速值;
上述原始的加速度数值gi分别对应一个权值wi=101-i,并带入下式,获得预处理后的加速度数值g:其中,1≤i≤100;
4.如权利要求1所述的用移动设备进行物体尺寸测量的方法,其特征在于,所述移动设备为智能手机或平板电脑。
CN201410541470.9A 2014-10-14 2014-10-14 用移动设备进行物体尺寸测量的方法 Expired - Fee Related CN104279960B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410541470.9A CN104279960B (zh) 2014-10-14 2014-10-14 用移动设备进行物体尺寸测量的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410541470.9A CN104279960B (zh) 2014-10-14 2014-10-14 用移动设备进行物体尺寸测量的方法

Publications (2)

Publication Number Publication Date
CN104279960A CN104279960A (zh) 2015-01-14
CN104279960B true CN104279960B (zh) 2017-01-25

Family

ID=52255091

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410541470.9A Expired - Fee Related CN104279960B (zh) 2014-10-14 2014-10-14 用移动设备进行物体尺寸测量的方法

Country Status (1)

Country Link
CN (1) CN104279960B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3998571A1 (en) * 2014-12-23 2022-05-18 Bit Body Inc. Methods of capturing images and making garments
CN104748680B (zh) * 2015-03-19 2018-09-14 酷派软件技术(深圳)有限公司 一种基于摄像头的尺寸测量方法及装置
CN106291519A (zh) * 2015-06-05 2017-01-04 小米科技有限责任公司 测距方法及装置
CN106610270A (zh) * 2015-10-23 2017-05-03 中兴通讯股份有限公司 一种测量方法、装置及移动终端
CN106767588B (zh) * 2016-11-13 2020-05-12 泉州旗信专利技术咨询有限公司 一种测量方法及测量装置
CN110023715B (zh) * 2016-12-09 2021-06-04 三菱电机大楼技术服务株式会社 工程照片管理系统
CN106871790A (zh) * 2016-12-30 2017-06-20 深圳天珑无线科技有限公司 智能移动装置测量物体的方法及系统
CN107230212B (zh) * 2017-05-08 2020-04-17 武汉科技大学 一种基于视觉的手机尺寸的测量方法及系统
CN110033481B (zh) * 2018-01-10 2024-07-02 北京三星通信技术研究有限公司 用于进行图像处理的方法和设备
EP3673462B1 (en) * 2018-05-02 2021-09-22 SZ DJI Technology Co., Ltd. Optically supported object navigation
CN109682312B (zh) * 2018-12-13 2021-05-18 上海集成电路研发中心有限公司 一种基于摄像头测量长度的方法及装置
CN110349154A (zh) * 2019-07-26 2019-10-18 浙江医院 一种基于机器视觉的压疮伤口测量方法和装置
CN111524176A (zh) * 2020-04-16 2020-08-11 深圳市沃特沃德股份有限公司 视距测量定位的方法、装置和计算机设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102478586A (zh) * 2010-11-25 2012-05-30 上海市南洋模范中学 基于航天器内运动体视频图像变化转化为检测微重力的方法
CN102546917A (zh) * 2010-12-31 2012-07-04 联想移动通信科技有限公司 带摄像头的移动终端及其视频处理方法
CN102607423A (zh) * 2011-03-03 2012-07-25 裵相模 用于使用移动终端摄像头测量物体真实尺寸的方法
CN103345301A (zh) * 2013-06-18 2013-10-09 华为技术有限公司 一种深度信息获取方法和装置
CN103697820A (zh) * 2013-12-17 2014-04-02 杭州华为数字技术有限公司 一种基于终端测量尺寸的方法及终端设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4385796B2 (ja) * 2004-03-02 2009-12-16 日本電気株式会社 カメラ付き移動通信端末及びカメラ付き移動通信端末による高さ測定方法
JP2009115541A (ja) * 2007-11-05 2009-05-28 Sharp Corp 距離測定装置および距離測定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102478586A (zh) * 2010-11-25 2012-05-30 上海市南洋模范中学 基于航天器内运动体视频图像变化转化为检测微重力的方法
CN102546917A (zh) * 2010-12-31 2012-07-04 联想移动通信科技有限公司 带摄像头的移动终端及其视频处理方法
CN102607423A (zh) * 2011-03-03 2012-07-25 裵相模 用于使用移动终端摄像头测量物体真实尺寸的方法
CN103345301A (zh) * 2013-06-18 2013-10-09 华为技术有限公司 一种深度信息获取方法和装置
CN103697820A (zh) * 2013-12-17 2014-04-02 杭州华为数字技术有限公司 一种基于终端测量尺寸的方法及终端设备

Also Published As

Publication number Publication date
CN104279960A (zh) 2015-01-14

Similar Documents

Publication Publication Date Title
CN104279960B (zh) 用移动设备进行物体尺寸测量的方法
CN106871878B (zh) 手持测距装置及利用其创建空间模型的方法、存储介质
CN104428624B (zh) 三维测定方法、装置及系统、以及图像处理装置
Holzmann et al. Measuring distance with mobile phones using single-camera stereo vision
CN104395692B (zh) 三维测定方法、装置、系统以及图像处理装置
US10506225B2 (en) Method of calibrating a camera
CN104484887B (zh) 摄像机与二维激光测距仪联合使用时的外参数标定方法
KR101759798B1 (ko) 실내 2d 평면도의 생성 방법, 장치 및 시스템
JP2010008352A (ja) 寸法測定方法及び寸法測定装置
CN108351201A (zh) 物体测定装置及物体测定方法
JP4052382B2 (ja) 非接触画像計測装置
CN108805936A (zh) 摄像机外参标定方法、装置和电子设备
CN107869954A (zh) 一种双目视觉体积重量测量系统及其实现方法
CN104197846B (zh) 一种基于特征图样反射的反射镜位移测量方法
CN112229323A (zh) 基于手机单目视觉的棋盘格合作目标的六自由度测量方法及其应用
CN106017327A (zh) 一种结构光测量传感器标定方法
CN107977998B (zh) 一种基于多视角采样的光场校正拼接装置及方法
CN110044266B (zh) 基于散斑投影的摄影测量系统
WO2022025283A1 (ja) 測定処理装置、方法及びプログラム
CN105078404B (zh) 基于激光算法的全自动眼动追踪测距定标仪及其使用方法
CN111336942A (zh) 一种三维应变变形测量的拍摄方法
Chen et al. Synchronization and calibration of a stereo vision system
US20240159621A1 (en) Calibration method of a portable electronic device
TW201833510A (zh) 物體尺寸計算系統
CN207472195U (zh) 一种双目视觉体积重量测量系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170125

Termination date: 20191014

CF01 Termination of patent right due to non-payment of annual fee