CN107123135A - 一种无序三维点云的无畸变成像方法 - Google Patents
一种无序三维点云的无畸变成像方法 Download PDFInfo
- Publication number
- CN107123135A CN107123135A CN201710198324.4A CN201710198324A CN107123135A CN 107123135 A CN107123135 A CN 107123135A CN 201710198324 A CN201710198324 A CN 201710198324A CN 107123135 A CN107123135 A CN 107123135A
- Authority
- CN
- China
- Prior art keywords
- mtd
- mrow
- mtr
- msub
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
本发明提出了一种无序三维点云无畸变成像的方法,属于三维点云成像技术领域。该方法适用于无序三维点云并且生成的图像无畸变,该方法通过映射矩阵和序列化栅格分别对无序点云进行无畸变映射和有序化处理,生成纹理清晰的无畸变二维灰度图像,克服了传统方位角图成像方法只能应用于有序点云且生成的图像存在畸变的局限性,同时保留了传统方位角图成像方法纹理清晰的优势。相对于传统点云成像方法,该成像方法考虑了正常图像成像原理,有助于提升点云图像对场景描述的准确性。本发明可用在移动机器人场景理解等人工智能领域。
Description
技术领域
本发明属于三维点云成像技术领域,涉及到一种将激光采集到的无序三维点云转化为无畸变图像的方法。
背景技术
视觉图像能够提供丰富的场景感知信息,因此图像处理技术已成为相关领域的研究重点与热点。通常图像数据的获取是利用视觉传感器,其数据在获取过程中容易受到光照强度变化等环境因素的影响,而激光点云数据获取过程不受这些环境因素的影响,因此利用激光点云数据来生成图像,不但能够克服光照强度变化对成像的影响,更能发挥出激光精确测距的优势。传统点云成像方法中,有深度图、方位角图等成像方法,但是他们都有一定的局限性。
深度图成像方法是通过把点云数据的距离信息直接映射为灰度值,从而生成灰度图像,参考文献(Anguelov D,Dulong C,Filip D,et al.Google street view:Capturingthe world at street level[J].Computer,2010(6):32-38.)。这种成像方法的优点是成像原理简单、计算量小,缺点是只能针对有序点云,在图像细节和边缘的描述上不理想,而且生成的图像畸变较大,容易对后续场景理解造成影响。
方位角图成像方法是将每个激光点对应的方位角映射为对应像素的灰度值。激光点的方位角定义为两个向量的夹角,其中一个向量为视点到当前激光点的向量,另一个向量是当前激光点到其邻近的一个激光点的向量,具体可参考文献(Scaramuzza D,HaratiA,Siegwart R.Extrinsic self calibration of a camera and a 3d laser rangefinder from natural scenes[C].Intelligent Robots and Systems,2007.IROS2007.IEEE/RSJ International Conference on.IEEE,2007:4164-4169)。文献(Zhuang Y,Li Y,and Wang W.Robust indoor scene recognition based on 3D laser scanningand bearing angle image[C].In Proceeding of the IEEE International Conferenceon Robotics and Automation(ICRA),2011.)以方位角图成像方法为基础,将定点扫描的三维点云数据转换为二维方位角图,进而对场景进行理解,其解决了深度图成像方法在场景细节、边缘以及轮廓描述上的不足。但这种成像方法只能应用于三维有序点云,对于无序点云是无法生成方位角图的,而且方位角图成像方法没有考虑到正常图像成像的原理,会导致生成的图像存在明显畸变。这些缺陷一方面会带来方位角图应用的局限,另一方面也会对后续环境理解造成困难。
发明内容
针对传统方位角图成像方法的局限性,本发明提出了一种无序三维点云的无畸变成像方法。通过三维激光对周围环境进行扫描,得到一个场景全局坐标系下的点云数据。接着设置视点,将点云从全局坐标系变换到视觉坐标系。然后利用映射矩阵,将三维点云无畸变地映射到一个二维平面,此二维平面上的每一个点都对应一个实际三维坐标。再将二维平面平均分成r×c个栅格,r为行数,其中c为列数。若一个栅格中存在多个三维点,只保留一个离视点最近的三维点。将二维平面剩下的三维点按r×c的行列关系存入到一个r×c的二维数组。最后利用这些序列化之后的点云数据生成纹理清晰的无畸变二维灰度图像。
本发明的技术方案如下:
(1)全局点云的生成
利用配准算法将原始三维点云数据进行连续配准,得到全局坐标系下的点云数据。点云配准算法包括ICP算法和NDT算法,这里选用ICP配准算法,ICP算法是最常用的点云精确配准方法,算法在每次迭代的过程中,对点云数据的每一点,在模型点云中寻找欧式距离最近点作为对应点,通过这组对应点使目标函数最小化:
其中,Q为模型点云,P为需要校准的点云。通过上式得到最优的平移向量t和旋转矩阵R,将平移向量t和旋转矩阵R作用到点云数据上,得到新的点云数据带入下次迭代过程。一般采用通过计算其特征点之间的旋转平移矩阵,降低此步骤的时间消耗,最终将两幅点云进行配准。
(2)全局坐标系到视觉坐标系的转换
得到全局坐标系下的点云数据后,将全局坐标系下的点云坐标变换到视觉坐标系。其中需要注意的是全局坐标系是右手坐标系,视觉坐标系是左手坐标系。需要求解一个矩阵T使得:
Pe=TPw (2)
其中,Pe是视觉坐标系的坐标,Pw是全局坐标系的坐标。
这里默认生成的点云数据,地平面平行于全局坐标系的XY平面,且平行于视觉坐标系的XZ平面。为了方便二维图像的生成以及映射矩阵的求解,这里设定全局坐标系的z轴平行于视觉坐标系的y轴。设视点在全局坐标系下的坐标为P(x0,y0,z0),如图1,首先是求解平移变换矩阵:
令平移后新坐标系绕x′轴逆时针旋转90度,如图2,则旋转矩阵为:
将新坐标系绕y′轴逆时针旋转θ角,如图3,则旋转矩阵为:
将坐标系从右手坐标系变成左手坐标系,如图4,Z轴反向:
则从全局坐标系到视觉坐标系的变换矩阵为:
T=T4T3T2T1 (7)
(3)映射矩阵的计算
在点云完成从全局坐标系到视觉坐标系的变换后,进行三维模型到二维平面的投影,这是一个三维到二维的过程。投影变换即是调整照相机的焦距,它模拟了为照相机选择镜头的过程。
视锥体是一个三维棱台,它的位置和照相机位置相关,视锥体的形状决定了模型如何从照相机空间投影到屏幕上。最常见的透视投影,使得离照相机近的物体投影后较大,而离照相机较远的物体投影后较小。透视投影使用棱锥作为视锥体,照相机位于棱锥的椎顶,如图5。该棱锥被前后两个平面截断(图中两个灰色平面),中间形成一个棱台,叫做平截体,只有位于平截体内部的模型才是可见的。
透视投影的目的是将上面的棱台,如图6中的灰色三维部分,转换为一个立方体,如图7。这个变换的过程是将棱台较小的部分放大,较大的部分缩小,以形成最终的立方体。此为投影变换会产生近大远小效果的原因。变换后的x坐标范围是[-1,1],y坐标范围是[-1,1],z坐标范围是[0,1]。
求映射矩阵分为两个部分,第一部分是从平截体内一点投影到近剪裁平面的过程,第二部分是由近剪裁平面缩放的过程。假设平截体内一点P(x,y,z)在近剪裁平面上的投影是P′(x′,y′,z′),而P′(x′,y′,z′)经过缩放后的最终坐标设为P″(x″,y″,z″)。假设所求的映射矩阵为M,那么根据矩阵乘法可知,有如下等式成立。
P″=MP (9)
对于第一部分,为了简化问题,先考虑YOZ平面上的投影情况。如图8,假设平截体内一点P(x,y,z)在近剪裁平面上的投影是P′(x′,y′,z′)。由三角形相似,有下面等式成立。
则:
对于第二部分,P′缩放的过程,假设近裁剪面的宽度为a(沿y轴方向),高度为b(沿x轴方向),需要缩放后映射面的高度为2,宽度为2。
则:
当平截体内的点投影到近剪裁平面的时候,所有位于近剪裁平面上的点,其z′值都是n,由图8可知,所有位于线段P′P上的点,最终都会投影到P′点,如果这条线段上有多个点,最终保留离观察点最近的点。对z坐标的倒数进行插值,将z″写成z的一次表达式形式,参考书籍(Mathematics for 3D Game Programming and Computer Grahpics 3rdsection 5.4)。
在映射前,z的范围[n,f],这里n和f分别是近远两个剪裁平面到原点的距离,在映射后,z″的范围是[0,1],带入上式,可得:
则:
综合公式10、公式14和公式17,得
再乘以z(不改变齐次坐标的大小),得到如下等式。
于是所求矩阵为(令w=1):
经过变换后,x″的范围是[-1,1],y″的范围是[-1,1],变换到图像坐标系上,图像横坐标u的范围是[0,c],纵坐标v的范围是[0,r],利用一次方程变换。其中r、c为图像坐标系的行数和列数。
完成对三维点云到二维图像的无畸变映射。
(4)基于栅格的序列化
将上一步骤二维图像平面平均分成r×c个栅格,r为行数,c为列数,如图9,统计每一个栅格里的映射点数,保留每个栅格里离视点最近的一个点,如图10,存为r×c的二维数组,完成对无序点云的有序化。
(5)二维灰度图像的计算
得到有序化之后的点云数据,接着对有序化之后的点云数据进行二维灰度图像的计算,计算方法如图11所示,设当前第i行j列的激光点为Pi,j,取其相邻的一个激光点Pi-1,j+1。设当前激光点到相邻激光点的向量为VP,为了描述向量VP在三维空间中的方位,使用视点到当前激光点的向量V0作为参考向量Vrefer,计算参考向量Vrefer与VP的夹角θi,j,即参考向量夹角,再将θi,j映射至灰度0-255范围,即可得到激光点Pi,j在二维灰度图像中的像素值:
其中,Gij为图像第i行j列的灰度值。
本发明的有益效果为生成了纹理清晰的无畸变二维灰度图像,克服了传统方位角图成像方法只能应用于有序点云且生成的图像存在畸变的局限性,同时保留了传统方位角图成像方法纹理清晰的优势。
附图说明
图1为全局坐标系与视觉坐标系的平移关系图。
图2为视觉坐标系绕X′轴逆时针旋转90度图。
图3为视觉坐标系绕Y′轴逆时针旋转θ度图。
图4为视觉坐标系从右手系转变到左手系图。
图5为一个立方体映射到二维平面的示意图。
图6为映射投影模型的棱台图。
图7为映射投影模型缩放的立方体图。
图8为映射投影计算方式示意图。
图9为点云映射到二维栅格示意图。
图10为栅格保留唯一点示意图。
图11为二维灰度图像计算示意图。
图12为一副场景的三维激光点云。
图13为图12对应的方位角图。
具体实施方式
以下具体阐述本发明的实施方案。本发明具体实施过程中使用的是16线三维激光来进行无序三维点云无畸变图像生成的实验。32、64线激光及其他三维激光均适用于本发明所提方法。
以本发明三维激光传感器为例,其是16线三维激光,其水平扫描角度是360度,垂直扫描角度为±15度。可工作的频率为5-20Hz,当工作在5Hz、10Hz和20Hz时,水平角度的分辨率为0.1度、0.2度和0.4度,这里选择工作频率为10Hz,每一帧的激光点云数量为28800个点。
第一步,选定一个场景,场景的选择无特定要求,利用三维激光连续运动采集该场景的点云数据。将采集的数据进行基本的噪声过滤,再对每两帧之间的点云进行连续ICP配准,得到全局三维点云,如图12。
第二步,设置视点,把点云数据从全局坐标系变换到视觉坐标系。视点坐标为(10,-5,2),旋转角度θ为90度,求得的变换矩阵T为:
第三步,求解映射矩阵,将无序三维点云无畸变地映射到二维平面,近远两个剪裁平面到原点的距离分别为1米和40米,近裁剪面的高度和宽度分别为2.8米和3.5米。映射矩阵T为:
变换到图像坐标系的大小为400×300,r为400,c为300。
第四步,接着根据序列化栅格,将二维图像平面平均分成400×300个栅格。统计每一个栅格里的映射点数,保留每个栅格里离视点最近的一个点,存到400×300的二维数组。完成对无序点云的有序化。
第五步,根据序列化之后的数据,生成该场景的二维灰度图像,如图13。
Claims (5)
1.一种无序三维点云的无畸变成像方法,其特征在于,包括如下步骤:
1)全局点云的生成
通过点云配准算法将原始点云数据进行连续配准,得到全局坐标系下的三维点云数据;
2)全局坐标系到视觉坐标系的转换
将全局坐标系下的点云数据变换到视觉坐标系:全局坐标系Pw是右手坐标系,视觉坐标系Pe是左手坐标系,矩阵T为该变换矩阵:
Pe=TPw (2)
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mi>e</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mi>e</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>z</mi>
<mi>e</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mi>&theta;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>s</mi>
<mi>i</mi>
<mi>n</mi>
<mi>&theta;</mi>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>x</mi>
<mn>0</mn>
</msub>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mi>&theta;</mi>
<mo>-</mo>
<msub>
<mi>y</mi>
<mn>0</mn>
</msub>
<mi>s</mi>
<mi>i</mi>
<mi>n</mi>
<mi>&theta;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>z</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<mi>s</mi>
<mi>i</mi>
<mi>n</mi>
<mi>&theta;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&theta;</mi>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mn>0</mn>
</msub>
<mi>s</mi>
<mi>i</mi>
<mi>n</mi>
<mi>&theta;</mi>
<mo>-</mo>
<msub>
<mi>y</mi>
<mn>0</mn>
</msub>
<mi>cos</mi>
<mi>&theta;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>z</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,Pe(xe,ye,ze)是视觉坐标系的坐标,Pw(xw,yw,zw)是全局坐标系的坐标,坐标P(x0,y0,z0)为视点在全局坐标系下的坐标,θ为视点在全局坐标系下绕自身z轴逆时针旋转角度,此时的自身z轴平行且同向于全局坐标系的z轴;
3)映射矩阵的计算
在视觉坐标系下,首先将平截体内一点投影到近剪裁平面,平截体内一点P(x,y,z)在近剪裁平面上的投影是P′(x′,y′,z′),而P′(x′,y′,z′)经过缩放后的最终坐标设为P″(x″,y″,z″);所求映射矩阵为M,则有:
P″=MP (9)
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msup>
<mi>x</mi>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msup>
</mtd>
</mtr>
<mtr>
<mtd>
<msup>
<mi>y</mi>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msup>
</mtd>
</mtr>
<mtr>
<mtd>
<msup>
<mi>z</mi>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msup>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mfrac>
<mrow>
<mn>2</mn>
<mi>n</mi>
</mrow>
<mi>b</mi>
</mfrac>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mfrac>
<mrow>
<mn>2</mn>
<mi>n</mi>
</mrow>
<mi>a</mi>
</mfrac>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mfrac>
<mi>f</mi>
<mrow>
<mi>f</mi>
<mo>-</mo>
<mi>n</mi>
</mrow>
</mfrac>
</mtd>
<mtd>
<mfrac>
<mrow>
<mi>f</mi>
<mi>n</mi>
</mrow>
<mrow>
<mi>n</mi>
<mo>-</mo>
<mi>f</mi>
</mrow>
</mfrac>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>x</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>y</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>z</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>20</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,a和b分别表示近裁剪平面的宽度和高度,n和f分别是近远两个剪裁平面到原点的距离;
经过变换后,x″的范围是[-1,1],y″的范围是[-1,1],接着变换到图像坐标系上,图像横坐标u的范围是[0,c],纵坐标v的范围是[0,r],其中r、c分别为图像坐标系的行数和列数,利用一次方程变换;
<mrow>
<mi>u</mi>
<mo>=</mo>
<mfrac>
<mi>c</mi>
<mn>2</mn>
</mfrac>
<mo>&times;</mo>
<mrow>
<mo>(</mo>
<msup>
<mi>x</mi>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msup>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>21</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>v</mi>
<mo>=</mo>
<mfrac>
<mi>r</mi>
<mn>2</mn>
</mfrac>
<mo>&times;</mo>
<mrow>
<mo>(</mo>
<msup>
<mi>y</mi>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msup>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>22</mn>
<mo>)</mo>
</mrow>
</mrow>
完成对三维点云到二维图像的无畸变映射;
4)基于栅格的序列化
将步骤3)中的二维图像平面平均分成r×c个栅格,r为行数,c为列数;若一个栅格中存在多个三维点,只保留一个离视点最近的三维点,存为r×c的二维数组,完成对无序点云的有序化;
5)对有序化之后的点云数据进行二维灰度图像的计算。
2.根据权利要求1所述的一种无序三维点云的无畸变成像方法,其特征在于,步骤1)所述的点云配准算法包括ICP配准算法或NDT配准算法。
3.根据权利要求1或2所述的一种无序三维点云的无畸变成像方法,其特征在于,步骤1)所述的点云配准算法为ICP配准算法,该算法在每次迭代的过程中,对点云数据的每一点,在模型点云中寻找欧式距离最近点作为对应点,通过这组对应点使目标函数最小化:
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>min</mi>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>Q</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>RP</mi>
<mi>i</mi>
</msub>
<mo>+</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,Q为模型点云,P为需要校准的点云;通过上式得到最优的平移向量t和旋转矩阵R,将平移向量t和旋转矩阵R作用到点云数据上,得到新的点云数据带入下次迭代过程。
4.根据权利要求1或2所述的一种无序三维点云的无畸变成像方法,其特征在于,步骤5)所述的二维灰度图像计算方法如下:
当前第i行j列的激光点为Pi,j,取其相邻的一个激光点Pi-1,j+1;设当前激光点到相邻激光点的向量为VP,为了描述向量VP在三维空间中的方位,使用视点到当前激光点的向量V0作为参考向量Vrefer;计算参考向量Vrefer与VP的夹角θi,j,即参考向量夹角,再将θi,j映射至灰度0-255范围,即可得到激光点Pi,j在二维灰度图像中的像素值:
<mrow>
<msub>
<mi>G</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>&theta;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mn>180</mn>
</mfrac>
<mo>&times;</mo>
<mn>255</mn>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>23</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,Gij为图像第i行j列的灰度值。
5.根据权利要求3所述的一种无序三维点云的无畸变成像方法,其特征在于,步骤5)所述的二维灰度图像计算方法如下:
当前第i行j列的激光点为Pi,j,取其相邻的一个激光点Pi-1,j+1;设当前激光点到相邻激光点的向量为VP,为了描述向量VP在三维空间中的方位,使用视点到当前激光点的向量V0作为参考向量Vrefer;计算参考向量Vrefer与VP的夹角θi,j,即参考向量夹角,再将θi,j映射至灰度0-255范围,即可得到激光点Pi,j在二维灰度图像中的像素值:
<mrow>
<msub>
<mi>G</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>&theta;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mn>180</mn>
</mfrac>
<mo>&times;</mo>
<mn>255</mn>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>23</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,Gij为图像第i行j列的灰度值。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710009583 | 2017-01-06 | ||
CN2017100095838 | 2017-01-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107123135A true CN107123135A (zh) | 2017-09-01 |
CN107123135B CN107123135B (zh) | 2019-07-12 |
Family
ID=59718171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710198324.4A Active CN107123135B (zh) | 2017-01-06 | 2017-03-31 | 一种无序三维点云的无畸变成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107123135B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230242A (zh) * | 2018-01-10 | 2018-06-29 | 大连理工大学 | 一种从全景激光点云到视频流的转换方法 |
CN108564653A (zh) * | 2018-03-16 | 2018-09-21 | 中国传媒大学 | 基于多Kinect的人体骨架追踪系统及方法 |
CN111080682A (zh) * | 2019-12-05 | 2020-04-28 | 北京京东乾石科技有限公司 | 点云数据的配准方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268933A (zh) * | 2014-09-11 | 2015-01-07 | 大连理工大学 | 一种车载二维激光运动中三维环境扫描成像方法 |
-
2017
- 2017-03-31 CN CN201710198324.4A patent/CN107123135B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268933A (zh) * | 2014-09-11 | 2015-01-07 | 大连理工大学 | 一种车载二维激光运动中三维环境扫描成像方法 |
Non-Patent Citations (2)
Title |
---|
HARTMUT SURMANN: "An autonomous mobile robot with a 3D laser range finder for 3D exploration and digitalization of indoor environments", 《ROBOTIC AND AUTONOMOUS SYSTEM》 * |
刘常杰: "光栅投影测量系统三维形貌拼接技术研究", 《传感技术学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230242A (zh) * | 2018-01-10 | 2018-06-29 | 大连理工大学 | 一种从全景激光点云到视频流的转换方法 |
CN108564653A (zh) * | 2018-03-16 | 2018-09-21 | 中国传媒大学 | 基于多Kinect的人体骨架追踪系统及方法 |
CN108564653B (zh) * | 2018-03-16 | 2022-05-10 | 中国传媒大学 | 基于多Kinect的人体骨架追踪系统及方法 |
CN111080682A (zh) * | 2019-12-05 | 2020-04-28 | 北京京东乾石科技有限公司 | 点云数据的配准方法及装置 |
CN111080682B (zh) * | 2019-12-05 | 2023-09-01 | 北京京东乾石科技有限公司 | 点云数据的配准方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107123135B (zh) | 2019-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112396664B (zh) | 一种单目摄像机与三维激光雷达联合标定及在线优化方法 | |
WO2022142759A1 (zh) | 一种激光雷达与相机联合标定方法 | |
CN109521774B (zh) | 一种基于强化学习的喷涂机器人轨迹优化方法 | |
CN110197466B (zh) | 一种广角鱼眼图像矫正方法 | |
CN112132972B (zh) | 一种激光与图像数据融合的三维重建方法及系统 | |
Scaramuzza et al. | Extrinsic self calibration of a camera and a 3d laser range finder from natural scenes | |
CN110223379A (zh) | 基于激光雷达的三维点云重建方法 | |
CN108489398B (zh) | 一种广角场景下激光加单目视觉测量三维坐标的方法 | |
JP2009093611A (ja) | 三次元オブジェクト認識のためのシステムおよび方法 | |
CN111325801A (zh) | 一种激光雷达和相机的联合标定方法 | |
CN109712232B (zh) | 一种基于光场的物体表面轮廓三维成像方法 | |
CN104463969B (zh) | 一种对航空倾斜拍摄的地理照片的模型的建立方法 | |
CN112001926B (zh) | 基于多维语义映射rgbd多相机标定方法、系统及应用 | |
CN109214982A (zh) | 一种基于双圆柱投影模型的三维点云成像方法 | |
CN111047631B (zh) | 一种基于单Kinect加圆盒的多视角三维点云配准方法 | |
CN108154536A (zh) | 二维平面迭代的相机标定法 | |
CN107123135B (zh) | 一种无序三维点云的无畸变成像方法 | |
CN111060006A (zh) | 一种基于三维模型的视点规划方法 | |
CN105513063A (zh) | Veronese映射和棋盘格标定拋物折反射摄像机 | |
CN108230242A (zh) | 一种从全景激光点云到视频流的转换方法 | |
Lukierski et al. | Rapid free-space mapping from a single omnidirectional camera | |
Chan et al. | An improved method for fisheye camera calibration and distortion correction | |
CN116402904A (zh) | 一种基于激光雷达间和单目相机的联合标定方法 | |
Hirano et al. | 3D shape reconstruction from 2D images | |
Chia et al. | Rapid self-localization of robot based on omnidirectional vision technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |