CN102510512B - 基于双目视觉节点的动态三维多媒体传感网络自定位方法 - Google Patents

基于双目视觉节点的动态三维多媒体传感网络自定位方法 Download PDF

Info

Publication number
CN102510512B
CN102510512B CN201110364395.XA CN201110364395A CN102510512B CN 102510512 B CN102510512 B CN 102510512B CN 201110364395 A CN201110364395 A CN 201110364395A CN 102510512 B CN102510512 B CN 102510512B
Authority
CN
China
Prior art keywords
vision
node
neighborhood relationships
vision node
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201110364395.XA
Other languages
English (en)
Other versions
CN102510512A (zh
Inventor
周文晖
江进
戴国骏
任浩然
张桦
孙志海
韦学辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Haining Dingcheng Intelligent Equipment Co ltd
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201110364395.XA priority Critical patent/CN102510512B/zh
Publication of CN102510512A publication Critical patent/CN102510512A/zh
Application granted granted Critical
Publication of CN102510512B publication Critical patent/CN102510512B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于双目视觉节点的动态三维多媒体传感网络自定位方法。目前的方法通常都是基于单目视觉节点。本发明方法各节点独立提取基于SIFT特征描述符的三维点云;并根据两两节点间匹配信息,采用基于单位四元数的运动估计方法获得相对位姿;最后分布式定位策略实现所有节点的自定位。其最主要优势在于:在三维网络部署下,仅在两节点间即可完成其相对位姿估计,进而可有效避免不必要的“洪泛”风险和能量损失。该优势在大规模动态多媒体传感网络中尤为重要。

Description

基于双目视觉节点的动态三维多媒体传感网络自定位方法
技术领域
本发明属于多媒体传感网络领域,具体涉及一种基于双目视觉节点的动态三维多媒体传感网络分布式自定位方法。
背景技术
由于视觉传感器可获取丰富且有价值的环境上下文信息,多媒体传感网络受到越来越广泛的关注。与此同时,近年来国内外在嵌入式系统及分布式视觉算法上取得的显著进展也为其应用和实现铺平道路。不同于传统传感器网络中传感器节点采用的全向感知模型,多媒体传感网络中的视觉节点存在视角受限且易被遮挡等问题,面临着有向感知和视距覆盖的新挑战。因此视觉节点定位是实现多媒体传感网络部署和分析的前提和关键。
目前已提出了许多多媒体传感网络自定位方法。但这些方法通常都是基于单目视觉节点,O. Faugeras等人研究表明两个已标定像机只能实现尺度上的相对位姿估计[1],为获取节点位姿的唯一解,一种方法是需假定场景为近似平坦的表面,通过计算单应性矩阵实现位姿估计。另一种则是采用类似Bundle Adjustment方法将多个甚至全部节点共同参与定位估计,即要求每个节点都要通过“洪泛”将其特征集合传递给整个网络。如W. Mantzel等人提出的分布交替式三角定位技术(DALT)[2],Z. Cheng等人提出的基于视觉SfM方法的视觉图模型[3]等。然而这种需要大量“洪泛”过程的方法,在网络规模较大或是动态网络下难以有效实现。
为避免单目视觉固有的歧义性问题,国内外学者提出了基于立体视觉节点的多媒体传感网络。S. Hengstler等人设计并实现了MeshEye立体视觉节点的原型系统[4]。S. Kumar等人提出一种双PTZ像机的视觉节点,通过SIFT特征匹配并估计单应性矩阵实现运动目标定位[5]。A. Mavrinac等人采用双目视觉节点经ZNCC算法匹配Harris或FAST特征,实现多媒体传感网络的自标定[6]。
参考文献
[1] Q. Luong, O. Faugeras. Camera Calibration, Scene Motion and Structure Recovery From Point Correspondences and Fundamental Matrices. International Journal of Computer Vision. 22(3): 261-289, 1997.
[2] W. Mantzel, H. Choi, R. Baraniuk. Distributed Camera Network Localization. Thirty-eighth Asilomar Conference on Signals, Systems & Computers. Pacific Grove, CA.2:1381-1386, 2004.
[3] Z. Cheng, D. Devarajan, R. Radke. Determining Vision Graphs for Distributed Camera Networks Using Feature Digests. EURASIP Journal on Applied Signal Processing. (1): 220-220. 2007.
[4] S. Hengstler, D. Prashanth, S. Fonget, et al. MeshEye: A Hybrid-Resolution Smart Camera Mote for Applications in Distributed Intelligent Surveillance. Information Processing in Sensor Networks (IPSN-SPOTS). 2007.
[5] S.Kumar, C. Micheloni, C. Piciarelli. Stereo Localization Using Dual PTZ Cameras. International Conference on Computer Analysis of Images and Patterns. 2009.
[6] A. Mavrinac, X. Chen, K. Tepe. An Automatic Calibration Method for Stereo-based 3D Distributed Smart Camera Networks. Computer Vision and Image Understanding. 114(8): 952-962. 2010.
[7] D. Lowe. Distinctive Image Features from Scale Invariant Keypoints. International Journal of Computer Vision. 60: 91-110. 2004.
[8] Y. Ke, R. Sukthankar. PCA-SIFT: A More Distinctive Representation for Local Image Descriptors. Computer Vision and Pattern Recognition, 2004
[9] B. Horn. Closed-form Solution of Absolute Orientation Using Unit Quaternions. Journal of the Optical Society of America. 4(4): 629-642. 1987。
发明内容
本发明针对视觉节点可在任意三维空间中随机部署,且可任意旋转确保目标连续跟踪的更一般情况,提供一种无任何假定约束的动态三维多媒体传感网络的分布式自定位方法。
本发明中各节点独立提取基于SIFT特征描述符[7, 8]的三维点云;并根据两两节点间匹配信息,采用基于单位四元数的运动估计方法[9]获得相对位姿;最后分布式定位策略实现所有节点的自定位。其最主要优势在于:在三维网络部署下,仅在两节点间即可完成其相对位姿估计,进而可有效避免不必要的“洪泛”风险和能量损失。
本发明方法的具体步骤如下:
步骤(1)网络中各视觉节点独立地提取该节点视野范围内的视觉特征。
所述的视觉特征提取具体方法为:
每个视觉节点采用一个已标定的双目立体像机,包含了左、右两个像机,可实时获取左、右立体图像;然后采用Y. Ke等人提出的PCA-SIFT[9]方法,分别提取左、右图像的SIFT特征描述符,每个特征描述符为36维矢量,每一维矢量用8位来表示;所述的双目立体像机标定方法为成熟技术。
采用KD-Tree方法实现左、右图像间的SIFT特征匹配,并记录每对SIFT特征匹配的匹配代价。所述的SIFT特征匹配方法为成熟技术。
采用外极线约束滤除误匹配点;对于已标定的双目立体像机,外极线约束要求正确匹配点对在左、右图像中的垂直坐标差小于1。
以左图像为视觉特征提取的基准图像,将左图像划分为20×20个大小相等的区域,在每个区域中只选取一个具有最大匹配代价的SIFT特征作为该区域的视觉特征,即从左图像中最多可提取出400个视觉特征,并将这些视觉特征作为节点当前帧的视觉特征;因此每一个视觉节点从每一帧立体图像对中提取视觉特征的描述符最大数据量为400×36×8/1024=112.5kb。
步骤(2)网络中各视觉节点独立计算步骤(1)中所提取视觉特征的三维坐标。
所述的视觉特征三维坐标计算具体方法为:
步骤(1)中所提取视觉特征在左、右图像中的垂直坐标差小于1,而水平坐标差称为视差d,根据双目立体视觉三维重建公式,可得视觉特征i在左像机坐标系下的三维坐标                                                
Figure 201110364395X100002DEST_PATH_IMAGE001
                      
Figure 793052DEST_PATH_IMAGE002
                        (1)
其中bf,(u 0v 0)分别为双目立体像机标定中获得的基线、焦距和左图像光心坐标。(u i v i )为视觉特征i在左图像中的坐标,d i 为视觉特征i的视差。
步骤(3)网络中各视觉节点的网络定位数据包生成,具体为:
将步骤(1)和步骤(2)中提取的视觉特征描述符及其三维坐标打包作为视觉节点的网络定位数据包,并根据各视觉节点内的邻域关系表传递给邻域节点。
初始时各视觉节点内的邻域关系表为空,即各视觉节点间邻域关系未知,此时各视觉节点将其网络定位数据包通过“洪泛”传递给网络中所有视觉节点。
各视觉节点在接收到其他视觉节点的网络定位数据包后,更新其内部邻域关系表。随着各视觉节点内的邻域关系表逐步完善,即可通过邻域关系表估计出可能相邻的节点或仍未知关系的节点,则网络定位数据包将会有目的性地传递给这些相邻或仍未知关系的节点。最终待各节点内的邻域关系表完善后,每次网络定位数据包发送都将具有明确的目的节点,从而有效避免不必要的“洪泛”风险和能量损失。所述的邻域关系表构建和更新的具体表述在步骤(4)到步骤(7)中。
步骤(4)网络中两个视觉节点间视觉特征匹配,具体为:
当一个视觉节点接收到其他视觉节点的网络定位数据包后,首先进行两视觉节点间的视觉特征匹配。采用与步骤(1)中相同的SIFT特征匹配方法。由于步骤(1)中视觉特征提取都是基于左图像的,因此类似于实现两视觉节点左图像间的SIFT特征匹配。
步骤(5)根据步骤(4)中得到的两个视觉节点间视觉特征匹配关系,估计两个视觉节点间的相对位姿,即获取两个视觉节点间的旋转矩阵和平移矩阵。
所述的两个视觉节点间相对位姿估计具体方法为:
令两个视觉节点mn的视觉特征匹配点对的三维坐标分别表示为
Figure 201110364395X100002DEST_PATH_IMAGE003
Figure 759740DEST_PATH_IMAGE004
,根据视觉成像关系,有:
                      
Figure 201110364395X100002DEST_PATH_IMAGE005
                        (2)
其中矩阵
Figure 92633DEST_PATH_IMAGE006
Figure 201110364395X100002DEST_PATH_IMAGE007
分别代表两个视觉节点相对位姿中的旋转矩阵和平移矩阵。相对位姿估计可转换为采用最小二乘法求解下式最小:
                         
Figure 93955DEST_PATH_IMAGE008
                      (3)
采用单位四元数
Figure 201110364395X100002DEST_PATH_IMAGE009
表示旋转矩阵
Figure 854101DEST_PATH_IMAGE006
,用四元数加法和乘法代替旋转矩阵中的三角计算,可简化计算,并提高求解精度,有:
           
Figure 308085DEST_PATH_IMAGE010
         (4)
从而相对位姿估计中包含了7个自由度,理论上只需3对匹配点即可实现估计。为确保估计结果的鲁棒性,通常要求匹配点数大于某个阈值N(通常采用20)。构建四元数的共生对称矩阵
Figure 201110364395X100002DEST_PATH_IMAGE011
Figure 444668DEST_PATH_IMAGE012
(5)
其中
Figure 201110364395X100002DEST_PATH_IMAGE013
Figure 303427DEST_PATH_IMAGE014
Figure 201110364395X100002DEST_PATH_IMAGE015
Figure 234474DEST_PATH_IMAGE016
经数值解归一化,减去质心后的三维坐标。i为参与相对位姿估计的匹配点标号。
共生对称矩阵
Figure 988804DEST_PATH_IMAGE011
经SVD分解,其最大特征根所对应的特征向量即为单位四元数的最优解。根据公式(4)恢复旋转矩阵
Figure 912766DEST_PATH_IMAGE006
,并代入公式(2),可获得平移矩阵
Figure 436151DEST_PATH_IMAGE007
为提高估计精度和鲁棒性,滤除偏离较大的野值,采用归一化RANSAC算法,从两个视觉节点间所有视觉特征匹配点对中估计出
Figure 865996DEST_PATH_IMAGE006
Figure 45304DEST_PATH_IMAGE007
。所述的归一化RANSAC算法为成熟技术。
最后采用非线性最小二乘LM(Levenberg-Marquardt)算法同时优化
Figure 507379DEST_PATH_IMAGE006
Figure 150850DEST_PATH_IMAGE007
的估计值。所述的非线性最小二乘LM算法为成熟技术。
步骤(6)根据步骤(5)中获得的两个视觉节点间相对位姿,更新视觉节点内邻域关系表。
所述的节点内邻域关系表更新具体方法为:
每个节点内都建有一张二维的邻域关系表
Figure 201110364395X100002DEST_PATH_IMAGE017
,令
Figure 423699DEST_PATH_IMAGE018
表示视觉节点mn间的邻域关系,
Figure 201110364395X100002DEST_PATH_IMAGE019
Figure 339571DEST_PATH_IMAGE020
为步骤(5)中估计结果,有
Figure DEST_PATH_IMAGE021
。则
Figure 356069DEST_PATH_IMAGE018
更新为:
                                              (6)
搜索整个邻域关系表,若邻域关系表中已知
Figure DEST_PATH_IMAGE023
,则可通过矩阵推导,同时更新
Figure 747397DEST_PATH_IMAGE024
                  
Figure 201110364395X100002DEST_PATH_IMAGE025
               (7)
步骤(7)当某个视觉节点m发生运动,则该视觉节点进行自运动估计,确定视觉节点m运动后的新邻域节点,并根据新的邻域关系发送该视觉节点的网络定位数据包,更新邻域关系表。
所述的视觉节点自运动估计具体方法为:
视觉节点m根据步骤(1)到步骤(3)提取当前帧的网络定位数据包;
在视觉节点m中,采用与步骤(1)中相同的SIFT特征匹配方法,实现视觉节点m当前帧视觉特征和视觉节点m前一帧视觉特征的SIFT特征匹配;
采用与步骤(5)中相同的相对位姿估计方法,估计视觉节点m当前帧和前一帧间的相对位姿,即估计出视觉节点m在当前帧和前一帧间自运动的旋转矩阵
Figure 884986DEST_PATH_IMAGE026
和平移矩阵
Figure 201110364395X100002DEST_PATH_IMAGE027
,有
Figure 892126DEST_PATH_IMAGE028
,其中为视觉节点m当前帧视觉特征的三维坐标,
Figure 182293DEST_PATH_IMAGE015
为视觉节点m前一帧视觉特征的三维坐标。
所述的视觉节点自运动后邻域关系表更新具体方法为:
在视觉节点m自运动估计后,搜索整个邻域关系表,若邻域关系表中视觉节点mn在视觉节点m运动前的邻域关系已知,则视觉节点m运动后的
Figure 749726DEST_PATH_IMAGE030
为:
Figure 201110364395X100002DEST_PATH_IMAGE031
根据
Figure 108026DEST_PATH_IMAGE030
判断视觉节点mn是否为视觉相邻,即视觉节点mn在视野上存在较大范围重叠。判断依据为视觉节点mn相对位姿中旋转角度不能超过
Figure 580596DEST_PATH_IMAGE032
弧度(根据双目像机的有效视角选取,通常为
Figure 201110364395X100002DEST_PATH_IMAGE033
),平移距离不能超过
Figure 883926DEST_PATH_IMAGE034
米(根据双目像机的有效视距选取,通常为5米)。
在确定视觉节点m与其他节点的邻域关系后,视觉节点m将当前帧的网络定位数据包发送给所有可能与视觉节点m存在视觉相邻的节点,并采用步骤(4)到步骤(6)的过程,更新邻域关系表。
本发明的有益效果:本发明提供了一种基于双目视觉节点的动态三维多媒体传感网络自定位方法。该方法采用双目立体像机作为视觉节点,每个视觉节点独立提取有限个数SIFT特征描述符及其三维坐标,并打包为该视觉节点的网络定位数据包;两个视觉节点间仅需存在3个及以上的特征匹配点对即可估计出这两节点的相对位姿,可有效降低网络通信开销和节点存储容量需求。同时采用基于四元数的位姿估计方法,在提高数值解精度的同时还具有计算简便等特点。结合视觉节点自运动估计和节点间相对位姿估计,在每个视觉节点内建立和更新邻域关系表,以此确定各视觉节点数据包发送的目标地址,避免不必要的“洪泛”风险和能量损失。
附图说明
图1为本发明中的方法框图。
具体实施方式
以下结合附图对本发明作进一步说明。
    如图1所示,基于双目视觉节点的动态三维多媒体传感网络自定位方法的具体步骤如下:
步骤(1)网络中各视觉节点独立地提取该节点视野范围内的视觉特征。
所述的视觉特征提取方法具体为:
每个视觉节点采用一个已标定的双目立体像机,包含了左、右两个像机,可实时获取左、右立体图像;然后采用Y. Ke等人提出的PCA-SIFT[9]方法,分别提取左、右图像的SIFT特征描述符,每个特征描述符为36维矢量,每一维矢量用8位来表示;所述的双目立体像机标定方法为成熟技术。
采用KD-Tree方法实现左、右图像间的SIFT特征匹配,并记录每对SIFT特征匹配的匹配代价。所述的SIFT特征匹配方法为成熟技术。
采用外极线约束滤除误匹配点;对于已标定的双目立体像机,外极线约束要求正确匹配点对在左、右图像中的垂直坐标差小于1。
以左图像为视觉特征提取的基准图像,将左图像划分为20×20个大小相等的区域,在每个区域中只选取一个具有最大匹配代价的SIFT特征作为该区域的视觉特征,即从左图像中最多可提取出400个视觉特征,并将这些视觉特征作为节点当前帧的视觉特征;因此每一个视觉节点从每一帧立体图像对中提取视觉特征的描述符最大数据量为400×36×8/1024=112.5kb。
步骤(2)网络中各视觉节点独立计算步骤(1)中所提取视觉特征的三维坐标。
所述的视觉特征三维坐标计算方法具体为:
步骤(1)中所提取视觉特征在左、右图像中的垂直坐标差小于1,而水平坐标差称为视差d,根据双目立体视觉三维重建公式,可得视觉特征i在左像机坐标系下的三维坐标
Figure 746840DEST_PATH_IMAGE001
                      
Figure 971148DEST_PATH_IMAGE002
                        (1)
其中bf,(u 0v 0)分别为双目立体像机标定中获得的基线、焦距和左图像光心坐标。(u i v i )为视觉特征i在左图像中的坐标,d i 为视觉特征i的视差。
步骤(3)网络中各视觉节点的网络定位数据包生成。
所述的视觉节点网络定位数据包生成方法具体为:
将步骤(1)和步骤(2)中提取的视觉特征描述符及其三维坐标打包作为视觉节点的网络定位数据包,并根据各视觉节点内的邻域关系表传递给邻域节点。
初始时各视觉节点内的邻域关系表为空,即各视觉节点间邻域关系未知,此时各视觉节点将其网络定位数据包通过“洪泛”传递给网络中所有视觉节点。
各视觉节点在接收到其他视觉节点的网络定位数据包后,更新其内部邻域关系表。随着各视觉节点内的邻域关系表逐步完善,即可通过邻域关系表估计出可能相邻的节点或仍未知关系的节点,则网络定位数据包将会有目的性地传递给这些相邻或仍未知关系的节点。最终待各节点内的邻域关系表完善后,每次网络定位数据包发送都将具有明确的目的节点,从而有效避免不必要的“洪泛”风险和能量损失。所述的邻域关系表构建和更新的具体表述在步骤(4)到步骤(7)中。
步骤(4)网络中两个视觉节点间视觉特征匹配
所述的两个视觉节点间视觉特征匹配方法具体为:
当一个视觉节点接收到其他视觉节点的网络定位数据包后,首先进行两视觉节点间的视觉特征匹配。采用与步骤(1)中相同的SIFT特征匹配方法。由于步骤(1)中视觉特征提取都是基于左图像的,因此类似于实现两视觉节点左图像间的SIFT特征匹配。
步骤(5)根据步骤(4)中得到的两个视觉节点间视觉特征匹配关系,估计两个视觉节点间的相对位姿,即获取两个视觉节点间的旋转矩阵和平移矩阵。
所述的两个视觉节点间相对位姿估计方法具体为:
令两个视觉节点mn的视觉特征匹配点对的三维坐标分别表示为
Figure 441629DEST_PATH_IMAGE004
,根据视觉成像关系,有:
                                              (2)
其中矩阵
Figure 250688DEST_PATH_IMAGE007
分别代表两个视觉节点相对位姿中的旋转矩阵和平移矩阵。相对位姿估计可转换为采用最小二乘法求解下式最小:
                         
Figure 378044DEST_PATH_IMAGE008
                      (3)
采用单位四元数表示旋转矩阵
Figure 30928DEST_PATH_IMAGE006
,用四元数加法和乘法代替旋转矩阵中的三角计算,可简化计算,并提高求解精度,有:
                   (4)
从而相对位姿估计中包含了7个自由度,理论上只需3对匹配点即可实现估计。为确保估计结果的鲁棒性,通常要求匹配点数大于某个阈值N(通常采用20)。构建四元数的共生对称矩阵
Figure 814875DEST_PATH_IMAGE011
(5)
其中
Figure 509478DEST_PATH_IMAGE014
Figure 587025DEST_PATH_IMAGE015
Figure 384079DEST_PATH_IMAGE016
经数值解归一化,减去质心后的三维坐标。i为参与相对位姿估计的匹配点标号。
共生对称矩阵
Figure 930598DEST_PATH_IMAGE011
经SVD分解,其最大特征根所对应的特征向量即为单位四元数的最优解。根据公式(4)恢复旋转矩阵,并代入公式(2),可获得平移矩阵
Figure 301723DEST_PATH_IMAGE007
为提高估计精度和鲁棒性,滤除偏离较大的野值,采用归一化RANSAC算法,从两个视觉节点间所有视觉特征匹配点对中估计出
Figure 269679DEST_PATH_IMAGE006
Figure 303494DEST_PATH_IMAGE007
。所述的归一化RANSAC算法为成熟技术。
最后采用非线性最小二乘LM(Levenberg-Marquardt)算法同时优化
Figure 15098DEST_PATH_IMAGE006
Figure 67236DEST_PATH_IMAGE007
的估计值。所述的非线性最小二乘LM算法为成熟技术。
步骤(6)根据步骤(5)中获得的两个视觉节点间相对位姿,更新视觉节点内邻域关系表。
所述的节点内邻域关系表更新方法具体为:
每个节点内都建有一张二维的邻域关系表
Figure 206094DEST_PATH_IMAGE017
,令
Figure 727205DEST_PATH_IMAGE018
表示视觉节点mn间的邻域关系,
Figure 976921DEST_PATH_IMAGE019
为步骤(5)中估计结果,有
Figure 461833DEST_PATH_IMAGE021
。则
Figure 470240DEST_PATH_IMAGE018
更新为:
                      
Figure 523647DEST_PATH_IMAGE022
                        (6)
搜索整个邻域关系表,若邻域关系表中已知
Figure 550378DEST_PATH_IMAGE023
,则可通过矩阵推导,同时更新
Figure 31038DEST_PATH_IMAGE024
                  
Figure 261162DEST_PATH_IMAGE025
               (7)
步骤(7)当某个视觉节点m发生运动,则该视觉节点进行自运动估计,确定视觉节点m运动后的新邻域节点,并根据新的邻域关系发送该视觉节点的网络定位数据包,更新邻域关系表。
所述的视觉节点自运动估计方法具体为:
视觉节点m根据步骤(1)到步骤(3)提取当前帧的网络定位数据包;
在视觉节点m中,采用与步骤(1)中相同的SIFT特征匹配方法,实现视觉节点m当前帧视觉特征和视觉节点m前一帧视觉特征的SIFT特征匹配;
采用与步骤(5)中相同的相对位姿估计方法,估计视觉节点m当前帧和前一帧间的相对位姿,即估计出视觉节点m在当前帧和前一帧间自运动的旋转矩阵
Figure 118259DEST_PATH_IMAGE026
和平移矩阵
Figure 999497DEST_PATH_IMAGE027
,有
Figure 651058DEST_PATH_IMAGE028
,其中为视觉节点m当前帧视觉特征的三维坐标,
Figure 29267DEST_PATH_IMAGE015
为视觉节点m前一帧视觉特征的三维坐标。
所述的视觉节点自运动后邻域关系表更新方法具体为:
在视觉节点m自运动估计后,搜索整个邻域关系表,若邻域关系表中视觉节点mn在视觉节点m运动前的邻域关系
Figure 765010DEST_PATH_IMAGE022
已知,则视觉节点m运动后的
Figure 853052DEST_PATH_IMAGE030
为:
Figure 57768DEST_PATH_IMAGE031
根据判断视觉节点mn是否为视觉相邻,即视觉节点mn在视野上存在较大范围重叠。判断依据为视觉节点mn相对位姿中旋转角度不能超过
Figure 843989DEST_PATH_IMAGE032
弧度(根据双目像机的有效视角选取,通常为
Figure 102932DEST_PATH_IMAGE033
),平移距离不能超过
Figure 794945DEST_PATH_IMAGE034
米(根据双目像机的有效视距选取,通常为5米)。
在确定视觉节点m与其他节点的邻域关系后,视觉节点m将当前帧的网络定位数据包发送给所有可能与视觉节点m存在视觉相邻的节点,并采用步骤(4)到步骤(6)的过程,更新邻域关系表。

Claims (1)

1.基于双目视觉节点的动态三维多媒体传感网络自定位方法,其特征在于该方法包括如下步骤:
步骤(1)网络中各视觉节点独立地提取该节点视野范围内的视觉特征;
所述的视觉特征提取具体方法为:
每个视觉节点采用一个已标定的双目立体像机,包含了左、右两个像机,可实时获取左、右立体图像;然后采用PCA-SIFT方法,分别提取左、右图像的SIFT特征描述符,每个特征描述符为36维矢量,每一维矢量用8位来表示;
采用KD-Tree方法实现左、右图像间的SIFT特征匹配,并记录每对SIFT特征匹配的匹配代价;
采用外极线约束滤除误匹配点;对于已标定的双目立体像机,外极线约束要求正确匹配点对在左、右图像中的垂直坐标差小于1;
以左图像为视觉特征提取的基准图像,将左图像划分为20×20个大小相等的区域,在每个区域中只选取一个具有最大匹配代价的SIFT特征作为该区域的视觉特征,即从左图像中最多可提取出400个视觉特征,并将这些视觉特征作为节点当前帧的视觉特征;因此每一个视觉节点从每一帧立体图像对中提取视觉特征的描述符最大数据量为400×36×8/1024=112.5kb;
步骤(2)网络中各视觉节点独立计算步骤(1)中所提取视觉特征的三维坐标;
所述的视觉特征三维坐标计算方法具体为:
步骤(1)中所提取视觉特征在左、右图像中的垂直坐标差小于1,而水平坐标差称为视差d,根据双目立体视觉三维重建公式,可得视觉特征i在左像机坐标系下的三维坐标(Xi,Yi,Zi):
X i = b ( u i - u 0 ) / d i Y i = b ( v 0 - v i ) / d i Z i = bf / d i - - - ( 1 )
其中b,f,(u0,v0)分别为双目立体像机标定中获得的基线、焦距和左图像光心坐标;(ui,vi)为视觉特征i在左图像中的坐标,di为视觉特征i的视差;
步骤(3)网络中各视觉节点的网络定位数据包生成,具体为:
将步骤(1)和步骤(2)中提取的视觉特征描述符及其三维坐标打包作为视觉节点的网络定位数据包,并根据各视觉节点内的邻域关系表传递给邻域节点;
初始时各视觉节点内的邻域关系表为空,即各视觉节点间邻域关系未知,此时各视觉节点将其网络定位数据包通过“洪泛”传递给网络中所有视觉节点;
各视觉节点在接收到其他视觉节点的网络定位数据包后,更新其内部邻域关系表;随着各视觉节点内的邻域关系表逐步完善,即可通过邻域关系表估计出可能相邻的节点或仍未知关系的节点,则网络定位数据包将会有目的性地传递给这些相邻或仍未知关系的节点;最终待各节点内的邻域关系表完善后,每次网络定位数据包发送都将具有明确的目的节点,从而有效避免不必要的“洪泛”风险和能量损失;
步骤(4)网络中两个视觉节点间视觉特征匹配,具体为:
当一个视觉节点接收到其他视觉节点的网络定位数据包后,首先进行两视觉节点间的视觉特征匹配;采用与步骤(1)中相同的SIFT特征匹配方法;由于步骤(1)中视觉特征提取都是基于左图像的,因此类似于实现两视觉节点左图像间的SIFT特征匹配;
步骤(5)根据步骤(4)中得到的两个视觉节点间视觉特征匹配关系,估计两个视觉节点间的相对位姿,即获取两个视觉节点间的旋转矩阵和平移矩阵;
所述的两个视觉节点间相对位姿估计具体方法为:
令两个视觉节点m和n的视觉特征匹配点对的三维坐标分别表示为
Figure FDA0000401828360000021
Figure FDA0000401828360000022
根据视觉成像关系,有:
Pn=R3×3Pm+T3×1                     (2)
其中矩阵R3×3和T3×1分别代表两个视觉节点相对位姿中的旋转矩阵和平移矩阵;相对位姿估计可转换为采用最小二乘法求解下式最小:
| | P n - ( R 3 × 3 P m + T 3 × 1 ) | | 2 - - - ( 3 )
采用单位四元数q=[q0,q1,q2,q3]T表示旋转矩阵R3×3,用四元数加法和乘法代替旋转矩阵中的三角计算,可简化计算,并提高求解精度,有:
R 3 × 3 = q 0 2 + q 1 2 - q 2 2 - q 3 2 2 ( q 1 q 2 - q 0 q 3 ) 2 ( q 1 q 3 + q 0 q 2 ) 2 ( q 1 q 2 + q 0 q 3 ) q 0 2 - q 1 2 + q 2 2 - q 3 2 2 ( q 2 q 3 - q 0 q 1 ) 2 ( q 1 q 3 - q 0 q 2 ) 2 ( q 2 q 3 + q 0 q 1 ) q 0 2 - q 1 2 - q 2 2 + q 3 2 - - - ( 4 )
从而相对位姿估计中包含了7个自由度,理论上只需3对匹配点即可实现估计;为确保估计结果的鲁棒性,通常要求匹配点数大于某个阈值N,构建四元数的共生对称矩阵Q:
Q = Σ i x ~ m i x ~ n i + y ~ m i y ~ n i + z ~ m i z ~ n i y ~ m i z ~ n i - z ~ m i y ~ n i z ~ m i x ~ n i - x ~ m i z ~ n i x ~ m i y ~ n i - y ~ m i x ~ n i y ~ m i z ~ n i - z ~ m i y ~ n i x ~ m i x ~ n i - y ~ m i y ~ n i - z ~ m i z ~ n i x ~ m i y ~ n i + y ~ m i x ~ n i x ~ m i z ~ n i + z ~ m i x ~ n i z ~ m i x ~ n i - x ~ m i z ~ n i x ~ m i y ~ n i + y ~ m i x ~ n i y ~ m i y ~ n i - x ~ m i x ~ n i - z ~ m i z ~ n i y ~ m i z ~ n i + z ~ m i y ~ n i x ~ m i y ~ n i - y ~ m i x ~ n i x ~ m i z ~ n i + z ~ m i x ~ n i y ~ m i z ~ n i + z ~ m i y ~ n i z ~ m i z ~ n i - x ~ m i x ~ n i - y ~ m i y ~ n i - - - ( 5 ) 其中
Figure FDA0000401828360000033
Figure FDA0000401828360000034
为Pm和Pn经数值解归一化,减去质心后的三维坐标;i为参与相对位姿估计的匹配点标号;
共生对称矩阵Q经SVD分解,其最大特征根所对应的特征向量即为单位四元数的最优解;根据公式(4)恢复旋转矩阵R3×3,并代入公式(2),可获得平移矩阵T3×1
为提高估计精度和鲁棒性,滤除偏离较大的野值,采用归一化RANSAC算法,从两个视觉节点间所有视觉特征匹配点对中估计出R3×3和T3×1
最后采用非线性最小二乘LM算法同时优化R3×3和T3×1的估计值;
步骤(6)根据步骤(5)中获得的两个视觉节点间相对位姿,更新视觉节点内邻域关系表;
所述的节点内邻域关系表更新具体方法为:
每个节点内都建有一张二维的邻域关系表,令表示视觉节点m和n间的邻域关系,
Figure FDA0000401828360000036
为步骤(5)中估计结果,有
Figure FDA0000401828360000037
Figure FDA00004018283600000311
更新为:
搜索整个邻域关系表,若邻域关系表中已知
Figure FDA0000401828360000039
则可通过矩阵推导,同时更新
Figure FDA00004018283600000310
步骤(7)当某个视觉节点m发生运动,则该视觉节点进行自运动估计,确定视觉节点m运动后的新邻域节点,并根据新的邻域关系发送该视觉节点的网络定位数据包,更新邻域关系表;
所述的视觉节点自运动估计具体方法为:
视觉节点m根据步骤(1)到步骤(3)提取当前帧的网络定位数据包;
在视觉节点m中,采用与步骤(1)中相同的SIFT特征匹配方法,实现视觉节点m当前帧视觉特征和视觉节点m前一帧视觉特征的SIFT特征匹配;
采用与步骤(5)中相同的相对位姿估计方法,估计视觉节点m当前帧和前一帧间的相对位姿,即估计出视觉节点m在当前帧和前一帧间自运动的旋转矩阵
Figure FDA0000401828360000041
和平移矩阵
Figure FDA0000401828360000042
其中P′m为视觉节点m当前帧视觉特征的三维坐标,Pm为视觉节点m前一帧视觉特征的三维坐标;
所述的视觉节点自运动后邻域关系表更新具体方法为:
在视觉节点m自运动估计后,搜索整个邻域关系表,若邻域关系表中视觉节点m和n在视觉节点m运动前的邻域关系
Figure FDA0000401828360000044
已知,则视觉节点m运动后的
Figure FDA0000401828360000046
为:
Figure FDA0000401828360000045
根据
Figure FDA0000401828360000047
判断视觉节点m和n是否为视觉相邻,即视觉节点m和n在视野上存在较大范围重叠;判断依据为视觉节点m和n相对位姿中旋转角度不能超过θ弧度,平移距离不能超过τ米;
在确定视觉节点m与其他节点的邻域关系后,视觉节点m将当前帧的网络定位数据包发送给所有可能与视觉节点m存在视觉相邻的节点,并采用步骤(4)到步骤(6)的过程,更新邻域关系表。
CN201110364395.XA 2011-11-17 2011-11-17 基于双目视觉节点的动态三维多媒体传感网络自定位方法 Expired - Fee Related CN102510512B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110364395.XA CN102510512B (zh) 2011-11-17 2011-11-17 基于双目视觉节点的动态三维多媒体传感网络自定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110364395.XA CN102510512B (zh) 2011-11-17 2011-11-17 基于双目视觉节点的动态三维多媒体传感网络自定位方法

Publications (2)

Publication Number Publication Date
CN102510512A CN102510512A (zh) 2012-06-20
CN102510512B true CN102510512B (zh) 2014-03-05

Family

ID=46222561

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110364395.XA Expired - Fee Related CN102510512B (zh) 2011-11-17 2011-11-17 基于双目视觉节点的动态三维多媒体传感网络自定位方法

Country Status (1)

Country Link
CN (1) CN102510512B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103596014B (zh) * 2013-11-26 2016-12-07 天津大学 多视点分布式视频编码中视点间边信息的生成方法
CN103925931A (zh) * 2014-04-30 2014-07-16 重庆环视科技有限公司 立体视觉自动几何标定系统
CN106843285B (zh) * 2017-01-16 2019-11-01 青岛海大新星软件咨询有限公司 虚拟环境中基于四元数的六自由度模型随动相机控制算法
CN108460824B (zh) * 2017-02-20 2024-04-02 北京三星通信技术研究有限公司 立体多媒体信息的确定方法、装置及系统
CN108257161B (zh) * 2018-01-16 2021-09-10 重庆邮电大学 基于多相机的车辆环境三维重构和运动估计系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1616920A (zh) * 2003-11-14 2005-05-18 北京理工大学 一种基于双目视觉和激光测距的主动实时三维定位系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1616920A (zh) * 2003-11-14 2005-05-18 北京理工大学 一种基于双目视觉和激光测距的主动实时三维定位系统

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
双目立体视觉的目标识别与定位;尚倩等;《智能系统学报》;20110831;第6卷(第4期);303-311 *
基于SIFT特征点的双目视觉定位;孟浩等;《哈尔滨工程大学学报》;20090630;第30卷(第6期);649-652 *
孟浩等.基于SIFT特征点的双目视觉定位.《哈尔滨工程大学学报》.2009,第30卷(第6期),649-652.
尚倩等.双目立体视觉的目标识别与定位.《智能系统学报》.2011,第6卷(第4期),303-311.
有序的KD-tree在图像特征匹配上的应用;熊云艳等;《化工自动化与仪表》;20101231;第37卷(第10期);84-87 *
熊云艳等.有序的KD-tree在图像特征匹配上的应用.《化工自动化与仪表》.2010,第37卷(第10期),84-87.

Also Published As

Publication number Publication date
CN102510512A (zh) 2012-06-20

Similar Documents

Publication Publication Date Title
CN104376552A (zh) 一种3d模型与二维图像的虚实配准算法
CN102646275B (zh) 通过跟踪和定位算法实现虚拟三维叠加的方法
CN103839277B (zh) 一种户外大范围自然场景的移动增强现实注册方法
CN102510512B (zh) 基于双目视觉节点的动态三维多媒体传感网络自定位方法
CN107657640A (zh) 基于orb slam的智能巡防巡检管理方法
Lin et al. Topology aware object-level semantic mapping towards more robust loop closure
CN107560592B (zh) 一种用于光电跟踪仪联动目标的精确测距方法
CN103604417B (zh) 物方信息约束的多视影像双向匹配策略
CN113223045B (zh) 基于动态物体语义分割的视觉与imu传感器融合定位系统
CN110889873A (zh) 一种目标定位方法、装置、电子设备及存储介质
CN104240229B (zh) 一种红外双目相机自适应极线校正方法
CN113111751B (zh) 一种自适应融合可见光与点云数据的三维目标检测方法
CN102914295A (zh) 基于计算机视觉立方体标定的三维测量方法
Garg et al. Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation
CN107274439A (zh) 基于地基鱼眼相机阵列的无人机光学跟踪定位方法
CN110261877A (zh) 一种基于改进图优化slam的地空协同视觉导航方法及装置
Feng et al. Three-dimensional robot localization using cameras in wireless multimedia sensor networks
CN109961461B (zh) 一种基于三维分层图模型的多运动目标跟踪方法
Guo et al. Research on DSO vision positioning technology based on binocular stereo panoramic vision system
Mithun et al. Cross-view visual geo-localization for outdoor augmented reality
Chenchen et al. A camera calibration method for obstacle distance measurement based on monocular vision
CN108090930A (zh) 基于双目立体相机的障碍物视觉检测系统及方法
CN116206050A (zh) 三维重建方法、电子设备和计算机可读存储介质
You et al. Better Monocular 3D Detectors with LiDAR from the Past
Liu et al. Crowd sensing and spatiotemporal analysis in urban open space using multi‐viewpoint geotagged videos

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210701

Address after: 314400 room 609, block a, 128 Shuanglian Road, Haining Economic Development Zone, Haining City, Jiaxing City, Zhejiang Province

Patentee after: Haining Dingcheng Intelligent Equipment Co.,Ltd.

Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee before: HANGZHOU DIANZI University

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140305

CF01 Termination of patent right due to non-payment of annual fee