CN102510512B - 基于双目视觉节点的动态三维多媒体传感网络自定位方法 - Google Patents
基于双目视觉节点的动态三维多媒体传感网络自定位方法 Download PDFInfo
- Publication number
- CN102510512B CN102510512B CN201110364395.XA CN201110364395A CN102510512B CN 102510512 B CN102510512 B CN 102510512B CN 201110364395 A CN201110364395 A CN 201110364395A CN 102510512 B CN102510512 B CN 102510512B
- Authority
- CN
- China
- Prior art keywords
- vision
- node
- neighborhood relationships
- vision node
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000004438 eyesight Effects 0.000 claims abstract description 201
- 230000000007 visual effect Effects 0.000 claims description 84
- 239000011159 matrix material Substances 0.000 claims description 41
- 239000000284 extract Substances 0.000 claims description 23
- 238000006073 displacement reaction Methods 0.000 claims description 18
- 238000013519 translation Methods 0.000 claims description 15
- 230000008878 coupling Effects 0.000 claims description 12
- 238000010168 coupling process Methods 0.000 claims description 12
- 238000005859 coupling reaction Methods 0.000 claims description 12
- 239000007787 solid Substances 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 230000031068 symbiosis, encompassing mutualism through parasitism Effects 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 4
- 235000007164 Oryza sativa Nutrition 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 235000009566 rice Nutrition 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 238000000205 computational method Methods 0.000 claims description 2
- 240000007594 Oryza sativa Species 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 10
- 241000209094 Oryza Species 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于双目视觉节点的动态三维多媒体传感网络自定位方法。目前的方法通常都是基于单目视觉节点。本发明方法各节点独立提取基于SIFT特征描述符的三维点云;并根据两两节点间匹配信息,采用基于单位四元数的运动估计方法获得相对位姿;最后分布式定位策略实现所有节点的自定位。其最主要优势在于:在三维网络部署下,仅在两节点间即可完成其相对位姿估计,进而可有效避免不必要的“洪泛”风险和能量损失。该优势在大规模动态多媒体传感网络中尤为重要。
Description
技术领域
本发明属于多媒体传感网络领域,具体涉及一种基于双目视觉节点的动态三维多媒体传感网络分布式自定位方法。
背景技术
由于视觉传感器可获取丰富且有价值的环境上下文信息,多媒体传感网络受到越来越广泛的关注。与此同时,近年来国内外在嵌入式系统及分布式视觉算法上取得的显著进展也为其应用和实现铺平道路。不同于传统传感器网络中传感器节点采用的全向感知模型,多媒体传感网络中的视觉节点存在视角受限且易被遮挡等问题,面临着有向感知和视距覆盖的新挑战。因此视觉节点定位是实现多媒体传感网络部署和分析的前提和关键。
目前已提出了许多多媒体传感网络自定位方法。但这些方法通常都是基于单目视觉节点,O. Faugeras等人研究表明两个已标定像机只能实现尺度上的相对位姿估计[1],为获取节点位姿的唯一解,一种方法是需假定场景为近似平坦的表面,通过计算单应性矩阵实现位姿估计。另一种则是采用类似Bundle Adjustment方法将多个甚至全部节点共同参与定位估计,即要求每个节点都要通过“洪泛”将其特征集合传递给整个网络。如W. Mantzel等人提出的分布交替式三角定位技术(DALT)[2],Z. Cheng等人提出的基于视觉SfM方法的视觉图模型[3]等。然而这种需要大量“洪泛”过程的方法,在网络规模较大或是动态网络下难以有效实现。
为避免单目视觉固有的歧义性问题,国内外学者提出了基于立体视觉节点的多媒体传感网络。S. Hengstler等人设计并实现了MeshEye立体视觉节点的原型系统[4]。S. Kumar等人提出一种双PTZ像机的视觉节点,通过SIFT特征匹配并估计单应性矩阵实现运动目标定位[5]。A. Mavrinac等人采用双目视觉节点经ZNCC算法匹配Harris或FAST特征,实现多媒体传感网络的自标定[6]。
参考文献
[1] Q. Luong, O. Faugeras. Camera Calibration, Scene Motion and Structure Recovery From Point Correspondences and Fundamental Matrices. International Journal of Computer Vision. 22(3): 261-289, 1997.
[2] W. Mantzel, H. Choi, R. Baraniuk. Distributed Camera Network Localization. Thirty-eighth Asilomar Conference on Signals, Systems & Computers. Pacific Grove, CA.2:1381-1386, 2004.
[3] Z. Cheng, D. Devarajan, R. Radke. Determining Vision Graphs for Distributed Camera Networks Using Feature Digests. EURASIP Journal on Applied Signal Processing. (1): 220-220. 2007.
[4] S. Hengstler, D. Prashanth, S. Fonget, et al. MeshEye: A Hybrid-Resolution Smart Camera Mote for Applications in Distributed Intelligent Surveillance. Information Processing in Sensor Networks (IPSN-SPOTS). 2007.
[5] S.Kumar, C. Micheloni, C. Piciarelli. Stereo Localization Using Dual PTZ Cameras. International Conference on Computer Analysis of Images and Patterns. 2009.
[6] A. Mavrinac, X. Chen, K. Tepe. An Automatic Calibration Method for Stereo-based 3D Distributed Smart Camera Networks. Computer Vision and Image Understanding. 114(8): 952-962. 2010.
[7] D. Lowe. Distinctive Image Features from Scale Invariant Keypoints. International Journal of Computer Vision. 60: 91-110. 2004.
[8] Y. Ke, R. Sukthankar. PCA-SIFT: A More Distinctive Representation for Local Image Descriptors. Computer Vision and Pattern Recognition, 2004
[9] B. Horn. Closed-form Solution of Absolute Orientation Using Unit Quaternions. Journal of the Optical Society of America. 4(4): 629-642. 1987。
发明内容
本发明针对视觉节点可在任意三维空间中随机部署,且可任意旋转确保目标连续跟踪的更一般情况,提供一种无任何假定约束的动态三维多媒体传感网络的分布式自定位方法。
本发明中各节点独立提取基于SIFT特征描述符[7, 8]的三维点云;并根据两两节点间匹配信息,采用基于单位四元数的运动估计方法[9]获得相对位姿;最后分布式定位策略实现所有节点的自定位。其最主要优势在于:在三维网络部署下,仅在两节点间即可完成其相对位姿估计,进而可有效避免不必要的“洪泛”风险和能量损失。
本发明方法的具体步骤如下:
步骤(1)网络中各视觉节点独立地提取该节点视野范围内的视觉特征。
所述的视觉特征提取具体方法为:
每个视觉节点采用一个已标定的双目立体像机,包含了左、右两个像机,可实时获取左、右立体图像;然后采用Y. Ke等人提出的PCA-SIFT[9]方法,分别提取左、右图像的SIFT特征描述符,每个特征描述符为36维矢量,每一维矢量用8位来表示;所述的双目立体像机标定方法为成熟技术。
采用KD-Tree方法实现左、右图像间的SIFT特征匹配,并记录每对SIFT特征匹配的匹配代价。所述的SIFT特征匹配方法为成熟技术。
采用外极线约束滤除误匹配点;对于已标定的双目立体像机,外极线约束要求正确匹配点对在左、右图像中的垂直坐标差小于1。
以左图像为视觉特征提取的基准图像,将左图像划分为20×20个大小相等的区域,在每个区域中只选取一个具有最大匹配代价的SIFT特征作为该区域的视觉特征,即从左图像中最多可提取出400个视觉特征,并将这些视觉特征作为节点当前帧的视觉特征;因此每一个视觉节点从每一帧立体图像对中提取视觉特征的描述符最大数据量为400×36×8/1024=112.5kb。
步骤(2)网络中各视觉节点独立计算步骤(1)中所提取视觉特征的三维坐标。
所述的视觉特征三维坐标计算具体方法为:
其中b,f,(u 0, v 0)分别为双目立体像机标定中获得的基线、焦距和左图像光心坐标。(u i , v i )为视觉特征i在左图像中的坐标,d i 为视觉特征i的视差。
步骤(3)网络中各视觉节点的网络定位数据包生成,具体为:
将步骤(1)和步骤(2)中提取的视觉特征描述符及其三维坐标打包作为视觉节点的网络定位数据包,并根据各视觉节点内的邻域关系表传递给邻域节点。
初始时各视觉节点内的邻域关系表为空,即各视觉节点间邻域关系未知,此时各视觉节点将其网络定位数据包通过“洪泛”传递给网络中所有视觉节点。
各视觉节点在接收到其他视觉节点的网络定位数据包后,更新其内部邻域关系表。随着各视觉节点内的邻域关系表逐步完善,即可通过邻域关系表估计出可能相邻的节点或仍未知关系的节点,则网络定位数据包将会有目的性地传递给这些相邻或仍未知关系的节点。最终待各节点内的邻域关系表完善后,每次网络定位数据包发送都将具有明确的目的节点,从而有效避免不必要的“洪泛”风险和能量损失。所述的邻域关系表构建和更新的具体表述在步骤(4)到步骤(7)中。
步骤(4)网络中两个视觉节点间视觉特征匹配,具体为:
当一个视觉节点接收到其他视觉节点的网络定位数据包后,首先进行两视觉节点间的视觉特征匹配。采用与步骤(1)中相同的SIFT特征匹配方法。由于步骤(1)中视觉特征提取都是基于左图像的,因此类似于实现两视觉节点左图像间的SIFT特征匹配。
步骤(5)根据步骤(4)中得到的两个视觉节点间视觉特征匹配关系,估计两个视觉节点间的相对位姿,即获取两个视觉节点间的旋转矩阵和平移矩阵。
所述的两个视觉节点间相对位姿估计具体方法为:
步骤(6)根据步骤(5)中获得的两个视觉节点间相对位姿,更新视觉节点内邻域关系表。
所述的节点内邻域关系表更新具体方法为:
(6)
步骤(7)当某个视觉节点m发生运动,则该视觉节点进行自运动估计,确定视觉节点m运动后的新邻域节点,并根据新的邻域关系发送该视觉节点的网络定位数据包,更新邻域关系表。
所述的视觉节点自运动估计具体方法为:
视觉节点m根据步骤(1)到步骤(3)提取当前帧的网络定位数据包;
在视觉节点m中,采用与步骤(1)中相同的SIFT特征匹配方法,实现视觉节点m当前帧视觉特征和视觉节点m前一帧视觉特征的SIFT特征匹配;
采用与步骤(5)中相同的相对位姿估计方法,估计视觉节点m当前帧和前一帧间的相对位姿,即估计出视觉节点m在当前帧和前一帧间自运动的旋转矩阵和平移矩阵,有,其中为视觉节点m当前帧视觉特征的三维坐标,为视觉节点m前一帧视觉特征的三维坐标。
所述的视觉节点自运动后邻域关系表更新具体方法为:
根据判断视觉节点m和n是否为视觉相邻,即视觉节点m和n在视野上存在较大范围重叠。判断依据为视觉节点m和n相对位姿中旋转角度不能超过弧度(根据双目像机的有效视角选取,通常为),平移距离不能超过米(根据双目像机的有效视距选取,通常为5米)。
在确定视觉节点m与其他节点的邻域关系后,视觉节点m将当前帧的网络定位数据包发送给所有可能与视觉节点m存在视觉相邻的节点,并采用步骤(4)到步骤(6)的过程,更新邻域关系表。
本发明的有益效果:本发明提供了一种基于双目视觉节点的动态三维多媒体传感网络自定位方法。该方法采用双目立体像机作为视觉节点,每个视觉节点独立提取有限个数SIFT特征描述符及其三维坐标,并打包为该视觉节点的网络定位数据包;两个视觉节点间仅需存在3个及以上的特征匹配点对即可估计出这两节点的相对位姿,可有效降低网络通信开销和节点存储容量需求。同时采用基于四元数的位姿估计方法,在提高数值解精度的同时还具有计算简便等特点。结合视觉节点自运动估计和节点间相对位姿估计,在每个视觉节点内建立和更新邻域关系表,以此确定各视觉节点数据包发送的目标地址,避免不必要的“洪泛”风险和能量损失。
附图说明
图1为本发明中的方法框图。
具体实施方式
以下结合附图对本发明作进一步说明。
如图1所示,基于双目视觉节点的动态三维多媒体传感网络自定位方法的具体步骤如下:
步骤(1)网络中各视觉节点独立地提取该节点视野范围内的视觉特征。
所述的视觉特征提取方法具体为:
每个视觉节点采用一个已标定的双目立体像机,包含了左、右两个像机,可实时获取左、右立体图像;然后采用Y. Ke等人提出的PCA-SIFT[9]方法,分别提取左、右图像的SIFT特征描述符,每个特征描述符为36维矢量,每一维矢量用8位来表示;所述的双目立体像机标定方法为成熟技术。
采用KD-Tree方法实现左、右图像间的SIFT特征匹配,并记录每对SIFT特征匹配的匹配代价。所述的SIFT特征匹配方法为成熟技术。
采用外极线约束滤除误匹配点;对于已标定的双目立体像机,外极线约束要求正确匹配点对在左、右图像中的垂直坐标差小于1。
以左图像为视觉特征提取的基准图像,将左图像划分为20×20个大小相等的区域,在每个区域中只选取一个具有最大匹配代价的SIFT特征作为该区域的视觉特征,即从左图像中最多可提取出400个视觉特征,并将这些视觉特征作为节点当前帧的视觉特征;因此每一个视觉节点从每一帧立体图像对中提取视觉特征的描述符最大数据量为400×36×8/1024=112.5kb。
步骤(2)网络中各视觉节点独立计算步骤(1)中所提取视觉特征的三维坐标。
所述的视觉特征三维坐标计算方法具体为:
其中b,f,(u 0, v 0)分别为双目立体像机标定中获得的基线、焦距和左图像光心坐标。(u i , v i )为视觉特征i在左图像中的坐标,d i 为视觉特征i的视差。
步骤(3)网络中各视觉节点的网络定位数据包生成。
所述的视觉节点网络定位数据包生成方法具体为:
将步骤(1)和步骤(2)中提取的视觉特征描述符及其三维坐标打包作为视觉节点的网络定位数据包,并根据各视觉节点内的邻域关系表传递给邻域节点。
初始时各视觉节点内的邻域关系表为空,即各视觉节点间邻域关系未知,此时各视觉节点将其网络定位数据包通过“洪泛”传递给网络中所有视觉节点。
各视觉节点在接收到其他视觉节点的网络定位数据包后,更新其内部邻域关系表。随着各视觉节点内的邻域关系表逐步完善,即可通过邻域关系表估计出可能相邻的节点或仍未知关系的节点,则网络定位数据包将会有目的性地传递给这些相邻或仍未知关系的节点。最终待各节点内的邻域关系表完善后,每次网络定位数据包发送都将具有明确的目的节点,从而有效避免不必要的“洪泛”风险和能量损失。所述的邻域关系表构建和更新的具体表述在步骤(4)到步骤(7)中。
步骤(4)网络中两个视觉节点间视觉特征匹配
所述的两个视觉节点间视觉特征匹配方法具体为:
当一个视觉节点接收到其他视觉节点的网络定位数据包后,首先进行两视觉节点间的视觉特征匹配。采用与步骤(1)中相同的SIFT特征匹配方法。由于步骤(1)中视觉特征提取都是基于左图像的,因此类似于实现两视觉节点左图像间的SIFT特征匹配。
步骤(5)根据步骤(4)中得到的两个视觉节点间视觉特征匹配关系,估计两个视觉节点间的相对位姿,即获取两个视觉节点间的旋转矩阵和平移矩阵。
所述的两个视觉节点间相对位姿估计方法具体为:
(2)
(4)
(5)
步骤(6)根据步骤(5)中获得的两个视觉节点间相对位姿,更新视觉节点内邻域关系表。
所述的节点内邻域关系表更新方法具体为:
步骤(7)当某个视觉节点m发生运动,则该视觉节点进行自运动估计,确定视觉节点m运动后的新邻域节点,并根据新的邻域关系发送该视觉节点的网络定位数据包,更新邻域关系表。
所述的视觉节点自运动估计方法具体为:
视觉节点m根据步骤(1)到步骤(3)提取当前帧的网络定位数据包;
在视觉节点m中,采用与步骤(1)中相同的SIFT特征匹配方法,实现视觉节点m当前帧视觉特征和视觉节点m前一帧视觉特征的SIFT特征匹配;
采用与步骤(5)中相同的相对位姿估计方法,估计视觉节点m当前帧和前一帧间的相对位姿,即估计出视觉节点m在当前帧和前一帧间自运动的旋转矩阵和平移矩阵,有,其中为视觉节点m当前帧视觉特征的三维坐标,为视觉节点m前一帧视觉特征的三维坐标。
所述的视觉节点自运动后邻域关系表更新方法具体为:
根据判断视觉节点m和n是否为视觉相邻,即视觉节点m和n在视野上存在较大范围重叠。判断依据为视觉节点m和n相对位姿中旋转角度不能超过弧度(根据双目像机的有效视角选取,通常为),平移距离不能超过米(根据双目像机的有效视距选取,通常为5米)。
在确定视觉节点m与其他节点的邻域关系后,视觉节点m将当前帧的网络定位数据包发送给所有可能与视觉节点m存在视觉相邻的节点,并采用步骤(4)到步骤(6)的过程,更新邻域关系表。
Claims (1)
1.基于双目视觉节点的动态三维多媒体传感网络自定位方法,其特征在于该方法包括如下步骤:
步骤(1)网络中各视觉节点独立地提取该节点视野范围内的视觉特征;
所述的视觉特征提取具体方法为:
每个视觉节点采用一个已标定的双目立体像机,包含了左、右两个像机,可实时获取左、右立体图像;然后采用PCA-SIFT方法,分别提取左、右图像的SIFT特征描述符,每个特征描述符为36维矢量,每一维矢量用8位来表示;
采用KD-Tree方法实现左、右图像间的SIFT特征匹配,并记录每对SIFT特征匹配的匹配代价;
采用外极线约束滤除误匹配点;对于已标定的双目立体像机,外极线约束要求正确匹配点对在左、右图像中的垂直坐标差小于1;
以左图像为视觉特征提取的基准图像,将左图像划分为20×20个大小相等的区域,在每个区域中只选取一个具有最大匹配代价的SIFT特征作为该区域的视觉特征,即从左图像中最多可提取出400个视觉特征,并将这些视觉特征作为节点当前帧的视觉特征;因此每一个视觉节点从每一帧立体图像对中提取视觉特征的描述符最大数据量为400×36×8/1024=112.5kb;
步骤(2)网络中各视觉节点独立计算步骤(1)中所提取视觉特征的三维坐标;
所述的视觉特征三维坐标计算方法具体为:
步骤(1)中所提取视觉特征在左、右图像中的垂直坐标差小于1,而水平坐标差称为视差d,根据双目立体视觉三维重建公式,可得视觉特征i在左像机坐标系下的三维坐标(Xi,Yi,Zi):
其中b,f,(u0,v0)分别为双目立体像机标定中获得的基线、焦距和左图像光心坐标;(ui,vi)为视觉特征i在左图像中的坐标,di为视觉特征i的视差;
步骤(3)网络中各视觉节点的网络定位数据包生成,具体为:
将步骤(1)和步骤(2)中提取的视觉特征描述符及其三维坐标打包作为视觉节点的网络定位数据包,并根据各视觉节点内的邻域关系表传递给邻域节点;
初始时各视觉节点内的邻域关系表为空,即各视觉节点间邻域关系未知,此时各视觉节点将其网络定位数据包通过“洪泛”传递给网络中所有视觉节点;
各视觉节点在接收到其他视觉节点的网络定位数据包后,更新其内部邻域关系表;随着各视觉节点内的邻域关系表逐步完善,即可通过邻域关系表估计出可能相邻的节点或仍未知关系的节点,则网络定位数据包将会有目的性地传递给这些相邻或仍未知关系的节点;最终待各节点内的邻域关系表完善后,每次网络定位数据包发送都将具有明确的目的节点,从而有效避免不必要的“洪泛”风险和能量损失;
步骤(4)网络中两个视觉节点间视觉特征匹配,具体为:
当一个视觉节点接收到其他视觉节点的网络定位数据包后,首先进行两视觉节点间的视觉特征匹配;采用与步骤(1)中相同的SIFT特征匹配方法;由于步骤(1)中视觉特征提取都是基于左图像的,因此类似于实现两视觉节点左图像间的SIFT特征匹配;
步骤(5)根据步骤(4)中得到的两个视觉节点间视觉特征匹配关系,估计两个视觉节点间的相对位姿,即获取两个视觉节点间的旋转矩阵和平移矩阵;
所述的两个视觉节点间相对位姿估计具体方法为:
Pn=R3×3Pm+T3×1 (2)
其中矩阵R3×3和T3×1分别代表两个视觉节点相对位姿中的旋转矩阵和平移矩阵;相对位姿估计可转换为采用最小二乘法求解下式最小:
采用单位四元数q=[q0,q1,q2,q3]T表示旋转矩阵R3×3,用四元数加法和乘法代替旋转矩阵中的三角计算,可简化计算,并提高求解精度,有:
从而相对位姿估计中包含了7个自由度,理论上只需3对匹配点即可实现估计;为确保估计结果的鲁棒性,通常要求匹配点数大于某个阈值N,构建四元数的共生对称矩阵Q:
共生对称矩阵Q经SVD分解,其最大特征根所对应的特征向量即为单位四元数的最优解;根据公式(4)恢复旋转矩阵R3×3,并代入公式(2),可获得平移矩阵T3×1;
为提高估计精度和鲁棒性,滤除偏离较大的野值,采用归一化RANSAC算法,从两个视觉节点间所有视觉特征匹配点对中估计出R3×3和T3×1;
最后采用非线性最小二乘LM算法同时优化R3×3和T3×1的估计值;
步骤(6)根据步骤(5)中获得的两个视觉节点间相对位姿,更新视觉节点内邻域关系表;
所述的节点内邻域关系表更新具体方法为:
步骤(7)当某个视觉节点m发生运动,则该视觉节点进行自运动估计,确定视觉节点m运动后的新邻域节点,并根据新的邻域关系发送该视觉节点的网络定位数据包,更新邻域关系表;
所述的视觉节点自运动估计具体方法为:
视觉节点m根据步骤(1)到步骤(3)提取当前帧的网络定位数据包;
在视觉节点m中,采用与步骤(1)中相同的SIFT特征匹配方法,实现视觉节点m当前帧视觉特征和视觉节点m前一帧视觉特征的SIFT特征匹配;
采用与步骤(5)中相同的相对位姿估计方法,估计视觉节点m当前帧和前一帧间的相对位姿,即估计出视觉节点m在当前帧和前一帧间自运动的旋转矩阵和平移矩阵有其中P′m为视觉节点m当前帧视觉特征的三维坐标,Pm为视觉节点m前一帧视觉特征的三维坐标;
所述的视觉节点自运动后邻域关系表更新具体方法为:
在确定视觉节点m与其他节点的邻域关系后,视觉节点m将当前帧的网络定位数据包发送给所有可能与视觉节点m存在视觉相邻的节点,并采用步骤(4)到步骤(6)的过程,更新邻域关系表。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110364395.XA CN102510512B (zh) | 2011-11-17 | 2011-11-17 | 基于双目视觉节点的动态三维多媒体传感网络自定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110364395.XA CN102510512B (zh) | 2011-11-17 | 2011-11-17 | 基于双目视觉节点的动态三维多媒体传感网络自定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102510512A CN102510512A (zh) | 2012-06-20 |
CN102510512B true CN102510512B (zh) | 2014-03-05 |
Family
ID=46222561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110364395.XA Expired - Fee Related CN102510512B (zh) | 2011-11-17 | 2011-11-17 | 基于双目视觉节点的动态三维多媒体传感网络自定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102510512B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103596014B (zh) * | 2013-11-26 | 2016-12-07 | 天津大学 | 多视点分布式视频编码中视点间边信息的生成方法 |
CN103925931A (zh) * | 2014-04-30 | 2014-07-16 | 重庆环视科技有限公司 | 立体视觉自动几何标定系统 |
CN106843285B (zh) * | 2017-01-16 | 2019-11-01 | 青岛海大新星软件咨询有限公司 | 虚拟环境中基于四元数的六自由度模型随动相机控制算法 |
CN108460824B (zh) * | 2017-02-20 | 2024-04-02 | 北京三星通信技术研究有限公司 | 立体多媒体信息的确定方法、装置及系统 |
CN108257161B (zh) * | 2018-01-16 | 2021-09-10 | 重庆邮电大学 | 基于多相机的车辆环境三维重构和运动估计系统及方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1616920A (zh) * | 2003-11-14 | 2005-05-18 | 北京理工大学 | 一种基于双目视觉和激光测距的主动实时三维定位系统 |
-
2011
- 2011-11-17 CN CN201110364395.XA patent/CN102510512B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1616920A (zh) * | 2003-11-14 | 2005-05-18 | 北京理工大学 | 一种基于双目视觉和激光测距的主动实时三维定位系统 |
Non-Patent Citations (6)
Title |
---|
双目立体视觉的目标识别与定位;尚倩等;《智能系统学报》;20110831;第6卷(第4期);303-311 * |
基于SIFT特征点的双目视觉定位;孟浩等;《哈尔滨工程大学学报》;20090630;第30卷(第6期);649-652 * |
孟浩等.基于SIFT特征点的双目视觉定位.《哈尔滨工程大学学报》.2009,第30卷(第6期),649-652. |
尚倩等.双目立体视觉的目标识别与定位.《智能系统学报》.2011,第6卷(第4期),303-311. |
有序的KD-tree在图像特征匹配上的应用;熊云艳等;《化工自动化与仪表》;20101231;第37卷(第10期);84-87 * |
熊云艳等.有序的KD-tree在图像特征匹配上的应用.《化工自动化与仪表》.2010,第37卷(第10期),84-87. |
Also Published As
Publication number | Publication date |
---|---|
CN102510512A (zh) | 2012-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104376552A (zh) | 一种3d模型与二维图像的虚实配准算法 | |
CN102646275B (zh) | 通过跟踪和定位算法实现虚拟三维叠加的方法 | |
CN103839277B (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN102510512B (zh) | 基于双目视觉节点的动态三维多媒体传感网络自定位方法 | |
CN107657640A (zh) | 基于orb slam的智能巡防巡检管理方法 | |
Lin et al. | Topology aware object-level semantic mapping towards more robust loop closure | |
CN107560592B (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN103604417B (zh) | 物方信息约束的多视影像双向匹配策略 | |
CN113223045B (zh) | 基于动态物体语义分割的视觉与imu传感器融合定位系统 | |
CN110889873A (zh) | 一种目标定位方法、装置、电子设备及存储介质 | |
CN104240229B (zh) | 一种红外双目相机自适应极线校正方法 | |
CN113111751B (zh) | 一种自适应融合可见光与点云数据的三维目标检测方法 | |
CN102914295A (zh) | 基于计算机视觉立方体标定的三维测量方法 | |
Garg et al. | Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation | |
CN107274439A (zh) | 基于地基鱼眼相机阵列的无人机光学跟踪定位方法 | |
CN110261877A (zh) | 一种基于改进图优化slam的地空协同视觉导航方法及装置 | |
Feng et al. | Three-dimensional robot localization using cameras in wireless multimedia sensor networks | |
CN109961461B (zh) | 一种基于三维分层图模型的多运动目标跟踪方法 | |
Guo et al. | Research on DSO vision positioning technology based on binocular stereo panoramic vision system | |
Mithun et al. | Cross-view visual geo-localization for outdoor augmented reality | |
Chenchen et al. | A camera calibration method for obstacle distance measurement based on monocular vision | |
CN108090930A (zh) | 基于双目立体相机的障碍物视觉检测系统及方法 | |
CN116206050A (zh) | 三维重建方法、电子设备和计算机可读存储介质 | |
You et al. | Better Monocular 3D Detectors with LiDAR from the Past | |
Liu et al. | Crowd sensing and spatiotemporal analysis in urban open space using multi‐viewpoint geotagged videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210701 Address after: 314400 room 609, block a, 128 Shuanglian Road, Haining Economic Development Zone, Haining City, Jiaxing City, Zhejiang Province Patentee after: Haining Dingcheng Intelligent Equipment Co.,Ltd. Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang Patentee before: HANGZHOU DIANZI University |
|
TR01 | Transfer of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140305 |
|
CF01 | Termination of patent right due to non-payment of annual fee |