CN101336856A - 辅助视觉系统的信息获取与传递方法 - Google Patents

辅助视觉系统的信息获取与传递方法 Download PDF

Info

Publication number
CN101336856A
CN101336856A CNA2008101505826A CN200810150582A CN101336856A CN 101336856 A CN101336856 A CN 101336856A CN A2008101505826 A CNA2008101505826 A CN A2008101505826A CN 200810150582 A CN200810150582 A CN 200810150582A CN 101336856 A CN101336856 A CN 101336856A
Authority
CN
China
Prior art keywords
information
image
characteristic point
sigma
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008101505826A
Other languages
English (en)
Other versions
CN101336856B (zh
Inventor
郭宝龙
孙伟
陈龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN2008101505826A priority Critical patent/CN101336856B/zh
Publication of CN101336856A publication Critical patent/CN101336856A/zh
Application granted granted Critical
Publication of CN101336856B publication Critical patent/CN101336856B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种辅助视觉系统的信息获取与传递方法。其过程包括:1.通过两个摄像机从不同角度同时获得被测物的两幅原始数字图像;2.利用Harris角点检测方法提取出两幅原始数字图像的特征点;3.通过两个摄像机获取特征点的三维几何信息;4.以每一个特征点为中心取矩形区域,找到下一帧特征点的位置并求出特征点的运动矢量;5.通过颜色直方图对原始数字图像中的路面信息按照色度信息进行分割,计算道路信息;6.对原始图像特征点的运动信息、特征点的三维几何信息及道路信息分别进行编码;7.将编码信息通过辅助视觉系统中信息传递阵列单元传输给视觉障碍的人体。本发明具有可准确获得目标的三维几何信息的优点,可用于辅助视觉障碍人群的安全定向行走。

Description

辅助视觉系统的信息获取与传递方法
技术领域
本发明属于信息技术领域,涉及一种环境信息获取与传递方法,该方法能有效地获取环境信息,可用于辅助视觉障碍人群实现定向行走以及特殊环境下的定向行走。
背景技术
从20世纪70年代开始,各国学者已开展了帮助盲人获取环境信息的电子行走辅助系统的设计和探索工作,如Laser Cane(Bolgiano D,Meeks EJ.A laser cane for the blind[J].IEEE Journal of Quantum Electronic,1967,3(6):268.),FishR(Fish R.Auditory display forthe blind[P].USA:3800082,1974203226.)的图像声音系统,VOICE(Meijer P.Image-audiotransformation system[P].USA:5097326,1992203217.)系统,Tyflos盲人智能助手等。这些系统均利用传感设备获取环境数据信息,并将处理后的数据转换成易于盲人理解的非视觉信号,其目的是辅助盲人独立而安全地行走。尽管各国学者和专家们已经花了30多年的时间研究和开发各种电子行走辅助系统,但该系统的普及和应用至今始终不是很理想。
从信息获取的角度来说,现今存在的电子行走辅助系统可分成两大类:一是通过传感器,例如声纳传感,全球定位系统GPS,地理信息系统GIS,电子罗盘和激光测距仪等获取位置和周围环境信息。二是通过图像采集设备,例如摄像机,通过信息处理设备完成三维空间信息的重建和物体识别,获取空间较为完整的信息。第一类方法获得了广泛的应用,Loomis和Helal教授在此领域进行了深入的研究(Loomis,J.M.,Klatzky,R.L.,& Golledge,R.G.(2001).Navigating without vision:Basic and applied research.Optometry and VisionScience,78,282-289.;Helal,A.,Moore,S.,and Ramachandran,B.,“Drishti:An IntegratedNavigation System for Visually Impaired and Disabled”,Fifth International Symposium onWearable Computers(ISWC′01),2001.)并开发了个人导盲系统PGS系统。基于GPS和GIS的技术目前应用比较广泛,并产生了一些商用系统,如PGS。虽然这种方法具有良好的获得全局信息的能力,但却无法实时感知外部三维信息,缺乏自主性,因此其扩展功能受到了很大的局限。
由于人对周围环境的感知是一个复杂的问题,因而一些未知的甚至是动态的复杂场景为人对环境的感知增加了难度。特别是盲人在室内外环境中独立行走时,桌椅、门窗或空间其他附设物件都可能成为障碍,也容易碰伤。可以看出,只有障碍物信息并不能很好地解决盲人出行问题,盲人还需要其他的道路信息才能安全行走。由于运动物体对盲人具有很大的危险性,故需要正确实时的给出运动目标的信息。摄像传感ETA系统视角大,能采集到比声纳输入系统更丰富的信息,并结合计算机视觉技术实现目标检测识别、运动轨迹估计等,从而获取比较丰富的环境信息。因此,摄像头对盲人用户来说可以作为其视觉的延伸,在帮助盲人认识周围环境中起着非常重要的作用。随着人工智能和图像处理技术的发展,第二类方法的研究也得到了很大的发展,Bourbakis教授在这方面做了大量的工作,如ourbakis N G,Kavraki D.An Intelligent Assistant for Navigation of Visually ImpairedPeople[C]//Proceedings of the IEEE 2nd Inter.Symposium on Biolnformatics and BioengineeringConference.Bethesda:IEEE Press,2001:230-235.,并开发了Tyflos系统。该Tyflos系统通过立体相机获得环境的三维表示,并集成了激光测距和GIS等系统,通过语音和智能处理系统进行信息的交互。但Tyflos系统所用的获取外部信息的方法存在以下不足:
(1)由于该方法引入电子稳像、运动目标分割等算法,运算量巨大;
(2)由于模式识别和智能系统的发展还不成熟,不能可靠的认知环境,因而经常会给出错误的结论。
发明内容
本发明的目的在于克服上述已有技术的不足,提出一种对环境信息认知准确,且运算量小的辅助视觉系统信息获取与传递方法,以实现对外部环境信息的实时获取和信息传。
本发明的目的是这样实现的:
本发明充分利用人类视觉的特点和人体的智能性,避开基于机器视觉的复杂场景下的电子稳像、运动目标检测和跟踪,进行信息获取和信息传递。信息获取主要完成对外部环境的信息获取,这些信息包括:道路,目标距离,运动速度和目标大小。信息传递是通过二维的信息传递阵列对获取的外部环境信息进行传递。其步骤包括:
步骤1,通过两个摄像机从不同角度同时获得被测物的两幅原始数字图像I1和I2
步骤2,利用Harris角点检测方法提取出两幅原始数字图像的特征点u1和u2
步骤3,通过两个摄像机获取特征点的三维几何信息,即被测物体特征点的平面信息及立体视觉的距离;
步骤4,以每一个特征点为中心取矩形区域,找到下一帧特征点的位置并求出特征点的运动矢量;
步骤5,通过颜色直方图对原始数字图像中的路面信息按照色度信息进行分割,计算出道路信息,即道路概率图像P(x,y)和道路的二维方向θ;
步骤6,对原始图像特征点的运动信息、特征点的三维几何信息及道路信息分别进行编码;
步骤7,将编码信息通过辅助视觉系统中信息传递阵列单元传输给视觉障碍的人体,以避开障碍物行走。
本发明由于对外界环境中所提取的特征点的运动信息和三维几何信息进行编码,可重建周围环境特性;同时由于两个摄像机从不同角度同时获得被测物的两幅原始数字图像,因此可准确获得目标的三维几何信息;此外由于不涉及对复杂的动态目标提取,而是直接将特征点的信息进行计算,因而运算量小。
附图说明
图1为本发明方法的步骤框图;
图2平行双目立体视觉系统示意图;
图3为本发明环境信息编码生成过程实例图,其中:
3(a)为原始立体图像对左图,
3(b)为原始立体图像对右图,
3(c)为左图局部特征点提取图,
3(d)为景深信息图,
3(e)为由颜色分割后的信息图;
图4为信息传递阵列示例图。
具体实施方式
以下参照附图对本发明作进一步详细的描述。
参照附图1,本发明的信息获取步骤如下:
第一步:获取图像信息。
通过两个摄像机从不同角度同时获得被测物的两幅原始数字图像I1和I2,如图3(a)和图3(b)。
第二步:提取图像信息的特征点。
用Harris角点检测方法,分别对图3(a)和图3(b)的特征点进行提取,提取步骤如下:
2.1、利用下式计算图像I1的梯度图像:
X 1 = I 1 ⊗ ( - 1,0,1 ) = ∂ I 1 / ∂ X 1 Y 1 = I 1 ⊗ ( - 1,0,1 ) T = ∂ I 1 / ∂ Y 1
其中,
Figure A20081015058200082
表示卷积,X1表示水平方向的梯度图像,Y1表示垂直方向的梯度图像;
2.2、构造自相关矩阵:
A 1 = X 1 2 ⊗ w B 1 = Y 1 2 ⊗ w C 1 = ( X 1 Y 1 ) ⊗ w , 则定义自相关矩阵 M 1 = A 1 C 1 C 1 B 1 .
其中 w = exp ( - ( X 1 2 + Y 1 2 ) / 2 σ 2 ) 为高斯平滑窗函数;
2.3、提取图像I1的特征点,如图3(c)所示:
D et ( M 1 ) = A 1 B 1 - C 1 2 T race ( M 1 ) = A 1 + B 1
则Harris特征点响应值为:
R 1 H = D et ( M 1 ) - k · T race 2 ( M 1 )
其中,常数k通常取0.04-0.06之间,将
Figure A20081015058200096
与一个阈值进行比较,大于该阈值则认定该点为图像的一个特征点,该图像特征点可定义为:u1=[u1x u1y]T。阈值根据所要检测的特征点数目设置,一般大于等于100,特征点之间的距离一般大于15个象素。图3(c)为图3(a)中所求出的特征点。
2.4、用同样的方法求出图3(b)的特征点相应值为 R 2 H = D et ( M 2 ) - k · T race 2 ( M 2 ) , 该图像特征点可定义为:u2=[u2x u2y]T
第三步:获取图像三维几何信息
3.1、将内部参数完全相同的两个相机平行放置,且将两个相机光轴的连线与第一个相机的x轴重合,构成平行双目立体视觉系统,如图2所示。根据图2,获得被测点P(xc,zc)在两个图像平面上的投影,即平面几何信息为:
c 1 = f x c z c c 2 = f x c - b z c
其中,f为焦距,b为基线长度;
3.2、根据两幅图像特征点u1和u2的位置差d,计算立体视觉的距离:
z c = f · b d ;
3.3、根据灰度值与距离zc成反比的关系,改变图像中的各像素点的灰度值,获得包含深度信息的灰度图,如图3(d)所示。
第四步:计算图像特征点的运动矢量
4.1、定义下一帧图像为J(x,y),对于图像的特征点其运动估计就是在下一帧图像J中找到的点,例如:图像I1的特征点u1=[u1x u1y]T,以特征点为中心取矩形区域作为特征区域,运动估计就是在下一帧图像J中的特征区域找到点v1,即
v1=u1+d1=[u1x+d1x u1y+d1y]T,其中d1=[d1x d1y]T为特征点运动矢量,
定义残差函数为:
ϵ ( d 1 ) = Σ x 1 = u 1 x - w 1 x u 1 x + w 1 x Σ y 1 = u 1 y - w 1 y u 1 y + w 1 y ( I 1 ( x 1 , y 1 ) - J ( x + d 1 x , y + d 1 y ) ) 2
4.2、通过两帧相邻图像的特征点跟踪,找到一个使匹配残差函数ε(d1)最小,即满足ε的一阶差分为0的运动矢量为:
d1=[d1x d1y]T
4.3、重复步骤4.1和4.2,得到所有帧的运动矢量。
第五步:提取道路信息
道路信息的提取是基于颜色分割而进行,步骤如下:
5.1、计算路面分割的概率图像P(x,y):
计算路面信息颜色直方图,按色度信息对路面进行分割,将色度信息相同的区域划分为候选目标区域;目标模型和候选目标特征分别表示为:
q={qu}u=1,...,m和p(y)={pu(y)}u=1,...,m
其中y是候选目标区域的中心位置,且 Σ u = 1 m q u = 1 , Σ u = 1 m p u = 1 , m为特征值直方图通道的个数,
使用Bhattacharyya系数ρ(y)来替代目标图像的各个像素点的值,其中 ρ ( y ) = Σ u = 1 k p u q u , k为目标区域内像素点个数,最终获得路面分割的概率图像P(x,y),如图3(e)较亮区域即为分割结果。
5.2、通过概率图像P(x,y)的二阶矩计算道路的二维方向θ:
首先,计算概率图像P(x,y)的零阶矩和一阶矩分别为:
M 00 = Σ x Σ y xP ( x , y ) , M 10 = Σ x Σ y xP ( x , y ) , M 01 = Σ x Σ y yP ( x , y )
其次,计算概率图像P(x,y)的二阶矩:
M 20 = Σ x Σ y x 2 P ( x , y ) , M 02 = Σ x Σ y y 2 P ( x , y ) ,
最后,由概率图像P(x,y)的零阶矩、一阶矩和二阶矩计算出道路的二维方向θ:
θ = arctan ( 2 ( M 11 M 00 - x c y c ) ( M 20 M 00 - x c 2 ) - ( M 20 M 00 - y c 2 ) ) 2
式中, x c = M 10 M 00 y c = M 01 M 00 .
经过上述的计算,完成了对道路的颜色分割,如图3(e)中灰度值较大部分所示,并可以实时计算出道路方向。
第六步:信息编码
需要编码的信息包括特征点的三维几何信息、运动信息和道路信息三种情况。
6.1、将图像I1的每个特征点对应一个三维几何信息,给出其特征点u1的编码信息为(H3D u1 U f),其中,H3D为信息识别码,代表传送的是三维几何信息和运动信息;U为信息传递阵列输出电压,定义为U=k·zc,k为比例系数,f为信息传递阵列这一点输出脉冲频率;
6.2、对于运动特征点,给出其的编码信息为(H3D u1′U f),其中,H3D为信息识别码,代表传送的是三维几何信息和运动信息;u1′为运动特征点的坐标值,U为信息传递阵列输出电压,定义为U=k·zc,k为比例系数,f为信息传递阵列这一点输出脉冲频率;
6.3、用同样的方法对图像I2的特征点u2进行编码,即给出u2的三维几何信息编码为(H3D u2 U f)和运动特征点信息为(H3D u2′U f);
6.4、对于道路信息,根据获得的概率图像P(x,y),算出原始图像中道路上的点R(x,y)在信息传递阵列的输出电压为UR=k·P(x,y),给出道路上的点R(x,y)的编码信息为(HR R(x,y)UR f),其中,HR为信息识别码,表示输出的为道路信息;f为信息传递阵列输出脉冲频率。
第七步:信息的传递
将所述的三维几何信息(H3D u1 U f)、运动信息(H3D u1′U f)和道路信息(HR R(x,y)UR f),通过辅助视觉系统中信息传递阵列单元,以振动触觉的形式传递给使用者,其中,单元的振动频率为编码信息中输出脉冲频率f,单元的振动强度为信息传递阵列输出电压U。
传递形式如图4所示,T1为距离较远、运动速度较慢的障碍物,则信息传递阵列对应位置的单元使用较低的输出脉冲频率f和较低的输出电压振动U,T2为距离较近、运动速度较快的障碍物,则信息传递阵列对应位置的单元使用较高的输出脉冲频率f和较高的输出电压U振动,图中箭头方向为障碍物运动方向,信息传递阵列中的单元振动的移动方向与障碍物的运动方向一致。

Claims (7)

1.一种辅助视觉系统的信息获取与传递方法,包括如下步骤:
步骤1,通过两个摄像机从不同角度同时获得被测物的两幅原始数字图像I1和I2
步骤2,利用Harris角点检测方法提取出两幅原始数字图像的特征点u1和u2
步骤3,通过两个摄像机获取特征点的三维几何信息,即被测物体特征点的平面信息及立体视觉的距离;
步骤4,以每一个特征点为中心取矩形区域,找到下一帧特征点的位置并求出特征点的运动矢量;
步骤5,通过颜色直方图对原始数字图像中的路面信息按照色度信息进行分割,计算出道路信息,即道路概率图像P(x,y)和道路的二维方向θ;
步骤6,对原始图像特征点的运动信息、特征点的三维几何信息及道路信息分别进行编码;
步骤7,将编码信息通过辅助视觉系统中信息传递阵列单元传输给视觉障碍的人体,以避开障碍物行走。
2.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤2按如下过程进行:
2a.利用下式计算第一幅图像I1的梯度图像:
X 1 = I 1 ⊗ ( - 1,0,1 ) = ∂ I 1 / ∂ X 1 Y 1 = I 1 ⊗ ( - 1,0,1 ) T = ∂ I 1 / ∂ Y 1
其中
Figure A2008101505820002C2
表示卷积,X1表示水平方向的梯度图像,Y1表示垂直方向的梯度图像;
2b.构造自相关矩阵:
A 1 = X 1 2 ⊗ w B 1 = Y 1 2 ⊗ w C 1 = ( X 1 Y 1 ) ⊗ w , 则定义自相关矩阵 M 1 = A 1 C 1 C 1 B 1 .
其中 w = exp ( - ( X 1 2 + Y 1 2 ) / 2 σ 2 ) 为高斯平滑窗函数;
2c.提取第一幅图像I1的特征点:
D et ( M 1 ) = A 1 B 1 - C 1 2 T race ( M 1 ) = A 1 + B 1
则Harris特征点响应值为: R 1 H = D et ( M 1 ) - k · T race 2 ( M 1 ) , 其中,常数k通常取0.04-0.06之间,
将R1H与一个阈值进行比较,大于该阈值则认定该点为图像的一个特征点,定义第一幅图像的特征点为:u1=[u1x u1y]T
2d.重复步骤2a至2c,求出第二幅图像I2的特征点u2=[u2x u2y]T
3.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤3按如下过程进行:
3a.将内部参数完全相同的两个相机平行放置,且将两个相机光轴的连线与第一个相机的x轴重合,构成平行双目立体视觉系统,获得被测点P(xc,zc)在两个图像平面上的投影,即平面几何信息为:
c 1 = f x c z c c 2 = f x c - b z c
其中,f为焦距,b为基线长度;
3b.根据两幅图像特征点u1和u2的位置差d,计算立体视觉的距离:
z c = f · b d ;
3c.根据灰度值与距离zc成反比的关系,改变图像中的各像素点的灰度值,获得包含深度信息的灰度图。
4.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤4按如下过程进行:
4a.定义下一帧图像为J(x,y),并在下一帧图像J中找到运动点v1,即
v1=u1+d1=[u1x+d1x u1y+d1y]T,其中d1=[d1x d1y]T为特征点运动矢量,
定义残差函数为:
ϵ ( d 1 ) = Σ x 1 = u 1 x - w 1 x u 1 x + w 1 x Σ y 1 = u 1 y - w 1 y u 1 y + w 1 y ( I 1 ( x 1 , y 1 ) - J ( x + d 1 x , y + d 1 y ) ) 2
4b.通过两帧相邻图像的特征点跟踪,找到一个使匹配残差函数ε(d1)最小,即满足ε的一阶差分为0的运动矢量为:
d1=[d1x d1y]T
4c.重复步骤4a至4b,得到所有帧的运动矢量。
5.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤5按如下过程进行:
5a.计算概率图像P(x,y)
计算路面信息颜色直方图,按色度信息对路面进行分割,将色度信息相同的区域划分为候选目标区域,将目标模型和候选目标特征分别表示为:
q={qu}u=1,,m和p(y)={pu(y)}u=1,,m
其中,y是候选目标区域的中心位置,且 Σ u = 1 m q u = 1 , Σ u = 1 m p u = 1 , m为特征值直方图通道的个数,
使用Bhattacharyya系数ρ(y)来替代目标图像中各个像素点的值,其中, ρ ( y ) = Σ u = 1 k p u q u , k为目标区域内像素点个数,最终获得路面分割的概率图像P(x,y);
5b.计算道路方向信息
通过概率图像P(x,y)的二阶矩计算道路的二维方向θ:
首先,计算概率图像P(x,y)的零阶矩和一阶矩分别为:
M 00 = Σ x Σ y xP ( x , y ) , M 10 = Σ x Σ y xP ( x , y ) , M 01 = Σ x Σ y yP ( x , y )
其次,计算概率图像P(x,y)的二阶矩:
M 20 = Σ x Σ y x 2 P ( x , y ) , M 02 = Σ x Σ y y 2 P ( x , y ) ,
最后,由概率图像P(x,y)的零阶矩、一阶矩和二阶矩计算出二维方向:
θ = arctan ( 2 ( M 11 M 00 - x c y c ) ( M 20 M 00 - x c 2 ) - ( M 20 M 00 - y c 2 ) ) 2
式中 x c = M 10 M 00 y c = M 01 M 00 .
6.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤6分为三种情况:
6a.将第一幅图像I1的每个特征点对应一个三维几何信息,给出特征点u1的编码信息为(H3D u1 U f),
式中,H3D为信息识别码,代表传送的是三维几何信息和运动信息,
U为信息传递阵列输出电压,定义为U=k·zc,k为比例系数,
f为信息传递阵列这一点输出脉冲频率;
6b.对于第一幅图像I1中的运动特征点,给出其的编码信息为(H3D u1′U f),
式中,H3D为信息识别码,代表传送的是三维几何信息和运动信息,
u1′为运动特征点的坐标值,
U为信息传递阵列输出电压,定义为U=k·zc,k为比例系数,
f为信息传递阵列这一点输出脉冲频率;
6c.用同样的方法对第二幅图像I2的特征点u2进行编码,给出u2的三维几何信息的编码信息为(H3D u2 U f),运动特征点的编码信息为(H3D u2′ U f);
6d.根据获得的概率图像P(x,y),计算出原始图像中道路上的点R(x,y)在信息传递阵列的输出电压为UR=k·P(x,y),给出道路上的点R(x,y)的编码信息为(HR R(x,y)UR f),
其中,HR为信息识别码,表示输出的为道路信息,
f为信息传递阵列输出脉冲频率。
7.根据权利要求1所述的辅助视觉系统的信息获取与传递方法,其中步骤7所述的信息传递单元的信息传递方式,是将所述的三维几何信息(H3D u1 U f)、运动信息(H3D u1′ U f)和道路信息(HR R(x,y)UR f),通过辅助视觉系统中信息传递阵列单元,以振动触觉的形式传递给使用者,其中,单元的振动频率为编码信息中输出脉冲频率f,单元的振动强度为信息传递阵列输出电压U。
CN2008101505826A 2008-08-08 2008-08-08 辅助视觉系统的信息获取与传递方法 Expired - Fee Related CN101336856B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2008101505826A CN101336856B (zh) 2008-08-08 2008-08-08 辅助视觉系统的信息获取与传递方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2008101505826A CN101336856B (zh) 2008-08-08 2008-08-08 辅助视觉系统的信息获取与传递方法

Publications (2)

Publication Number Publication Date
CN101336856A true CN101336856A (zh) 2009-01-07
CN101336856B CN101336856B (zh) 2010-06-02

Family

ID=40211130

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008101505826A Expired - Fee Related CN101336856B (zh) 2008-08-08 2008-08-08 辅助视觉系统的信息获取与传递方法

Country Status (1)

Country Link
CN (1) CN101336856B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101999972A (zh) * 2010-11-24 2011-04-06 上海理工大学 一种基于立体视觉的盲人辅助行走装置及其辅助方法
CN102222348A (zh) * 2011-06-28 2011-10-19 南京大学 一种三维目标运动矢量计算方法
CN102451079A (zh) * 2011-04-08 2012-05-16 安徽农业大学 基于激光三维扫描的盲人导航装置
CN102598113A (zh) * 2009-06-30 2012-07-18 安芯美特控股有限公司 匹配出现在两个或多个图像内的对象或人的方法、电路和系统
CN103260560A (zh) * 2010-08-31 2013-08-21 康奈尔大学 视网膜假体
CN103428407A (zh) * 2012-05-25 2013-12-04 信帧电子技术(北京)有限公司 一种视频中打架的侦测方法
CN103765888A (zh) * 2011-09-06 2014-04-30 英特尔公司 分析辅助编码
US9220634B2 (en) 2010-02-26 2015-12-29 Cornell University Retina prosthesis
US9302103B1 (en) 2010-09-10 2016-04-05 Cornell University Neurological prosthesis
CN106153041A (zh) * 2015-03-30 2016-11-23 北京自动化控制设备研究所 一种基于多景深信息的视觉里程计测速方法
US9547804B2 (en) 2011-08-25 2017-01-17 Cornell University Retinal encoder for machine vision
CN106709518A (zh) * 2016-12-20 2017-05-24 西南大学 基于Android平台的盲道识别系统
CN107230220A (zh) * 2017-05-26 2017-10-03 深圳大学 一种新的时空Harris角点检测方法及装置
CN107224261A (zh) * 2016-03-23 2017-10-03 香港中文大学 利用虚拟现实的视觉障碍检测系统
CN107914708A (zh) * 2016-10-07 2018-04-17 福特全球技术公司 后方障碍物检测和距离估算
WO2018094697A1 (zh) * 2016-11-25 2018-05-31 深圳市窝窝头科技有限公司 一种快速三维空间投影摄像视觉识别系统
CN108136934A (zh) * 2015-11-19 2018-06-08 爱信精机株式会社 移动体
CN109602585A (zh) * 2018-11-30 2019-04-12 西安工程大学 一种导盲眼镜及其防撞预警方法
US10515269B2 (en) 2015-04-20 2019-12-24 Cornell University Machine vision with dimensional data reduction

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100418498C (zh) * 2005-11-25 2008-09-17 上海电气自动化设计研究所有限公司 导盲器
CN100542507C (zh) * 2007-04-19 2009-09-23 上海交通大学 基于物体辨识的盲人生活辅助装置

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102598113A (zh) * 2009-06-30 2012-07-18 安芯美特控股有限公司 匹配出现在两个或多个图像内的对象或人的方法、电路和系统
US9220634B2 (en) 2010-02-26 2015-12-29 Cornell University Retina prosthesis
US10561841B2 (en) 2010-02-26 2020-02-18 Cornell University Retina prosthesis
CN106137531B (zh) * 2010-02-26 2019-02-15 康奈尔大学 视网膜假体
US9180309B2 (en) 2010-02-26 2015-11-10 Cornell University Retina prosthesis
CN106137531A (zh) * 2010-02-26 2016-11-23 康奈尔大学 视网膜假体
US10039921B2 (en) 2010-02-26 2018-08-07 Cornell University Retina prosthesis
CN103260560A (zh) * 2010-08-31 2013-08-21 康奈尔大学 视网膜假体
US9302103B1 (en) 2010-09-10 2016-04-05 Cornell University Neurological prosthesis
US9925373B2 (en) 2010-09-10 2018-03-27 Cornell University Neurological prosthesis
CN101999972B (zh) * 2010-11-24 2013-07-03 上海理工大学 一种基于立体视觉的盲人辅助行走装置及其辅助方法
CN101999972A (zh) * 2010-11-24 2011-04-06 上海理工大学 一种基于立体视觉的盲人辅助行走装置及其辅助方法
CN102451079A (zh) * 2011-04-08 2012-05-16 安徽农业大学 基于激光三维扫描的盲人导航装置
CN102222348A (zh) * 2011-06-28 2011-10-19 南京大学 一种三维目标运动矢量计算方法
US11640681B2 (en) 2011-08-25 2023-05-02 Cornell University Retinal encoder for machine vision
US9547804B2 (en) 2011-08-25 2017-01-17 Cornell University Retinal encoder for machine vision
US10769483B2 (en) 2011-08-25 2020-09-08 Cornell University Retinal encoder for machine vision
US10303970B2 (en) 2011-08-25 2019-05-28 Cornell University Retinal encoder for machine vision
CN103765888A (zh) * 2011-09-06 2014-04-30 英特尔公司 分析辅助编码
CN103428407A (zh) * 2012-05-25 2013-12-04 信帧电子技术(北京)有限公司 一种视频中打架的侦测方法
CN103428407B (zh) * 2012-05-25 2017-08-25 信帧机器人技术(北京)有限公司 一种视频中打架的侦测方法
CN106153041A (zh) * 2015-03-30 2016-11-23 北京自动化控制设备研究所 一种基于多景深信息的视觉里程计测速方法
CN106153041B (zh) * 2015-03-30 2019-08-13 北京自动化控制设备研究所 一种基于多景深信息的视觉里程计测速方法
US10515269B2 (en) 2015-04-20 2019-12-24 Cornell University Machine vision with dimensional data reduction
US11430263B2 (en) 2015-04-20 2022-08-30 Cornell University Machine vision with dimensional data reduction
CN108136934A (zh) * 2015-11-19 2018-06-08 爱信精机株式会社 移动体
CN108136934B (zh) * 2015-11-19 2021-01-05 爱信精机株式会社 移动体
CN107224261A (zh) * 2016-03-23 2017-10-03 香港中文大学 利用虚拟现实的视觉障碍检测系统
CN107224261B (zh) * 2016-03-23 2021-08-27 香港中文大学 利用虚拟现实的视觉障碍检测系统
CN107914708A (zh) * 2016-10-07 2018-04-17 福特全球技术公司 后方障碍物检测和距离估算
WO2018094697A1 (zh) * 2016-11-25 2018-05-31 深圳市窝窝头科技有限公司 一种快速三维空间投影摄像视觉识别系统
CN106709518A (zh) * 2016-12-20 2017-05-24 西南大学 基于Android平台的盲道识别系统
CN107230220A (zh) * 2017-05-26 2017-10-03 深圳大学 一种新的时空Harris角点检测方法及装置
CN109602585B (zh) * 2018-11-30 2022-02-22 西安工程大学 一种导盲眼镜及其防撞预警方法
CN109602585A (zh) * 2018-11-30 2019-04-12 西安工程大学 一种导盲眼镜及其防撞预警方法

Also Published As

Publication number Publication date
CN101336856B (zh) 2010-06-02

Similar Documents

Publication Publication Date Title
CN101336856B (zh) 辅助视觉系统的信息获取与传递方法
CN109360240B (zh) 一种基于双目视觉的小型无人机定位方法
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
Alcantarilla et al. On combining visual SLAM and dense scene flow to increase the robustness of localization and mapping in dynamic environments
Lee et al. Wearable RGBD indoor navigation system for the blind
CN102697508B (zh) 采用单目视觉的三维重建来进行步态识别的方法
KR101947619B1 (ko) 모바일 디바이스에서의 slam
CN102880866B (zh) 一种人脸特征提取方法
CN104036488B (zh) 一种基于双目视觉的人体姿态动作研究方法
CN104794737B (zh) 一种深度信息辅助粒子滤波跟踪方法
CN106469465A (zh) 一种基于灰度和深度信息的三维人脸重建方法
CN111368755A (zh) 一种基于视觉的四足机器人行人自主跟随方法
Rodríguez et al. Obstacle avoidance system for assisting visually impaired people
CN112833892B (zh) 一种基于轨迹对齐的语义建图方法
CN115900710A (zh) 基于视觉信息的动态环境导航方法
Burlacu et al. Obstacle detection in stereo sequences using multiple representations of the disparity map
Berenguel-Baeta et al. Floor extraction and door detection for visually impaired guidance
Dodge et al. Convex vision-based negative obstacle detection framework for autonomous vehicles
Ortigosa et al. Obstacle-free pathway detection by means of depth maps
Skulimowski et al. Ground plane detection in 3D scenes for an arbitrary camera roll rotation through “V-disparity” representation
Tang et al. A segmentation-based stereovision approach for assisting visually impaired people
Sharma et al. Obstacle avoidance using stereo vision: A survey
Ortigosa et al. Fuzzy free path detection from disparity maps by using least-squares fitting to a plane
Guerrero et al. Human navigation assistance with a RGB-D sensor
Sujith et al. Computer Vision-Based Aid for the Visually Impaired Persons-A Survey And Proposing New Framework

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100602

Termination date: 20140808

EXPY Termination of patent right or utility model