CN105787442A - 一种基于视觉交互面向视障人群的穿戴式辅助系统及其使用方法 - Google Patents
一种基于视觉交互面向视障人群的穿戴式辅助系统及其使用方法 Download PDFInfo
- Publication number
- CN105787442A CN105787442A CN201610093809.2A CN201610093809A CN105787442A CN 105787442 A CN105787442 A CN 105787442A CN 201610093809 A CN201610093809 A CN 201610093809A CN 105787442 A CN105787442 A CN 105787442A
- Authority
- CN
- China
- Prior art keywords
- image
- detection
- palm
- module
- access control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/146—Aligning or centring of the image pick-up or image-field
- G06V30/1475—Inclination or skew detection or correction of characters or of image to be recognised
- G06V30/1478—Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉交互面向视障人群的穿戴式辅助系统及其使用方法,系统包括摄像头和ARM处理器,所述的ARM处理器包括:手指检测模块:用于接收摄像头传感器采集的图像,并检测图像中手指在图像中的位置;ROI提取模块:用于根据手指位置的先验信息结合图像的边界大小确定出ROI位置,及获得兴趣目标的潜在位置,输出至检测识别模块;检测识别模块:并行的多个检测识别模块应对不同的目标检测;综合模块:综合多个检测识别模块的识别结果,分析出用户的使用意图;语音输出模块。本发明用于辅助视障人群日常生活,可通过语音提示使用者手指所指向的物体,用户只要用手指指向交互的给出识别的物品,那么设备就会进行识别并将结果语音输出,具有自然、易用的特点。
Description
技术领域
本发明涉及一种基于视觉交互面向视障人群的穿戴式辅助系统及其使用方法。
背景技术
可穿戴设备是指直接穿戴在使用者身上或是整合到使用者的衣服或配件上的设备,具体实现形式主要有头盔、眼镜、手表、腕带、鞋子等等。随着工业技术的进步智能设备的形式也在将来也一定会呈现不一样的形式。与传统电子设备相比较,可穿戴设备具有方便携带和交互性好等优点,可以作为信息通信工具无缝地存在于生活和工作环境中,为人们的生活提供极大地便利。
市面上面向大众化的可穿戴设备主要可以分为如下几类:首先是消费娱乐类,主要是满足人们信息沟通、游戏娱乐需求,代表产品智能手表、眼镜(GoogleGlass、Smartwatch、虚拟现实头盔等)。然后就是健康医疗类,主要用于对用户身体状态和运动记录做出有效评估和给出合理建议,代表产品主要有Nike+系列、JawboneUp、Dubike等等。再有就是安全保护类,该类产品主要用于满足老年人和小孩需求,防止走失,代表产品(GTX鞋、BuDiu童鞋)。最后就是智能手机辅助类,作为其他移动设备的补充,使得其他设备的操作变得更加智能便捷,代表产品Pebble腕带。
现阶段大部分穿戴设备的焦点依然关注在消费领域,却很少有人将注意力放在对帮助残疾人改善他们本就不易的生活。根据世界卫生组织2013年给出的“面向普遍的眼健康:2014–2019年全球行动计划”统计数据显示。全球大概有2.85亿视觉损伤者,其中盲人约有3900万,其余的大多为视弱。另外,根据中国统计局给出数据,在2007年五月份给出的第二次全国残疾人抽样调查数据显示。中国目前各类残疾人总数为8296万人。占全国人口总数的6.34%。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于视觉交互面向视障人群的穿戴式辅助系统及其使用方法,用于辅助视障人群日常生活,具有识别具体物体、纸币、文字等功能可以为视力残障人士提供帮助。同时可通过语音提示使用者手指所指向的物体,用户只要用手指指向交互的给出识别的物品,那么设备就会开始读取这个场景,进行识别并将结果语音输出。本发明采用基于手势的交互方式,具有自然、易用的特点。
本发明的目的是通过以下技术方案来实现的:一种基于视觉交互面向视障人群的穿戴式辅助系统,它包括摄像头和ARM处理器,所述的ARM处理器包括:
手指检测模块:用于接收摄像头传感器采集的图像,并检测图像中手指在图像中的位置T(x,y);
ROI提取模块:用于根据手指位置的先验信息结合图像的边界大小确定出ROI位置,及获得兴趣目标的潜在位置,输出至检测识别模块;
检测识别模块:并行的多个检测识别模块应对不同的目标检测;
综合模块:综合多个检测识别模块的识别结果,分析出用户的使用意图;
语音输出模块:把分析的结果通过语音的方式反馈给用户。
所述的检测识别模块包括纸币识别模块、场景文字识别模块和家居物品识别模块。
所述的语音输出模块将语音通过骨传导耳机反馈给用户。
一种基于视觉交互面向视障人群的穿戴式辅助系统的使用方法,包括以下步骤:
S1:手指指尖检测,包括以下子步骤:
S101:针对不同的场景训练随机回归树来建模不同光照,得到手掌区域检测器;
S102:通过手掌区域检测器以及采集的图像I提取手掌轮廓;
S103:通过几何约束计算出指尖坐标T(x,y),所述的几何约束包含距离约束和夹角约束;
S2:ROI提取,根据步骤S1获得的指尖位置结合图片边界几何约束可以计算出ROI[x0,y0,w0,h0]:
其中,α,β为ROI大小修正参数,w为图像I的宽,h为图像I的高;
S3:检测识别,包括以下子步骤:
S301:通过mask操作获得ROI子图,作为识别模块的输入;
S302:采用多线程并行的处理方式,把不同功能的检测识别模块放到不同线程中去;
S4:综合识别:通过综合步骤S3中各个检测识别模块的识别结果,准确分析处用户的使用意图,通过文本的方式给出结果;
S5:语音输出:采用TTS引擎,接受由步骤S4给出的识别结果,然后转化成语音的方式通过骨传导耳机反馈给使用者。
所述的步骤S101包括以下子步骤:
S10101:采集大量不同条件下的手掌肤色样本得到一个肤色训练集,包括正负样本;
S10102:对采集来的样本根据HSV各通道的直方图进行k-means聚类ci,类别数目可以根据经验设置为不同的值,其中ci表示不同场景,i=1,2,....k,k为k-means的类别数取经验值;
S10103:对于每一个类别ci,学习一个独立的随机回归树P(ci||g),g表示图像I的全局特征;
S10104:对于待检测的像素点p(x,y),和给定l,g条件下,属于判定为像素点的概率用如下全概率公式表达:
其中P(T|l,ci)是给定全局特征条件下属于第i个场景的概率,由步骤S10103中的随机回归树学习得到;P(ci|g)是通过步骤S10103学习过程中聚类步骤中通过统计第i中场景下光照获得;l表示图像I的局部特征;
所述的步骤S102包括以下子步骤:比较P(p|l,g)与概率化的阈值μ,得到当前像素p(x,y)是否属于手掌,将所有属于手掌的像素点保留得到手掌轮廓。
所述的步骤S103包括以下子步骤:
S10301:在手掌轮廓上取第i点Ti(x,y),以及Ti(x,y)的前后第k个点分别为Ti+k(x,y),Ti-k(x,y),此处k两点间间隔的像素点为经验值;
S10302:依次遍历轮廓上的各像素点,分别计算向量和的点积和叉积:通过判断点积的极值可以检测出手掌轮廓上的凹点以及凸点;
S10303:利用叉积结合右手法则分辨出指尖;
S10304:在获得过个拟指尖的点后,再通过计算指尖到手掌轮廓中的距离||TC||,以||TC||最大值对应的点即为待求指尖点T(x,y);C表示手掌轮廓的中心点。
所述的步骤S302包括一个常用物品识别子步骤:在外部PC端进行离线分类器学习,将分类器移植入到嵌入式运算器中进行在线识别。
所述的步骤S302包括一个纸币识别子步骤:
S3020101:采集不同光照条件下标准纸币模板,根据纸币的纹理特征将纸币划分成不同小块;
S3020102:对每个小块计算局部特征,然后将每个小块的局部特征组合成一个特征向量作为纸币的特征表达,对所有的模板执行相同操作;
S3020103:在识别匹配阶段,用计算纸币特征表达相同的方式来计算待识别目标的特征;
S3020104:然后将该特征向量与模板库中特征向量计算相似度,通过阈值化的相似度既可以判断出纸币的币种、面额信息。
所述的步骤S302包括一个场景文字识别子步骤:
S3020201:预处理,包括模糊处理、二值化、边缘检测;
S3020202:特征提取,包括字符水平特征、几何相似度特征,用于字符区域检测;
S3020203:规则聚链,包括字符方向、字符尺度、颜色,用于将单个字符聚合正单词,单词组合成句子;
S3020204:后续处理,包括方向校正、缺失补齐,用于将检测出来的文本作进一步处理成水平二值化分割好的文本区域;
S3020205:OCR引擎识别检测结果。
所述的步骤S5包括以下子步骤:
S501:文本分析:对输入文本进行语言学分析,逐句进行词汇的、语法的和语义的分析,并在其中加入所需要的各种发音提示,包括数字、特殊词汇、断句停顿;
S502:语音合成:把处理好的文本所对应的单字或短语从语音合成库中提取,把语言学描述转化成言语波形;
S503:通过骨传导耳机反馈给使用者。
本发明的有益效果是:
本发明最主要解决的问题是如何准确的识别出用户的使用意图,并且快速的把结果反馈给用户:旨在根据视障人群日程生活中常用的触觉媒介“手”作为切入点,将手作为用户与设备之间的交互方式使得用户体验更加自然流畅,这同时也是出于对于穿戴式设备就算性能受限的考虑,通过手指交互的方式可以有效快速的获取到目标物体所在区域(RegionOfInterest,ROI),从而极大减小在识别过程中的计算量,提高计算效率。
本发明实现视障人群日常生活辅助设备原型,帮助视障人群在室内可以较为自如、独立的生活。此外,纸币识别配合文字是识别可以帮助他们自如的完成超市购物等日常活动。
本发明使用单摄像头和高性能ARM处理器构建出面向视障人群的穿戴式辅助设备,硬件简单易用。提出的软件框架具有运算高效,交互方式自然、流畅的特点。物品识别功能支持识别库的扩容,以识别更多物品。
附图说明
图1为本发明硬件结构示意图;
图2为本发明软件框图;
图3为本发明方法流程图;
图4为手掌检测器训练流程图。
具体实施方式
下面结合附图进一步详细描述本发明的技术方案:如图1所示,一种基于视觉交互面向视障人群的穿戴式辅助系统,它包括摄像头和ARM处理器,如图2所示,所述的ARM处理器包括:
手指检测模块:用于接收摄像头传感器采集的图像,并检测图像中手指在图像中的位置T(x,y);
ROI提取模块:用于根据手指位置的先验信息结合图像的边界大小确定出ROI位置,及获得兴趣目标的潜在位置,输出至检测识别模块;
检测识别模块:并行的多个检测识别模块应对不同的目标检测;
综合模块:综合多个检测识别模块的识别结果,分析出用户的使用意图;
语音输出模块:把分析的结果通过语音的方式反馈给用户。
手指检测模块接收单目摄像头传感器采集的图像然后检测图像中手指的在图像中位置T(x,y),然后通过手指位置的先验信息结合图像的边界大小来确定出ROI的位置,及获得兴趣目标的大致潜在位置。在获取到ROI之后,将ROI作为后续识别模块的输入。并行的多个检测识别模块可以应对不同的目标检测。之后,综合模块则是综合每个检测识别模块的输出,分析得到用户的使用意图,把结果通过语音的方式反馈给用户。
如图1所示,在本实施例中,可拆卸式骨传导耳机和微型摄像头均设置于眼镜的镜架上。
所述的检测识别模块包括纸币识别模块、场景文字识别模块和家居物品识别模块。
所述的语音输出模块将语音通过骨传导耳机反馈给用户。
在使用时,用户戴上安装好可拆卸式骨传导耳机和微型摄像头的眼镜,将手指指向目标物体。
如图3所示,一种基于视觉交互面向视障人群的穿戴式辅助系统的使用方法,包括以下步骤:
S1:手指指尖检测,包括以下子步骤:
为了检测到指尖的位置,我们首先要对整个手掌进行检测,然后在通过手掌计算出指尖所在位置具体方法。为了让手掌检测器更加鲁棒,适应于不同光照条件,本发明中设计了一种有监督学习的手掌区域检测器。针对不同的场景(光照)训练随机回归树来建模不同光照。
S101:针对不同的场景训练随机回归树来建模不同光照,得到手掌区域检测器;
如图4所示,所述的步骤S101包括以下子步骤:
S10101:采集大量不同条件下的手掌肤色样本得到一个肤色训练集,包括正负样本;
S10102:对采集来的样本根据HSV各通道的直方图进行k-means聚类ci,类别数目可以根据经验设置为不同的值,其中ci表示不同场景,i=1,2,....k,k为k-means的类别数取经验值;
S10103:对于每一个类别ci,学习一个独立的随机回归树P(ci||g),g表示图像I的全局特征;
S10104:对于待检测的像素点p(x,y),和给定l,g条件下,属于判定为像素点的概率用如下全概率公式表达:
其中P(T|l,ci)是给定全局特征条件下属于第i个场景的概率,由步骤S10103中的随机回归树学习得到;P(ci|g)是通过步骤S10103学习过程中聚类步骤中通过统计第i中场景下光照获得;l表示图像I的局部特征;
S102:通过手掌区域检测器以及采集的图像I提取手掌轮廓:比较P(p|l,g)与概率化的阈值μ,得到当前像素p(x,y)是否属于手掌,将所有属于手掌的像素点保留得到手掌轮廓;μ表示像素属于手掌的概率化阈值;
S103:通过几何约束计算出指尖坐标T(x,y),所述的几何约束包含距离约束和夹角约束;
所述的步骤S103包括以下子步骤:
S10301:在手掌轮廓上取第i点Ti(x,y),以及Ti(x,y)的前后第k个点分别为Ti+k(x,y),Ti-k(x,y),此处k两点间间隔的像素点为经验值;
S10302:依次遍历轮廓上的各像素点,分别计算向量和的点积和叉积:通过判断点积的极值可以检测出手掌轮廓上的凹点以及凸点;
S10303:利用叉积结合右手法则分辨出指尖;
S10304:在获得过个拟指尖的点后,再通过计算指尖到手掌轮廓中的距离||TC||,以||TC||最大值对应的点即为待求指尖点T(x,y);C表示手掌轮廓的中心点。
S2:ROI提取,根据步骤S1获得的指尖位置结合图片边界几何约束可以计算出ROI[x0,y0,w0,h0]:
其中,α,β为ROI大小修正参数,w为图像I的宽,h为图像I的高;
S3:检测识别,包括以下子步骤:
S301:通过mask操作获得ROI子图,作为识别模块的输入,可以有有效的提升算法处理效率;
S302:采用多线程并行的处理方式,把不同功能的检测识别模块放到不同线程中去;
常用物品识别,这可以看做是一个多类别的分类问题。在本发明中该模块采用的是一种离线学习(PC),在线识别的方式(嵌入式运算器)。由于分类器的学习过程是一个运算量要求较大的过程,因此采用离线的方式在PC上完成学习。在分类器的学习过程中,采用的是一种特征共享的学习算法,该学习算法可以完成有效的在多类分类问题中有效的学习到各个类别的共有特征。从而减小在分类过程中特征空间,以增加运算的效率。在学习完分类器后,将分类器移植到嵌入式运算器,即可以实现多类分类的目标。此外,如果目标类别需要改变或者增加只需要重新离线训练,然后更新分类器即可。
所述的步骤S302包括一个纸币识别子步骤,纸币识别是基于一个I2C的模板匹配识别方式。通过改变模板库的大小可以实现不同币种面值识别任务:
S3020101:采集不同光照条件下标准纸币模板,根据纸币的纹理特征将纸币划分成不同小块;
S3020102:对每个小块计算局部特征,然后将每个小块的局部特征组合成一个特征向量作为纸币的特征表达,对所有的模板执行相同操作;
S3020103:在识别匹配阶段,用计算纸币特征表达相同的方式来计算待识别目标的特征;
S3020104:然后将该特征向量与模板库中特征向量计算相似度,通过阈值化的相似度既可以判断出纸币的币种、面额信息。
所述的步骤S302包括一个场景文字识别子步骤,采用基于MSER及笔画线宽的检测方式:
S3020201:预处理,包括模糊处理、二值化、边缘检测;
S3020202:特征提取,包括字符水平特征、几何相似度特征,用于字符区域检测;
S3020203:规则聚链,包括字符方向、字符尺度、颜色,用于将单个字符聚合正单词,单词组合成句子;
S3020204:后续处理,包括方向校正、缺失补齐,用于将检测出来的文本作进一步处理成水平二值化分割好的文本区域;
S3020205:OCR引擎识别检测结果。
S4:综合识别:通过综合步骤S3中各个检测识别模块的识别结果,准确分析处用户的使用意图,通过文本的方式给出结果;
S5:语音输出:采用TTS引擎,接受由步骤S4给出的识别结果,然后转化成语音的方式通过骨传导耳机反馈给使用者。
所述的步骤S5包括以下子步骤:
S501:文本分析:对输入文本进行语言学分析,逐句进行词汇的、语法的和语义的分析,并在其中加入所需要的各种发音提示,包括数字、特殊词汇、断句停顿;
S502:语音合成:把处理好的文本所对应的单字或短语从语音合成库中提取,把语言学描述转化成言语波形;
S503:通过骨传导耳机反馈给使用者。
Claims (10)
1.一种基于视觉交互面向视障人群的穿戴式辅助系统,其特征在于:它包括摄像头和ARM处理器,所述的ARM处理器包括:
手指检测模块:用于接收摄像头传感器采集的图像,并检测图像中手指在图像中的位置T(x,y);
ROI提取模块:用于根据手指位置的先验信息结合图像的边界大小确定出ROI位置,及获得兴趣目标的潜在位置,输出至检测识别模块;
检测识别模块:并行的多个检测识别模块应对不同的目标检测;
综合模块:综合多个检测识别模块的识别结果,分析出用户的使用意图;
语音输出模块:把分析的结果通过语音的方式反馈给用户。
2.根据权利要求1所述的一种基于视觉交互面向视障人群的穿戴式辅助系统,其特征在于:所述的检测识别模块包括纸币识别模块、场景文字识别模块和家居物品识别模块。
3.根据权利要求1所述的一种基于视觉交互面向视障人群的穿戴式辅助系统,其特征在于:所述的语音输出模块将语音通过骨传导耳机反馈给用户。
4.一种基于视觉交互面向视障人群的穿戴式辅助系统的使用方法,其特征在于:包括以下步骤:
S1:手指指尖检测,包括以下子步骤:
S101:针对不同的场景训练随机回归树来建模不同光照,得到手掌区域检测器;
S102:通过手掌区域检测器以及采集的图像I提取手掌轮廓;
S103:通过几何约束计算出指尖坐标T(x,y),所述的几何约束包含距离约束和夹角约束;
S2:ROI提取,根据步骤S1获得的指尖位置结合图片边界几何约束可以计算出ROI[x0,y0,w0,h0]:
其中,α,β为ROI大小修正参数,w为图像I的宽,h为图像I的高;
S3:检测识别,包括以下子步骤:
S301:通过mask操作获得ROI子图,作为识别模块的输入;
S302:采用多线程并行的处理方式,把不同功能的检测识别模块放到不同线程中去;
S4:综合识别:通过综合步骤S3中各个检测识别模块的识别结果,准确分析处用户的使用意图,通过文本的方式给出结果;
S5:语音输出:采用TTS引擎,接受由步骤S4给出的识别结果,然后转化成语音的方式通过骨传导耳机反馈给使用者。
5.根据权利要求4所述的一种基于视觉交互面向视障人群的穿戴式辅助系统的使用方法,其特征在于:所述的步骤S101包括以下子步骤:
S10101:采集大量不同条件下的手掌肤色样本得到一个肤色训练集,包括正负样本;
S10102:对采集来的样本根据HSV各通道的直方图进行k-means聚类ci,类别数目可以根据经验设置为不同的值,其中ci表示不同场景,i=1,2,....k,k为k-means的类别数取经验值;
S10103:对于每一个类别ci,学习一个独立的随机回归树P(ci||g),g表示图像I的全局特征;
S10104:对于待检测的像素点p(x,y),和给定l,g条件下,属于判定为像素点的概率用如下全概率公式表达:
其中P(T|l,ci)是给定全局特征条件下属于第i个场景的概率,由步骤S10103中的随机回归树学习得到;P(ci|g)是通过步骤S10103学习过程中聚类步骤中通过统计第i中场景下光照获得;l表示图像I的局部特征;
所述的步骤S102包括以下子步骤:比较P(p|l,g)与概率化的阈值μ,得到当前像素p(x,y)是否属于手掌,将所有属于手掌的像素点保留得到手掌轮廓。
6.根据权利要求4所述的一种基于视觉交互面向视障人群的穿戴式辅助系统的使用方法,其特征在于:所述的步骤S103包括以下子步骤:
S10301:在手掌轮廓上取第i点Ti(x,y),以及Ti(x,y)的前后第k个点分别为Ti+k(x,y),Ti-k(x,y),此处k两点间间隔的像素点为经验值;
S10302:依次遍历轮廓上的各像素点,分别计算向量和的点积和叉积:通过判断点积的极值可以检测出手掌轮廓上的凹点以及凸点;
S10303:利用叉积结合右手法则分辨出指尖;
S10304:在获得过个拟指尖的点后,再通过计算指尖到手掌轮廓中的距离||TC||,以||TC||最大值对应的点即为待求指尖点T(x,y);C表示手掌轮廓的中心点。
7.根据权利要求4所述的一种基于视觉交互面向视障人群的穿戴式辅助系统的使用方法,其特征在于:所述的步骤S302包括一个常用物品识别子步骤:在外部PC端进行离线分类器学习,将分类器移植入到嵌入式运算器中进行在线识别。
8.根据权利要求4所述的一种基于视觉交互面向视障人群的穿戴式辅助系统的使用方法,其特征在于:所述的步骤S302包括一个纸币识别子步骤:
S3020101:采集不同光照条件下标准纸币模板,根据纸币的纹理特征将纸币划分成不同小块;
S3020102:对每个小块计算局部特征,然后将每个小块的局部特征组合成一个特征向量作为纸币的特征表达,对所有的模板执行相同操作;
S3020103:在识别匹配阶段,用计算纸币特征表达相同的方式来计算待识别目标的特征;
S3020104:然后将该特征向量与模板库中特征向量计算相似度,通过阈值化的相似度既可以判断出纸币的币种、面额信息。
9.根据权利要求4所述的一种基于视觉交互面向视障人群的穿戴式辅助系统的使用方法,其特征在于:所述的步骤S302包括一个场景文字识别子步骤:
S3020201:预处理,包括模糊处理、二值化、边缘检测;
S3020202:特征提取,包括字符水平特征、几何相似度特征,用于字符区域检测;
S3020203:规则聚链,包括字符方向、字符尺度、颜色,用于将单个字符聚合正单词,单词组合成句子;
S3020204:后续处理,包括方向校正、缺失补齐,用于将检测出来的文本作进一步处理成水平二值化分割好的文本区域;
S3020205:OCR引擎识别检测结果。
10.根据权利要求4所述的一种基于视觉交互面向视障人群的穿戴式辅助系统的使用方法,其特征在于:所述的步骤S5包括以下子步骤:
S501:文本分析:对输入文本进行语言学分析,逐句进行词汇的、语法的和语义的分析,并在其中加入所需要的各种发音提示,包括数字、特殊词汇、断句停顿;
S502:语音合成:把处理好的文本所对应的单字或短语从语音合成库中提取,把语言学描述转化成言语波形;
S503:通过骨传导耳机反馈给使用者。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610093809.2A CN105787442B (zh) | 2016-02-19 | 2016-02-19 | 一种基于视觉交互面向视障人群的穿戴式辅助系统及其使用方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610093809.2A CN105787442B (zh) | 2016-02-19 | 2016-02-19 | 一种基于视觉交互面向视障人群的穿戴式辅助系统及其使用方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105787442A true CN105787442A (zh) | 2016-07-20 |
CN105787442B CN105787442B (zh) | 2019-04-30 |
Family
ID=56403500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610093809.2A Active CN105787442B (zh) | 2016-02-19 | 2016-02-19 | 一种基于视觉交互面向视障人群的穿戴式辅助系统及其使用方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105787442B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106846350A (zh) * | 2016-11-23 | 2017-06-13 | 杭州视氪科技有限公司 | 一种基于rgb‑d相机和立体声的视障人士障碍物预警系统及方法 |
CN107278318A (zh) * | 2017-02-07 | 2017-10-20 | 深圳前海达闼云端智能科技有限公司 | 一种导盲系统 |
CN109543569A (zh) * | 2018-11-06 | 2019-03-29 | 深圳绿米联创科技有限公司 | 目标识别方法、装置、视觉传感器及智能家居系统 |
CN109933687A (zh) * | 2019-03-13 | 2019-06-25 | 联想(北京)有限公司 | 信息处理方法、装置及电子设备 |
CN110664593A (zh) * | 2019-08-21 | 2020-01-10 | 重庆邮电大学 | 基于HoloLens的盲人导航系统及方法 |
CN110853073A (zh) * | 2018-07-25 | 2020-02-28 | 北京三星通信技术研究有限公司 | 确定关注点的方法、装置、设备、系统及信息处理方法 |
CN111126280A (zh) * | 2019-12-25 | 2020-05-08 | 华南理工大学 | 基于融合手势识别的失语症患者辅助康复训练系统及方法 |
CN112717384A (zh) * | 2021-01-08 | 2021-04-30 | 浙江大学 | 一种游戏中的信息处理方法、装置、电子设备及存储介质 |
CN112883814A (zh) * | 2021-01-26 | 2021-06-01 | 厦门大学 | 一种检测在线考试中考生双耳佩戴违禁物品的方法和存储设备 |
CN113934296A (zh) * | 2021-10-11 | 2022-01-14 | 北京理工大学 | 一种基于视觉感知的盲人家电使用交互式辅助系统 |
CN117001715A (zh) * | 2023-08-30 | 2023-11-07 | 哈尔滨工业大学 | 一种面向视觉功能障碍者的智能辅助系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130169827A1 (en) * | 2011-12-28 | 2013-07-04 | Samsung Eletronica Da Amazonia Ltda. | Method and system for make-up simulation on portable devices having digital cameras |
CN104049760A (zh) * | 2014-06-24 | 2014-09-17 | 深圳先进技术研究院 | 一种人机交互命令的获取方法及系统 |
CN105267013A (zh) * | 2015-09-16 | 2016-01-27 | 电子科技大学 | 一种头戴式智能视障辅助系统 |
-
2016
- 2016-02-19 CN CN201610093809.2A patent/CN105787442B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130169827A1 (en) * | 2011-12-28 | 2013-07-04 | Samsung Eletronica Da Amazonia Ltda. | Method and system for make-up simulation on portable devices having digital cameras |
CN104049760A (zh) * | 2014-06-24 | 2014-09-17 | 深圳先进技术研究院 | 一种人机交互命令的获取方法及系统 |
CN105267013A (zh) * | 2015-09-16 | 2016-01-27 | 电子科技大学 | 一种头戴式智能视障辅助系统 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106846350B (zh) * | 2016-11-23 | 2019-09-24 | 杭州视氪科技有限公司 | 一种基于rgb-d相机和立体声的视障人士障碍物预警系统及方法 |
CN106846350A (zh) * | 2016-11-23 | 2017-06-13 | 杭州视氪科技有限公司 | 一种基于rgb‑d相机和立体声的视障人士障碍物预警系统及方法 |
CN107278318A (zh) * | 2017-02-07 | 2017-10-20 | 深圳前海达闼云端智能科技有限公司 | 一种导盲系统 |
CN107278318B (zh) * | 2017-02-07 | 2019-10-29 | 深圳前海达闼云端智能科技有限公司 | 一种导盲系统 |
CN110853073A (zh) * | 2018-07-25 | 2020-02-28 | 北京三星通信技术研究有限公司 | 确定关注点的方法、装置、设备、系统及信息处理方法 |
CN109543569A (zh) * | 2018-11-06 | 2019-03-29 | 深圳绿米联创科技有限公司 | 目标识别方法、装置、视觉传感器及智能家居系统 |
CN109933687A (zh) * | 2019-03-13 | 2019-06-25 | 联想(北京)有限公司 | 信息处理方法、装置及电子设备 |
CN110664593A (zh) * | 2019-08-21 | 2020-01-10 | 重庆邮电大学 | 基于HoloLens的盲人导航系统及方法 |
CN111126280A (zh) * | 2019-12-25 | 2020-05-08 | 华南理工大学 | 基于融合手势识别的失语症患者辅助康复训练系统及方法 |
CN111126280B (zh) * | 2019-12-25 | 2023-03-21 | 华南理工大学 | 基于融合手势识别的失语症患者辅助康复训练系统及方法 |
CN112717384A (zh) * | 2021-01-08 | 2021-04-30 | 浙江大学 | 一种游戏中的信息处理方法、装置、电子设备及存储介质 |
CN112883814A (zh) * | 2021-01-26 | 2021-06-01 | 厦门大学 | 一种检测在线考试中考生双耳佩戴违禁物品的方法和存储设备 |
CN113934296A (zh) * | 2021-10-11 | 2022-01-14 | 北京理工大学 | 一种基于视觉感知的盲人家电使用交互式辅助系统 |
CN113934296B (zh) * | 2021-10-11 | 2024-05-10 | 北京理工大学 | 一种基于视觉感知的盲人家电使用交互式辅助系统 |
CN117001715A (zh) * | 2023-08-30 | 2023-11-07 | 哈尔滨工业大学 | 一种面向视觉功能障碍者的智能辅助系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105787442B (zh) | 2019-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105787442B (zh) | 一种基于视觉交互面向视障人群的穿戴式辅助系统及其使用方法 | |
Zheng et al. | Recent advances of deep learning for sign language recognition | |
Alrubayi et al. | A pattern recognition model for static gestures in malaysian sign language based on machine learning techniques | |
More et al. | Sign language recognition using image processing | |
CN111126280B (zh) | 基于融合手势识别的失语症患者辅助康复训练系统及方法 | |
Balasuriya et al. | Learning platform for visually impaired children through artificial intelligence and computer vision | |
Sosa-Jiménez et al. | Real-time mexican sign language recognition | |
Soodtoetong et al. | The efficiency of sign language recognition using 3D convolutional neural networks | |
Ariesta et al. | Sentence level Indonesian sign language recognition using 3D convolutional neural network and bidirectional recurrent neural network | |
Vo et al. | Deep learning for vietnamese sign language recognition in video sequence | |
Farooq et al. | A comparison of hardware based approaches for sign language gesture recognition systems | |
Zheng et al. | Sign language recognition using depth images | |
Futane et al. | Video gestures identification and recognition using Fourier descriptor and general fuzzy minmax neural network for subset of Indian sign language | |
Zheng et al. | L-sign: Large-vocabulary sign gestures recognition system | |
Kumarage et al. | Real-time sign language gesture recognition using still-image comparison & motion recognition | |
Singh et al. | A Review For Different Sign Language Recognition Systems | |
KR102377767B1 (ko) | 손동작 및 팔동작 학습기반 수화 번역 시스템 및 방법 | |
Salim et al. | A review on hand gesture and sign language techniques for hearing impaired person | |
Enikeev et al. | Recognition of sign language using leap motion controller data | |
Altememe et al. | A Review for Sign Language Recognition Techniques | |
Islam et al. | Improving real-time hand gesture recognition system for translation: Sensor development | |
Jeyasheeli et al. | IoT based sign language interpretation system | |
Yao et al. | Decision-tree-based algorithm for 3D sign classification | |
Bora et al. | ISL gesture recognition using multiple feature fusion | |
Elakkiya | Recognition of Russian and Indian sign languages used by the deaf people |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |