CN108877409A - 基于手势识别和vr显示的聋哑人辅助工具及其实现方法 - Google Patents

基于手势识别和vr显示的聋哑人辅助工具及其实现方法 Download PDF

Info

Publication number
CN108877409A
CN108877409A CN201810816105.2A CN201810816105A CN108877409A CN 108877409 A CN108877409 A CN 108877409A CN 201810816105 A CN201810816105 A CN 201810816105A CN 108877409 A CN108877409 A CN 108877409A
Authority
CN
China
Prior art keywords
leap motion
tracing sensor
terminal computer
motion gesture
characteristic value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810816105.2A
Other languages
English (en)
Inventor
王钦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201810816105.2A priority Critical patent/CN108877409A/zh
Publication of CN108877409A publication Critical patent/CN108877409A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了基于手势识别和VR显示的聋哑人辅助工具及其实现方法,包括穿戴式虚拟显示器、Leap Motion手势追踪传感器及终端计算机,所述穿戴式虚拟显示器通过USB端口、HDMI端口与终端计算机连接实现数据传输与数据解析,所述Leap Motion手势追踪传感器横向固定于穿戴式虚拟显示器前部使得Leap Motion手势追踪传感器中内置的红外灰阶相机面向前方设置,所述Leap Motion手势追踪传感器与终端计算机连接使得Leap Motion手势追踪传感器中的红外灰阶相机采集到的手势动作可显示于穿戴式虚拟显示器中,本发明通过Leap Motion手势追踪传感器与穿戴式虚拟显示器相结合,解决聋哑人听力问题的同时也解决了聋哑人语言表达能力障碍。

Description

基于手势识别和VR显示的聋哑人辅助工具及其实现方法
技术领域
本发明涉及聋哑人辅助工具技术领域,具体是指基于手势识别和VR显示的聋哑人辅助工具及其实现方法。
背景技术
据最新资料统计说明,我国听力语言残疾居视力残疾、肢残、智残等五大残疾之首,为2057万人,占中国人口总数的1.67%,其中7岁以下儿童约为80万人。据统计,我国聋哑症的发病率约为2‰!按年均人口出生率计算,连同出生后2~3岁婴幼儿,每年总的群体达5700万,听损伤的发病人数约为17万。我国每年有2000万新生儿出生,约有3万听力损害的新生儿出现。聋哑人遇到的问题,一、生活问题:缺乏对外界的感知。不能开车、不能献血(因为人道主义)等。二、工作问题:因为生理原因会受到很多限制,很多类型的工作无法完成。三、心理问题:因为所有生理缺陷,难免受到别人歧视,因此在克服生活方面的不便时需要坚强的意志力。大部分人不懂手语,难以沟通,目前市面上对于聋哑人辅助设备的实现方式主要是通过佩戴助听器来解决,但并不是所有的聋人都能戴上助听器就可以听到声音,部分听力障碍十分严重的患者是无法通过佩戴助听器来获得听力的,而且现有的助听器无法实现聋哑人与正常人的日常交流。
发明内容
为解决上述问题,本发明提供的技术方案为:、基于手势识别和VR显示的聋哑人辅助工具,包括穿戴式虚拟显示器、Leap Motion手势追踪传感器及终端计算机,所述穿戴式虚拟显示器通过USB端口、HDMI端口与终端计算机连接实现数据传输与数据解析,所述LeapMotion手势追踪传感器横向固定于穿戴式虚拟显示器前部使得Leap Motion手势追踪传感器中内置的红外灰阶相机面向前方设置,所述Leap Motion手势追踪传感器与终端计算机连接使得Leap Motion手势追踪传感器中的红外灰阶相机采集到的手势动作可通过终端计算机显示于穿戴式虚拟显示器中。实现AR效果。
作为改进,还包括扬声器及麦克风,所述扬声器、麦克风均与终端计算机连接。
本发明还公开了基于手势识别和VR的聋哑人辅助工具的实现方法,包括以下步骤:
(1)连接系统:将穿戴式虚拟显示器通过USB端口、HDMI端口与终端计算机连接,并使Leap Motion手势追踪传感器横向固定于穿戴式虚拟显示器前部并与终端计算机连接。
(2)深度学习网络识别训练:
A、选取特征值:特征值的分类个数选择15个分类,其分别是阿拉伯数字1-10及5个特殊手势;
B、建立神经网络:神经网络(非传统图像识别的卷积神经网络,较传统CNN训练更加高效和准确)设计采用了5层全连接的神经网络,分别为一层输入层,三层隐含层和一层输出层,其中输入层采用16个神经元,输出层采用15个神经元,隐含层经过实验调参后确定隐含层为10个神经元。
(2)样本数据生成:针对步骤(2)特征值分类的1-15个类型,分别单独生成与其所对应的所有特征值数据。
A1、选择特征值分类中的一个特征值分类,使用手指在Leap Motion手势追踪传感器前做出与特征值对应的动作;
B1、不断改变手指在Leap Motion手势追踪传感器的坐标系统中的位置,以及进行相应的旋转,部分遮挡;
C1、每隔100毫秒记录下Leap Motion手势追踪传感器所捕捉到的16个特征值对应的数据,存入txt中并在第17列标注手语类别序号。
D1、重复步骤A1、B1、C1,使得特征值分类的1-15个类型分别生成与其对应的特征值数据。
(3)建立“无效”类别:通过在限制每个特征值数据大小的范围内产生一些随机杂乱的数据来表示“无效”类别。
(4)Unity的手势-语音转换架构实现:
A2、首先通过与终端计算机相连的Leap Motion手势追踪传感器捕获到原生数据并将数据传送至终端计算机,终端计算机的SDK进行第一次基础识别抽象出一些LeapMotion手势追踪传感器中最基本的数据模型;
B2、通过SDK中封装的Hand Class可以实时获得关于原生数据的一些基本信息(手掌手指向量,手掌内接球半径等);
C2、将B2获取到的基本信息发送给Flask上的Python进程,经训练好的神经网络会将输出文本返回给Unity,Unity获取到识别结果后调用系统的Text To Speech接口,终端计算机连接的扬声器会将识别结果朗读出来。
(5)Unity的语音-文字转换架构实现:
A3、Unity将正常人的语音录制成wav文件并将其存储在临时文件夹中;
B3、待讲话人有所停顿时将wav临时文件所在路径信息发送给Flask上的另一个路由地址,此地址的action根据接收到的音频文件路径信息读取相关的音频文件,将其作为postData的方式发送给终端计算机中微软的认知服务API;
C3、微软认知服务API返回识别结果后再将结果以文本形式返回给Unity,最终Unity将结果以文本形式呈现在穿戴式AR虚拟显示器中。
本发明的优点是:本发明通过Leap Motion手势追踪传感器与穿戴式虚拟显示器相结合,并利用BP训练网络,解决聋哑人听力问题的同时也解决了聋哑人语言表达能力障碍;
聋哑人戴上安装有Leap Motion手势追踪传感器的穿戴式虚拟显示器,通过LeapMotion手势追踪传感器的红外灰阶相机可以从穿戴式虚拟显示器里面看到周围的世界,之后正常人说出的语音会翻译成文本形式显示在这个AR世界中,哑人可以很直观的看到这些文本并且理解其含义,另一方面,聋哑人想对一个正常人说话,他做出的手语是可以通过Leap Motion手势追踪传感器捕捉到深度数据然后识别其手语表达的含义,并转化为文本然后再将文本转化为语音通过扬声器朗读出来给正常人听,解决了现有的助听器无法实现聋哑人与正常人的日常交流的问题。
附图说明
图1是本发明基于手势识别和VR显示的聋哑人辅助工具及其实现方法的系统结构示意图。
图2是本发明基于手势识别和VR显示的聋哑人辅助工具及其实现方法中辅助工具的外部结构示意图。
图中:1、穿戴式虚拟显示器,2、Leap Motion手势追踪传感器,2.1、红外灰阶相机,3、终端计算机,4、扬声器,5、麦克风。
具体实施方式
结合附图1~2,基于手势识别和VR显示的聋哑人辅助工具,包括穿戴式虚拟显示器1、Leap Motion手势追踪传感器2及终端计算机3,所述穿戴式虚拟显示器1通过USB端口、HDMI端口与终端计算机3连接实现数据传输与数据解析,所述Leap Motion手势追踪传感器2横向固定于穿戴式虚拟显示器1前部使得Leap Motion手势追踪传感器2中内置的红外灰阶相机2.1面向前方设置,所述Leap Motion手势追踪传感器2及终端计算机3连接使得LeapMotion手势追踪传感器2中的红外灰阶相机2.1采集到的手势动作可通过终端计算机3显示于穿戴式虚拟显示器1中。
作为本实施例较佳实施方案的是,还包括扬声器4及麦克风5,所述扬声器4、麦克风5均与终端计算机连接。
Leap Motion手势追踪传感器2是面向PC以及Mac的体感控制器制造公司Leap发布的体感控制器,使用Leap Motion手势追踪传感器2可以使用户只需挥动一只手指即可浏览网页、阅读文章、翻看照片,还有播放音乐。即使不使用任何画笔或笔刷,用您的指尖即可以绘画,涂鸦和设计。
Leap Motion手势追踪传感器利用了物体对红外照射反射特性不同而形成的光场,进行基于光场并在其中检测特定特征的计算,算法可以比较准确的检测反射光场中的极点(如手指和物体尖端)和特定形状的大范围反射面(手掌)。Leap Motion手势追踪传感器官方提供了十余种编程语言和框架的SDK,其中Unity为最主流的开发工具,另外,LeapMotion手势追踪传感器推出的全新手势操控技术,其精度达到了1/100毫米,也就是说,只要手指微动,它都能灵敏地识别并作出反应。Leap Motion手势追踪传感器是通过内置LED光扫描系统,形成一个光线网,一旦光网内的手指移动就会引起红外线反射,Leap3D探知手指所在位置和移动方向的同时,利用双摄像头进行立体拍摄,这就可以对红外区域探知的移动进行重点分析和检测,这对于提高手势操控精度大有好处,还能大大降低设备对CPU的占用率。
本发明还公开了基于手势识别和VR的聋哑人辅助工具的实现方法,包括以下步骤:
(1)连接系统:将穿戴式虚拟显示器通过USB端口、HDMI端口与终端计算机连接,并使Leap Motion手势追踪传感器横向固定于穿戴式虚拟显示器前部并与终端计算机连接。
(2)深度学习BP网络识别训练:
A、选取特征值:特征值的分类个数选择15个分类,其分别是阿拉伯数字1-10及5个特殊手势;
B、建立神经网络:神经网络(非传统图像识别CNN网络,本结构更加高效)设计采用了5层全连接的神经网络,分别为一层输入层,三层隐含层和一层输出层,其中输入层采用16个神经元,输出层采用15个神经元,经过实验调参后确定隐含层为10个神经元。
C、通过TensorFlow进行训练此神经网络。
(2)样本数据生成:针对步骤(2)特征值分类的1-15个类型,分别单独生成与其所对应的所有特征值数据。
A1、选择特征值分类中的一个特征值分类,使用手指在Leap Motion手势追踪传感器前做出与特征值对应的动作;
B1、不断改变手指在Leap Motion手势追踪传感器的坐标系统中的位置,以及进行相应的旋转,部分遮挡;
C1、每隔100毫秒记录下Leap Motion手势追踪传感器所捕捉到的16个特征值对应的数据,存入txt中并在第17列标注手语类别序号。
D1、重复步骤A1、B1、C1,使得特征值分类的1-15个类型分别生成与其对应的特征值数据。
例如:针对第一个手势,伸出食指其他手指弯曲来代表阿拉伯数字1,我们可以在Leap Motion手势追踪传感器前做这个伸出食指的动作,然后不断改变手在Leap Motion手势追踪传感器的坐标系统中的位置,以及进行相应的旋转,部分遮挡等等,在这个过程中每隔100毫秒记录下传感器所捕捉到的16个特征值对应的数据,存入txt中并在第17列标注手语类别为1,类似的对于其他15个类别的手语做同样的操作则可获得每一个类别相对应的样本数据。
(3)建立“无效”类别:通过在限制每个特征值数据大小的范围内产生一些随机杂乱的数据来表示“无效”类别。
(4)Unity的手势-语音转换架构实现:
A2、首先通过与终端计算机相连的Leap Motion手势追踪传感器捕获到原生数据并将数据传送至终端计算机,终端计算机的SDK进行第一次基础识别抽象出一些LeapMotion手势追踪传感器中最基本的数据模型;
B2、通过SDK中封装的Hand Class可以实时获得关于原生数据的一些基本信息(手掌手指向量,手掌内接球半径等);
C2、将B2中的基本信息发送给Flask上的Python进程,经训练好的神经网络会将输出文本返回给Unity,Unity获取到识别结果后调用系统的Text To Speech接口,终端计算机连接的扬声器会将识别结果朗读出来。
(5)Unity的语音-文字转换架构实现:
A3、Unity将正常人的语音录制成wav文件并将其存储在临时文件夹中;
B3、待讲话人有所停顿时将wav临时文件所在路径信息发送给Flask上的另一个路由地址,此地址的action根据接收到的音频文件路径信息读取相关的音频文件,将其作为postData的方式发送给终端计算机中微软的认知服务API;
C3、微软认知服务API返回识别结果后再将结果以文本形式返回给Unity,最终Unity将结果以文本形式呈现在穿戴式虚拟显示器中。
聋哑人戴上安装有Leap Motion手势追踪传感器2的穿戴式虚拟显示器1,通过Leap Motion手势追踪传感器2的红外灰阶相机2.1可以从穿戴式虚拟显示器1里面看到周围的AR世界,之后正常人说出的语音会通过语音-文字转换翻译成文本形式显示在这个AR世界中,哑人可以很直观的看到这些文本并且理解其含义,另一方面,聋哑人想对一个正常人说话,他做出的手语是可以通过Leap Motion手势追踪传感器2捕捉到深度数据然后识别其手语表达的含义,并转化为文本然后再将文本转化为语音通过扬声器朗读出来给正常人听。本发明使用了Leap Motion手势追踪传感器和VR穿戴式虚拟显示器进行解决聋哑人的听说能力问题,而且首次在解决聋哑人听力问题的同时也解决了聋哑人语言表达能力障碍。首次尝试将LeapMotion手势追踪传感器上的灰阶相机作为AR世界的Camera,即将LeapMotion手势追踪传感器和VR穿戴式虚拟显示器结合。
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。

Claims (3)

1.基于手势识别和VR显示的聋哑人辅助工具,其特征在于,包括穿戴式虚拟显示器、Leap Motion手势追踪传感器及终端计算机,所述穿戴式虚拟显示器通过USB端口、HDMI端口与终端计算机连接实现数据传输与数据解析,所述Leap Motion手势追踪传感器横向固定于穿戴式虚拟显示器前部使得Leap Motion手势追踪传感器中内置的红外灰阶相机面向前方设置,所述Leap Motion手势追踪传感器与终端计算机连接使得Leap Motion手势追踪传感器中的红外灰阶相机采集到的手势动作可通过终端计算机显示于穿戴式虚拟显示器中。
2.根据权利要求1所述的基于手势识别和VR显示的聋哑人辅助工具,其特征在于:还包括扬声器及麦克风,所述扬声器、麦克风均与终端计算机连接。
3.根据权利要求1所述的基于手势识别和VR显示的聋哑人辅助工具的实现方法,其特征在于,包括以下步骤:
(1)连接系统:将穿戴式虚拟显示器通过USB端口、HDMI端口与终端计算机连接,并使Leap Motion手势追踪传感器横向固定于穿戴式虚拟显示器前部并与终端计算机连接。
(2)BP网络识别训练:
A、选取特征值:特征值的分类个数暂时选择15个分类,其分别是阿拉伯数字1-10及5个特殊手势;
B、建立神经网络:与传统给予卷积神经网络的图像识别分类算法不同,本神经网络更像是一个特征工程,采用了5层全连接的神经网络,分别为一层输入层,三层隐含层和一层输出层,其中输入层采用16个神经元,输出层采用15个神经元,经过实验调参后确定隐含层为10个神经元。
C、通过TensorFlow进行训练此神经网络。
(2)样本数据生成:针对步骤(2)特征值分类的1-15个类型,分别单独生成与其所对应的所有特征值数据。
A1、选择特征值分类中的一个特征值分类,使用手指在Leap Motion手势追踪传感器前做出与特征值对应的动作;
B1、不断改变手指在Leap Motion手势追踪传感器的坐标系统中的位置,以及进行相应的旋转,部分遮挡;
C1、每隔100毫秒记录下Leap Motion手势追踪传感器所捕捉到的16个特征值对应的数据,存入txt中并在第17列标注手语类别序号。
D1、重复步骤A1、B1、C1,使得特征值分类的1-15个类型分别生成与其对应的特征值数据。
(3)建立“无效”类别:通过在限制每个特征值数据大小的范围内产生一些随机杂乱的数据来表示“无效”类别。
(4)Unity的手势-语音转换架构实现:
A2、首先通过与终端计算机相连的Leap Motion手势追踪传感器捕获到原生数据并将数据传送至终端计算机,终端计算机的SDK进行第一次基础识别抽象出一些Leap Motion手势追踪传感器中最基本的数据模型;
B2、通过SDK中封装的Hand Class可以实时获得关于原生数据的一些基本信息(手掌手指向量,手掌内接球半径等);
C2、将B2中的基本信息数据发送给Flask上的Python进程,经训练好的神经网络会将输出文本返回给Unity,Unity获取到识别结果后调用系统的Text To Speech接口,终端计算机连接的扬声器会将识别结果朗读出来。
(5)Unity的语音-文字转换架构实现:
A3、Unity将正常人的语音录制成wav文件并将其存储在临时文件夹中;
B3、待讲话人有所停顿时将wav临时文件所在路径信息发送给Flask上的另一个路由地址,此地址的action根据接收到的音频文件路径信息读取相关的音频文件,将其作为postData的方式发送给终端计算机中微软的认知服务API;
C3、微软认知服务API返回识别结果后再将结果以文本形式返回给Unity,最终Unity将结果以文本形式呈现在穿戴式虚拟AR显示器中。
CN201810816105.2A 2018-07-24 2018-07-24 基于手势识别和vr显示的聋哑人辅助工具及其实现方法 Pending CN108877409A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810816105.2A CN108877409A (zh) 2018-07-24 2018-07-24 基于手势识别和vr显示的聋哑人辅助工具及其实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810816105.2A CN108877409A (zh) 2018-07-24 2018-07-24 基于手势识别和vr显示的聋哑人辅助工具及其实现方法

Publications (1)

Publication Number Publication Date
CN108877409A true CN108877409A (zh) 2018-11-23

Family

ID=64304631

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810816105.2A Pending CN108877409A (zh) 2018-07-24 2018-07-24 基于手势识别和vr显示的聋哑人辅助工具及其实现方法

Country Status (1)

Country Link
CN (1) CN108877409A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070065A (zh) * 2019-04-30 2019-07-30 李冠津 基于视觉以及语音智能的手语系统以及通讯方法
CN110536003A (zh) * 2019-07-10 2019-12-03 浙江工业大学 用于帮助聋哑人的sos系统
CN110717344A (zh) * 2019-10-12 2020-01-21 深圳市热丽泰和生命科技有限公司 基于智能可穿戴设备的辅助交流系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104182772A (zh) * 2014-08-19 2014-12-03 大连理工大学 一种基于深度学习的手势识别方法
CN104573621A (zh) * 2014-09-30 2015-04-29 李文生 基于Chebyshev神经网络的动态手势学习和识别方法
CN104966433A (zh) * 2015-07-17 2015-10-07 江西洪都航空工业集团有限责任公司 一种辅助聋哑人对话的智能眼镜
CN105702130A (zh) * 2016-04-25 2016-06-22 北京理工大学珠海学院 手语翻译器
CN106205293A (zh) * 2016-09-30 2016-12-07 广州音书科技有限公司 用于语音识别和手语识别的智能眼镜
CN106683533A (zh) * 2017-02-07 2017-05-17 德阳力久云智知识产权运营有限公司 一种聋哑人专用交流眼镜

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104182772A (zh) * 2014-08-19 2014-12-03 大连理工大学 一种基于深度学习的手势识别方法
CN104573621A (zh) * 2014-09-30 2015-04-29 李文生 基于Chebyshev神经网络的动态手势学习和识别方法
CN104966433A (zh) * 2015-07-17 2015-10-07 江西洪都航空工业集团有限责任公司 一种辅助聋哑人对话的智能眼镜
CN105702130A (zh) * 2016-04-25 2016-06-22 北京理工大学珠海学院 手语翻译器
CN106205293A (zh) * 2016-09-30 2016-12-07 广州音书科技有限公司 用于语音识别和手语识别的智能眼镜
CN106683533A (zh) * 2017-02-07 2017-05-17 德阳力久云智知识产权运营有限公司 一种聋哑人专用交流眼镜

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RAJESH B. MAPARI 等: ""American Static Signs Recognition Using Leap Motion Sensor"", 《PROCEEDINGS OF THE SECOND INTERNATIONAL CONFERENCE ON INFORMATION AND COMMUNICATION TECHNOLOGY FOR COMPETITIVE STRATEGIES》 *
RAJESH B. MAPARI 等: ""American Static Signs Recognition Using Leap Motion Sensor"", 《PROCEEDINGS OF THE SECOND INTERNATIONAL CONFERENCE ON INFORMATION AND COMMUNICATION TECHNOLOGY FOR COMPETITIVE STRATEGIES》, 4 March 2016 (2016-03-04), pages 1 - 5, XP058267424, DOI: 10.1145/2905055.2905125 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070065A (zh) * 2019-04-30 2019-07-30 李冠津 基于视觉以及语音智能的手语系统以及通讯方法
CN110536003A (zh) * 2019-07-10 2019-12-03 浙江工业大学 用于帮助聋哑人的sos系统
CN110536003B (zh) * 2019-07-10 2021-04-06 浙江工业大学 用于帮助聋哑人的sos系统
CN110717344A (zh) * 2019-10-12 2020-01-21 深圳市热丽泰和生命科技有限公司 基于智能可穿戴设备的辅助交流系统

Similar Documents

Publication Publication Date Title
US10878818B2 (en) Methods and apparatus for silent speech interface
Mehdi et al. Sign language recognition using sensor gloves
CN110070065A (zh) 基于视觉以及语音智能的手语系统以及通讯方法
US7676372B1 (en) Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
CN108877409A (zh) 基于手势识别和vr显示的聋哑人辅助工具及其实现方法
JP2019531538A (ja) ワードフロー注釈
EP0863474A2 (en) Optical feature extraction for speech recognition
CN103116576A (zh) 一种语音手势交互翻译装置及其控制方法
JP7143847B2 (ja) 情報処理システム、情報処理方法、およびプログラム
US20230045064A1 (en) Voice recognition using accelerometers for sensing bone conduction
CN107924392A (zh) 基于姿势的注释
CN109394258A (zh) 一种肺部呼吸音的分类方法、装置及终端设备
CN109271901A (zh) 一种基于多源信息融合的手语识别方法
WO2020228208A1 (zh) 用户智能设备及其情绪图符处理方法
CN205900093U (zh) 降噪装置及虚拟现实设备
TW201228332A (en) Mobile electronic device
CN203149569U (zh) 一种语音手势交互翻译装置
Dhanjal et al. Tools and techniques of assistive technology for hearing impaired people
CN109166409B (zh) 一种手语转换方法及装置
Yang et al. Proxitalk: Activate speech input by bringing smartphone to the mouth
Caridakis et al. A multimodal corpus for gesture expressivity analysis
CN110286774A (zh) 一种基于手腕运动传感器的手语识别方法
CN210166754U (zh) 一种虚拟现实头戴交流装置及虚拟现实头戴交流系统
CN206210144U (zh) 手语语音转化帽
CN104980599A (zh) 一种手语语音通话方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181123

RJ01 Rejection of invention patent application after publication