CN109637291A - 一种手语翻译方法及系统 - Google Patents

一种手语翻译方法及系统 Download PDF

Info

Publication number
CN109637291A
CN109637291A CN201811615411.6A CN201811615411A CN109637291A CN 109637291 A CN109637291 A CN 109637291A CN 201811615411 A CN201811615411 A CN 201811615411A CN 109637291 A CN109637291 A CN 109637291A
Authority
CN
China
Prior art keywords
sign language
module
posture
voice
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811615411.6A
Other languages
English (en)
Inventor
李光煌
罗辉
覃国秘
朱鹏惠
曾耀宽
钟志威
李万建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Saiyi Technology Development Co Ltd
Original Assignee
Shenzhen Saiyi Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Saiyi Technology Development Co Ltd filed Critical Shenzhen Saiyi Technology Development Co Ltd
Priority to CN201811615411.6A priority Critical patent/CN109637291A/zh
Publication of CN109637291A publication Critical patent/CN109637291A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开一种手语翻译方法,包括:S100:获取手语姿势;S200:对手语姿势进行分解;S300:识别手语姿势的含义;S400:将手语姿势翻译成文字或者语音;S500:将翻译后的文字或者语音呈现给对方;S600:接收对方的语音;S700:将对方语音翻译成对应含义的手语姿势;S800:将翻译后的手语姿势呈现给用户。本发明还公开一种手语翻译系统。本发明公开的一种手语翻译方法及系统,具有如下优点:实现手语与语音或者文字的转换,方便聋哑人与正常人的沟通。

Description

一种手语翻译方法及系统
技术领域
本发明属于图像识别技术领域,具体涉及一种手语翻译方法及系统。
背景技术
聋哑人与正常人沟通一般都是通过手语,但是,懂手语的人不多,往往需要经过专业人士的翻译,才能实现聋哑人和正常人的交流,非常不便。
为此,有必要提出一种手语翻译方法及系统,实现手语与语音或者文字的转换,方便聋哑人与正常人的沟通。
发明内容
针对上述现有技术的不足,本发明的目的在于提供一种手语翻译方法及系统,实现手语与语音或者文字的转换,方便聋哑人与正常人的沟通。
为实现上述目的,本发明采用如下技术方案。
一种手语翻译方法,包括:
S100:获取手语姿势;
S200:对手语姿势进行分解;
S300:识别手语姿势的含义;
S400:将手语姿势翻译成文字或者语音;
S500:将翻译后的文字或者语音呈现给对方;
S600:接收对方的语音;
S700:将对方语音翻译成对应含义的手语姿势;
S800:将翻译后的手语姿势呈现给用户。
优选地,所述步骤S100:获取手语姿势,包括:
S110:摄像头模块捕捉用户手部的姿势;
S120:对用户手部的姿势进行实时记录及存储;
S130:筛选出用户手部姿势中的手语姿势。
优选地,所述步骤S300:识别手语姿势的含义,包括:
S310:获取到单个手语姿势的含义;
S320:按照顺序对单个手语姿势的含义进行组合;
S330:对组合后的手语姿势的含义进行校正。
优选地,所述步骤S400:将手语姿势翻译成文字或者语音,包括:
S410:用户选择将手语姿势翻译成文字还是语音;
S420:根据用户的选择对手语姿势进行对应的翻译。
优选地,所述步骤S700:将对方语音翻译成对应含义的手语姿势,包括:
S710:对用户语音的内容进行解析;
S720:将对方语音的内容按顺序拆分成单个词组;
S730:将单个词组翻译成对应的手语姿势;
S740:按照顺序将各词组对应的手语姿势组合;
S750:根据表达习惯对组合后的手语姿势进行校正。
一种手语翻译系统,所述系统包括:主控模块、摄像头模块、图像分解模块、图像识别模块、语音模块、文字模块、显示模块、通讯模块,所述主控模块分别与所述摄像头模块、图像分解模块、图像识别模块、语音模块、文字模块、显示模块、通讯模块电性连接;电源模块为所述系统提供电能,数据库通过与所述通讯模块通信连接,与所述系统交互数据;
所述摄像头模块用于实时获取用户的手势图像;
所述图像分解模块用于对摄像头模块获取到的用户的手势图像进行分解;
所述图像识别模块用于对用户的手势图像进行识别;
所述语音模块用于接收对方输入的语音,以及将翻译成语音的手势呈现给对方;
所述文字模块用于将手势姿势翻译成文字后呈现给对方;
所述显示模块用于显示手势姿势或者文字;
所述通讯模块用于所述系统与数据库通信连接、交互数据。
优选地,所述图像识别模块包括:图像特征提取模块、比对模块;
所述图像特征提取模块用于从摄像头模块获取到的手势图像中提取手势图像的特征;
所述比对模块用于将获取到的手势图像与数据库中存储的手势图像比对。
优选地,所述通讯模块支持的通讯方式至少包括WiFi、数据网络中的一种。
与现有技术相比,本发明具有如下有益效果:
本发明提出一种手语翻译方法及系统,实现手语与语音或者文字的转换,方便聋哑人与正常人的沟通。
附图说明
图1是本发明一实施例手语翻译方法的流程示意图;
图2是本发明另一实施例手语翻译方法的流程示意图;
图3是本发明另一实施例手语翻译方法的流程示意图;
图4是本发明另一实施例手语翻译方法的流程示意图;
图5是本发明另一实施例手语翻译方法的流程示意图;
图6是本发明一实施例手语翻译系统的组成示意图;
图7是本发明另一实施例手语翻译系统的组成示意图。
具体实施方式
体现本发明特征与优点的典型实施方式将在以上的说明书中详细叙述。应理解的是本发明能够在不同的实施方式上具有各种的变化,其皆不脱离本发明的范围,且其中的说明及图示在本质上是当作说明之用,而非用以限制本发明。
下面将结合附图及实施例,对本发明进行进一步说明。
如图1所示,图1是本发明一实施例手语翻译方法的流程示意图。本发明中的手语翻译方法,包括以下步骤:
步骤S100:获取手语姿势。在聋哑用户与正常用户交流时,通过摄像头模块获实时获取用户手语的动作,并筛选出其中的手语姿势。需要说明的是,摄像头模块装设在聋哑用户的终端或者可穿戴设备上,例如,聋哑用户通过佩戴相应的智能眼镜,来获取其与正常用户交流时的手语姿势,以及获取对方用户与之交流的语音等等。
步骤S200:对手语姿势进行分解。在获取到用户的手语姿势后,对获取到的手语姿势进行分解,将手语姿势分解成单个的手势动作。
步骤S300:识别手语姿势的含义。对手语姿势进行分解,得到单个的手势动作后,按照顺序,将单个手势动作与数据库中存储的手势动作比对,获取到各单个手势动作的含义,并按照顺序对单个手势动作的含义进行组合。考虑到日常表达习惯,为使得翻译后的手语姿势的含义便于理解和沟通,对组合后的手语姿势的含义进行校正。例如,聋哑用户用手语问对方;“中午吃什么?”,将“中午吃什么?”的手语姿势拆分为“中午”、“吃”、“什么”,并分别从将上述单个手势动作与数据库中存储的手势动作比对,获取到各单个手势动作对应的含义,再按照顺序,对翻译后的手势动作的含义进行组合,根据日常表达习惯,对翻译后的手语姿势的含义进行校正,使得对方容易理解。
步骤S400:将手语姿势翻译成文字或者语音。根据实际需要,用户可以选择将手语姿势翻译成文字或者语音。例如,聋哑用户佩戴有专用的支持手语翻译的智能眼镜,能够实时获取聋哑用户的手势姿势,并将翻译成文字或者语音的手语姿势呈现给对方。用户选择将手语姿势翻译成文字时,翻译后,可以将文字呈现在智能终端上,对方可以从聋哑用户的智能终端的屏幕上获取到翻译后的文字内容。当用户选择将手语姿势翻译成语音时,可以将翻译后的语音通过智能眼镜或者通过智能终端将语音播放给对方。
步骤S500:将翻译后的文字或者语音呈现给对方。用户选择将手语姿势翻译成文字时,翻译后,可以将文字呈现在智能终端上,对方可以从聋哑用户的智能终端的屏幕上获取到翻译后的文字内容。当用户选择将手语姿势翻译成语音时,可以将翻译后的语音通过智能眼镜或者通过智能终端将语音播放给对方。
步骤S600:接收对方的语音。用户通过终端或者智能眼镜等可穿戴设备,接收对方与用户交流时输入的语音。
步骤S700:将对方语音翻译成对应含义的手语姿势。接收到对方输入的语音后,解析对方语音的含义,并拆分成单个词组,按照顺序从数据库中查找各词组对应的手语的姿势,并按照顺序将翻译成手语姿势的词组进行组合,根据日常表达习惯对其进行校正,使得对方能够理解。
步骤S800:将翻译后的手语姿势呈现给用户。将翻译后的手语姿势,通过智能眼镜或者终端呈现给聋哑用户。
如图2所示,图2是本发明另一实施例手语翻译方法的流程示意图。所述步骤S100:获取手语姿势,还包括以下步骤:
步骤S110:摄像头模块捕捉用户手部的姿势。摄像头模块实时对用户手部的姿势进行捕捉。需要说明的是,摄像头模块可以装设在聋哑人专用的用语翻译手语的智能眼镜上,聋哑人用手语与人交流是,通常是身体正前方做出手语姿势,摄像头模块实时捕捉到用户手部的姿势。
步骤S120:对用户手部的姿势进行实时记录及存储。在摄像头模块捕捉到用户手部的姿势后,对用户手部的姿势进行实时记录以及存储。
步骤S130:筛选出用户手部姿势中的手语姿势。对用户的手部姿势进行筛选,筛选出用户手部姿势中的手语姿势。
如图3所示,图3是本发明另一实施例手语翻译方法的流程示意图。本发明中,步骤S300:识别手语姿势的含义,包括以下步骤:
步骤S310:获取到单个手语姿势的含义。将拆分成单个实时动作的手语姿势与数据库中存储的手语姿势比对,根据比对结果获取到单个手语姿势的含义。
步骤S320:按照顺序对单个手语姿势的含义进行组合。获取到各单个手语姿势的含义后,按照顺序对单个手语姿势的含义进行组合,翻译成完整的语句。
步骤S330:对组合后的手语姿势的含义进行校正。根据日常表达习惯,对组合后的手语姿势的含义进行校正,使得翻译后的语句通顺、符合表达习惯,对方易于理解。
如图4所示,图4是本发明另一实施例手语翻译方法的流程示意图。本发明中步骤S400:将手语姿势翻译成文字或者语音,还包括以下步骤:
步骤S410:用户选择将手语姿势翻译成文字还是语音。用户根据实际需要,可以选择将手语姿势翻译成文字,或者是翻译成语音。如果用户选择将手语姿势翻译成文字,则翻译成文字后的手语姿势,可以在用户的终端上呈现出来。如果用户选择将手语姿势翻译成语音,则翻译成语音后,可以通过用户佩戴的专用的智能眼镜或者用户的智能终端播放翻译后的语音。
步骤S420:根据用户的选择对手语姿势进行对应的翻译。在用户作出选择后,根据用户的选择,对手语姿势进行对应的翻译。例如,用户选择将手语姿势翻译成文字,则翻译成文字后的手语姿势,可以通过用户的终端,呈现给对方。
如图5所示,图5是本发明另一实施例手语翻译方法的流程示意图。本发明中步骤S700:将对方语音翻译成对应含义的手语姿势,还包括以下步骤:
步骤S710:对用户语音的内容进行解析。获取到对方的语音后,对对方语音的内容进行解析,获取到对方语音的含义。
步骤S720:将对方语音的内容按顺序拆分成单个词组。对用户的语音内容进行解析后,将语音的内容按照顺序拆分成单个的词组。例如,对方用户的语音内容是“中午吃什么”,则拆分成“中午”、“吃”、“什么”这些单个词组。
步骤S730:将单个词组翻译成对应的手语姿势。将对方语音的内容按照顺序拆分成单个词组后,从数据库中获取各单个词组对应的手语姿势。
步骤S740:按照顺序将各词组对应的手语姿势组合。按照顺序,将各词组对应的手语姿势进行组合,例如,将“中午”、“吃”、“什么”对应的手语姿势按照顺序进行组合。
步骤S750:根据表达习惯对组合后的手语姿势进行校正。根据日常的表达习惯,对组合后的手语姿势进行校正,使得对方容易理解。
本发明还提供一种手语翻译系统,下面将结合附图及实施例,对本发明提出的一种手语翻译系统进行进一步说明。
如图6所示,图6是本发明一实施例手语翻译系统的组成示意图。本发明中的系统包括:主控模块101、摄像头模块102、图像分解模块103、图像识别模块104、语音模块105、文字模块106、显示模块107、通讯模块108。所述主控模块101分别与所述摄像头模块102、图像分解模块103、图像识别模块104、语音模块105、文字模块106、显示模块107、通讯模块108电性连接。电源模块300为所述系统提供电能,数据库200通过与所述通讯模块108通信连接,与所述系统交互数据。
所述摄像头模块102用于实时获取用户的手势图像。摄像头模块102可以装设在聋哑用户专用的、用于翻译手语的智能眼镜上,也可以是用户的智能终端上的摄像头。摄像头模块102实时获取用户的手部图像,并筛选出其中的手势图像。
所述图像分解模块103用于对摄像头模块获取到的用户的手势图像进行分解。图像分解模块103对摄像头模块102获取到的用户的手势图像进行分解,例如,用户的手势图像表达的含义为:“中午吃什么”,则图像分解模块103将用户的手势图像分解为“中午”、“吃”、“什么”这几个单个的手势动作。
所述图像识别模块104用于对用户的手势图像进行识别。图像识别模块104对图像分解模块103分解后的用户的手势图像进行识别,图像识别模块104将分解后的手势图像与数据库200中存储的手势图像比对,对分解后的用户的手势图像进行识别。
所述语音模块105用于接收对方输入的语音,以及将翻译成语音的手势呈现给对方。当聋哑用户与正常人进行交流时,聋哑用户通过语音模块105接收到对方输入的语音。此外,通过语音模块105将翻译成语音的手势播放给对方。
所述文字模块106用于将手势姿势翻译成文字后呈现给对方。将聋哑用户的手语姿势翻译成文字后,通过文字模块106将翻译后的文字呈现给对方,可以呈现在聋哑用户专用的智能眼镜上,也可以呈现在聋哑用户的智能终端上。
所述显示模块107用于显示手势姿势或者文字。显示模块107可以是用户智能终端的屏幕,也可以是聋哑用户专用的智能眼镜的镜片,显示模块107将手势姿势或者文字显示出来,辅助用户交流。
所述通讯模块108用于所述系统与数据库通信连接、交互数据。通讯模块108用于本发明中的手语翻译系统与数据库200之间通信、交互数据。通讯模块108支持的通讯方式至少包括WiFi、数据网络、蓝牙中的一种。
电池模块300为可充电电池,电池模块300用于为本发明中的手语翻译系统提供电能。
数据库200中存储有各手语姿势,以及各手语姿势对应的含义。
如图7所示,图7是本发明另一实施例手语翻译系统的组成示意图。本发明中,图像识别模块104包括:图像特征提取模块1041、比对模块1042。
所述图像特征提取模块1041用于从摄像头模块102获取到的手势图像中提取手势图像的特征。图像特征提取模块1041用于从摄像头模块102实时获取到的用户的手势图像中提取出手势图像的特征。
所述比对模块1042用于将获取到的手势图像与数据库中存储的手势图像比对。比对模块1042用于在图像特征提取模块1041提取出手势图像的特征后,根据手势图像的特征,与数据库200中存储的手势图像进行比对,根据比对结果,确定手势的含义。
综上所述,本发明提出一种手语翻译方法及系统,实现手语与语音或者文字的转换,方便聋哑人与正常人的沟通。
虽然已参照典型实施方式描述了本发明,但应当理解,所用的术语是说明和示例性、而非限制性的术语。由于本发明能够以多种形式具体实施而不脱离发明的精神或实质,所以应当理解,上述实施方式不限于任何前述的细节,而应在随附权利要求所限定的精神和范围内广泛地解释,因此落入权利要求或其等效范围内的全部变化和改型都应为随附权利要求所涵盖。

Claims (8)

1.一种手语翻译方法,其特征在于,包括:
S100:获取手语姿势;
S200:对手语姿势进行分解;
S300:识别手语姿势的含义;
S400:将手语姿势翻译成文字或者语音;
S500:将翻译后的文字或者语音呈现给对方;
S600:接收对方的语音;
S700:将对方语音翻译成对应含义的手语姿势;
S800:将翻译后的手语姿势呈现给用户。
2.根据权利要求1所述的一种手语翻译方法,其特征在于,所述步骤S100:获取手语姿势,包括:
S110:摄像头模块捕捉用户手部的姿势;
S120:对用户手部的姿势进行实时记录及存储;
S130:筛选出用户手部姿势中的手语姿势。
3.根据权利要求1所述的一种手语翻译方法,其特征在于,所述步骤S300:识别手语姿势的含义,包括:
S310:获取到单个手语姿势的含义;
S320:按照顺序对单个手语姿势的含义进行组合;
S330:对组合后的手语姿势的含义进行校正。
4.根据权利要求1所述的一种手语翻译方法,其特征在于,所述步骤S400:将手语姿势翻译成文字或者语音,包括:
S410:用户选择将手语姿势翻译成文字还是语音;
S420:根据用户的选择对手语姿势进行对应的翻译。
5.根据权利要求1所述的一种手语翻译方法,其特征在于,所述步骤S700:将对方语音翻译成对应含义的手语姿势,包括:
S710:对用户语音的内容进行解析;
S720:将对方语音的内容按顺序拆分成单个词组;
S730:将单个词组翻译成对应的手语姿势;
S740:按照顺序将各词组对应的手语姿势组合;
S750:根据表达习惯对组合后的手语姿势进行校正。
6.一种手语翻译系统,其特征在于,所述系统包括:主控模块、摄像头模块、图像分解模块、图像识别模块、语音模块、文字模块、显示模块、通讯模块,所述主控模块分别与所述摄像头模块、图像分解模块、图像识别模块、语音模块、文字模块、显示模块、通讯模块电性连接;电源模块为所述系统提供电能,数据库通过与所述通讯模块通信连接,与所述系统交互数据;
所述摄像头模块用于实时获取用户的手势图像;
所述图像分解模块用于对摄像头模块获取到的用户的手势图像进行分解;
所述图像识别模块用于对用户的手势图像进行识别;
所述语音模块用于接收对方输入的语音,以及将翻译成语音的手势呈现给对方;
所述文字模块用于将手势姿势翻译成文字后呈现给对方;
所述显示模块用于显示手势姿势或者文字;
所述通讯模块用于所述系统与数据库通信连接、交互数据。
7.根据权利要求6所述的一种手语翻译系统,其特征在于,所述图像识别模块包括:图像特征提取模块、比对模块;
所述图像特征提取模块用于从摄像头模块获取到的手势图像中提取手势图像的特征;
所述比对模块用于将获取到的手势图像与数据库中存储的手势图像比对。
8.根据权利要求6所述的一种手语翻译系统,其特征在于,所述通讯模块支持的通讯方式至少包括WiFi、数据网络中的一种。
CN201811615411.6A 2018-12-27 2018-12-27 一种手语翻译方法及系统 Pending CN109637291A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811615411.6A CN109637291A (zh) 2018-12-27 2018-12-27 一种手语翻译方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811615411.6A CN109637291A (zh) 2018-12-27 2018-12-27 一种手语翻译方法及系统

Publications (1)

Publication Number Publication Date
CN109637291A true CN109637291A (zh) 2019-04-16

Family

ID=66078392

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811615411.6A Pending CN109637291A (zh) 2018-12-27 2018-12-27 一种手语翻译方法及系统

Country Status (1)

Country Link
CN (1) CN109637291A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110083250A (zh) * 2019-05-14 2019-08-02 长沙手之声信息科技有限公司 一种支持手语在线翻译的无障碍会议系统
CN110992783A (zh) * 2019-10-29 2020-04-10 东莞市易联交互信息科技有限责任公司 一种基于机器学习的手语翻译方法及翻译设备
CN112686132A (zh) * 2020-12-28 2021-04-20 南京工程学院 一种手势识别方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110083250A (zh) * 2019-05-14 2019-08-02 长沙手之声信息科技有限公司 一种支持手语在线翻译的无障碍会议系统
CN110992783A (zh) * 2019-10-29 2020-04-10 东莞市易联交互信息科技有限责任公司 一种基于机器学习的手语翻译方法及翻译设备
CN112686132A (zh) * 2020-12-28 2021-04-20 南京工程学院 一种手势识别方法及装置

Similar Documents

Publication Publication Date Title
KR101777807B1 (ko) 수화 번역기, 시스템 및 방법
CN109637291A (zh) 一种手语翻译方法及系统
US20190138607A1 (en) System and apparatus for non-intrusive word and sentence level sign language translation
CN109858357A (zh) 一种手势识别方法及系统
KR20170094668A (ko) 양방향 수화 번역 장치 및 장치가 수행하는 양방향 수화 번역 방법
CN106933807A (zh) 备忘录事件提醒方法及系统
US20140267649A1 (en) Apparatus and method for automatic action selection based on image context
Madhuri et al. Vision-based sign language translation device
CN106157956A (zh) 语音识别的方法及装置
CN106097835B (zh) 一种聋哑人交流智能辅助系统及交流的方法
KR101988037B1 (ko) 시각 및 청각 장애인과 일반인 간의 상호소통을 위한 특수행동인식 서비스 제공 방법
US20180293986A1 (en) Worn device for conversational-speed multimedial translation between two individuals and verbal representation for its wearer
CN108009490A (zh) 一种基于识别情绪的聊天机器人系统及该系统的判断方法
CN206178272U (zh) 一种眼镜外接多语智能设备
CN108415905A (zh) 实时翻译方法、智能眼镜及计算机可读存储介质
CN108052682A (zh) 一种智能查询机系统
CN108510988A (zh) 一种用于聋哑人的语言识别系统及方法
CN111223369A (zh) 聋语翻译机及其交流方法
CN111539376A (zh) 一种基于视频图像的多模态情感识别系统及方法
CN106325750A (zh) 一种应用于终端设备的文字识别方法及系统
CN113093387A (zh) 翻译ar眼镜及其文本翻译方法
CN111985335A (zh) 一种基于面部生理信息的唇语识别方法及装置
CN104361787A (zh) 信号转换系统和信号转换方法
CN112256827A (zh) 一种手语翻译方法、装置、计算机设备及存储介质
CN107391497B (zh) 蓝牙指尖翻译器及其翻译方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190416