CN105938399B - 基于声学的智能设备的文本输入识别方法 - Google Patents

基于声学的智能设备的文本输入识别方法 Download PDF

Info

Publication number
CN105938399B
CN105938399B CN201510878499.0A CN201510878499A CN105938399B CN 105938399 B CN105938399 B CN 105938399B CN 201510878499 A CN201510878499 A CN 201510878499A CN 105938399 B CN105938399 B CN 105938399B
Authority
CN
China
Prior art keywords
acoustic signals
character
text
envelope
smart machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510878499.0A
Other languages
English (en)
Other versions
CN105938399A (zh
Inventor
伍楷舜
邹永攀
刘巍峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201510878499.0A priority Critical patent/CN105938399B/zh
Priority to PCT/CN2016/078665 priority patent/WO2017092213A1/en
Priority to US15/780,270 priority patent/US20180373357A1/en
Publication of CN105938399A publication Critical patent/CN105938399A/zh
Application granted granted Critical
Publication of CN105938399B publication Critical patent/CN105938399B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

本发明涉及智能识别领域,其公开了一种基于声学的智能设备的文本输入识别方法,包括如下步骤:(S1)使用手指在文本输入区域输入文本字符,采集声波信号;(S2)对采集到的声波信号进行处理;(S3)对声波信号进行识别。提供了一种用户体验比较好、同时设备轻巧抗噪声强的一种声波信号识别的方法,进而提高了文本识别的效率。

Description

基于声学的智能设备的文本输入识别方法
技术领域
本发明涉及智能识别领域,尤其涉及一种基于声学的智能设备的文本输入识别方法。
背景技术
如今,随着计算机技术和可穿戴智能设备行业的快速发展,智能设备逐渐在人们的生活中普及,而且智能设备的功能越来越多,数据处理能力越来越强大,同时这些设备的体积却越来越小。智能设备的小型化带来诸多便利的同时,在需要文本字符输入进行交互时,传统的一些文本字符输入方法已不能够很好适应新的输入环境,寻找一种新的更佳的文本字符输入方法显得极为迫切。
经过近年来的发展,可穿戴设备的形态正在逐步完善。其中,交互形式一直是人们所关注的,尤其是文字输入体验。目前的解决方案主要集中在三个方面:第一是传统键盘型,又称为传统派,便是坚持在可传达设备中集成物理或虚拟QWERTY键盘,来实现输入体验,比如拥有物理键盘的智能手套、配备完整输入法的智能手表等,这种形式更容易上手,但缺点很明显,便是容易造成设备体积偏大,同时键盘使用体验依然不佳;第二种是文本预测型,主要采用QWERTY布局方式带来一种拥挤的感觉,推测学派在节省空间上很有优势,当你打出一个字的时候,系统根据输入习惯推荐相应的字词,这样就不需要把所有的字都打出来也不需要用到所有的键盘,比如很流行的涂鸦社交键盘Inkboard;表达情感的emoji键盘,此外,在大部分的智能手机上都有这种打字推测系统,使得这种推测更加容易在可穿戴设备上应用,但是限于可穿戴设备的显示屏体积小,以上两种输入方式的用户体验不佳;第三种是语言识别方式,语音识别无疑是最具未来感的,也是目前很多智能手表配备的功能,虽然语音输入已经存在一些时间了,人们仍然喜欢键盘输入,其中的一个原因是,在涉及到私人交流的时候,语音输入会让人们有不舒服的感觉,而且由于语音识别技术对用户所处环境有一定的要求,抗噪音能力方面也有待加强。
发明内容
为了解决现有技术中的问题,本发明提供了一种基于声学的智能设备的文本输入识别方法,解决现有技术中设备体积庞大、用户体验不佳和抗噪音能力较差的问题。
本发明是通过以下技术方案实现的:设计、制造了一种基于声学的智能设备的文本输入识别方法,包括如下步骤:(S1)使用手指在文本输入区域输入文本字符,采集声波信号;(S2)对采集到的声波信号进行处理;(S3)对声波信号进行识别。
作为本发明的进一步改进:所述步骤(S3)中,提取声波信号的包络,并提取不同字符所具有的包络特征,对声波信号进行变换,对采集到信号进行频域特征进行分析,提取不同字符所具有的频率特征,并通过对以上特征的综合,对字符特征数据进行模型训练,用户按照语法规则输入时,通过对比现有的字符特征进行分类判断,从而识别出用户输入的字符。
作为本发明的进一步改进:所述步骤(S1)中,激活智能设备扬声器使其发出经过调制的特定频率的声波信号,使用手指在文本输入区域输入文本字符,激活扬声器的同时也激活麦克风采集声波信号;该声波信号为经过调制的具有一定频率的声波信号。
作为本发明的进一步改进:麦克风采集数据的频率是固定的,至少是扬声器所发出的声波信号的频率的两倍。
作为本发明的进一步改进:所述步骤(S2)中,首先对声波信号进行分帧,并对每个窗口数据进行处理;对采集到的声波信号进行降噪处理,并使用滤波器对声波信号进行带通滤波处理,去除噪声和杂波。
作为本发明的进一步改进:所述步骤(S3)进一步包括:对步骤(S2)中所得到的声波信号数据,提取声波信号的包络信息,并对包络进行平滑,然后找出包络的峰值点与波峰之间的距离,通过对上述信息的提取对声波信号数据时域方面进行分析。
作为本发明的进一步改进:所述步骤(S3)中,使用短时傅里叶变换函数对声波数据信号进行傅里叶变换,对音频声波信号频域进行分析。
作为本发明的进一步改进:所述步骤(S3)中,对提取的特征信息,进行机器学习,通过对特征进行SVM训练,进行建模。
作为本发明的进一步改进:提取的字符特征使用建立的匹配模型并结合语法规则进行匹配分类,识别出用户输入的字符和文本,同时进行学习,优化匹配模型。
本发明的有益效果是:提供了一种用户体验比较好、同时设备轻巧抗噪声强的一种声波信号识别的方法,进而提高了文本识别的效率。
【附图说明】
图1是本发明基于声学的智能设备的文本输入识别方法步骤示意图。
图2是本发明中一种基于声学的智能设备的文本输入识别系统的结构示意图。
【具体实施方式】
下面结合附图说明及具体实施方式对本发明进一步说明。
一种基于声学的智能设备的文本输入识别方法,包括如下步骤:(S1)使用手指在文本输入区域输入文本字符,采集声波信号;(S2)对采集到的声波信号进行处理;(S3)对声波信号进行识别。
所述步骤(S3)中,提取声波信号的包络,并提取不同字符所具有的包络特征,对声波信号进行变换,对采集到信号进行频域特征进行分析,提取不同字符所具有的频率特征,并通过对以上特征的综合,对字符特征数据进行模型训练,用户按照语法规则输入时,通过对比现有的字符特征进行分类判断,从而识别出用户输入的字符。
所述步骤(S1)中,激活智能设备扬声器使其发出经过调制的特定频率的声波信号,使用手指在文本输入区域输入文本字符,激活扬声器的同时也激活麦克风采集声波信号;该声波信号为经过调制的具有一定频率的声波信号。
麦克风采集数据的频率是固定的,至少是扬声器所发出的声波信号的频率的两倍。
所述步骤(S2)中,首先对声波信号进行分帧,并对每个窗口数据进行处理;对采集到的声波信号进行降噪处理,并使用滤波器对声波信号进行带通滤波处理,去除噪声和杂波。
所述步骤(S3)进一步包括:对步骤(S2)中所得到的声波信号数据,提取声波信号的包络信息,并对包络进行平滑,然后找出包络的峰值点与波峰之间的距离,通过对上述信息的提取对声波信号数据时域方面进行分析。
所述步骤(S3)中,使用短时傅里叶变换函数对声波数据信号进行傅里叶变换,对音频声波信号频域进行分析。
所述步骤(S3)中,对提取的特征信息,进行机器学习,通过对特征进行SVM训练,进行建模。
提取的字符特征使用建立的匹配模型并结合语法规则进行匹配分类,识别出用户输入的字符和文本,同时进行学习,优化匹配模型。
在一实施例中,如图2,提出了一种基于声学原理的智能设备文本字符输入系统,该方法通过利用智能设备普遍内置的商用级麦克风与扬声器,结合数据挖掘与机器学习算法,实现无需额外输入设备的文本输入系统,通过智能设备中的扬声器发出经过一定方式调制的声波信号,使用手指在文本输入区域输入字符与文本;与此同时,智能设备内置的麦克风以一定的采样频率采集被手指反射回的声波信号;通过对上述步骤采集到的音频信号进行处理,包括:降噪滤波,包络提取,信号切分,时频分析,特征提取,模型训练,利用机器学习训练出的分类模型,识别用户输入的字符与文本。
在一具体实施例中,如图1,一种基于声学的智能设备的文本输入识别方法通过以下步骤实现:
S1、激活智能设备扬声器使其发出经过调制的特定频率的声波信号,使用手指在文本输入区域输入文本字符,激活扬声器的同时也激活麦克风采集声波信号,扬声器所发出的声波信号,是经过调制的具有一定频率的声波信号;麦克风采集数据的频率是一定的,至少是扬声器所发出的声波信号的频率的两倍。
S2、对麦克风采集到的声波数据进行处理。首先对采集到的信号进行分帧,然后对信号进行降噪,并通过使用滤波器对信号进行滤波处理;S2还包括,S21、首先对步骤S1采集的声波信号进行分帧,从而可以对每个窗口数据进行处理;S22、对采集到的声波信号进行降噪处理,并使用巴特沃斯滤波器对声波信号进行带通滤波处理,去除噪声和杂波。
S3、提取声波信号的包络,并提取不同字符所具有的包络特征,对声波信号进行傅里叶变换,对采集到信号进行频域特征进行分析,提取不同字符所具有的频率特征,并通过对以上特征的综合,对字符特征数据进行模型训练,用户按照语法规则输入时,通过对比现有的字符特征进行分类判断,从而识别出用户输入的字符。
将S3进行细化为:
S31A: 结合步骤S2中所得到的声波信号数据,提取声波信号的包络信息,并对包络进行平滑,然后找出包络的峰值点与波峰之间的距离,通过对上述信息的提取对声波信号数据时域方面进行分析;
S31B: 由于使用手指输入文本字符时,手指的移动会产生多普勒效应,从而扬声器所采集到的声波信号的频率会受到影响,结合步骤S2中所得到的声波数据信号,使用短时傅里叶变换函数对声波数据信号进行傅里叶变换,对音频声波信号频域进行分析;
S31C:结合训练的匹配模型,使用语法规则来提高识别的准确率;
S32: 结合步骤S31A和S31B中经过包络提取所得到的时域包络信息和经过傅里叶变换所得到的频域信息的分析,从而提取出特征;
S33: 通过结合步骤S32中提取的特征信息,进行机器学习,通过对特征进行SVM训练,进行建模。
还包括步骤S4:通过步骤S3中提取的字符特征使用步骤S3中所建立的匹配模型并结合语法规则进行匹配分类,识别出用户输入的字符和文本,同时进行学习,优化匹配模型S31A: 结合步骤S2中所得到的声波信号数据,提取声波信号的包络信息,并对包络进行平滑,然后找出包络的峰值点与波峰之间的距离,通过对上述信息的提取对声波信号数据时域方面进行分析。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (2)

1.一种基于声学的智能设备的文本输入识别方法,其特征在于:包括如下步骤:S1:使用手指在文本输入区域输入文本字符,采集声波信号;
所述步骤S1中,激活智能设备扬声器使其发出经过调制的特定频率的声波信号,使用手指在文本输入区域输入文本字符,激活扬声器的同时也激活麦克风采集被用户手指反馈回来的声波信号;
S2:对采集到的声波信号进行处理;
所述步骤S2中,首先对声波信号进行分帧,并对每个窗口数据进行处理;之后对采集到的声波信号进行降噪处理,并使用滤波器对声波信号进行带通滤波处理,去除噪声和杂波;
S3:对声波信号进行识别;
将步骤S3进行细化为:
S31A:结合步骤S2中所得到的声波信号,提取声波信号的包络信息,并对包络进行平滑,然后找出包络的峰值点与波峰之间的距离,通过对上述信息的提取对声波信号时域方面进行分析;
S31B:结合步骤S2中所得到的声波信号,使用短时傅里叶变换函数对声波信号进行傅里叶变换,对声波信号频域进行分析;
S31C:结合时域分析结果和频域分析结果提取特征,使用预先建立的匹配模型,并结合语法规则进行匹配分类,识别出用户输入的文本字符,同时进行学习,优化匹配模型;
其中,建立匹配模型的步骤具体包括:
S32:对采集到的声波信号进行时域特征分析,提取声波信号的包络,并提取不同字符所具有的包络特征,对声波信号进行变换,对采集到的声波信号进行频域特征分析,提取不同字符所具有的频率特征;
S33:进行机器学习,通过对上述的时域特征和频域特征的综合进行SVM训练,得到匹配模型。
2.根据权利要求1所述的基于声学的智能设备的文本输入识别方法,其特征在于:麦克风采集数据的频率是固定的,至少是扬声器所发出的声波信号的频率的两倍。
CN201510878499.0A 2015-12-04 2015-12-04 基于声学的智能设备的文本输入识别方法 Active CN105938399B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201510878499.0A CN105938399B (zh) 2015-12-04 2015-12-04 基于声学的智能设备的文本输入识别方法
PCT/CN2016/078665 WO2017092213A1 (en) 2015-12-04 2016-04-07 Methods, systems, and media for recognition of user interaction based on acoustic signals
US15/780,270 US20180373357A1 (en) 2015-12-04 2016-04-07 Methods, systems, and media for recognition of user interaction based on acoustic signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510878499.0A CN105938399B (zh) 2015-12-04 2015-12-04 基于声学的智能设备的文本输入识别方法

Publications (2)

Publication Number Publication Date
CN105938399A CN105938399A (zh) 2016-09-14
CN105938399B true CN105938399B (zh) 2019-04-12

Family

ID=57152842

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510878499.0A Active CN105938399B (zh) 2015-12-04 2015-12-04 基于声学的智能设备的文本输入识别方法

Country Status (3)

Country Link
US (1) US20180373357A1 (zh)
CN (1) CN105938399B (zh)
WO (1) WO2017092213A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106527828B (zh) * 2016-12-16 2018-05-08 上海交通大学 笔记本手写识别方法及其手写输入系统
US10503467B2 (en) * 2017-07-13 2019-12-10 International Business Machines Corporation User interface sound emanation activity classification
CN107894830B (zh) * 2017-10-12 2019-07-26 深圳大学 一种基于声学感知的交互输入方法、系统及介质
CN111492373A (zh) 2017-10-30 2020-08-04 纽约州州立大学研究基金会 与基于声学的回声签名的用户认证相关联的系统和方法
CN108107435B (zh) * 2017-12-07 2020-01-17 深圳大学 一种基于超声波的虚拟现实跟踪方法及系统
CN107943300A (zh) * 2017-12-07 2018-04-20 深圳大学 一种基于超声波的手势识别方法及系统
CN108648763B (zh) * 2018-04-04 2019-11-29 深圳大学 基于声学信道的个人计算机使用行为监测方法及系统
CN108804798A (zh) * 2018-06-04 2018-11-13 中车青岛四方机车车辆股份有限公司 一种轴承故障检测方法、装置及设备
CN110031827B (zh) * 2019-04-15 2023-02-07 吉林大学 一种基于超声波测距原理的手势识别方法
CN111666892B (zh) * 2020-06-08 2023-04-25 西南交通大学 一种基于经验小波希尔伯特变换的电力机车空转识别方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8077163B2 (en) * 2006-08-24 2011-12-13 Qualcomm Incorporated Mobile device with acoustically-driven text input and method thereof
US8769427B2 (en) * 2008-09-19 2014-07-01 Google Inc. Quick gesture input
US8907929B2 (en) * 2010-06-29 2014-12-09 Qualcomm Incorporated Touchless sensing and gesture recognition using continuous wave ultrasound signals
KR101771259B1 (ko) * 2011-07-06 2017-08-24 삼성전자주식회사 터치 스크린을 이용한 문자 입력 장치 및 그의 문자 입력 방법
US8749485B2 (en) * 2011-12-20 2014-06-10 Microsoft Corporation User control gesture detection
WO2014165476A1 (en) * 2013-04-01 2014-10-09 Gollakota Shyamnath Devices, systems, and methods for detecting gestures using wireless communication signals
CN104123930A (zh) * 2013-04-27 2014-10-29 华为技术有限公司 喉音识别方法及装置
US20150029092A1 (en) * 2013-07-23 2015-01-29 Leap Motion, Inc. Systems and methods of interpreting complex gestures
US20150102994A1 (en) * 2013-10-10 2015-04-16 Qualcomm Incorporated System and method for multi-touch gesture detection using ultrasound beamforming
US9569006B2 (en) * 2014-04-10 2017-02-14 Mediatek Inc. Ultrasound-based methods for touchless gesture recognition, and apparatuses using the same
US9817109B2 (en) * 2015-02-27 2017-11-14 Texas Instruments Incorporated Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution
KR101577359B1 (ko) * 2015-03-16 2015-12-14 박준호 웨어러블 디바이스
CN111880650A (zh) * 2015-04-30 2020-11-03 谷歌有限责任公司 基于宽场雷达的手势识别
EP3133474B1 (en) * 2015-08-19 2019-03-27 Nxp B.V. Gesture detector using ultrasound
US10817065B1 (en) * 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna

Also Published As

Publication number Publication date
US20180373357A1 (en) 2018-12-27
CN105938399A (zh) 2016-09-14
WO2017092213A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
CN105938399B (zh) 基于声学的智能设备的文本输入识别方法
CN102723078B (zh) 基于自然言语理解的语音情感识别方法
CN102737629B (zh) 一种嵌入式语音情感识别方法及装置
CN110853618B (zh) 一种语种识别的方法、模型训练的方法、装置及设备
CN107300971B (zh) 基于骨传导振动信号传播的智能输入方法及系统
CN110853617B (zh) 一种模型训练的方法、语种识别的方法、装置及设备
CN109657739B (zh) 一种基于高频声波短时傅里叶变换的手写字母识别方法
CN106486130A (zh) 噪声消除、语音识别方法及装置
CN110265040A (zh) 声纹模型的训练方法、装置、存储介质及电子设备
CN103971681A (zh) 一种语音识别方法及系统
CN109394258A (zh) 一种肺部呼吸音的分类方法、装置及终端设备
CN103294199A (zh) 一种基于脸部肌音信号的无声信息识别系统
CN109658949A (zh) 一种基于深度神经网络的语音增强方法
CN103514884A (zh) 通话音降噪方法及终端
CN110069199A (zh) 一种基于智能手表的皮肤式手指手势识别方法
CN106847279A (zh) 基于机器人操作系统ros的人机交互方法
CN106941001A (zh) 自动翻页方法及装置
CN107526437A (zh) 一种基于音频多普勒特征量化的手势识别方法
CN105931635A (zh) 一种音频分割方法及装置
CN108182418A (zh) 一种基于多维声波特征的键击识别方法
CN110223711A (zh) 基于麦克风信号的语音交互唤醒电子设备、方法和介质
CN110059612A (zh) 一种基于信道状态信息的位置无关的手势识别方法及系统
CN110917613A (zh) 一种基于振动触觉的游戏智能桌垫
CN103544311A (zh) 一种基于手机新闻客户端评价系统及其方法
CN110946554A (zh) 咳嗽类型识别方法、装置及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant