CN105551327A - 一种基于柔性电子皮肤的互动式发音矫正系统及方法 - Google Patents
一种基于柔性电子皮肤的互动式发音矫正系统及方法 Download PDFInfo
- Publication number
- CN105551327A CN105551327A CN201610129036.9A CN201610129036A CN105551327A CN 105551327 A CN105551327 A CN 105551327A CN 201610129036 A CN201610129036 A CN 201610129036A CN 105551327 A CN105551327 A CN 105551327A
- Authority
- CN
- China
- Prior art keywords
- unit
- pronunciation
- lip
- word
- character recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Abstract
本发明是一种基于柔性电子皮肤的互动式发音矫正系统及方法。该系统包括:唇语信号采集单元、字符识别单元等。用户戴上该装置读一个英文单词或短语,可以通过已经建立的云端字符识别库识别出该单词或短语,并把该单词或短语的标准发音通过蓝牙耳机读出来,同时将该单词或词组的音标、用法、搭配等语法信息实时的显示在显示屏上,这对训练英语口语和发音矫正提供了方便。本发明装置可以实时的给出正确的发音音标和播报标准的发音,作为一种新型的互动式发音矫正设备,其结构简单、重量轻、可靠性高、携带方便、成本低、实用性强、利于产业化。
Description
技术领域
本发明涉及传感器、信号处理技术以及无线传感网络等领域,尤其涉及一种用于发音矫正的可穿戴设备,属于智能语音识别领域。
背景技术
智能可穿戴设备作为一种新型可穿戴设备,其研究热度不断提升,其应用领域也越来越广泛。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能,可穿戴设备将会对我们的生活、感知带来很大的转变。
英语学习对于非英语国家中孩子的学习一直是很重要的问题。在英语的学习中单词和口语又是最为关键的部分。对于一段英文,很多人能看懂也能听懂其表达的意思,但是无法通过标准的英语流畅的表达出来,因此与外国人交流必然存在极大的障碍。现有的发音矫正装置存在设备复杂,不方便携带,实时性差,操作流程多等弊端。传统的翻译技术和设备很不方便,需要一个单词、一个单词输入来识别含义和语法,耗费了大量学习英语的时间和精力,而且效果不好。相比之下,我们这种基于测定嘴唇振动的电信号进行识别和发音矫正的智能装置携带方便,设备简单,成本低,体积小,实时性好,而且利于产业化,具有很好的应用前景。借助这个装置可以很方便的通过朗读一个单词进而实时的得到单词的翻译和相关用法等语法信息,既方便快捷又不耗费精力,而且大大提高了学习英语的效率。最终将这一矫正系统的终端做成手机APP的形式,可以方便的通过这个软件实时的看到翻译的结果和朗读标准的英语,效率更高。
随着经济全球化的深入,出国旅行、探亲或出差等活动越来越频繁,家庭旅行或者各种自由行已经非常普及,但是有相当多的人在机场、酒店、公园或者其他的行程中会遇到语言不通的问题,如无法识别一些标识牌(例如,交通标示牌、菜单、路线图等)的信息,而通过手机或者电脑进行人工输入翻译又非常不便且实时性差。如果用本发明设备,只要直接读出那些标识牌就可以实时的得到翻译,从而极大地减轻了语言不通的烦恼。另外,各种国际性会议越来越普遍,即使有翻译官帮忙翻译,但是仍然存在明显的翻译滞后性。本发明装置可以很好的解决这一问题,用于各种国际会议、中外学术交流会、商业谈判等用途,具有很高的实用价值。
发明内容
本发明的目的在于提出一种基于柔性电子皮肤的互动式发音矫正系统及方法。克服了现有的发音矫正装置的操作复杂、便携性差、实时性差的缺点,大大的提高了矫正发音的效率和学习英语的效率。
为达此目的,本发明采用以下技术方案:一种基于柔性电子皮肤的互动式发音矫正系统。该系统包括:唇语信号采集单元、字符识别单元、云端处理单元、播报单元。
所述唇语信号采集单元包括柔性电子皮肤,用于采集嘴唇的运动时产生应变,并以电信号的形式输出;
所述字符识别单元用于将唇语信号采集单元采集的信号与其数据库中存储的数据进行比对,实现字符识别;
所述的云端处理单元是将字符识别的结果输入到谷歌翻译或CAJ等翻译软件中,得到关于这一单词读音的标准发音,并将用户发出的语言翻译成用户想要得到的语言。同时在电子翻译软件中得到关于这个词语的用法或搭配的语法,来为下单元的实时显示做准备;
所述的播报单元是:云端的翻译结果会通过蓝牙装置反送到蓝牙耳机装置中,蓝牙耳机会实时的将传输得到的标准结果通过耳机播报出来。也可以通过蓝牙装置反送到手机上,通过手机的扬声器实时的播报出来。
进一步地,所述系统还包括音标翻译显示单元,云端中电子翻译软件得到关于这一词语的音标、用法和搭配等语法信息会通过蓝牙装置传送到LED显示屏上实时的显示,当然也可以直接通过蓝牙传送到手机APP上,实时的显示关于这一词组的相关语法信息。
进一步地,所述系统还包括反馈提醒单元,所述反馈提醒单元是用3个LED灯来实现根据本次识别矫正的结果提醒下一次的操作,是通过将算法写入矫正程序来实现的。
进一步地,所述柔性电子皮肤通过以下方法制备得到:将Cu纳米线-石墨烯薄膜剪出2cm×0.5cm的长条,将两端用银胶粘上铜线,再嵌入聚二甲基硅氧烷(PDMS)中,置于70℃鼓风干燥箱中2h,制成柔性电子皮肤。所述Cu纳米线-石墨烯薄膜的制备方法如下:
(1)向20-25mL乙二醇溶液中加入20-42mgCu纳米线,分散均匀后加入48-54mg抗坏血酸,分散均匀后加入3-3.8mL氧化石墨烯,移至水热反应釜中,将其置于120-160℃鼓风干燥箱中反应4-6h,再冷却至室温,就得到Cu纳米线-石墨烯复合水凝胶。
(2)将制备得到的Cu纳米线-石墨烯复合水凝胶置于0.5wt%水合肼溶液中透析16h,再取出倒入150mL去离子水中分散均匀,得到悬浮液,再用砂芯过滤装置抽滤,便得到Cu纳米线-石墨烯薄膜。
进一步地,所述数据库包括英文字母数据库和国际音标数据库;通过以下方法建立:将柔性电子皮肤黏贴于嘴唇四周,采集朗读26个英文字母或48个国际音标时,嘴唇运动产生的应变,并以电信号的形式存储于字符识别单元;每个字母或每个音标具有一个对应的特征波形;
一种所述系统的互动式发音矫正方法,包括以下步骤:
(1)将柔性电子皮肤黏贴于嘴唇四周,采集嘴唇运动时产生的应变,并以电信号的形式发送给字符识别单元,每个音标或字母产生一个信号波形;
(2)字符识别单元利用数据库,通过人工神经网络识别算法,对电信号中的各个波形进行识别,识别得到对应的各个字母或音标;
(3)将识别结果传到云端处理单元,云端处理单元根据识别结果,输出字符的标准发音;云端处理单元可以通过谷歌翻译、CAJ等翻译软件实现。
(4)播报单元将标准发音通过耳机进行播报,从而实现对发声者的发音矫正。
进一步地,所述识别结果为:识别得到的各个波段的字母或音标按照先后顺序叠加。
所述的发音矫正系统,在云端翻译单元中,可以提前设置想要翻译的语言类型,当然大部分是翻译成中文。可以将要翻译的英文的语法和用法都输入显示装置中显示出来。
本发明系统的优点在于:这种基于测定嘴唇振动的电信号进行识别和发音矫正的智能装置携带方便,设备简单,成本低,体积小,实时性好,而且利于产业化,具有很好的应用前景。最终将这一发音矫正系统的终端做成手机APP的形式,可以很方便的通过这个软件实时的看到音标和翻译结果并且朗读标准发音,从而提高矫正发音效率。目前比较流行的智能翻译设备都是基于拍照技术捕捉口型,然后通过软件识别出文字并进行发音矫正及翻译。这种方法与我们提出的直接测定说话时嘴唇四周振动的电信号来识别唇语的方法相比,不仅实现难度大,操作复杂,操作步骤繁琐,所需设备(摄像机等)成本高,不方便携带,不利于大规模的产业化。
附图说明
通过参照附图更详细地描述本发明的示例性实施例,本发明的以上和其它方面及优点将变得更加易于清楚,在附图中:
图1是本发明具体实施方式提供的一种用于发音矫正的可穿戴设备的结构示意图;
图2是本发明装置实现云端识别和将标准发音发送到蓝牙耳机播报和将音标和相关语法在显示屏显示的结构示意图;
图3是将柔性皮肤传感器贴在嘴唇四周测发声时嘴唇振动的模拟效果图;
图4是读英文字母“E”和“P”时,用吉时利2400表测出贴在嘴唇四周柔性皮肤传感器的电信号;
图5是用不同音调连读3遍英文字母“ZSTU”时,用吉时利2400表测出贴在嘴唇四周柔性皮肤传感器的电信号;
图6是实施权利要求5中,通过人工神经网络识别算法用MATLAB软件识别字母“B”的软件界面;
图7是实施权利要求6中,通过叠加识别识别英文“NIKE”的MATLAB界面;
图8是实施权利要求7中,通过叠加识别即通过字母“K”和“U”的叠加识别出字母“Q”的MATLAB界面;
图9是人工神经网络识别算法的识别过程流程图;
具体实施方式
本发明一种基于柔性电子皮肤的互动式发音矫正系统及方法,包括唇语信号采集单元、字符识别单元、云端处理单元、播报单元、音标翻译显示单元、反馈提醒单元。硬件主要包括:贴在用户嘴四周的柔性皮肤传感器,小型显示屏和蓝牙耳机,和用于反馈用户的绿、红、黄3个LED提示灯。智能装置还包括蓝牙接口电路,与手机、电脑等外部终端相连的无线通讯接口,给每部分供电的锂电池。
所述的唇语信号采集单元,主要部件为柔性电子皮肤,柔性电子皮肤的制作方法为:将Cu纳米线-石墨烯薄膜剪出2cm×0.5cm的长条,将两端用银胶粘上铜线,再嵌入PDMS中,置于70℃鼓风干燥箱中2h,制成柔性电子皮肤。其中,Cu纳米线-石墨烯薄膜的制备方法如下:
(1)向20-25mL乙二醇溶液中加入20-42mgCu纳米线,分散均匀后加入48-54mg抗坏血酸,分散均匀后加入3-3.8mL氧化石墨烯,移至水热反应釜中,将其置于120-160℃鼓风干燥箱中反应4-6h,再冷却至室温,就得到Cu纳米线-石墨烯复合水凝胶。
(2)将制备得到的Cu纳米线-石墨烯复合水凝胶置于0.5wt%水合肼溶液中透析16h,再取出倒入150mL去离子水中分散均匀,得到悬浮液,再用砂芯过滤装置抽滤,便得到Cu纳米线-石墨烯薄膜。
柔性电子皮肤具有较高的灵敏性和稳定性,其形状和大小可以根据每个人的嘴型进行定制,确保柔性电子皮肤可以紧贴在嘴唇的四周,灵敏的采集说话时嘴唇的振动。
所述的字符识别单元,将柔性电子皮肤输出的电信号,运用人工神经网络的识别算法将采集到的电信号与建立的字符判断数据库进行对比,输出最接近的结果。
数据库是通过训练而建立的,在用户使用前,首先要根据用户的嘴型和发音习惯制作完全可以使柔性皮肤传感器紧贴嘴唇四周的智能装置。接着需要交付用户进行训练,得到符合用户发音习惯的26个字母和48个国际音标的唇语振动电信号,将这些信号建立一个数据库。
在识别过程中,用户带上我们设计的符合自己嘴型的智能装置,当用户说话时,由于嘴型的变化使得嘴唇四周会产生振动,紧贴嘴唇的柔性皮肤传感器同时跟随嘴唇的振动会产生表面的微变形,从而引起电阻应变片传感器中应变片的形变,使得应变片电阻值发生变化,从而使应变片上对外输出的电压值也会发生变化,此电压信号通过装置的蓝牙接口传送到云端,通过唇语识别的人工神经网络的识别算法,将数据库中的信号和这些信号进行一一比对识别或者叠加识别,得到唇语识别的结果。接着将这些结果输入到CAJ等电子翻译软件中得到标准发音并进行翻译,得到关于这一词语的所有语法信息。接着通过蓝牙接口传到蓝牙耳机里实时的播报标准发音的结果。并同时将关于这一词组的音标和所有语法信息通过蓝牙接口传到显示屏里显示出来。同时这一过程可在手机APP里实现。
唇语信号采集单元与字符识别单元之间的电信号传输,为本领域常用的技术手段,可以采用如上的铜线直接传输,也可以通过无线网络进行传输。将人工神经网络的程序写入单片机(字符识别单元里),把采集到的电信号传入单片机,在单片机里实现识别的过程,并通过串行通讯接口输出结果。还可以通过智能装置的蓝牙接口或无线通讯协议很方便的将采集到的数据传入云端(字符识别单元),在云端实现字符的识别,将识别结果反送到终端(字符显示单元),由于云端的字符向量库更全面和充足,从而使得识别率提高。
所述的音标翻译显示单元,可以为一个小型的显示屏,云端中电子翻译软件得到关于这一词语的音标、用法和搭配等语法信息会通过蓝牙装置传送到显示屏上实时的显示,为本领域公知的现有技术。例如,将云端处理单元的串行接口与显示驱动电路的串行接口相连,显示装置的显示驱动电路通过数据总线和地址总线来驱动显示屏显示翻译的结果。也可以将蓝牙接口电路的串行接口与单片机的串行接口相连,通过蓝牙将音标和翻译结果显示在手机或者电脑等终端上。
所述的播报单元,可以为一个小扬声器。将标准发音通过扬声器进行实时播报,为本领域公知的现有技术。例如,将单片机的总线接口与语音驱动电路相连,接着连接到扬声器的端口,通过在单片机里写入的语音播报程序将标准发音通过扬声器实时的读出来。
智能装置还包括反馈用户起提醒作用的3个LED灯。当识别矫正成功后,中间的绿色LED灯亮,用于提醒用户,本次识别矫正已经结束,可以进行下一次的矫正;当识别不出结果,则右侧的黄色LED灯亮,用于提醒用户本次识别矫正出现故障,识别矫正不出结果,重新录入一次唇语发音;当三次同样录入后,依然识别不出结果,这时位于左下角的红色LED灯亮,提醒用户这个单词或者短语的识别无果,用户需要换一种说法或者跳过这个单词或短语。上述功能可以通过简单的逻辑电路实现,在此不作详细陈述。
上述神经网络的识别算法为:人工神经网络ANN,是在对人脑组织结构和运行机制的认识基础之上模拟其结构和智能行为的一种工程系统。神经网络模式识别过程分为两步,首先是学习过程,通过大量学习样本,对网络进行训练,根据某种学习规则不断对连接权值和阈值进行调节,最后使网络具有某种期望的输出,这种输出即是可以将训练样本正确分类到其所属类别中去,此时可以认为网络是学习到了输入样本间的内在规律。然后是分类过程,应用前面学习过程训练好的权值和阈值,对任一送入网络的样本进行分类。
由于在英语中,有很多单词里某些字母是不发音的,这就导致用读音的音标或音节来识别单词时,虽然扬声器里发出的声音是准确的,但是显示的单词的拼写有错误,造成识别率降低。因此,在编写识别软件时,最后会对显示的单词进行一次审核,会把英语单词中不发音的字母,即所谓的哑音字母按照英语读音的构词法添加进去。这基础上,后期将会把更加全面的英语读音规则转化成识别和筛选的算法添加进去。
最后可以将这一智能翻译系统的终端做成手机APP的形式,这样只要打开这个软件就可以很方便的实时看到音标和翻译的结果,并朗读标准发音,从而更方便和效率更高。
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种发音矫正方法。
实施例1
一种基于柔性电子皮肤的互动式发音矫正系统,外观示意图如图1所示,连接结构框图如图2所示,该装置包括:唇语信号采集单元、字符识别单元、云端处理单元、播报单元、音标翻译显示单元、反馈提醒单元。它主要包括:贴在用户嘴四周的柔性皮肤传感器,小型显示屏和蓝牙耳机,和用于反馈用户的绿、红、黄3个LED提示灯。智能装置还包括蓝牙接口电路,与手机、电脑等外部终端相连的无线通讯接口,给每部分供电的锂电池。
如图3所示,柔性电子皮肤传感器贴在嘴的四周,柔性皮肤传感器的制作材料是导电性非常好的新材料石墨烯,使得其灵敏性和稳定性非常好。使用时紧贴用户嘴唇的四周,用于采集说话时嘴唇振动的电信号。而且柔性电子皮肤的形状需要根据用户的嘴型来量身定做,保证传感器可以充分采集用户发音时嘴唇振动的特征量。
如图4所示,读英文字母“E”和“P”时,用吉时利2400表测出贴在嘴唇四周柔性皮肤传感器的电信号,从波形图可以看出每个字母的波形图的特征量都不同,具有明显的差异性,从而使得实现字母的识别成为可能。
如图5所示,用不同音调连读3遍英文短语“ZSTU”时,用吉时利2400表测出贴在嘴唇四周柔性皮肤传感器的电信号。从波形图可以看出,重复性特别好,虽然声调的高低会影响波形图的幅值,但是波形的特征量是不变的,说明可以通过每个字母波形图特征量的不同来实现识别。
实施例2
如图6、7所示,本系统实现了一对一的识别,也实现了几个字母在一起的连续识别。在字符的识别中,本系统能够通过人工神经网络的算法实现简单英文26个字母的识别,识别率非常的高。而且,本系统能够实现一次同时识别4、5个字母,而且保证字母的顺序不变,即输出的识别结果中字母类型和顺序和输入的完全一致。比如,用柔性皮肤传感器测出读4个字母“NIKE”时的嘴唇振动信号,将这个信号波形输入MATLAB中已经建立的识别系统,系统会通过人工神经网络的识别算法将这个信号中的每个字母分别与已经建立的26个字母的数据库进行对比识别,最终会在MATLAB的界面上输出识别结果“NIKE”。
实施例3
如图8所示,本系统实现了字母的叠加识别。在MATALB中建立了英文字母“K”和“U”的唇语振动电信号的数据库,接着测出读英文字母“Q”时的唇语振动电信号,将它输入MATLAB的识别系统,系统会将字母“Q”的读音[kju:]分别通过神经网路的识别算法识别出是字母“K”的音标[kei]和字母“U”的音标[ju:]的顺序叠加,接着再根据音标的构词法得到这个是字母“Q”的唇语振动电信号,最后会在MATLAB的控制面板上输出识别结果是字母“Q”.所建立的唇语识别系统不仅能实现一对一的识别,还能实现叠加识别的强大功能。即由于音节是读音的基本单位,任何单词的读音,都是分解为一个个音节朗读。用柔性皮肤传感器分别测出某个人读英语48个国际音标时的嘴唇振动信号,建立一个MATLAB数据库,接着测出他读任何一个英语单词时的嘴唇振动信号,将信号输入已经建立的MATLAB识别系统中,系统会通过人工神经网络的识别算法,将输入信号波形的每一段分别按顺利依次与已经建立的48个国际音标数据库的波形进行比对,通过识别算法依次识别出信号波形每一段所对应的国际音标或音节,接着将这些按顺序识别出来的国际音标按照英语读音音标的语法组成单词,接着MATLAB的界面会显示出识别出来的字母。从而,用音标的叠加识别来识别字母,接着用字母的叠加识别来识别短语,最后用短语的叠加识别来识别句子,以此类推,最终就能实现完整的人们日常用语的识别。
其使用过程为:首先根据用户的嘴型和发音习惯采集48个国际音标的唇语振动电信号,将这些信号建立一个数据库。当用户说话时,由于嘴型的变化使得嘴唇四周会产生振动,紧贴嘴唇的柔性皮肤传感器同时跟随嘴唇的振动会产生表面的微变形,从而引起电阻应变片形变,电阻值发生变化,应变片上对外输出的电压值也会发生变化,此电压信号通过装置的蓝牙接口传送到云端,通过唇语识别的人工神经网络的识别算法,将数据库中的信号和这些信号进行一一比对识别或者叠加识别,得到唇语识别的结果。接着将这些结果输入到CAJ等电子翻译软件中得到标准发音和进行翻译,并得到关于这一词语的所有语法信息。接着通过蓝牙接口传到蓝牙耳机里实时的播报标准发音。并同时将关于这一词组的音标和所有语法信息通过蓝牙接口传到显示屏里显示出来。同时这一过程可在手机APP里实现。
如图9所示人工神经网络识别算法的识别过程流程图,上述神经网络的识别算法为:人工神经网络ANN,是在对人脑组织结构和运行机制的认识基础之上模拟其结构和智能行为的一种工程系统。神经网络模式识别过程分为两步,首先是学习过程,通过大量学习样本,对网络进行训练,根据某种学习规则不断对连接权值和阈值进行调节,最后使网络具有某种期望的输出,这种输出即是可以将训练样本正确分类到其所属类别中去,此时可以认为网络是学习到了输入样本间的内在规律。然后就是分类过程,应用前面学习过程训练好的权值和阈值,对任一送入网络的样本进行分类。
由于在英语中,有很多单词里某些字母是不发音的,这就导致用读音的音标或音节来识别单词时,虽然扬声器里发出的声音是准确的,但是显示的单词的拼写有错误,造成识别率降低。因此,我们在编写识别软件时,最后会对显示的单词进行一次审核,会把英语单词中不发音的字母,即所谓的哑音字母按照英语读音的构词法添加进去。这基础上,后期将会把更加全面的英语读音规则转化成识别和筛选的算法添加进去,比如“元音字母在重读音节中的读音规则”、“元音字母组合的读音规则”等,以此来提高识别的准确率。
最后可以将这一识别系统的终端做成手机APP的形式,这样只要打开这个软件就可以很方便的实时看到音标和翻译的结果,和朗读标准发音,从而更方便和效率更高。
Claims (8)
1.一种基于柔性电子皮肤的互动式发音矫正系统,其特征在于:包括唇语信号采集单元、字符识别单元、云端处理单元、播报单元;
所述唇语信号采集单元包括柔性电子皮肤,用于采集嘴唇的运动时产生应变,并以电信号的形式输出;
所述字符识别单元用于将唇语信号采集单元采集的信号与其数据库中存储的数据进行比对,实现字符识别;
所述的云端处理单元用于根据识别结果,输出字符的标准发音;云端处理单元可以通过谷歌翻译、CAJ等翻译软件实现。
所述的播报单元用于将标准发音通过耳机进行播报。
2.根据权利要求1所述的系统,其特征在于,所述系统还包括音标翻译显示单元,云端中电子翻译软件得到关于这一词语的音标、用法和搭配等语法信息会通过蓝牙装置传送到LED显示屏上实时的显示,当然也可以直接通过蓝牙传送到手机APP上,实时的显示关于这一词组的相关语法信息。
3.根据权利要求1所述的系统,其特征在于,所述系统还包括反馈提醒单元,所述反馈提醒单元是用3个LED灯来实现根据本次识别矫正的结果提醒下一次的操作,是通过将算法写入识别矫正程序来实现的。
4.根据权利要求1所述的系统,其特征在于,唇语信号采集单元、字符识别单元、云端处理单元、播报单元依次通过蓝牙或无线网络相连。
5.根据权利要求1所述的系统,其特征在于,所述柔性电子皮肤通过以下方法制备得到:将Cu纳米线-石墨烯薄膜剪出2cm×0.5cm的长条,将两端用银胶粘上铜线,再嵌入聚二甲基硅氧烷(PDMS)中,置于70℃鼓风干燥箱中2h,制成柔性电子皮肤。所述Cu纳米线-石墨烯薄膜的制备方法如下:
(1)向20-25mL乙二醇溶液中加入20-42mgCu纳米线,分散均匀后加入48-54mg抗坏血酸,分散均匀后加入3-3.8mL氧化石墨烯,移至水热反应釜中,将其置于120-160℃鼓风干燥箱中反应4-6h,再冷却至室温,就得到Cu纳米线-石墨烯复合水凝胶。
(2)将制备得到的Cu纳米线-石墨烯复合水凝胶置于0.5wt%水合肼溶液中透析16h,再取出倒入150mL去离子水中分散均匀,得到悬浮液,再用砂芯过滤装置抽滤,便得到Cu纳米线-石墨烯薄膜。
6.根据权利要求1所述的系统,其特征在于,所述数据库包括英文字母数据库和国际音标数据库;通过以下方法建立:将柔性电子皮肤黏贴于嘴唇四周,采集朗读26个英文字母或48个国际音标时,嘴唇运动产生的应变,并以电信号的形式存储于字符识别单元;每个字母或每个音标具有一个对应的特征波形。
7.一种权利要求1所述系统的互动式发音矫正方法,其特征在于,包括以下步骤:
(1)将柔性电子皮肤黏贴于嘴唇四周,采集嘴唇运动时产生的应变,并以电信号的形式发送给字符识别单元,每个音标或字母产生一个信号波形;
(2)字符识别单元利用数据库,通过人工神经网络识别算法,对电信号中的各个波形进行识别,识别得到对应的各个字母或音标;
(3)将识别结果传到云端处理单元,云端处理单元根据识别结果,输出字符的标准发音;云端处理单元可以通过谷歌翻译、CAJ等翻译软件实现。
(4)播报单元将标准发音通过耳机进行播报,从而实现对发声者的发音矫正。
8.根据权利要求7所述的方法,其特征在于,所述识别结果为:识别得到的各个波段的字母或音标按照先后顺序进行叠加后,组成的识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610129036.9A CN105551327A (zh) | 2016-03-07 | 2016-03-07 | 一种基于柔性电子皮肤的互动式发音矫正系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610129036.9A CN105551327A (zh) | 2016-03-07 | 2016-03-07 | 一种基于柔性电子皮肤的互动式发音矫正系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105551327A true CN105551327A (zh) | 2016-05-04 |
Family
ID=55830493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610129036.9A Pending CN105551327A (zh) | 2016-03-07 | 2016-03-07 | 一种基于柔性电子皮肤的互动式发音矫正系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105551327A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106618516A (zh) * | 2016-09-09 | 2017-05-10 | 浙江理工大学 | 一种心尖搏动传感器 |
CN107424450A (zh) * | 2017-08-07 | 2017-12-01 | 英华达(南京)科技有限公司 | 发音纠正系统和方法 |
CN107678327A (zh) * | 2017-08-31 | 2018-02-09 | 浙江理工大学 | 一种发音辅助系统 |
CN109448463A (zh) * | 2018-12-29 | 2019-03-08 | 江苏师范大学 | 基于虚拟现实技术的外语发音自主学习训练系统及其方法 |
CN109885239A (zh) * | 2018-12-20 | 2019-06-14 | 北京子歌人工智能科技有限公司 | 一种具有识别功能的触感阵列人工智能学习系统 |
CN113571151A (zh) * | 2017-09-05 | 2021-10-29 | 无锡时代天使医疗器械科技有限公司 | 用于监控口面肌训练的装置及方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000338987A (ja) * | 1999-05-28 | 2000-12-08 | Mitsubishi Electric Corp | 発話開始監視装置、話者同定装置、音声入力システム、および話者同定システム、並びに通信システム |
CN202331850U (zh) * | 2011-11-25 | 2012-07-11 | 包春梅 | 自动标示音标以矫正发音的外语学习机 |
CN202352332U (zh) * | 2011-11-30 | 2012-07-25 | 李扬德 | 一种便携式唇语识别器 |
CN203179337U (zh) * | 2013-03-18 | 2013-09-04 | 烟台职业学院 | 汉语普通话发音矫正器 |
CN104575500A (zh) * | 2013-10-24 | 2015-04-29 | 中国科学院苏州纳米技术与纳米仿生研究所 | 电子皮肤在语音识别上的应用、语音识别系统和方法 |
CN104801244A (zh) * | 2015-04-09 | 2015-07-29 | 浙江理工大学 | 一种三维石墨烯—铜纳米线复合气凝胶的制备方法 |
GB2524877A (en) * | 2014-02-18 | 2015-10-07 | Lenovo Singapore Pte Ltd | Non-audible voice input correction |
CN105321519A (zh) * | 2014-07-28 | 2016-02-10 | 刘璟锋 | 话语辨识系统与单元 |
-
2016
- 2016-03-07 CN CN201610129036.9A patent/CN105551327A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000338987A (ja) * | 1999-05-28 | 2000-12-08 | Mitsubishi Electric Corp | 発話開始監視装置、話者同定装置、音声入力システム、および話者同定システム、並びに通信システム |
CN202331850U (zh) * | 2011-11-25 | 2012-07-11 | 包春梅 | 自动标示音标以矫正发音的外语学习机 |
CN202352332U (zh) * | 2011-11-30 | 2012-07-25 | 李扬德 | 一种便携式唇语识别器 |
CN203179337U (zh) * | 2013-03-18 | 2013-09-04 | 烟台职业学院 | 汉语普通话发音矫正器 |
CN104575500A (zh) * | 2013-10-24 | 2015-04-29 | 中国科学院苏州纳米技术与纳米仿生研究所 | 电子皮肤在语音识别上的应用、语音识别系统和方法 |
GB2524877A (en) * | 2014-02-18 | 2015-10-07 | Lenovo Singapore Pte Ltd | Non-audible voice input correction |
CN105321519A (zh) * | 2014-07-28 | 2016-02-10 | 刘璟锋 | 话语辨识系统与单元 |
CN104801244A (zh) * | 2015-04-09 | 2015-07-29 | 浙江理工大学 | 一种三维石墨烯—铜纳米线复合气凝胶的制备方法 |
Non-Patent Citations (1)
Title |
---|
王燕: "石墨烯超灵敏应变型传感器的研究", 《万方数据》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106618516A (zh) * | 2016-09-09 | 2017-05-10 | 浙江理工大学 | 一种心尖搏动传感器 |
CN107424450A (zh) * | 2017-08-07 | 2017-12-01 | 英华达(南京)科技有限公司 | 发音纠正系统和方法 |
CN107678327A (zh) * | 2017-08-31 | 2018-02-09 | 浙江理工大学 | 一种发音辅助系统 |
CN113571151A (zh) * | 2017-09-05 | 2021-10-29 | 无锡时代天使医疗器械科技有限公司 | 用于监控口面肌训练的装置及方法 |
CN109885239A (zh) * | 2018-12-20 | 2019-06-14 | 北京子歌人工智能科技有限公司 | 一种具有识别功能的触感阵列人工智能学习系统 |
CN109448463A (zh) * | 2018-12-29 | 2019-03-08 | 江苏师范大学 | 基于虚拟现实技术的外语发音自主学习训练系统及其方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105551327A (zh) | 一种基于柔性电子皮肤的互动式发音矫正系统及方法 | |
CN105807925A (zh) | 一种基于柔性电子皮肤的唇语识别系统及方法 | |
CN108108340B (zh) | 用于智能机器人的对话交互方法及系统 | |
EP4113507A1 (en) | Speech recognition method and apparatus, device, and storage medium | |
CN108000526A (zh) | 用于智能机器人的对话交互方法及系统 | |
CN101105894A (zh) | 多功能语言学习机 | |
CN103745423B (zh) | 一种口型示教系统与示教方法 | |
CN105807924A (zh) | 一种基于柔性电子皮肤的互动式智能翻译系统及方法 | |
CN107274736A (zh) | 一种校园互动式英语口语语音教学装置 | |
CN203149569U (zh) | 一种语音手势交互翻译装置 | |
CN206003392U (zh) | 一种聋哑人社交手套 | |
CN108510988A (zh) | 一种用于聋哑人的语言识别系统及方法 | |
CN101494816A (zh) | 一种适用于全聋患者的助听装置与方法 | |
CN104361787A (zh) | 信号转换系统和信号转换方法 | |
CN108766416A (zh) | 语音识别方法及相关产品 | |
CN206210144U (zh) | 手语语音转化帽 | |
Rishan et al. | Translation of sri lankan sign language to sinhala text: A leap motion technology-based approach | |
CN109272983A (zh) | 用于亲子教育的双语切换装置 | |
CN204166717U (zh) | 一种新型外语教具 | |
CN203870835U (zh) | 一种基于电子白板的互动教学系统 | |
CN206907294U (zh) | 一种聋哑人专用交流眼镜 | |
CN115019820A (zh) | 一种触感感应和手指组合发声的聋哑人沟通方法及系统 | |
CN115527404A (zh) | 一种人工智能自适应互动教学系统 | |
CN209625781U (zh) | 用于亲子教育的双语切换装置 | |
CN108766127A (zh) | 手语交互方法、设备、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160504 |
|
RJ01 | Rejection of invention patent application after publication |