CN108630225A - 基于模糊综合评价的听障儿童元音评估方法 - Google Patents

基于模糊综合评价的听障儿童元音评估方法 Download PDF

Info

Publication number
CN108630225A
CN108630225A CN201810274088.4A CN201810274088A CN108630225A CN 108630225 A CN108630225 A CN 108630225A CN 201810274088 A CN201810274088 A CN 201810274088A CN 108630225 A CN108630225 A CN 108630225A
Authority
CN
China
Prior art keywords
acoustic
parameters
level
vowel
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810274088.4A
Other languages
English (en)
Inventor
白静
冯沛
薛珮芸
王晴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiyuan University of Technology
Original Assignee
Taiyuan University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiyuan University of Technology filed Critical Taiyuan University of Technology
Priority to CN201810274088.4A priority Critical patent/CN108630225A/zh
Publication of CN108630225A publication Critical patent/CN108630225A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明涉及听障儿童的汉语语音研究领域。使用三维电磁发音记录仪获得多个正常人和听障儿童阅读语料时的基本声学参数u1、舌位的声学参数u2、唇舌运动参数u3建立模糊综合评价数据库,建立模糊综合数据库的一级评价指标和二级评价指标;将听障儿童的二级评价指标的每个特征参数到正常人的特征参数的距离作为顺序作为隶属函数,设置六个得分等级,建立判断矩阵,再通过熵权法计算出每个特征指标所占的权重,利用M(· +)算子,得到二级评价指标得分,利用听障儿童的一级评价指标每个特征参数到正常人的一级评价指标的特征参数的距离标准差作为一级评价指标的权重,利用M(· +)算子,得到听障儿童的发音得分。

Description

基于模糊综合评价的听障儿童元音评估方法
技术领域
本发明涉及听障儿童的汉语语音研究领域。
背景技术
对于听障儿童的发音问题一直是病理语音方向重要的研究内容,由于受到听障患者语音语料难采集的限制、还有一些语音分析仪器价格昂贵难普及现状,以及目前听障患者的发音评估主要依靠主观专业医师听辨,而专业医师对于数目庞大的听障儿童来说远远不能满足等情况。
作者何维佳等人在文献《成人痉挛型构音障碍普通话元音声学分析》中,观察痉挛型构音障碍患者普通话元音/a/、/i/、/u/的声学特征,通过多维语音分析系统MDVP提取出病例组与对照组的元音声学参数,包括元音基频、基频微扰值、振幅微扰值、相对平均微扰,音高周期扰动商,平滑音高周期扰动商、振幅微扰商、平滑振幅微扰商、谐噪比等九项声学参数,之后利用Spss统计学软件对两组元音之间的声学特征参数进行方差分析,结果讨论了病例组与病例组声学参数差异的原因,并得出汉语元音/a/可以成为病例的检测声样结论。该实验的研究对象是痉挛型构音障碍患者,且只考虑了基本的声学特征参数,没有发音时运动学方面的参数,评价指标方面不够全面综合,且在结论中,仅将/a/作为病例的检测声样,没有继续评估其它元音的发音质量。
作者万勤等人在文献《3~6岁听障儿童与键听儿童嗓音声学特征比较》中,随机选取3~ 6岁听障儿童与键听儿童各100名进行对照实验,分别提取两者发音的基本声学参数包括:基频、基频标准差、基频微扰、振幅微扰和标准化噪声能量,设计方差分析实验,自变量为 4个年龄阶段,(3岁、4岁、5岁、6岁),因变量为基频、基频标准差、基频微扰、振幅微扰和标准化噪声能量值,根据听障儿童与正常人各声学参数值的差异,评价听障儿童的发音问题,讨论结果为基频类声学参数是嗓音评估过程的一个重要参数,听障儿童基频微扰显著性高于键听儿童,此项研究仅仅分析了一个发音语料不够全面,且以上文献研究多集中在单一对比分析听障患者与正常人的特征参数,缺乏客观的评价方法来评价听障患者的发音质量,没有考虑到各个特征参数对于发音情况的综合意义,以及在发音质量中所占的比重,哪些特征参数对于听障儿童的发音质量占有更大比重,而且特征参数没有运动学方面的参数,对比的特征参数也不够全面,不能够全面评价听障儿童的发音。
发明内容
本发明所要解决的技术问题是:如何解决背景技术中不能够全面评价听障儿童的发音的问题。
本发明所采用的技术方案是:基于模糊综合评价的听障儿童元音评估方法,按照如下步骤进行
步骤一、使用三维电磁发音记录仪获得多个正常人和听障儿童阅读元音语料时的基本声学参数u1、舌位的声学参数u2、唇舌运动参数u3建立模糊综合评价数据库,基本声学参数u1包括特征参数发音时长u11、基频u12、短时振幅u13,舌位的声学参数u2包括特征参数u21 即共振峰F1、u22即共振峰F2,唇舌运动参数u3包括特征参数上唇z方向上的位移u31、下唇z方向上的位移u32、舌尖z方向上的位移u33、舌中z方向上的位移u34,以竖直方向为 z方向并且从下向上递增;
步骤二、建立二级评价指标u1={u11、u12、u13}、u2={u21、u22}、u3={u31、u32、u33、u34},将二级评价指标的每个特征参数根据发音最异样到发音标准建立隶属函数,给隶属函数设置六个得分等级,根据每个元音语料的六个得分等级分数建立二级评价指标判断矩阵即基本声学参数判断矩阵R1、舌位的声学参数判断矩阵R2、唇舌运动参数判断矩阵R3,二级评价指标得分为,基本声学参数评价指标得分b1=R1*A1,舌位的声学参数评价指标得分b2=R2*A2,唇舌运动参数评价指标得分b3=R3*A3,其中,A1为基本声学参数权重,A2为舌位的声学参数权重,A3为唇舌运动参数权重;
步骤三、建立一级评价指标为u={u1、u2、u3},一级评价指标判断矩阵R为{基本声学参数评价指标得分b1、舌位的声学参数评价指标得分b2、舌位的声学参数评价指标得分b2},一级评价指标得分B=R*A,A为一级评价指标权重,用一级评价指标得分评价听障儿童阅读元音语料时的发音情况。
作为一种优选方式:元音语料为单元音/a/,/i/,/u/,/o/,/e/,/ü/。
作为一种优选方式:基本声学参数权重A1={0.1876、0.1812、0.631},舌位的声学参数权重 A2={0.605、0.395}、唇舌运动参数权重A3={0.3906、0.1518、0.2258、0.2317},一级评价指标权重A={0.33825、0.34771、0.34767}。
作为一种优选方式:隶属函数设置的六个得分等级{0.9、0.8、0.6、0.5、0.4、0.2}。
本发明的有益效果是:将基本声学参数、舌位声学参数、唇舌运动学参数共同作为评价普通话单元音发音指标因素,更加全面地考虑了发音的评价因素,且分别通过熵权法,标准差法客观地计算参数指标所占权重,并结合模糊综合评价法计算出得出了听障儿童汉语单元音的得分情况,为评估听障儿童汉语单元音发音状况提供了一种客观的评估方法,通过听障儿童的发音数据,提供了一种客观的评价听障儿童汉语单元音方法。
具体实施方式
元音语料为普通话单元音/a/,/i/,/u/,/o/,/e/,/ü/,实验被试人员为9名听障儿童,年龄为14~20岁,除听力受损外无其他障碍,可以自主发音。正常键听学生9名,均为普通话标准的在校大学生,让两组被试人员在自然放松的状态下,依次阅读测试语料,选取最好的一次发音作为实验数据,本实验采集数据的仪器型号为AG501,以250帧每秒的采样率录制发音动作,在测试者产生语音的同时并记录各个器官的运动数据,同时记录下音频数据,实验中采集的运动数据所涉及的坐标为三维立体坐标,本发明选取Z轴方向上的唇舌运动数据,三维坐标以每个被试人员上下方向为Z轴并且方向是从下向上递增(以竖直方向为z方向并且从下向上递增)。
首先对语音信号进行预处理,包括端点检测、加窗、分帧,再提取听障儿童和正常人语音各项特征参数,包括发音时长、基频、短时振幅平均值、共振峰F1和F2、上唇z方向上的位移、下唇z方向上的位移、舌尖z方向上的位移、以及舌中z方向上的位移。发音时长、共振峰F1和F2通过语音分析软件Praat提取出,基频和短时振幅平均值通过MATLAB R2010b提取出,其中基频采用平均幅度差法提取,取其平均值,上唇z方向上的位移、下唇 z方向上的位移、舌尖z方向上的位移、以及舌中z方向上的位移通过运动学数据可视化软件Visartico提取,所有唇舌运动数据为与发音时长相对应的运动数据,取其平均值。通过以上方法可以获得听障儿童与正常人的各项特征参数,将正常人的特征参数数据作为标准,正常人数据如下表一所示:
表一各项参数参考标准值
建立二级模糊综合评价模型,本实施例中,听障儿童普通话单元音/a/,/i/,/u/,/o/,/e/,/ü/ 的一级评价指标因素有三个,u={u1、u2、u3},u1基本声学参数、u2舌位声学参数、u3唇舌运动参数,二级评价指标因素有九个,u1={u11、u12、u13}、u2={u21、u22}、u3={u31、 u32、u33、u34}、u11为发音时长,u12为基频、u13为短时振幅平均值,u21为共振峰F1、u22为共振峰F2,u31为上唇z方向上的位移、u32为下唇z方向上的位移、u33为舌尖z方向上的位移、u34为舌中z方向上的位移。在MATLAB R2010b环境中,首先对所有的特征参数进行归一化处理,去除指标因素的量纲影响,再通过熵权法计算出各个二级评价指标因素所占的权重,经计算后:u1={u11、u12、u13}所占的权重为A1={0.1876、0.1812、0.631}、 u2={u21、u22}所占的权重为A2={0.605、0.395}、u3={u31、u32、u33、u34}所占的权重为 A3={0.3906、0.1518、0.2258、0.2317},建立评判矩阵,对每一个指标因素进行评价,本实施例将听障儿童的特征参数与正常人标准的特征参数之间距离作为评判标准,建立隶属度函数,函数根据距离的大小设置为六个分数{0.9 0.8 0.6 0.5 0.4 0.2},所有的因素指标均依照距离建立隶属度函数,通过计算听障儿童的特征参数与正常人标准的特征参数距离后,所有二级评价指标因素的分数依次为r1={0.6 0.4 0.8 0.5 0.9 0.2}、r2={0.5 0.20.8 0.6 0.9 0.4}、r3={0.6 0.2 0.4 0.5 0.8 0.9}、r4={0.8 0.4 0.6 0.5 0.2 0.9}、r5={0.9 0.2 0.5 0.6 0.8 0.4}、r6={0.5 0.4 0.8 0.9 0.2 0.6}、r7={0.2 0.5 0.60.4 0.8 0.9}、r8={0.2 0.8 0.9 0.6 0.5 0.4}、r9={0.6 0.2 0.9 0.8 0.5 0.4},故对u1={u11 u12 u13}建立判断矩阵为同理可以对u2={u21u22}建立判断矩阵,同理可以对u3={u31u32 u33 u34}建立判断矩阵,为兼顾到所有因素指标的作用,二级评价指标得分为,基本声学参数评价指标得分b1=R1*A1,舌位的声学参数评价指标得分b2=R2*A2,唇舌运动参数评价指标得分b3=R3*A3,其中,A1为基本声学参数权重,A2 为舌位的声学参数权重,A3为唇舌运动参数权重,根据熵权法计算基本声学参数权重 A1={0.18760.18120.631}、舌位的声学参数权重A2={0.6050.395}、唇舌运动参数权重 A3={0.39060.15180.22580.2317},本实施例中基本声学参数评价指标得分,同理可以计算出舌位的声学参数指标得分b2和唇舌运动参数指标得分b3
,将二级模糊综合评价的b1、b2和b3作为一级评价指标u={u1、u2、u3}的评价矩阵,记为:
最后通过标准差法,将听障儿童的普通话单元音特征参数到正常人的标准元音特征参数的标准差作为一级评价指标u={u1、u2、u3}的权重,所有数据需先进行归一化处理,经计算后得到得到u={u1、u2、u3}的权重A={0.33825 0.34771 0.34767},为兼顾到所有因素指标的作用,一级模糊综合评判,
在将每个元音的得分除以元音总得分,即求出了每个元音的得分百分比,故最终对听障儿童的汉语单元音/a/,/i/,/u/,/o/,/e/,/ü/的评价结果为 B(vowel)=[0.179710.100020.18903 0.175970.16594 0.18933],从结果可以看出,本发明评价听障儿童的汉语单元音评估结果为听障儿童的发音得分为/ü/高于/u/高于/a/高于/o/高于 /e/高于/i/,得分越高,表明此发音越好,在对听障儿童的汉语单元音进行评估时,可以通过模糊综合评价法,判断听障儿童的汉语元音发音情况。

Claims (4)

1.一种基于模糊综合评价的听障儿童元音评估方法,其特征在于:按照如下步骤进行
步骤一、使用三维电磁发音记录仪获得多个正常人和听障儿童阅读元音语料时的基本声学参数u1、舌位的声学参数u2、唇舌运动参数u3建立模糊综合评价数据库,基本声学参数u1包括特征参数发音时长u11、基频u12、短时振幅u13,舌位的声学参数u2包括特征参数u21即共振峰F1、u22即共振峰F2,唇舌运动参数u3包括特征参数上唇z方向上的位移u31、下唇z方向上的位移u32、舌尖z方向上的位移u33、舌中z方向上的位移u34,以竖直方向为z方向并且从下向上递增;
步骤二、建立二级评价指标u1={u11、u12、u13}、u2={u21、u22}、u3={u31、u32、u33、u34},将二级评价指标的每个特征参数根据发音最异样到发音标准建立隶属函数,给隶属函数设置六个得分等级,根据每个元音语料的六个得分等级分数建立二级评价指标判断矩阵即基本声学参数判断矩阵R1、舌位的声学参数判断矩阵R2、唇舌运动参数判断矩阵R3,二级评价指标得分为,基本声学参数评价指标得分b1=R1*A1,舌位的声学参数评价指标得分b2=R2*A2,唇舌运动参数评价指标得分b3=R3*A3,其中,A1为基本声学参数权重,A2为舌位的声学参数权重,A3为唇舌运动参数权重;
步骤三、建立一级评价指标为u={u1、u2、u3},一级评价指标判断矩阵R为{基本声学参数评价指标得分b1、舌位的声学参数评价指标得分b2、舌位的声学参数评价指标得分b2},一级评价指标得分B=R*A,A为一级评价指标权重,用一级评价指标得分评价听障儿童阅读元音语料时的发音情况。
2.根据权利要求1所述的一种基于模糊综合评价的听障儿童元音评估方法,其特征在于:元音语料为单元音/a/,/i/,/u/,/o/,/e/,/ü/。
3.根据权利要求2所述的一种基于模糊综合评价的听障儿童元音评估方法,其特征在于:基本声学参数权重A1={0.1876、0.1812、0.631},舌位的声学参数权重A2={0.605、0.395}、唇舌运动参数权重A3={0.3906、0.1518、0.2258、0.2317},一级评价指标权重A={0.33825、0.34771、0.34767}。
4.根据权利要求2所述的一种基于模糊综合评价的听障儿童元音评估方法,其特征在于:隶属函数设置的六个得分等级{0.9、0.8、0.6、0.5、0.4、0.2}。
CN201810274088.4A 2018-03-29 2018-03-29 基于模糊综合评价的听障儿童元音评估方法 Pending CN108630225A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810274088.4A CN108630225A (zh) 2018-03-29 2018-03-29 基于模糊综合评价的听障儿童元音评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810274088.4A CN108630225A (zh) 2018-03-29 2018-03-29 基于模糊综合评价的听障儿童元音评估方法

Publications (1)

Publication Number Publication Date
CN108630225A true CN108630225A (zh) 2018-10-09

Family

ID=63696448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810274088.4A Pending CN108630225A (zh) 2018-03-29 2018-03-29 基于模糊综合评价的听障儿童元音评估方法

Country Status (1)

Country Link
CN (1) CN108630225A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110196098A (zh) * 2019-05-23 2019-09-03 山东理工大学 基于心率变化的车辆声品质评价方法
CN111227792A (zh) * 2020-01-10 2020-06-05 京东方科技集团股份有限公司 呼吸暂停的检测方法、系统、电子设备及存储介质
CN111227793A (zh) * 2020-01-10 2020-06-05 京东方科技集团股份有限公司 呼吸暂停的识别方法、系统、电子设备及存储介质
CN117198340A (zh) * 2023-09-20 2023-12-08 南京优道言语康复研究院 一种基于优选声学参数的构音障碍矫正效果分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209499A (ja) * 1988-02-17 1989-08-23 Ricoh Co Ltd パターン照合方式
CN103337247A (zh) * 2013-06-17 2013-10-02 天津大学 电磁发音记录仪数据标注分析系统
CN106157212A (zh) * 2016-07-05 2016-11-23 太原理工大学 一种基于ema的发音障碍中文评估方法
CN107452370A (zh) * 2017-07-18 2017-12-08 太原理工大学 一种中文鼻韵母发音障碍患者的判断装置的使用方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209499A (ja) * 1988-02-17 1989-08-23 Ricoh Co Ltd パターン照合方式
CN103337247A (zh) * 2013-06-17 2013-10-02 天津大学 电磁发音记录仪数据标注分析系统
CN106157212A (zh) * 2016-07-05 2016-11-23 太原理工大学 一种基于ema的发音障碍中文评估方法
CN107452370A (zh) * 2017-07-18 2017-12-08 太原理工大学 一种中文鼻韵母发音障碍患者的判断装置的使用方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
周晓: "《我国居住性物业的服务研究》", 30 December 2007 *
王超: "基于模糊综合评价的语音评价模型的研究与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110196098A (zh) * 2019-05-23 2019-09-03 山东理工大学 基于心率变化的车辆声品质评价方法
CN111227792A (zh) * 2020-01-10 2020-06-05 京东方科技集团股份有限公司 呼吸暂停的检测方法、系统、电子设备及存储介质
CN111227793A (zh) * 2020-01-10 2020-06-05 京东方科技集团股份有限公司 呼吸暂停的识别方法、系统、电子设备及存储介质
CN111227792B (zh) * 2020-01-10 2022-11-01 京东方科技集团股份有限公司 呼吸暂停的检测方法、系统、电子设备及存储介质
CN111227793B (zh) * 2020-01-10 2022-11-01 京东方科技集团股份有限公司 呼吸暂停的识别方法、系统、电子设备及存储介质
CN117198340A (zh) * 2023-09-20 2023-12-08 南京优道言语康复研究院 一种基于优选声学参数的构音障碍矫正效果分析方法
CN117198340B (zh) * 2023-09-20 2024-04-30 南京优道言语康复研究院 一种基于优选声学参数的构音障碍矫正效果分析方法

Similar Documents

Publication Publication Date Title
CN108630225A (zh) 基于模糊综合评价的听障儿童元音评估方法
Engwall Analysis of and feedback on phonetic features in pronunciation training with a virtual teacher
CN107221318A (zh) 英语口语发音评分方法和系统
CN106073706B (zh) 一种面向简易精神状态量表的个性化信息和音频数据分析方法及系统
CN109727608A (zh) 一种基于中文语音的病态嗓音评估方法
Nafisi Gesture as a tool of communication in the teaching of singing
CN107456208A (zh) 多模式交互的言语语言功能障碍评估系统与方法
Nolan Degrees of freedom in speech production: an argument for native speakers in LADO.
Ribeiro et al. Speaker-independent classification of phonetic segments from raw ultrasound in child speech
Benway et al. Differences between school-age children with apraxia of speech and other speech sound disorders on multisyllable repetition
CN107452370A (zh) 一种中文鼻韵母发音障碍患者的判断装置的使用方法
Al-Haidari et al. Pronunciation errors of English front vowels by Yemeni EFL learners
Kim et al. An investigation of acoustic characteristics of Korean stops produced by non-heritage learners
Perigoe Generalization of speech skills in hearing-impaired children
Rinta et al. Perceptual connections between prepubertal children's voices in their speaking behavior and their singing behavior
Czap Online subjective assessment of the speech of deaf and hard of hearing children
Dai et al. Research on speech spoofing detection based on big data and machine learning
Cheng et al. Analysis on the strategies of cultivating students' pronunciation and intonation awareness in English teaching in higher vocational colleges in the era of big data
Zourmand et al. Intelligent malay speech therapy system
Povel Articulation correction of the deaf by means of visually displayed acoustic information
Widiastuti et al. USING DICTOGLOSS TECHNIQUE TO IMPROVE STUDENTS’LISTENING ABILITY
Zamri et al. A Preliminary Study on Vowel Recognition via CNN for Disorder People in Malay Language
Al Shoufi The negative influence of the Arabic vowel sounds system on the English one
Hamilton Using the third formant to investigate perceptual abilities in children with residual sound errors (RSE)
Hibana et al. Story to Improve Language Abilities of Early Children

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181009

WD01 Invention patent application deemed withdrawn after publication