CN117137436A - 基于icf-rft框架的嗓音产生障碍智能康复系统 - Google Patents

基于icf-rft框架的嗓音产生障碍智能康复系统 Download PDF

Info

Publication number
CN117137436A
CN117137436A CN202310969041.0A CN202310969041A CN117137436A CN 117137436 A CN117137436 A CN 117137436A CN 202310969041 A CN202310969041 A CN 202310969041A CN 117137436 A CN117137436 A CN 117137436A
Authority
CN
China
Prior art keywords
real
time
rehabilitation
voice
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310969041.0A
Other languages
English (en)
Inventor
黄兰婷
王哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Huimin Medical Equipment Co ltd
Original Assignee
Shanghai Huimin Medical Equipment Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Huimin Medical Equipment Co ltd filed Critical Shanghai Huimin Medical Equipment Co ltd
Priority to CN202310969041.0A priority Critical patent/CN117137436A/zh
Publication of CN117137436A publication Critical patent/CN117137436A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明涉及嗓音与言语康复领域,尤其涉及基于ICF‑RFT框架的嗓音产生障碍智能康复系统,包括:最长声时、最大数数能力、言语基频(高)、言语基频(低)、言语基频(变化)、频段能量集中率(亢进)、频段能量集中率(低下)、基频震颤、声带接触率和接触率微扰(过度)、声带接触率和接触率微扰(不全)十个康复模块;系统包括实时嗓音产生信号检测处理单元、主控单元、实时视听触觉反馈单元,以及康复云平台、移动康复学习机、移动智能筛查仪。本发明能够根据用户的嗓音产生障碍类型设置康复模式,从而智能选择康复治疗内容和康复步骤,操作简单方便,能够根据不同性别、不同年龄段和嗓音产生损伤程度得出差异化的治疗方案。

Description

基于ICF-RFT框架的嗓音产生障碍智能康复系统
技术领域
本发明涉及嗓音与言语康复技术领域,尤其涉及基于ICF-RFT框架的嗓音产生障碍智能康复系统。
背景技术
正常嗓音产生时,需要瞬间吸入大量的气体后维持平稳的呼气,以维持足够的声门下压,进而使声带能够产生振动,振动产生的声能脉冲信号通过声道时,由声道中各器官构成的共鸣腔进行修饰,最后传播到空气中形成声波。在进行嗓音治疗时,需考虑到嗓音产生的过程,这个过程中任一环节的功能障碍均有可能产生异常嗓音,如出现气息声、嘶哑声、共鸣音质异常等。
b3100发声,又称嗓音产生功能,是指通过喉及周围肌肉与呼吸系统配合而产生发声的功能,包括发声、响度的功能以及失声;可用7项参数测量,包括最长声时、最大数数能力、言语基频、基频震颤、频段能量集中率、声带接触率和接触率微扰。
针对b3100嗓音产生,嗓音治疗的方法中最常用也最著名的方法便是促进治疗法,可根据呼吸、发声、共鸣功能分为三大类,每一类均包含十种以上的针对性治疗方法,治疗师可根据患者嗓音功能的受损情况选择对应的方法,结合现代化嗓音治疗技术实施治疗。实时监控是对患者每次治疗的效果进行监控,能帮助治疗师及患者更明确地了解每次治疗后的进步,并从客观数据上得到疗效的反馈。但是,对于一些受制于地域、经济、交通等因素,不便于线下康复的患者,现有技术仍未出现相关智能化的、适应线上康复的技术。
鉴于上述问题,提出了本发明以便提供基于ICF-RFT框架的嗓音产生障碍智能康复系统,可智能选择康复治疗内容和康复步骤,能够根据不同性别、不同年龄段和嗓音产生损伤程度得出差异化的治疗方案。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的基于ICF-RFT框架的嗓音产生障碍智能康复系统。
为了实现上述目的,本发明采用了如下技术方案:
基于ICF-RFT框架的嗓音产生障碍智能康复系统,系统结构包括:实时嗓音产生信号检测处理单元、主控单元、实时视听触觉反馈单元、康复云平台、移动康复学习机、移动智能筛查仪,所述实时嗓音产生信号检测处理单元用于实时检测处理用户嗓音产生信号的数据;
所述主控单元与实时嗓音产生信号检测处理单元连接,用于最长声时、最大数数能力、言语基频、基频震颤、频段能量集中率、声带接触率和接触率微扰7个参数相关模块的精准评估和康复训练,贯穿功能评估、计划制定、实施治疗以及疗效评价整个过程;
所述实时视听触觉反馈单元与主控单元连接,采用实时视听触觉反馈技术用于实时显示与反馈嗓音产生康复结果与相关信息;所述康复云平台通过互联网与主控单元连接,用于数据共享;所述移动康复学习机与康复云平台连接,用于布置康复作业,实现康复训练普及化;所述移动智能筛查仪与实时嗓音产生信号检测处理单元连接用于综合检查,通过互联网与为康复云平台连接获得ICF功能损伤平均值为嗓音产生精准评估与实时监控单元提供分流。
优选的,所述主控单元包括嗓音产生精准评估与实时监控单元、康复模式和执行康复步骤单元、ICF转换单元以及嗓音产生四大阶段康复内容推送单元,其中嗓音产生精准评估与实时监控单元数据进行精准评估与实时监控,判别是否存在嗓音产生障碍,判别嗓音产生障碍类型;康复模式和执行康复步骤单元设置康复模式和执行康复步骤;ICF转换单元对精准评估与实时监控的数据进行ICF转换;嗓音产生四大阶段康复内容推送单元选择四大阶段康复内容推送。
优选的,所述实时嗓音产生信号检测处理单元用于实时获取用户嗓音产生信号的数据,嗓音产生的数据通过麦克风和/或电声门图连接单通道低通滤波器来获得。
对输入的嗓音产生信号进行分析数据误差控制、响应速率误差控制,其主要技术参数指标如下:
a)谐波频率误差:±4%;
b)基频实时响应速率:≤6ms;
c)FFT实时响应速率:≤48ms(FFT:快速傅里叶频谱);
d)LPC实时响应速率:≤45ms(LPC:线性预测谱);
e)语谱图实时分辨率:
窄带(60Hz):12.7ms±4%;
中带(120Hz):12.7ms±4%;
宽带(240Hz):12.7ms±4%。
其中,实时嗓音产生信号检测处理单元包括b3100综合检查模块:通过嗓音产生信号获得最长声时、最大数数能力、言语基频、基频震颤、频段能量集中率、声带接触率和接触率微扰7个测量值;对于每个客观测量值进行ICF损伤程度转换,获得嗓音产生ICF平均值;(如表1所示)表1:ICF嗓音产生功能综合检查
主控单元中的b3100智能康复模块,包括综合检查、以及最长声时、最大数数能力、言语基频(高)、言语基频(低)、言语基频(变化)、频段能量集中率(亢进)、频段能量集中率(低下)、基频震颤、声带接触率和接触率微扰(过度)、声带接触率和接触率微扰(不全)10个智能康复模块,其中每个模块包括:精准评估、损伤程度转换(如表2所示)及其康复内容推送和实时监控(如图2所示)。
表2:ICF嗓音产生功能精准评估
如图3,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的最长声时智能康复的执行方法,包括以下步骤:
S21:ICF最长声时=1、相应实时监控数据,第一阶段为:呼吸放松训练、实时缓慢平稳呼气法、清浊音实时反馈训练(结合实时缓慢平稳呼气法);第二阶段为:实时数数法、声时实时反馈训练(结合实时数数法)、实时快速用力呼气法、响度实时反馈训练(结合实时快速用力呼气法);第三阶段为:实时唱音法、声时实时反馈训练(结合实时唱音法)、实时逐字增加句长法、声时实时反馈训练(结合实时逐字增加句长法);第四阶段为:实时唱音法(结合音节时长练习)、实时缓慢平稳呼气法(结合停顿起音练习);
S22:ICF最长声时=2、相应实时监控数据,第一阶段为:呼吸放松训练、实时嗯哼法、声时实时反馈训练(结合实时嗯哼法);第二阶段为:实时数数法、声时实时反馈训练(结合实时数数法)、实时缓慢平稳呼气法、清浊音实时反馈训练(结合实时缓慢平稳呼气法);第三阶段为:实时快速用力呼气法、响度实时反馈训练(结合实时快速用力呼气法)、实时逐字增加句长法、声时实时反馈训练(结合实时逐字增加句长法);第四阶段为:实时快速用力呼气法(结合停顿起音练习)、实时逐字增加句长法(结合音调变化练习);
S23:ICF最长声时=3、相应实时监控数据,第一阶段为:呼吸放松训练、声时实时反馈训练(感知);第二阶段为:生理腹式呼吸训练、实时嗯哼法、声时实时反馈训练(结合实时嗯哼法);第三阶段为:实时数数法、声时实时反馈训练(结合实时数数法)、实时缓慢平稳呼气法、声时实时反馈训练(结合实时缓慢平稳呼吸法);第四阶段为:实时嗯哼法(结合停顿起音练习)、实时数数法(结合音调变化练习)、实时缓慢平稳呼气法(结合音节时长练习);
S24:ICF最长声时=4、相应实时监控数据,第一阶段为:呼吸放松训练、声时实时反馈训练(感知);第二阶段为:生理腹式呼吸训练、声时实时反馈训练(感知);第三阶段为:实时嗯哼法、声时实时反馈训练(结合实时嗯哼法);第四阶段为:声时反馈训练结合音节时长练习、实时嗯哼法(结合停顿起音练习)。
如图4,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的最大数数能力智能康复的执行方法,包括以下步骤:
S31:ICF最大数数能力=1、相应实时监控数据,第一阶段为:呼吸放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟法);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟法)、实时啭音法、音调实时反馈训练(结合实时啭音法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟法)、实时啭音法、音调实时反馈训练(结合实时啭音法);第四阶段为:实时啭音法(结合音节时长练习);
S32:ICF最大数数能力=2、相应实时监控数据,第一阶段为:呼吸放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟法);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟法)、实时啭音法、音调实时反馈训练(结合实时啭音法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟法)、实时啭音法、音调实时反馈训练(结合实时啭音法);第四阶段为:实时平调旋转打嘟法(结合音节时长练习);
S33:ICF最大数数能力=3、相应实时监控数据,第一阶段为:呼吸放松训练、实时拟声法、声时实时反馈训练(结合实时拟声法);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟法)、实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟法);第三阶段为:实时啭音法、音调实时反馈训练(结合实时啭音法);第四阶段为:实时平调向前打嘟(结合音调变化练习);
S34:ICF最大数数能力=4、相应实时监控数据,第一阶段为:呼吸放松训练、声时实时反馈训练(感知);第二阶段为:生理腹式呼吸训练、音调实时反馈训练(感知);第三阶段为:实时平调向前打嘟、音调实时反馈训练(感知);第四阶段为:四声调实时感知训练。
如图5,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的言语基频(过高)智能康复的执行方法,包括以下步骤:
S41:ICF言语基频(过高)=1、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时降调打嘟、音调实时反馈训练(结合实时降调打嘟)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法)、实时唱音法、音调实时反馈训练(结合实时唱音法);第三阶段为:实时降调打嘟、音调实时反馈训练(结合实时降调打嘟)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法)、实时吟唱法、音调实时反馈训练(结合实时吟唱法);第四阶段为:实时唱音法(结合音节时长练习)、实时吟唱法(结合慢板重读);
S42:ICF言语基频(过高)=2、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时降调打嘟、音调实时反馈训练(结合实时降调打嘟)、实时乐调匹配法、音调实时反馈训练(结合实时乐调匹配法);第三阶段为:实时降调旋转打嘟、音调实时反馈训练(结合实时降调旋转打嘟)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法)、实时吟唱法、音调实时反馈训练(结合实时吟唱法);第四阶段为:实时吟唱法(结合慢板重读)、实时声调练习;
S43:ICF言语基频(过高)=3、相应实时监控数据,第一阶段为:颈部放松训练、音调实时反馈训练(感知);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时嗯哼法、音调实时反馈训练(结合实时嗯哼法);第三阶段为:实时降调打嘟、音调实时反馈训练(结合实时降调打嘟)、实时哼鸣法、音调实时反馈训练(结合实时哼鸣法);第四阶段为:实时平调向前打嘟(结合降调变化练习);
S44:ICF言语基频(过高)=4、相应实时监控数据,第一阶段为:颈部放松训练、音调实时反馈训练(感知);第二阶段为:实时嗯哼法、音调实时反馈训练(结合实时嗯哼法);第三阶段为:实时手指按压法、音调实时反馈训练(结合手指按压法);第四阶段为:四声调实时感知训练。
如图6,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的言语基频(过低)智能康复的执行方法,包括以下步骤:
S51:ICF言语基频(过低)=1、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法)、实时唱音法、音调实时反馈训练(结合实时唱音法);第三阶段为:实时升调旋转打嘟、音调实时反馈训练(结合实时升调旋转打嘟)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法)、实时吟唱法、音调实时反馈训练(结合实时吟唱法);第四阶段为:实时唱音法(结合音节时长练习)、实时吟唱法(结合慢板重读);
S52:ICF言语基频(过低)=2、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时乐调匹配法、音调实时反馈训练(结合实时乐调匹配法);第三阶段为:实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法)、实时吟唱法、音调实时反馈训练(结合实时吟唱法);第四阶段为:实时吟唱法(结合慢板重读)、实时声调练习;
S53:ICF言语基频(过低)=3、相应实时监控数据,第一阶段为:颈部放松训练、音调实时反馈训练(感知);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时伸舌法、音调实时反馈训练(结合实时伸舌法);第三阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时乐调匹配法、音调实时反馈训练(结合实时乐调匹配法);第四阶段为:实时平调向前打嘟(结合升调变化练习);
S54:ICF言语基频(过低)=4、相应实时监控数据,第一阶段为:颈部放松训练、音调实时反馈训练(感知);第二阶段为:喉部按摩法、音调实时反馈训练(感知);第三阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第四阶段为:四声调实时感知训练。
如图7,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的言语基频(变化)智能康复的执行方法,包括以下步骤:
S61:ICF言语基频(变化)=1、相应实时监控数据,第一阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟);第二阶段为:实时变调打嘟、音调实时反馈训练(结合实时变调打嘟)、实时啭音法、音调实时反馈训练(结合实时啭音法)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时啭音法、音调实时反馈训练(结合实时啭音法)、实时乐调匹配法、音调实时反馈训练(结合实时乐调匹配法);第四阶段为:实时啭音法结合停顿起音练习、实时声调练习;
S62:ICF言语基频(变化)=2、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时变调打嘟、音调实时反馈训练(结合实时变调打嘟)、实时吟唱法、音调实时反馈训练(结合实时吟唱法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时啭音法、音调实时反馈训练(结合实时啭音法);第四阶段为:实时打嘟法(结合音节时长练习)、实时吟唱法(结合行板重读)。
S63:ICF言语基频(变化)=3、相应实时监控数据,第一阶段为:颈部放松训练、音调实时反馈训练(感知);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时唱音法、音调实时反馈训练(感知实时唱音法);第三阶段为:实时音调梯度训练、音调实时反馈训练(结合实时音调梯度训练)、实时吟唱法、音调实时反馈训练(结合实时吟唱法);第四阶段为:实时唱音法(结合音调变化练习)、实时吟唱法(结合慢板重读)。
S64:ICF言语基频(变化)=4、相应实时监控数据,第一阶段为:颈部放松训练、音调实时反馈训练(感知);第二阶段为:实时嗯哼法、音调实时反馈训练(结合实时嗯哼法);第三阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时拟声法、音调实时反馈训练(结合实时拟声法)、实时音调梯度训练、音调实时反馈训练(结合实时音调梯度训练);第四阶段为:四声调实时感知训练。
如图8,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的基频震颤F0t智能康复的执行方法,包括以下步骤:
S71:ICF基频震颤F0t=1,第一阶段为:颈部放松训练、实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟);第二阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法);第三阶段为:实时吟唱法、音调实时反馈训练(结合实时吟唱法)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练法);第四阶段为:实时吟唱法(结合行板重读);
S72:ICF基频震颤F0t=2、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时甩臂后推法、响度实时反馈训练(结合实时甩臂后推法);第三阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练法);第四阶段为:实时平调向前打嘟(结合音节时长训练);
S73:ICF基频震颤F0t=3、相应实时监控数据,第一阶段为:颈部放松训练、响度实时反馈训练(感知);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时吟唱法、音调实时反馈训练(感知实时吟唱法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时哼鸣法、音调实时反馈训练(结合实时哼鸣法);第四阶段为:实时吟唱法(结合慢板重读);
S74:ICF基频震颤F0t=4、相应实时监控数据,第一阶段为:呼吸放松训练、响度实时反馈训练(感知);第二阶段为:颈部放松训练、喉部按摩法、音调实时反馈训练(感知);第三阶段为:实时嗯哼法、清浊音实时反馈训练(结合实时嗯哼法)、实时拟声法、清浊音实时反馈训练(结合实时拟声法);第四阶段为:实时嗯哼法(结合停顿起音练习)。
如图9,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的频段能量集中率(亢进)智能康复的执行方法,包括以下步骤:
S81:ICF频段能量集中率(亢进)=1、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时降调打嘟、音调实时反馈训练(结合实时降调打嘟)、实时气息式发音法、清浊音实时反馈训练(结合实时气息式发音法);第三阶段为:实时哈欠-叹息法、清浊音实时反馈训练(结合实时哈欠-叹息法)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练法);第四阶段为:实时气息式发音法(结合行板重读);
S82:ICF频段能量集中率(亢进)=2、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时气息式发音法、清浊音实时反馈训练(结合实时气息式发音法);第三阶段为:实时哈欠-叹息法、清浊音实时反馈训练(结合实时哈欠-叹息法)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练法);第四阶段为:实时气息式发音法(结合慢板重读);
S83:ICF频段能量集中率(亢进)=3、相应实时监控数据,第一阶段为:颈部放松训练、响度实时反馈训练(感知);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时哈欠-叹息法、清浊音实时反馈训练(结合实时哈欠-叹息法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时缓慢平稳呼气法、清浊音实时反馈训练(结合实时缓慢平稳呼气法);第四阶段为:实时哈欠-叹息法(结合慢板重读);
S84:ICF频段能量集中率(亢进)=4、相应实时监控数据,第一阶段为:呼吸放松训练、清浊音实时反馈训练(感知)、生理腹式呼吸训练、声时实时反馈训练(感知);第二阶段为:颈部放松训练、响度实时反馈训练(感知)、实时嗯哼法、清浊音实时反馈训练(结合实时嗯哼法);第三阶段为:喉部按摩法、起音实时反馈训练(结合喉部按摩法);第四阶段为:停顿起音实时反馈练习。
如图10,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的频段能量集中率(低下)智能康复的执行方法,包括以下步骤:
S91:ICF频段能量集中率(低下)=1、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时张嘴法、响度实时反馈训练(结合实时张嘴法);第三阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练法);第四阶段为:实时张嘴法(结合响度变化练习);
S92:ICF频段能量集中率(低下)=2、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时甩臂后推法、响度实时反馈训练(结合实时甩臂后推法);第三阶段为:实时升调打嘟法、音调实时反馈训练(结合实时升调打嘟法)、实时碰撞法、清浊音实时反馈训练(结合实时碰撞法);第四阶段为:实时碰撞法(结合响度变化练习);
S93:ICF频段能量集中率(低下)=3、相应实时监控数据,第一阶段为:颈部放松训练、响度实时反馈训练(感知)、清浊音实时反馈训练;第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时甩臂后推法、清浊音实时反馈训练(结合实时甩臂后推法);第三阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时张嘴法、响度实时反馈训练(结合实时张嘴法);第四阶段为:实时张嘴法(结合行板重读);
S94:ICF频段能量集中率(低下)=4、相应实时监控数据,第一阶段为:呼吸放松训练、清浊音实时反馈训练(感知)、生理腹式呼吸训练、声时实时反馈训练(感知);第二阶段为:颈部放松训练、清浊音实时反馈训练(感知)、实时嗯哼法;第三阶段为:喉部按摩法、清浊音实时反馈训练(感知);第四阶段为:响度变化感知练习。
如图11,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的声带接触率和接触率微扰(过度)智能康复的执行方法,包括以下步骤:
S101:ICF声带接触率和接触率微扰(过度)=1、相应实时监控数据,第一阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟);第二阶段为:实时降调打嘟、音调实时反馈训练(结合实时降调打嘟)、实时哼鸣法、音调实时反馈训练(结合实时哼鸣法);第三阶段为:实时气息式发音法、清浊音实时反馈训练(结合气息式发音法)、实时吟唱法、声带接触率反馈训练(结合实时吟唱法);第四阶段为:实时吟唱法(结合慢板重读);
S102:ICF声带接触率和接触率微扰(过度)=2、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时哼鸣法、音调实时反馈训练(结合实时哼鸣法);第三阶段为:实时气息式发音法、起音实时反馈训练(结合实时气息式发音法)、声带接触率实时感知、声带接触率实时反馈训练(结合实时气息式发音法);第四阶段为:实时气息式发音法(结合慢板重读);
S103:ICF声带接触率和接触率微扰(过度)=3、相应实时监控数据,第一阶段为:颈部放松训练、清浊音实时反馈训练(感知);第二阶段为:实时哈欠-叹息法、起音实时反馈训练(结合哈欠-叹息法);第三阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时咀嚼法、清浊音实时反馈训练(结合实时咀嚼法);第四阶段为:实时哈欠-叹息法(结合实时慢板重读);
S104:ICF声带接触率和接触率微扰(过度)=4、相应实时监控数据,第一阶段为:颈部放松训练、声带接触率实时反馈训练(感知);第二阶段为:喉部按摩法、清浊音实时反馈训练(感知);第三阶段为:实时哈欠-叹息法、起音实时反馈训练(结合实时哈欠-叹息法);第四阶段为:实时韵母慢板重读。
如图12,基于ICF-RFT框架的嗓音产生障碍智能康复系统,应用一种非治疗目的的声带接触率和接触率微扰(不全)智能康复的执行方法,包括以下步骤:
S111:ICF声带接触率和接触率微扰(不全)=1、相应实时监控数据,第一阶段为:颈部放松训练、实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟);第二阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练法);第三阶段为:实时张嘴法、响度实时反馈训练(结合实时张嘴法)、实时响度变化训练法、声带接触率反馈训练(结合实时响度变化训练法);第四阶段为:实时张嘴法(结合行板重读);
S112:ICF声带接触率和接触率微扰(不全)=2、相应实时监控数据,第一阶段为:颈部放松训练、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时甩臂后推法、起音实时反馈训练(结合实时甩臂后推法);第三阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时掩蔽法、响度实时反馈训练(结合实时掩蔽法);第四阶段为:实时掩蔽法(结合响度变化练习);
S113:ICF声带接触率和接触率微扰(不全)=3、相应实时监控数据,第一阶段为:颈部放松训练、清浊音实时反馈训练(感知);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时甩臂后推法、响度实时反馈训练(结合实时甩臂后推法);第三阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时碰撞法、响度实时反馈训练(结合实时碰撞法);第四阶段为:实时碰撞法(结合响度变化练习);
S114:ICF声带接触率和接触率微扰(不全)=4、相应实时监控数据,第一阶段为:颈部放松训练、声带接触率实时反馈训练(感知);第二阶段为:实时甩臂后推法、起音实时反馈训练(感知);第三阶段为:实时嗯哼法、清浊音实时反馈训练(结合实时嗯哼法)、实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时升调打嘟、音调实时反馈训练(结合实时升调打嘟);第四阶段为:实时韵母慢板重读。
基于ICF-RFT框架的嗓音产生障碍智能康复系统,对嗓音产生障碍的类型进行分类,包括:
(1)神经源性嗓音障碍:神经(源)性嗓音障碍通常指由神经性疾病导致的嗓音问题,呼吸、发声、共鸣和构音系统相关肌肉的肌肉控制和神经支配受损,或由于任何外周或中枢神经系统的损伤或疾病而导致的嗓音障碍,与神经(源)性嗓音障碍相关的医学诊断包括:声带麻痹、喉肌张力障碍、特发性震颤、帕金森病、亨廷顿病、重症肌无力、多发性硬化症、肌萎缩侧索硬化症、进行性核上麻痹、多系统萎缩和获得性脑损伤(脑外伤TBI、CVA)等。
(2)器质性嗓音障碍:由于发声器官的器质性病变导致的嗓音问题,包括发声器官的先天性异常、声带增生性病变、喉部肿瘤、喉部的炎性病变及声带的其他病变,如喉软骨软化症、声带小结、声带息肉、声带囊肿、声带瘢痕、喉白斑、声带任克水肿、喉部乳头状瘤、声带萎缩等。
(3)功能性嗓音障碍:嗓音系统(呼吸器官、发声器官和共鸣器官)不存在器质性或神经性病变,主要由于嗓音的滥用、误用或失用等引起嗓音的音调、响度、音质异常的一类嗓音产生障碍。
本发明还提出了基于参数的嗓音产生实时测量和视听反馈技术的嗓音治疗方法,相关参数包括最长声时、最大数数能力、言语基频、基频震颤、频段能量集中率、声带接触率和接触率微扰,使用前述嗓音治疗软件或者仪器,嗓音治疗方法包括:
步骤一:
实时最长声时测量单元实时测量用户的最长声时数据。它主要反映言语呼吸支持能力,是衡量言语呼吸能力的最佳指标之一。将数据实时发送至主控单元中的实时最长声时测量判别模块;
实时最大数数能力测量单元实时测量用户的最大数数能力数据。它主要反映呼气和发声之间的协调性、言语呼吸控制能力,是衡量呼吸和发声协调能力的最佳指标之一。将数据实时发送至主控单元中的实时最大数数能力测量判别模块;
实时言语基频测量单元实时测量用户的言语基频数据,它主要反映言语时习惯基频或习惯音调水平否正常,是衡量言语发声能力的最佳指标之一。将数据实时发送至主控单元中的实时言语基频测量判别模块;
实时基频震颤测量单元实时测量用户的基频震颤数据。它主要反映反映由于喉部神经源性障碍导致的喉腔共鸣失调程度,主要是对神经性嗓音障碍的患者进行测量,是衡量与喉腔共鸣相关嗓音质量的最佳指标之一。将数据实时发送至主控单元中的实时基频震颤测量判别模块;
实时频段能量集中率测量单元实时测量用户的频段能量集中率数据。它主要反映声带振动时谐波能量衰减状况,同样描述了嗓音信号在低频区域和高频区域的能量差异,是衡量嗓音功能亢进或低下的最佳指标之一。将数据实时发送至主控单元中的实时频段能量集中率测量判别模块;
实时声带接触率和接触率微扰测量单元实时测量用户的声带接触率和接触率微扰数据。它主要反映双侧声带的闭合程度,体现声带水平面上的开、闭过程。将数据实时发送至主控单元中的实时声带接触率和接触率微扰测量判别模块。
步骤二:
实时最长声时判别模块根据最长声时数据与最长声时目标值及其相应范围进行判别,并将判别结果实时发送至嗓音产生障碍康复步骤和执行模块;
实时最大数数能力判别模块根据最大数数能力数据与最大数数能力目标值及其相应范围进行判别,并将判别结果实时发送至嗓音产生障碍康复步骤和执行模块;
实时言语基频判别模块根据言语基频数据与言语基频目标值及其相应范围进行判别,并将判别结果实时发送至嗓音产生障碍康复步骤和执行模块;
实时基频震颤判别模块根据基频震颤数据与基频震颤目标值及其相应范围进行判别,并将判别结果实时发送至嗓音产生障碍康复步骤和执行模块;
实时频段能量集中率判别模块根据频段能量集中率数据与频段能量集中率目标值及其相应范围进行判别,并将判别结果实时发送至嗓音产生障碍康复步骤和执行模块;
实时声带接触率和接触率微扰判别模块根据声带接触率和接触率微扰数据与声带接触率和接触率微扰目标值及其相应范围进行判别,并将判别结果实时发送至嗓音产生障碍康复步骤和执行模块。
步骤三:
嗓音产生障碍康复步骤和执行模块根据判别结果,设置最长声时康复模式,从康复模式和内容存储模块读取并执行最长声时康复模式、最长声时康复内容,将康复执行结果传输至实时最长声时视听反馈单元;
嗓音产生障碍康复步骤和执行模块根据判别结果,设置最大数数能力康复模式,从康复模式和内容存储模块读取并执行最大数数能力康复模式、最大数数能力康复内容,将康复执行结果传输至实时最大数数能力视听反馈单元;
嗓音产生障碍康复步骤和执行模块根据判别结果,设置言语基频康复模式,从康复模式和内容存储模块读取并执行言语基频康复模式、言语基频康复内容,将康复执行结果传输至实时言语基频视听反馈单元;
嗓音产生障碍康复步骤和执行模块根据判别结果,设置基频震颤康复模式,从康复模式和内容存储模块读取并执行基频震颤康复模式、基频震颤康复内容,将康复执行结果传输至实时基频震颤视听反馈单元;
嗓音产生障碍康复步骤和执行模块根据判别结果,设置频段能量集中率康复模式,从康复模式和内容存储模块读取并执行频段能量集中率康复模式、频段能量集中率康复内容,将康复执行结果传输至实时频段能量集中率视听反馈单元;
嗓音产生障碍康复步骤和执行模块根据判别结果,设置声带接触率和接触率微扰康复模式,从康复模式和内容存储模块读取并执行声带接触率和接触率微扰康复模式、声带接触率和接触率微扰康复内容,将康复执行结果传输至实时声带接触率和接触率微扰视听反馈单元。
步骤四:
实时最长声时视听反馈单元实时显示最长声时康复执行结果。
实时最大数数能力视听反馈单元实时显示最大数数能力康复执行结果。
实时言语基频视听反馈单元实时显示言语基频康复执行结果。
实时基频震颤视听反馈单元实时显示基频震颤康复执行结果。
实时频段能量集中率视听反馈单元实时显示频段能量集中率康复执行结果。
实时声带接触率和接触率微扰视听反馈单元实时显示声带接触率和接触率微扰康复执行结果。
其中,最长声时实时测量和视听反馈技术的嗓音治疗方法,步骤二中进一步包括:
步骤a:实时最长声时测量判别模块根据用户最长声时数据转换为最长声时限定值,对最长声时损伤程度进行定性判别;
步骤b:实时最长声时测量判别模块将用户信息以及最长声时障碍类型信息发送至康复执行模块;
步骤c:实时最长声时测量判别模块根据用户信息以及最长声时数据与最长声时聚焦限定值进行判别。
其中,最大数数能力实时测量和视听反馈技术的嗓音治疗方法,步骤二中进一步包括:
步骤a:实时最大数数能力测量判别模块根据用户最大数数能力数据转换为最大数数能力限定值,对最大数数能力损伤程度进行定性判别;
步骤b:实时最大数数能力测量判别模块将用户信息以及最大数数能力障碍类型信息发送至康复执行模块;
步骤c:实时最大数数能力测量判别模块根据用户信息以及最大数数能力数据与最大数数能力聚焦限定值进行判别。
其中,言语基频实时测量和视听反馈技术的嗓音治疗方法,步骤二中进一步包括:
步骤a:实时言语基频测量判别模块根据用户言语基频数据转换为言语基频限定值,对言语基频损伤程度进行定性判别;
步骤b:实时言语基频测量判别模块将用户信息以及言语基频障碍类型信息发送至康复执行模块;
步骤c:实时言语基频测量判别模块根据用户信息以及言语基频数据与言语基频聚焦限定值进行判别。
其中,基频震颤实时测量和视听反馈技术的嗓音治疗方法,步骤二中进一步包括:
步骤a:实时基频震颤测量判别模块根据用户基频震颤数据转换为基频震颤限定值,对基频震颤损伤程度进行定性判别;
步骤b:实时基频震颤测量判别模块将用户信息以及基频震颤障碍类型信息发送至康复执行模块;
步骤c:实时基频震颤测量判别模块根据用户信息以及基频震颤数据与基频震颤聚焦限定值进行判别。
其中,频段能量集中率实时测量和视听反馈技术的嗓音治疗方法,步骤二中进一步包括:
步骤a:实时频段能量集中率测量判别模块根据用户频段能量集中率数据转换为频段能量集中率限定值,对频段能量集中率损伤程度进行定性判别;
步骤b:实时频段能量集中率测量判别模块将用户信息以及频段能量集中率障碍类型信息发送至康复执行模块;
步骤c:实时频段能量集中率测量判别模块根据用户信息以及频段能量集中率数据与频段能量集中率聚焦限定值进行判别。
其中,声带接触率及接触率微扰实时测量和视听反馈技术的嗓音治疗方法,步骤二中进一步包括:
步骤a:实时声带接触率及接触率微扰测量判别模块根据用户声带接触率及接触率微扰数据转换为声带接触率及接触率微扰限定值,对声带接触率及接触率微扰损伤程度进行定性判别;
步骤b:实时声带接触率及接触率微扰测量判别模块将用户信息以及声带接触率及接触率微扰障碍类型信息发送至康复执行模块;
步骤c:实时声带接触率及接触率微扰测量判别模块根据用户信息以及声带接触率及接触率微扰数据与声带接触率及接触率微扰聚焦限定值进行判别。
本发明提出的最长声时实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在最长声时障碍或停止康复训练位置。
本发明提出的最大数数能力实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在最大数数能力障碍或停止康复训练位置。
本发明提出的言语基频实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在言语基频障碍或停止康复训练位置。
本发明提出的基频震颤实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在基频震颤障碍或停止康复训练位置。
本发明提出的频段能量集中率实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在频段能量集中率障碍或停止康复训练位置。
本发明提出的声带接触率及接触率微扰实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在声带接触率及接触率微扰障碍或停止康复训练位置。
本发明的有益效果为:
本发明能够根据用户的嗓音产生障碍类型设置康复模式,从而智能选择康复治疗内容和康复步骤,操作简单方便,降低了嗓音产生障碍的治疗难度,能够根据不同性别、不同年龄段和嗓音产生损伤程度得出差异化的治疗方案。
附图说明
图1为本发明提出的基于ICF-RFT框架的嗓音产生障碍智能康复系统框图;
图2为本发明提出的b3100智能康复模块康复内容推送(四大阶段)以及实时监控系统框图;
图3为本发明提出的最长声时ICF=1智能康复系统框图;
图4为本发明提出的最大数数能力ICF=2智能康复系统框图;
图5为本发明提出的言语基频(过高)ICF=3智能康复系统框图;
图6为本发明提出的言语基频(过低)ICF=4智能康复系统框图;
图7为本发明提出的言语基频(变化)ICF=1智能康复系统框图;
图8为本发明提出的基频震颤ICF=2智能康复系统框图;
图9为本发明提出的频段能量集中率(亢进)ICF=3智能康复系统框图;
图10为本发明提出的频段能量集中率(低下)ICF=4智能康复系统框图;
图11为本发明提出的声带接触率和接触率微扰(过度)ICF=1智能康复系统框图;
图12为本发明提出的声带接触率和接触率微扰(不全)ICF=2智能康复系统框图。
图13为本发明提出的言语嗓音评估表。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
本发明最长声时实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时最长声时视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的最长声时数据。主控单元与实时处理单元连接,用于实时测量最长声时数据并判断用户存在的最长声时障碍,根据最长声时障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时最长声时视听反馈单元与主控单元连接,实时最长声时视听反馈单元用于实时显示最长声时数据以及最长声时障碍的康复结果。
在本发明实施例的技术方案中,本发明最大数数能力实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时最大数数能力视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的最大数数能力数据。主控单元与实时处理单元连接,用于实时测量最大数数能力数据并判断用户存在的最大数数能力障碍,根据最大数数能力障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时最大数数能力视听反馈单元与主控单元连接,实时最大数数能力视听反馈单元用于实时显示最大数数能力数据以及最大数数能力障碍的康复结果。
在本发明实施例的技术方案中,本发明言语基频实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时言语基频视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的言语基频数据。主控单元与实时处理单元连接,用于实时测量言语基频数据并判断用户存在的言语基频障碍,根据言语基频障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时言语基频视听反馈单元与主控单元连接,实时言语基频视听反馈单元用于实时显示言语基频数据以及言语基频障碍的康复结果。
在本发明实施例的技术方案中,本发明基频震颤实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时基频震颤视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的基频震颤数据。主控单元与实时处理单元连接,用于实时测量基频震颤数据并判断用户存在的基频震颤障碍,根据基频震颤障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时基频震颤视听反馈单元与主控单元连接,实时基频震颤视听反馈单元用于实时显示基频震颤数据以及基频震颤障碍的康复结果。
在本发明实施例的技术方案中,本发明频段能量集中率实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时频段能量集中率视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的频段能量集中率数据。主控单元与实时处理单元连接,用于实时测量频段能量集中率数据并判断用户存在的频段能量集中率障碍,根据频段能量集中率障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时频段能量集中率视听反馈单元与主控单元连接,实时频段能量集中率视听反馈单元用于实时显示频段能量集中率数据以及频段能量集中率障碍的康复结果。
在本发明实施例的技术方案中,本发明声带接触率及接触率微扰实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时声带接触率及接触率微扰视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的声带接触率及接触率微扰数据。主控单元与实时处理单元连接,用于实时测量声带接触率及接触率微扰数据并判断用户存在的声带接触率及接触率微扰障碍,根据声带接触率及接触率微扰障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时声带接触率及接触率微扰视听反馈单元与主控单元连接,实时声带接触率及接触率微扰视听反馈单元用于实时显示声带接触率及接触率微扰数据以及声带接触率及接触率微扰障碍的康复结果。
通过用户测量嗓音产生数据,进行分析并与常模数据库比较,该数据库当中包含了不同性别、各年龄段(4、5、6、7、8、9、10、11、12、13、14、15、16、17岁各段,18-99岁合为成人段,共15段)的归一化后的嗓音产生均值、嗓音产生标准差、嗓音产生限定值(0、1、2、3、4)。
具体而言,实时处理单元包括单通道低通滤波器、电声门图仪和麦克风,实时处理单元1对于所采集的言语嗓音的增益共四档:25dB、30dB、35dB、40dB,每档误差:±1.0dB(100Hz-700Hz基频范围)。单通道低通滤波器所采用的低通频率共三档5kHz、10kHz、20kHz。选择5kHz档:当输入信号频率5.5kHz时,最大衰减≥50dB;选择10kHz档:当输入信号频率为11Hz时,最大衰减≥50dB。选择20kHz档:输入信号频率为22kHz时,最大衰减≥50dB。当无信号输入时,静止噪声≤1mV。
参见图1,主控单元2中包括:康复模式和内容存储模块21、嗓音产生障碍康复步骤和执行模块22和实时嗓音产生参数测量判别模块23。康复模式和内容存储模块21用于存储康复过程中使用的嗓音产生参数聚焦康复模式、嗓音产生参数康复内容,及其嗓音产生参数数据的实时反馈、减少嗓音产生参数训练(唤醒、诱导,增加响度/音调、自反馈)、增加嗓音产生参数训练(唤醒、诱导、升降调、自反馈)内容。内容包括用于播放的音频素材、用于显示的静态图像素材和/或动态影像素材、以及用于显示的文字和/或数字等。嗓音产生障碍康复步骤和执行模块22与康复模式和内容存储模块21以及实时视听反馈单元连接,用于设置嗓音产生参数康复模式与实时运行嗓音产生参数康复内容。实时嗓音产生参数测量判别模块23与实时处理单元1以及康复执行模块连接,用于实时判别用户产生言语嗓音时嗓音产生参数情况,并以此判断用户嗓音存在的嗓音产生障碍。实时嗓音产生参数测量判别模块23基于嗓音产生参数数据以及相应的嗓音产生聚焦限定值对嗓音产生聚焦类型进行判断。
具体而言,对于同性别的每个年龄段(男、女各15段),判别嗓音产生功能亢进的损伤程度公式:嗓音产生均值+嗓音产生均值*嗓音产生限定值;用于判别嗓音产生功能低下的损伤程度公式:嗓音产生均值-嗓音产生均值*嗓音产生限定值;基于上述公式,嗓音产生精准评估模块21能够判别嗓音产生障碍类型,具体为嗓音产生功能低下、嗓音产生功能亢进。
实施例1:首先根据用户的信息建立档案(见档案表),然后指导用户以尽可能响的状态发/ae——/并维持稳定数秒,通过对其嗓音产生信号进行分析可从中获得用户的基频震颤数据,经评估的嗓音产生报告参见图13所示,具体而言,嗓音产生功能方面,该患者(34岁女性)存在神经性嗓音障碍。
档案表:
言语方面:
1、呼吸支持能力较差,最长声时MPT=2.9s,重度损伤;
2、呼吸与发声协调能力较差,cMCA=2s,重度损伤;
3、音调偏低,言语基频F0=150Hz,轻度损伤;
嗓音方面:
1、口腔神经源性控制较差,频段能量集中率Ec=32%,重度损伤;
针对上述障碍,神经性嗓音障碍康复步骤和执行模块22给出建议和执行方式,具体如下:1、实时反馈治疗,选择如音调实时反馈训练、响度实时反馈训练等治疗方法;2、传统治疗,选择如口腔放松训练、后位音法、声带放松训练、咀嚼法、碰撞法、用力搬椅法、音调梯度训练、哼鸣法等治疗方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (6)

1.基于ICF-RFT框架的嗓音产生障碍智能康复系统,系统结构包括:实时嗓音产生信号检测处理单元(1)、主控单元(2)、实时视听触觉反馈单元(3)、康复云平台(4)、移动康复学习机(5)、移动智能筛查仪(6),其特征在于:所述实时嗓音产生信号检测处理单元(1)用于实时检测处理用户嗓音产生信号的数据;
所述主控单元(2)与实时嗓音产生信号检测处理单元(1)连接,用于最长声时、最大数数能力、言语基频、基频震颤、频段能量集中率、声带接触率和接触率微扰7个参数相关模块的精准评估和康复训练,贯穿功能评估、计划制定、实施治疗以及疗效评价整个过程;
所述实时视听触觉反馈单元(3)与主控单元(2)连接,采用实时视听触觉反馈技术用于实时显示与反馈嗓音产生康复结果与相关信息;所述康复云平台(4)通过互联网与主控单元(2)连接,用于数据共享;所述移动康复学习机(5)与康复云平台(4)连接,用于布置康复作业,实现康复训练普及化;所述移动智能筛查仪(6)与实时嗓音产生信号检测处理单元(1)连接用于综合检查,通过互联网与为康复云平台(4)连接获得ICF功能损伤平均值为嗓音产生精准评估与实时监控单元(21)提供分流。
2.根据权利要求1所述的基于ICF-RFT框架的嗓音产生障碍智能康复系统,其特征在于,所述主控单元(2)包括嗓音产生精准评估与实时监控单元(21)、康复模式和执行康复步骤单元(22)、ICF转换单元(23)以及嗓音产生四大阶段康复内容推送单元(24),其中嗓音产生精准评估与实时监控单元(21)数据进行精准评估与实时监控,判别是否存在嗓音产生障碍,判别嗓音产生障碍类型;康复模式和执行康复步骤单元(22)设置康复模式和执行康复步骤;ICF转换单元(23)对精准评估与实时监控的数据进行ICF转换;嗓音产生四大阶段康复内容推送单元(24)选择四大阶段康复内容推送。
3.根据权利要求1所述的基于ICF-RFT框架的嗓音产生障碍智能康复系统,其特征在于,所述实时嗓音产生信号检测处理单元(1)用于实时获取用户嗓音产生信号的数据,嗓音产生的数据通过麦克风连接单通道低通滤波器,和/或通过电声门图来获得。
4.根据权利要求3所述的基于ICF-RFT框架的嗓音产生障碍智能康复系统,其特征在于,对输入的嗓音产生信号进行分析数据误差控制、响应速率误差控制,其主要技术参数指标如下:
a)谐波频率误差:±4%;
b)基频实时响应速率:≤6ms;
c)FFT实时响应速率:≤48ms(FFT:快速傅里叶频谱);
d)LPC实时响应速率:≤45ms(LPC:线性预测谱);
e)语谱图实时分辨率:
窄带(60Hz):12.7ms±4%;
中带(120Hz):12.7ms±4%;
宽带(240Hz):12.7ms±4%。
5.根据权利要求1所述的基于ICF-RFT框架的嗓音产生障碍智能康复系统,其特征在于,所述实时嗓音产生信号检测处理单元(1)包括b3100综合检查模块:通过嗓音产生信号获得最长声时、最大数数能力、言语基频、基频震颤、频段能量集中率、声带接触率和接触率微扰7个测量值;对于每个客观测量值进行ICF损伤程度转换,获得嗓音产生ICF平均值。
6.所述主控单元(2)中的b3100智能康复模块,包括综合检查、以及最长声时、最大数数能力、言语基频(高)、言语基频(低)、言语基频(变化)、频段能量集中率(亢进)、频段能量集中率(低下)、基频震颤、声带接触率和接触率微扰(过度)、声带接触率和接触率微扰(不全)10个智能康复模块,其中每个模块包括:精准评估、损伤程度转换及其康复内容推送和实时监控。
CN202310969041.0A 2023-08-03 2023-08-03 基于icf-rft框架的嗓音产生障碍智能康复系统 Pending CN117137436A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310969041.0A CN117137436A (zh) 2023-08-03 2023-08-03 基于icf-rft框架的嗓音产生障碍智能康复系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310969041.0A CN117137436A (zh) 2023-08-03 2023-08-03 基于icf-rft框架的嗓音产生障碍智能康复系统

Publications (1)

Publication Number Publication Date
CN117137436A true CN117137436A (zh) 2023-12-01

Family

ID=88899621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310969041.0A Pending CN117137436A (zh) 2023-08-03 2023-08-03 基于icf-rft框架的嗓音产生障碍智能康复系统

Country Status (1)

Country Link
CN (1) CN117137436A (zh)

Similar Documents

Publication Publication Date Title
US11315687B2 (en) Method and apparatus for training and evaluating artificial neural networks used to determine lung pathology
US11304624B2 (en) Method and apparatus for performing dynamic respiratory classification and analysis for detecting wheeze particles and sources
Abushakra et al. Acoustic signal classification of breathing movements to virtually aid breath regulation
US9564061B2 (en) Vocalization training method
US11529072B2 (en) Method and apparatus for performing dynamic respiratory classification and tracking of wheeze and crackle
EP3954278A1 (en) Apnea monitoring method and device
AU2013274940A1 (en) Cepstral separation difference
CN116831533A (zh) 基于icf-rft框架的嗓音音质障碍智能康复系统
Colton et al. Measuring vocal fold function
Brockmann-Bauser Improving jitter and shimmer measurements in normal voices
KR20230017135A (ko) 기계학습 음성기술에 기반한 어려운 기도 평가 방법 및 장치
Stemple Voice research: so what? A clearer view of voice production, 25 years of progress; the speaking voice
Munson A method for studying variability in fricatives using dynamic measures of spectral mean
Carbonell et al. Discriminating simulated vocal tremor source using amplitude modulation spectra
CN117137436A (zh) 基于icf-rft框架的嗓音产生障碍智能康复系统
McGlashan Evaluation of the Voice
US20210315517A1 (en) Biomarkers of inflammation in neurophysiological systems
Yin et al. Athlete’s respiratory frequency and physical energy consumption model based on speech recognition technology
Tan Contact quotient of female singers singing four pitches for five vowels in normal and pressed phonations
Werner et al. Acoustics of breath noises in human speech: Descriptive and three-dimensional modeling approaches
CN1147334C (zh) 超声喉疗声教系统
Pehlivan et al. Laryngoaltimeter: a new ambulatory device for laryngeal height control, preliminary results
CN109754818A (zh) 一种发声检测和发声练习方法
RU2738660C1 (ru) Способ диагностики и реабилитации пациентов с нарушениями голосо-речевой функции
CN117323538A (zh) 基于icf-pct框架的神经性言语障碍构音韵律智能康复系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination