CN116831533A - 基于icf-rft框架的嗓音音质障碍智能康复系统 - Google Patents

基于icf-rft框架的嗓音音质障碍智能康复系统 Download PDF

Info

Publication number
CN116831533A
CN116831533A CN202310969104.2A CN202310969104A CN116831533A CN 116831533 A CN116831533 A CN 116831533A CN 202310969104 A CN202310969104 A CN 202310969104A CN 116831533 A CN116831533 A CN 116831533A
Authority
CN
China
Prior art keywords
real
time
rehabilitation
voice
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310969104.2A
Other languages
English (en)
Inventor
黄兰婷
王哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Huimin Medical Equipment Co ltd
Original Assignee
Shanghai Huimin Medical Equipment Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Huimin Medical Equipment Co ltd filed Critical Shanghai Huimin Medical Equipment Co ltd
Priority to CN202310969104.2A priority Critical patent/CN116831533A/zh
Publication of CN116831533A publication Critical patent/CN116831533A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明涉及嗓音与言语康复领域,尤其涉及基于ICF‑RFT框架的嗓音音质障碍智能康复系统,包括:基频微扰、幅度微扰(亢进)、幅度微扰(低下)、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量(亢进)、鼻流量(低下)共8个康复模块;系统包括实时嗓音音质信号检测处理单元、主控单元、实时视听触觉反馈单元,以及康复云平台、移动康复学习机、移动智能筛查仪;本发明能够根据用户的嗓音音质障碍类型设置康复模式,从而智能选择康复治疗内容和康复步骤,操作简单方便,能够根据不同性别、不同年龄段和嗓音音质损伤程度得出差异化的治疗方案。

Description

基于ICF-RFT框架的嗓音音质障碍智能康复系统
技术领域
本发明涉及嗓音与言语康复技术领域,尤其涉及基于ICF-RFT框架的嗓音音质障碍智能康复系统。
背景技术
正常嗓音产生时,需要瞬间吸入大量的气体后维持平稳的呼气,以维持足够的声门下压,进而使声带能够产生振动,振动产生的声能脉冲信号通过声道时,由声道中各器官构成的共鸣腔进行修饰,最后传播到空气中形成声波。在进行嗓音治疗时,需考虑到嗓音产生的过程,这个过程中任一环节的功能障碍均有可能产生异常嗓音,如出现气息声、嘶哑声、共鸣音质异常等。
b3101音质,又称嗓音音质功能,是指产生声音特征的功能,包括音调、共鸣和其他特征,包括高低音调功能、鼻音过重(鼻音功能亢进)、鼻音过轻(鼻音功能低下)、发声困难、声嘶或刺耳声;可用6项参数测量,包括基频微扰、声门噪声、幅度微扰、第二共振峰频率F2/i/和F2/u/、鼻流量。
针对b3101嗓音音质,嗓音治疗的方法中最常用也最著名的方法便是促进治疗法,可根据呼吸、发声、共鸣功能分为三大类,每一类均包含十种以上的针对性治疗方法,治疗师可根据患者嗓音功能的受损情况选择对应的方法,结合现代化嗓音治疗技术实施治疗。实时监控是对患者每次治疗的效果进行监控,能帮助治疗师及患者更明确地了解每次治疗后的进步,并从客观数据上得到疗效的反馈。但是,对于一些受制于地域、经济、交通等因素,不便于线下康复的患者,现有技术仍未出现相关智能化的、适应线上康复的技术。
鉴于上述问题,提出了本发明以便提供基于ICF-RFT框架的嗓音音质障碍智能康复系统,可进行实时测量评估和视听触觉反馈康复治疗。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的基于ICF-RFT框架的嗓音音质障碍智能康复系统。
为了实现上述目的,本发明采用了如下技术方案:
基于ICF-RFT框架的嗓音音质障碍智能康复系统,系统结构包括:实时嗓音音质信号检测处理单元、主控单元、实时视听触觉反馈单元、康复云平台、移动康复学习机、移动智能筛查仪,所述实时嗓音音质信号检测处理单元用于实时检测处理用户嗓音音质信号的数据;
所述主控单元与实时嗓音音质信号检测处理单元连接,用于基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、共振峰频率扰动、鼻流量、鼻口腔共鸣比8个参数相关模块的精准评估和康复训练,贯穿功能评估、计划制定、实施治疗以及疗效评价整个过程;
所述实时视听触觉反馈单元与主控单元连接,采用实时视听触觉反馈技术用于实时显示与反馈嗓音音质康复结果与相关信息;所述康复云平台通过互联网与主控单元连接,用于数据共享;所述移动康复学习机与康复云平台连接,用于布置康复作业,实现康复训练普及化;所述移动智能筛查仪与实时嗓音音质信号检测处理单元连接用于综合检查,通过互联网与为康复云平台连接获得ICF功能损伤平均值为嗓音音质精准评估与实时监控单元提供分流。
优选的,所述主控单元包括嗓音音质精准评估与实时监控单元、康复模式和执行康复步骤单元、ICF转换单元以及嗓音音质四大阶段康复内容推送单元,其中嗓音音质精准评估与实时监控单元数据进行精准评估与实时监控,判别是否存在嗓音音质障碍,判别嗓音音质障碍类型;康复模式和执行康复步骤单元设置康复模式和执行康复步骤;ICF转换单元对精准评估与实时监控的数据进行ICF转换;嗓音音质四大阶段康复内容推送单元选择四大阶段康复内容推送。
优选的,所述实时嗓音音质信号检测处理单元用于实时获取用户嗓音音质信号的数据,嗓音音质的数据通过麦克风和/或电声门图连接单通道低通滤波器、双通道低通滤波器来获得。
对输入的嗓音音质信号进行分析数据误差控制、响应速率误差控制,其主要技术参数指标如下:
a)频率误差:±2%;
b)电压误差:±3%;
c)基频实时响应速率:≤6ms。
d)LPC实时响应速率:≤45ms(LPC:线性预测谱);
e)语谱图实时分辨率:
窄带(60Hz):12.7ms±4%;
中带(120Hz):12.7ms±4%;
宽带(240Hz):12.7ms±4%。
其中,实时嗓音音质信号检测处理单元包括b3101综合检查模块:通过嗓音音质信号获得基频微扰、声门噪声能量、幅度微扰3个测量值;对于每个客观测量值进行ICF损伤程度转换,获得嗓音音质ICF平均值;(如表1所示)
表1:ICF嗓音音质功能综合检查
主控单元中的b3101智能康复模块,包括基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、共振峰频率扰动F2f、鼻流量、鼻口共鸣比NOR共8个模块,其中每个模块包括:精准评估、损伤程度转换(如表2所示)及其康复内容推送和实时监控(如图2所示)。
表2:ICF嗓音音质功能精准评估
如图3,基于ICF-RFT框架的嗓音音质障碍智能康复系统,应用一种非治疗目的的基频微扰智能康复的执行方法,包括以下步骤:
S21:ICF基频微扰=1,相应实时监控数据,第一阶段为:呼吸放松训练、实时缓慢平稳呼气法、清浊音实时反馈训练(结合实时缓慢平稳呼气法);第二阶段为:实时数数法、声时实时反馈训练(结合实时数数法)、实时快速用力呼气法、响度实时反馈训练(结合实时快速用力呼气法);第三阶段为:实时唱音法、声时实时反馈训练(结合实时唱音法)、实时逐字增加句长法、声时实时反馈训练(结合实时逐字增加句长法);第四阶段为:实时唱音法(结合音节时长练习)、实时缓慢平稳呼气法(结合停顿起音练习)。
S22:ICF基频微扰=2,相应实时监控数据,第一阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时吟唱法、音调实时反馈训练(结合实时吟唱法);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时哼鸣法、音调实时反馈训练(感知);第三阶段为:实时升调打嘟、音调实时反馈训练(感知)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法);第四阶段为:实时哼鸣法(结合音调变化练习)、实时吟唱法(结合行板重读);
S23:ICF基频微扰=3,相应实时监控数据,第一阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时哼鸣法、音调实时反馈训练(结合实时哼鸣法);第三阶段为:喉部按摩法、实时吟唱法、音调实时反馈训练(结合实时吟唱法);第四阶段为:实时平调向前打嘟(结合音节时长练习)、实时吟唱法(结合慢板重读);
S24:ICF基频微扰=4,相应实时监控数据,第一阶段为:喉部按摩法、Jitter实时反馈训练(感知);第二阶段为:颈部放松训练、Jitter实时反馈训练;第三阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、音调实时反馈训练(感知);第四阶段为:实时韵母慢板重读、实时韵母行板重读。
如图4,基于ICF-RFT框架的嗓音音质障碍智能康复系统,应用一种非治疗目的的由于发声功能亢进导致的幅度微扰智能康复的执行方法,包括以下步骤:
S31:ICF幅度微扰(亢进)=1,相应实时监控数据,第一阶段为:颈部放松训练、实时吟唱法、响度实时反馈训练(结合实时吟唱法);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时哼鸣法、响度实时反馈训练(结合实时哼鸣法)、实时响度梯度训练法(变化响度)、响度实时反馈训练(结合实时响度梯度训练);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时唱音法、响度实时反馈训练(结合实时唱音法)、Shimmer实时反馈训练(感知);第四阶段为:实时唱音法(结合音节时长训练)、实时哼鸣法(结合快板重读);
S32:ICF幅度微扰(亢进)=2,相应实时监控数据,第一阶段为:实时气息式发音法、清浊音实时反馈训练(结合实时气息式发音法)、实时吟唱法、响度实时反馈训练(结合实时吟唱法);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时哼鸣法、响度实时反馈训练(结合实时哼鸣法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时响度梯度训练法(变化响度)、响度实时反馈训练(结合实时响度梯度训练);第四阶段为:实时吟唱法结合慢板重读、实时吟唱法结合行板重读;
S33:ICF幅度微扰(亢进)=3,相应实时监控数据,第一阶段为:颈部放松训练、shimmer实时反馈训练;第二阶段为:实时气息式发音法、清浊音实时反馈训练(结合实时气息式发音法)、实时吟唱法、响度实时反馈训练(结合实时吟唱法);第三阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时哼鸣法、响度实时反馈训练(结合实时哼鸣法);第四阶段为:实时哼鸣法(结合慢板重读)、实时哼鸣法(结合行板重读);
S34:ICF幅度微扰(亢进)=4,相应实时监控数据,第一阶段为:喉部按摩法、Shimmer实时反馈训练(感知);第二阶段为:颈部放松训练、Shimmer实时反馈训练(感知);第三阶段为:实时气息式发音法、清浊音实时反馈训练(结合实时气息式发音法)、Shimmer实时反馈训练(感知);第四阶段为:实时韵母慢板重读、实时韵母行板重读。
如图5,基于ICF-RFT框架的嗓音音质障碍智能康复系统,应用一种非治疗目的的由于发声功能低下导致的幅度微扰智能康复的执行方法,包括以下步骤:
S41:ICF幅度微扰(低下)=1,相应实时监控数据,第一阶段为:颈部放松训练、实时用力搬椅法、响度实时反馈训练(结合实时用力搬椅法);第二阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时哼鸣法、响度实时反馈训练(结合实时哼鸣法)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时唱音法、响度实时反馈训练(结合实时唱音法)、Shimmer实时反馈训练(感知);第四阶段为:实时唱音法(结合音节时长练习)、实时哼鸣法(结合快板重读);
S42:ICF幅度微扰(低下)=2,相应实时监控数据,第一阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时用力搬椅法、响度实时反馈训练(结合实时用力搬椅法);第二阶段为:实时变调向前打嘟、音调实时反馈训练(结合实时变调向前打嘟)、实时碰撞法、响度实时反馈训练(结合实时碰撞法)、实时哼鸣法、响度实时反馈训练(结合实时哼鸣法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练);第四阶段为:实时哼鸣法(结合慢板重读)、实时哼鸣法(结合行板重读)。
S43:ICF幅度微扰(低下)=3,相应实时监控数据,第一阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时变调向前打嘟、音调实时反馈训练(结合实时变调向前打嘟)、实时用力搬椅法、响度实时反馈训练(结合实时用力搬椅法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时哼鸣法、音调实时反馈训练(结合实时哼鸣法);第四阶段为:实时哼鸣法(结合慢板重读)、实时哼鸣法(结合行板重读);
S44:ICF幅度微扰(低下)=4,相应实时监控数据,第一阶段为:喉部按摩法、Shimmer实时反馈训练(感知);第二阶段为:颈部放松训练、Shimmer实时反馈训练(感知);第三阶段为:颈部放松训练、实时用力搬椅法、响度实时反馈训练(结合实时用力搬椅法);第四阶段为:实时韵母慢板重读、实时韵母行板重读。
如图6,基于ICF-RFT框架的嗓音音质障碍智能康复系统,应用一种非治疗目的声门噪声能量智能康复的执行方法,包括以下步骤:
S51:ICF声门噪声能量=1,相应实时监控数据,第一阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时掩蔽法、清浊音实时反馈训练(结合实时掩蔽法);第二阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时用力搬椅法、响度实时反馈训练(结合实时用力搬椅法);第三阶段为:实时碰撞法、响度实时反馈训练(结合实时碰撞法)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练法)、噪声NNE实时反馈训练(结合实时响度梯度训练法);第四阶段为:实时碰撞法(结合响度变化练习)、实时用力搬椅法(结合响度变化练习);
S52:ICF声门噪声能量=2,相应实时监控数据,第一阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时咀嚼法、清浊音实时反馈训练(结合实时咀嚼法);第二阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时碰撞法、响度实时反馈训练(结合实时碰撞法);第三阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时响度梯度训练法、响度实时反馈训练(结合实时响度梯度训练法)、实时用力搬椅法、响度实时反馈训练(结合实时用力搬椅法);第四阶段为:实时咀嚼法(结合停顿起音练习)、实时碰撞法(结合响度变化练习);
S53:ICF声门噪声能量=3,相应实时监控数据,第一阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第二阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时咀嚼法、清浊音实时反馈训练(结合实时咀嚼法);第三阶段为:实时平调旋转打嘟、音调实时反馈训练(结合实时平调旋转打嘟)、实时甩臂后推法、响度实时反馈训练(结合实时甩臂后推法)、实时用力搬椅法、响度实时反馈训练(结合实时用力搬椅法);第四阶段为:实时咀嚼法(结合音节时长练习)、实时咀嚼法(结合音调变化练习);
S54:ICF声门噪声能量=4,相应实时监控数据,第一阶段为:喉部按摩法、噪声NNE实时反馈训练(感知);第二阶段为:颈部放松训练、清浊音实时反馈训练(感知);第三阶段为:实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟)、实时甩臂后推法、响度实时反馈训练(结合实时甩臂后推法);第四阶段为:实时韵母慢板重读、实时韵母行板重读。
如图7,基于ICF-RFT框架的嗓音音质障碍智能康复系统,应用一种非治疗目的的共振峰频率F2/i/智能康复的执行方法,包括以下步骤:
S61:ICF共振峰频率F2/i/=1,相应实时监控数据,第一阶段为:口腔放松训练、共振峰实时反馈训练(感知);第二阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时前位音法、共振峰实时反馈训练(结合实时前位音法);第三阶段为:实时前位音法、共振峰实时反馈训练(结合实时前位音法)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法);第四阶段为:实时前位音法(结合慢板重读)、实时前位音法(结合行板重读);
S62:ICF共振峰频率F2/i/=2,相应实时监控数据,第一阶段为:口腔放松训练、共振峰实时反馈训练(感知);第二阶段为实时升调打嘟、音调实时反馈训练(结合实时升调打嘟)、实时前位音法、音调实时反馈训练(结合实时前位音法);第三阶段为:实时升调打嘟、音调实时反馈训练(结合升调打嘟)、实时伸舌法、共振峰实时反馈训练(结合实时伸舌法);第四阶段为:实时伸舌法(结合慢板重读)、实时伸舌法(结合行板重读);
S63:ICF共振峰频率F2/i/=3,相应实时监控数据,第一阶段为:口腔放松训练、共振峰实时反馈训练(感知);第二阶段为实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第三阶段为:实时升调打嘟、音调实时反馈训练(结合实时升调打嘟);第四阶段为:口腔放松训练(结合慢板重读)、口腔放松训练(结合行板重读);
S64:ICF共振峰频率F2/i/=4,第一阶段为:口腔放松训练、共振峰实时反馈训练(感知);第二阶段为口腔放松训练、舌域图实时反馈训练(感知);第三阶段为:口腔放松训练、音调实时反馈训练(感知);第四阶段为:口腔放松训练(结合慢板重读)、口腔放松训练(结合行板重读)。
如图8,基于ICF-RFT框架的嗓音音质障碍智能康复系统,应用一种非治疗目的的共振峰频率F2/u/智能康复的执行方法,包括以下步骤:
S71:ICF共振峰频率F2/u/=1,相应实时监控数据,第一阶段为:口腔放松训练、共振峰实时反馈训练(感知);第二阶段为实时降调打嘟、音调实时反馈训练(结合实时降调打嘟)、实时后位音法、共振峰实时反馈训练(结合实时后位音法);第三阶段为:实时后位音法、音调实时反馈训练(结合实时后位音法)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法);第四阶段为:实时后位音法(结合慢板重读)、实时后位音法(结合行板重读);
S72:ICF共振峰频率F2/u/=2,相应实时监控数据,第一阶段为:口腔放松训练、共振峰实时反馈训练(感知);第二阶段为实时降调打嘟、音调实时反馈训练(结合实时降调打嘟)、实时后位音法、音调实时反馈训练(结合实时后位音法);第三阶段为:实时降调打嘟、音调实时反馈训练(结合实时降调打嘟)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法);第四阶段为:实时后位音法(结合慢板重读)、实时后位音法(结合行板重读);
S73:ICF共振峰频率F2/u/=3,相应实时监控数据,第一阶段为:口腔放松训练、共振峰实时反馈训练(感知);第二阶段为实时平调向前打嘟、音调实时反馈训练(结合实时平调向前打嘟);第三阶段为:实时降调打嘟、音调实时反馈训练(结合实时降调打嘟);第四阶段为:口腔放松训练(结合慢板重读)、口腔放松训练(结合行板重读);
S74:ICF共振峰频率F2/u/=4,相应实时监控数据,第一阶段为:口腔放松训练、共振峰实时反馈训练(感知);第二阶段为口腔放松训练、舌域图实时反馈训练(感知);第三阶段为:口腔放松训练、音调实时反馈训练(感知);第四阶段为:口腔放松训练(结合慢板重读)、口腔放松训练(结合行板重读)。
如图9,基于ICF-RFT框架的嗓音音质障碍智能康复系统,应用一种非治疗目的的鼻流量(亢进)智能康复的执行方法,包括以下步骤:
S81:ICF鼻流量(亢进)=1,相应实时监控数据,第一阶段为:实时鼻腔放松训练、实时鼻音/边音刺激法、鼻流量NL实时反馈训练(结合实时鼻音/边音刺激);第二阶段为实时鼻腔放松训练法、实时口腔共鸣法、清浊音实时反馈训练(结合实时口腔共鸣法);第三阶段为:实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法)、实时口腔共鸣法、鼻流量NL实时反馈训练(结合实时口腔共鸣法);第四阶段为:实时鼻音/边音刺激法(结合行板节奏)、实时口腔共鸣法(结合行板节奏);
S82:ICF鼻流量(亢进)=2,相应实时监控数据,第一阶段为:实时鼻腔放松训练、实时鼻音/边音刺激法、鼻流量NL实时反馈训练(结合实时鼻音/边音刺激);第二阶段为实时鼻腔放松训练法、实时口腔共鸣法、清浊音实时反馈训练(结合实时口腔共鸣法);第三阶段为:实时口腔共鸣法、音调实时反馈训练(结合实时口腔共鸣法)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法);第四阶段为:实时鼻音/边音刺激法(结合慢板节奏)、实时鼻音/边音刺激法(结合行板节奏);
S83:ICF鼻流量(亢进)=3,相应实时监控数据,第一阶段为:实时鼻腔放松训练、鼻流量NL实时反馈训练(感知);第二阶段为实时鼻腔放松训练法、实时口腔共鸣法、清浊音实时反馈训练(结合实时口腔共鸣法);第三阶段为:实时鼻腔放松训练、实时口腔共鸣法、清浊音实时反馈训练(结合实时口腔共鸣法);第四阶段为:实时口腔共鸣法(结合慢板节奏)、实时口腔共鸣法(结合行板节奏);
S84:ICF共振峰频率F2/u/=4,相应实时监控数据,第一阶段为:实时鼻腔放松训练、鼻流量NL实时反馈训练(感知);第二阶段为实时口腔共鸣法、清浊音实时反馈训练(结合实时口腔共鸣法);第三阶段为:实时鼻腔放松训练、音调实时反馈训练(感知);第四阶段为:实时鼻腔放松训练(结合慢板重读)、实时鼻腔放松训练(结合行板重读)。
如图10,基于ICF-RFT框架的嗓音音质障碍智能康复系统,应用一种非治疗目的的鼻流量(低下)智能康复的执行方法,包括以下步骤:
S91:ICF鼻流量(低下)=1,相应实时监控数据,第一阶段为:实时鼻腔放松训练、实时鼻音/边音刺激法、鼻流量NL实时反馈训练(结合实时鼻音/边音刺激);第二阶段为实时鼻腔放松训练法、实时鼻腔共鸣法、清浊音实时反馈训练(结合实时鼻腔共鸣法);第三阶段为:实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法)、实时鼻腔共鸣法、鼻流量NL实时反馈训练(结合实时鼻腔共鸣法);第四阶段为:实时鼻音/边音刺激法(结合行板节奏)、实时鼻腔共鸣法(结合行板节奏);
S82:ICF鼻流量(亢进)=2,相应实时监控数据,第一阶段为:实时鼻腔放松训练、实时鼻音/边音刺激法、鼻流量NL实时反馈训练(结合实时鼻音/边音刺激);第二阶段为实时鼻腔放松训练法、实时鼻腔共鸣法、清浊音实时反馈训练(结合鼻腔共鸣法);第三阶段为:实时鼻腔共鸣法、音调实时反馈训练(结合实时鼻腔共鸣法)、实时音调梯度训练法、音调实时反馈训练(结合实时音调梯度训练法);第四阶段为:实时鼻音/边音刺激法(结合慢板节奏)、实时鼻音/边音刺激法(结合行板节奏);
S83:ICF鼻流量(亢进)=3,相应实时监控数据,第一阶段为:实时鼻腔放松训练、鼻流量NL实时反馈训练(感知);第二阶段为实时鼻腔放松训练法、实时鼻腔共鸣法、清浊音实时反馈训练(结合实时鼻腔共鸣法);第三阶段为:实时鼻腔放松训练、实时鼻腔共鸣法、清浊音实时反馈训练(结合实时鼻腔共鸣法);第四阶段为:实时鼻腔共鸣法(结合慢板节奏)、实时鼻腔共鸣法(结合行板节奏);
S84:ICF共振峰频率F2/u/=4,相应实时监控数据,第一阶段为:实时鼻腔放松训练、鼻流量NL实时反馈训练(感知);第二阶段为实时鼻腔放松训练、鼻流量NL实时反馈训练(感知);第三阶段为:实时鼻腔放松训练、音调实时反馈训练(感知);第四阶段为:实时鼻腔放松训练(结合慢板重读)、实时鼻腔放松训练(结合行板重读)。
基于ICF-RFT框架的嗓音音质障碍智能康复系统,对嗓音音质产生障碍的类型进行分类,包括:
(1)神经源性嗓音障碍:神经(源)性嗓音障碍通常指由神经性疾病导致的嗓音问题,呼吸、发声、共鸣和构音系统相关肌肉的肌肉控制和神经支配受损,或由于任何外周或中枢神经系统的损伤或疾病而导致的嗓音障碍,与神经源性嗓音障碍相关的医学诊断包括:声带麻痹、喉肌张力障碍、特发性震颤、帕金森病、亨廷顿病、重症肌无力、多发性硬化症、肌萎缩侧索硬化症、进行性核上麻痹、多系统萎缩和获得性脑损伤(脑外伤TBI、CVA)等。
(2)器质性嗓音障碍:由于发声器官的器质性病变导致的嗓音问题,包括发声器官的先天性异常、声带增生性病变、喉部肿瘤、喉部的炎性病变及声带的其他病变,如喉软骨软化症、声带小结、声带息肉、声带囊肿、声带瘢痕、喉白斑、声带任克水肿、喉部乳头状瘤、声带萎缩等。
(3)功能性嗓音障碍:嗓音系统(呼吸器官、发声器官和共鸣器官)不存在器质性或神经性病变,主要由于嗓音的滥用、误用或失用等引起嗓音的音调、响度、音质异常的一类嗓音产生障碍。
本发明提供了嗓音音质实时测量和视听反馈技术的嗓音治疗仪器,包括:实时处理单元、主控单元和实时嗓音音质视听反馈单元;所述实时处理单元用于实时获取用户产生言语嗓音时的基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、共振峰频率扰动、鼻流量、鼻口腔共鸣比数据;所述主控单元与所述实时处理单元连接,用于实时测量嗓音产生参数相关数据并判断用户存在的嗓音音质障碍,根据嗓音音质障碍的类型选择用于言语嗓音康复的康复内容和康复步骤;所述实时嗓音音质视听反馈单元与所述主控单元连接,所述实时嗓音音质视听反馈单元用于实时显示嗓音音质参数相关数据以及嗓音音质障碍的康复结果。
本发明提出的嗓音音质实时测量和视听反馈技术的嗓音治疗仪器中,所述主控单元中包括:康复模式和内容存储模块、神经性嗓音障碍康复步骤和执行模块和实时基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量测量判别模块;康复模式和内容存储模块用于存储康复过程中使用的基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量聚焦康复模式、基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量康复内容,及其基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量数据的实时反馈、增加基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量的训练内容;所述神经性嗓音障碍康复步骤和执行模块与所述康复模式和内容存储模块以及实时视听反馈单元连接,用于设置基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量康复模式与实时运行所述基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量康复内容;实时基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量测量判别模块与所述实时处理单元以及康复执行模块连接,用于实时判别用户产生言语嗓音时基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量的情况,并以此判断用户嗓音存在的嗓音音质障碍。
本发明还提出了嗓音音质实时测量和视听反馈技术的嗓音治疗方法,相关参数包括基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、鼻流量,使用前述嗓音治疗仪器,所述嗓音治疗方法包括:
步骤一:
所述实时基频微扰、幅度微扰、声门噪声能量测量单元实时测量用户的基频微扰、幅度微扰、声门噪声能量数据。基频微扰(Jitter)是指以稳定的嗓音进行发声时,声波频率的变化率,用于度量一个周期与它相邻的前几个周期,或者后几个周期的基频差异量,单位是%。它主要反映粗糙声(Rough)程度,其次是嘶哑声(Hoarse)程度,是衡量与振动源相关的嗓音质量的最佳指标之一。一般来说,正常值小于0.5%。声门噪声(NNE)是指嗓音产生过程中由于声门闭合不全导致漏气的扰动噪声能量,单位是分贝(dB)。它主要反映气息声(Breathy)程度,其次反映嘶哑声(Hoarse)程度,也是衡量与振动源相关的嗓音质量的最佳指标之一。一般来说,正常值小于-10dB。幅度微扰(Shimmer)是指以稳定的嗓音进行发声时声波振幅的变化率,用于度量一个周期与它相邻的前几个周期,或者后几个周期的幅度差异量,单位是%。它主要反映嘶哑声(Hoarse)程度。一般来说,正常值小于3%。声波幅度可通过测量声波的峰—峰值来获得。将数据实时发送至所述主控单元中的实时基频微扰、幅度微扰、声门噪声能量测量判别模块;
所述实时共振峰频率F2/i/、共振峰频率F2/u/测量单元实时测量用户的共振峰频率F2/i/、共振峰频率F2/u/数据。如果/u/的F2低于正常同龄同性别者数值或在正常范围内,表示舌向后运动能力良好;高于正常同龄同性别者数值,表示存在前位聚焦。如果/i/的F2高于正常同龄同性别者数值或在正常范围内,表示舌向前运动能力良好;低于正常同龄同性别者数值,表示存在后位聚焦。将数据实时发送至所述主控单元中的实时共振峰频率F2/i/、共振峰频率F2/u/测量判别模块;
所述实时鼻流量测量单元实时测量用户的鼻流量数据。鼻流量(NL)是指言语时鼻腔声压级N和输出声压级(口腔声压级O和鼻腔声压级N之和)的比值,单位是%。它主要反映言语时的鼻音能量,可以判断是否存在鼻音功能亢进或低下。a如果在功能亢进语料测试下的鼻流量超过同龄同性别者正常范围的上限,表示存在鼻音功能亢进;如果功能低下语料测试下的鼻流量没有达到同龄同性别者正常范围的下限,表示存在鼻音功能低下。将数据实时发送至所述主控单元中的实时鼻流量测量判别模块;
所述实时基频微扰判别模块根据所述基频微扰数据与基频微扰目标值及其相应范围进行判别,并将判别结果实时发送至所述神经性嗓音障碍康复步骤和执行模块;
所述实时幅度微扰判别模块根据所述幅度微扰数据与幅度微扰目标值及其相应范围进行判别,并将判别结果实时发送至所述神经性嗓音障碍康复步骤和执行模块;
所述实时声门噪声能量判别模块根据所述声门噪声能量数据与声门噪声能量目标值及其相应范围进行判别,并将判别结果实时发送至所述神经性嗓音障碍康复步骤和执行模块;
所述实时共振峰频率F2/i/判别模块根据所述共振峰频率F2/i/数据与共振峰频率F2/i/目标值及其相应范围进行判别,并将判别结果实时发送至所述神经性嗓音障碍康复步骤和执行模块;
所述实时共振峰频率F2/u/判别模块根据所述共振峰频率F2/u/数据与共振峰频率F2/u/目标值及其相应范围进行判别,并将判别结果实时发送至所述神经性嗓音障碍康复步骤和执行模块;
所述实时鼻流量判别模块根据所述鼻流量数据与鼻流量目标值及其相应范围进行判别,并将判别结果实时发送至所述神经性嗓音障碍康复步骤和执行模块;
步骤三:
所述神经性嗓音障碍康复步骤和执行模块根据所述判别结果,设置基频微扰康复模式,从所述康复模式和内容存储模块读取并执行所述基频微扰康复模式、基频微扰康复内容,将康复执行结果传输至所述实时基频微扰视听反馈单元;
所述神经性嗓音障碍康复步骤和执行模块根据所述判别结果,设置幅度微扰康复模式,从所述康复模式和内容存储模块读取并执行所述幅度微扰康复模式、幅度微扰康复内容,将康复执行结果传输至所述实时幅度微扰视听反馈单元;
所述神经性嗓音障碍康复步骤和执行模块根据所述判别结果,设置声门噪声能量康复模式,从所述康复模式和内容存储模块读取并执行所述声门噪声能量康复模式、声门噪声能量康复内容,将康复执行结果传输至所述实时声门噪声能量视听反馈单元;
所述神经性嗓音障碍康复步骤和执行模块根据所述判别结果,设置共振峰频率F2/i/康复模式,从所述康复模式和内容存储模块读取并执行所述共振峰频率F2/i/康复模式、共振峰频率F2/i/康复内容,将康复执行结果传输至所述实时共振峰频率F2/i/视听反馈单元;
所述神经性嗓音障碍康复步骤和执行模块根据所述判别结果,设置共振峰频率F2/u/康复模式,从所述康复模式和内容存储模块读取并执行所述共振峰频率F2/u/康复模式、共振峰频率F2/u/康复内容,将康复执行结果传输至所述实时共振峰频率F2/u/视听反馈单元;
所述神经性嗓音障碍康复步骤和执行模块根据所述判别结果,设置鼻流量康复模式,从所述康复模式和内容存储模块读取并执行所述鼻流量康复模式、鼻流量康复内容,将康复执行结果传输至所述实时鼻流量视听反馈单元;
步骤四:
所述实时基频微扰视听反馈单元实时显示所述基频微扰康复执行结果。
所述实时幅度微扰视听反馈单元实时显示所述幅度微扰康复执行结果。
所述实时声门噪声能量视听反馈单元实时显示所述声门噪声能量康复执行结果。
所述实时共振峰频率F2/i/视听反馈单元实时显示所述共振峰频率F2/i/康复执行结果。
所述实时共振峰频率F2/u/视听反馈单元实时显示所述共振峰频率F2/u/康复执行结果。
所述实时鼻流量视听反馈单元实时显示所述鼻流量康复执行结果。
其中,基频微扰实时测量和视听反馈技术的嗓音治疗方法,所述步骤二中进一步包括:
步骤a:所述实时基频微扰测量判别模块根据用户基频微扰数据转换为基频微扰限定值,对基频微扰损伤程度进行定性判别;
步骤b:所述实时基频微扰测量判别模块将所述用户信息以及基频微扰障碍类型信息发送至所述康复执行模块;
步骤c:所述实时基频微扰测量判别模块根据用户信息以及所述基频微扰数据与基频微扰聚焦限定值进行判别。
其中,幅度微扰实时测量和视听反馈技术的嗓音治疗方法,所述步骤二中进一步包括:
步骤a:所述实时幅度微扰测量判别模块根据用户幅度微扰数据转换为幅度微扰限定值,对幅度微扰损伤程度进行定性判别;
步骤b:所述实时幅度微扰测量判别模块将所述用户信息以及幅度微扰障碍类型信息发送至所述康复执行模块;
步骤c:所述实时幅度微扰测量判别模块根据用户信息以及所述幅度微扰数据与幅度微扰聚焦限定值进行判别。
其中,声门噪声能量实时测量和视听反馈技术的嗓音治疗方法,所述步骤二中进一步包括:
步骤a:所述实时声门噪声能量测量判别模块根据用户声门噪声能量数据转换为声门噪声能量限定值,对声门噪声能量损伤程度进行定性判别;
步骤b:所述实时声门噪声能量测量判别模块将所述用户信息以及声门噪声能量障碍类型信息发送至所述康复执行模块;
步骤c:所述实时声门噪声能量测量判别模块根据用户信息以及所述声门噪声能量数据与声门噪声能量聚焦限定值进行判别。
其中,共振峰频率F2/i/实时测量和视听反馈技术的嗓音治疗方法,所述步骤二中进一步包括:
步骤a:所述实时共振峰频率F2/i/测量判别模块根据用户共振峰频率F2/i/数据转换为共振峰频率F2/i/限定值,对共振峰频率F2/i/损伤程度进行定性判别;
步骤b:所述实时共振峰频率F2/i/测量判别模块将所述用户信息以及共振峰频率F2/i/障碍类型信息发送至所述康复执行模块;
步骤c:所述实时共振峰频率F2/i/测量判别模块根据用户信息以及所述共振峰频率F2/i/数据与共振峰频率F2/i/聚焦限定值进行判别。
其中,共振峰频率F2/u/实时测量和视听反馈技术的嗓音治疗方法,所述步骤二中进一步包括:
步骤a:所述实时共振峰频率F2/u/测量判别模块根据用户共振峰频率F2/u/数据转换为共振峰频率F2/u/限定值,对共振峰频率F2/u/损伤程度进行定性判别;
步骤b:所述实时共振峰频率F2/u/测量判别模块将所述用户信息以及共振峰频率F2/u/障碍类型信息发送至所述康复执行模块;
步骤c:所述实时共振峰频率F2/u/测量判别模块根据用户信息以及所述共振峰频率F2/u/数据与共振峰频率F2/u/聚焦限定值进行判别。
其中,鼻流量实时测量和视听反馈技术的嗓音治疗方法,所述步骤二中进一步包括:
步骤a:所述实时鼻流量测量判别模块根据用户鼻流量数据转换为鼻流量限定值,对鼻流量损伤程度进行定性判别;
步骤b:所述实时鼻流量测量判别模块将所述用户信息以及鼻流量障碍类型信息发送至所述康复执行模块;
步骤c:所述实时鼻流量测量判别模块根据用户信息以及所述鼻流量数据与鼻流量聚焦限定值进行判别。
本发明提出的基频微扰实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在基频微扰障碍或停止康复训练位置。
本发明提出的幅度微扰实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在幅度微扰障碍或停止康复训练位置。
本发明提出的声门噪声能量实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在声门噪声能量障碍或停止康复训练位置。
本发明提出的共振峰频率F2/i/实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在共振峰频率F2/i/障碍或停止康复训练位置。
本发明提出的共振峰频率F2/u/实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在共振峰频率F2/u/障碍或停止康复训练位置。
本发明提出的鼻流量实时测量和视听反馈技术的嗓音治疗方法中,步骤四之后进一步包括:重复执行步骤一至步骤四,直至用户的言语嗓音不存在鼻流量障碍或停止康复训练位置。
本发明的有益效果为:
本发明能够根据用户的嗓音音质障碍类型设置康复模式,从而智能选择康复治疗内容和康复步骤,操作简单方便,降低了嗓音音质障碍的治疗难度,能够根据不同性别、不同年龄段和嗓音音质损伤程度得出差异化的治疗方案。
附图说明
图1为本发明提出的基于ICF-RFT框架的嗓音音质障碍智能康复系统框图;
图2为本发明提出的b3101智能康复模块康复内容推送(四大阶段)以及实时监控系统框图;
图3为本发明提出的基频微扰ICF=1智能康复系统框图;
图4为本发明提出的幅度微扰(亢进)ICF=2智能康复系统框图;
图5为本发明提出的幅度微扰(低下)ICF=3智能康复系统框图;
图6为本发明提出的声门噪声能量ICF=4智能康复系统框图;
图7为本发明提出的共振峰频率F2/i/ICF=1智能康复系统框图;
图8为本发明提出的共振峰频率F2/u/ICF=2智能康复系统框图;
图9为本发明提出的鼻流量NL(亢进)ICF=3智能康复系统框图;
图10为本发明提出的鼻流量NL(低下)ICF=4智能康复系统框图;
图11为本发明提出的嗓音音质报告。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
在本发明实施例的技术方案中,本发明基频微扰实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时基频微扰视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的基频微扰数据。主控单元与实时处理单元连接,用于实时测量基频微扰数据并判断用户存在的基频微扰障碍,根据基频微扰障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时基频微扰视听反馈单元与主控单元连接,实时基频微扰视听反馈单元用于实时显示基频微扰数据以及基频微扰障碍的康复结果。
在本发明实施例的技术方案中,本发明幅度微扰实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时幅度微扰视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的幅度微扰数据。主控单元与实时处理单元连接,用于实时测量幅度微扰数据并判断用户存在的幅度微扰障碍,根据幅度微扰障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时幅度微扰视听反馈单元与主控单元连接,实时幅度微扰视听反馈单元用于实时显示幅度微扰数据以及幅度微扰障碍的康复结果。
在本发明实施例的技术方案中,本发明声门噪声能量实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时声门噪声能量视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的声门噪声能量数据。主控单元与实时处理单元连接,用于实时测量声门噪声能量数据并判断用户存在的声门噪声能量障碍,根据声门噪声能量障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时声门噪声能量视听反馈单元与主控单元连接,实时声门噪声能量视听反馈单元用于实时显示声门噪声能量数据以及声门噪声能量障碍的康复结果。
在本发明实施例的技术方案中,本发明共振峰频率F2/i/实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时共振峰频率F2/i/视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的共振峰频率F2/i/数据。主控单元与实时处理单元连接,用于实时测量共振峰频率F2/i/数据并判断用户存在的共振峰频率F2/i/障碍,根据共振峰频率F2/i/障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时共振峰频率F2/i/视听反馈单元与主控单元连接,实时共振峰频率F2/i/视听反馈单元用于实时显示共振峰频率F2/i/数据以及共振峰频率F2/i/障碍的康复结果。
在本发明实施例的技术方案中,本发明共振峰频率F2/u/实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时共振峰频率F2/u/视听反馈单元。实时处理单元1用于实时获取用户产生言语嗓音时的共振峰频率F2/u/数据。主控单元与实时处理单元连接,用于实时测量共振峰频率F2/u/数据并判断用户存在的共振峰频率F2/u/障碍,根据共振峰频率F2/u/障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时共振峰频率F2/u/视听反馈单元与主控单元连接,实时共振峰频率F2/u/视听反馈单元用于实时显示共振峰频率F2/u/数据以及共振峰频率F2/u/障碍的康复结果。
在本发明实施例的技术方案中,本发明鼻流量实时测量和视听反馈技术的嗓音治疗仪器包括实时处理单元、主控单元和实时鼻流量视听反馈单元。实时处理单元用于实时获取用户产生言语嗓音时的鼻流量数据。主控单元与实时处理单元连接,用于实时测量鼻流量数据并判断用户存在的鼻流量障碍,根据鼻流量障碍的类型选择用于言语嗓音康复的康复内容和康复步骤。实时鼻流量视听反馈单元与主控单元连接,实时鼻流量视听反馈单元用于实时显示鼻流量数据以及鼻流量障碍的康复结果。
通过用户测量嗓音音质数据,进行分析并与常模数据库比较,该数据库当中包含了不同性别、各年龄段(4、5、6、7、8、9、10、11、12、13、14、15、16、17岁各段,18-99岁合为成人段,共15段)的归一化后的嗓音音质均值、嗓音音质标准差、嗓音音质限定值(0、1、2、3、4)。
具体而言,实时处理单元1包括单通道低通滤波器、电声门图仪和麦克风,实时处理单元对于所采集的言语嗓音的增益共四档:25dB、30dB、35dB、40dB,每档误差:±1.0dB(100Hz-700Hz基频范围)。单通道低通滤波器所采用的低通频率共三档5kHz、10kHz、20kHz。选择5kHz档:当输入信号频率5.5kHz时,最大衰减≥50dB;选择10kHz档:当输入信号频率为11Hz时,最大衰减≥50dB。选择20kHz档:输入信号频率为22kHz时,最大衰减≥50dB。当无信号输入时,静止噪声≤1mV。
参见图1,主控单元2中包括:康复模式和内容存储模块21、神经性嗓音障碍康复步骤和执行模块22和实时嗓音音质参数测量判别模块23。康复模式和内容存储模块21用于存储康复过程中使用的嗓音音质参数聚焦康复模式、嗓音音质参数康复内容,及其嗓音音质参数数据的实时反馈、减少嗓音音质参数训练(唤醒、诱导,增加响度/音调、自反馈)、增加嗓音音质参数训练(唤醒、诱导、升降调、自反馈)内容。内容包括用于播放的音频素材、用于显示的静态图像素材和/或动态影像素材、以及用于显示的文字和/或数字等。神经性嗓音障碍康复步骤和执行模块22与康复模式和内容存储模块21以及实时视听反馈单元连接,用于设置嗓音音质参数康复模式与实时运行嗓音音质参数康复内容。实时嗓音音质参数测量判别模块23与实时处理单元1以及康复执行模块连接,用于实时判别用户产生言语嗓音时嗓音音质参数情况,并以此判断用户嗓音存在的嗓音音质障碍。实时嗓音音质参数测量判别模块23基于嗓音音质参数数据以及相应的嗓音音质聚焦限定值对嗓音音质聚焦类型进行判断。
具体而言,对于同性别的每个年龄段(男、女各15段),判别嗓音音质功能亢进的损伤程度公式:嗓音音质均值+嗓音音质均值*嗓音音质限定值;用于判别嗓音音质功能低下的损伤程度公式:嗓音音质均值-嗓音音质均值*嗓音音质限定值;基于上述公式,嗓音音质精准评估模块21能够判别嗓音音质障碍类型,具体为嗓音音质功能低下、嗓音音质功能亢进。
实施例1:首先根据用户的信息建立档案(见档案表),然后指导用户以尽可能响的状态发/ae——/并维持稳定数秒,通过对其嗓音音质信号进行分析可从中获得用户的基频震颤数据,经评估的嗓音音质报告参见图11所示,具体而言,嗓音音质功能方面,该患者(45岁女性)存在神经性嗓音障碍。
档案表:
/>
言语方面:
后位聚焦,共振峰频率F2/i/为1719Hz,重度损伤;
前位聚焦,共振峰频率F2/u/为956.8Hz,中度损伤。
嗓音方面:
1、声门闭合:
中度气息声,声门噪声NNE为-7.21dB
2、声带振动规律性:
中度粗糙声,基频微扰Jitter为1.54%
中度嘶哑声,幅度微扰Shimmer为7.47%;
针对上述障碍,神经性嗓音障碍康复步骤和执行模块22给出建议和执行方式,具体如下:1、实时反馈治疗,选择如音调实时反馈训练、响度实时反馈训练等治疗方法;2、传统治疗,选择如颈部放松训练、生理腹式呼吸训练、呼吸放松训练、嗯哼法、数数法、缓慢平稳呼气法、声带放松训练、啭音法、甩臂后推法、张嘴法、乐调匹配法、音调梯度训练、吟唱法等治疗方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (5)

1.基于ICF-RFT框架的嗓音音质障碍智能康复系统,系统结构包括:实时嗓音音质信号检测处理单元(1)、主控单元(2)、实时视听触觉反馈单元(3)、康复云平台(4)、移动康复学习机(5)、移动智能筛查仪(6),其特征在于:所述实时嗓音音质信号检测处理单元(1)用于实时检测处理用户嗓音音质信号的数据;
所述主控单元(2)与实时嗓音音质信号检测处理单元(1)连接,用于基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、共振峰频率扰动、鼻流量、鼻口腔共鸣比8个参数相关模块的精准评估和康复训练,贯穿功能评估、计划制定、实施治疗以及疗效评价整个过程;
所述实时视听触觉反馈单元(3)与主控单元(2)连接,采用实时视听触觉反馈技术用于实时显示与反馈嗓音音质康复结果与相关信息;所述康复云平台(4)通过互联网与主控单元(2)连接,用于数据共享;所述移动康复学习机(5)与康复云平台(4)连接,用于布置康复作业,实现康复训练普及化;所述移动智能筛查仪(6)与实时嗓音音质信号检测处理单元(1)连接用于综合检查,通过互联网与为康复云平台(4)连接获得ICF功能损伤平均值为嗓音音质精准评估与实时监控单元(21)提供分流。
2.根据权利要求1所述的基于ICF-RFT框架的嗓音音质障碍智能康复系统,其特征在于,所述主控单元(2)包括嗓音音质精准评估与实时监控单元(21)、康复模式和执行康复步骤单元(22)、ICF转换单元(23)以及嗓音音质四大阶段康复内容推送单元(24),其中嗓音音质精准评估与实时监控单元(21)数据进行精准评估与实时监控,判别是否存在嗓音音质障碍,判别嗓音音质障碍类型;康复模式和执行康复步骤单元(22)设置康复模式和执行康复步骤;ICF转换单元(23)对精准评估与实时监控的数据进行ICF转换;嗓音音质四大阶段康复内容推送单元(24)选择四大阶段康复内容推送。
3.根据权利要求1所述的基于ICF-RFT框架的嗓音音质障碍智能康复系统,其特征在于,所述实时嗓音音质信号检测处理单元(1)用于实时获取用户嗓音音质信号的数据,嗓音音质的数据通过麦克风连接单通道低通滤波器、双通道低通滤波器,和/或通过电声门图来获得。
4.根据权利要求3所述的基于ICF-RFT框架的嗓音音质障碍智能康复系统,其特征在于,对输入的嗓音音质信号进行分析数据误差控制、响应速率误差控制,其主要技术参数指标如下:
a)频率误差:±2%;
b)电压误差:±3%;
c)基频实时响应速率:≤6ms。
d)LPC实时响应速率:≤45ms(LPC:线性预测谱);
e)语谱图实时分辨率:
窄带(60Hz):12.7ms±4%;
中带(120Hz):12.7ms±4%;
宽带(240Hz):12.7ms±4%。
5.根据权利要求1所述的基于ICF-RFT框架的嗓音音质障碍智能康复系统,其特征在于,所述实时嗓音音质信号检测处理单元(1)包括b3101综合检查模块:通过嗓音音质信号获得基频微扰、声门噪声能量、幅度微扰3个测量值;对于每个客观测量值进行ICF损伤程度转换,获得嗓音音质ICF平均值;
所述主控单元(2)中的b3101智能康复模块,包括基频微扰、幅度微扰、声门噪声能量、共振峰频率F2/i/、共振峰频率F2/u/、共振峰频率扰动F2f、鼻流量、鼻口共鸣比NOR共8个模块,其中每个模块包括:精准评估、损伤程度转换及其康复内容推送和实时监控。
CN202310969104.2A 2023-08-03 2023-08-03 基于icf-rft框架的嗓音音质障碍智能康复系统 Pending CN116831533A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310969104.2A CN116831533A (zh) 2023-08-03 2023-08-03 基于icf-rft框架的嗓音音质障碍智能康复系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310969104.2A CN116831533A (zh) 2023-08-03 2023-08-03 基于icf-rft框架的嗓音音质障碍智能康复系统

Publications (1)

Publication Number Publication Date
CN116831533A true CN116831533A (zh) 2023-10-03

Family

ID=88169091

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310969104.2A Pending CN116831533A (zh) 2023-08-03 2023-08-03 基于icf-rft框架的嗓音音质障碍智能康复系统

Country Status (1)

Country Link
CN (1) CN116831533A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117976141A (zh) * 2024-04-01 2024-05-03 四川大学华西医院 一种基于声学分析算法的嗓音康复分析方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117976141A (zh) * 2024-04-01 2024-05-03 四川大学华西医院 一种基于声学分析算法的嗓音康复分析方法及系统

Similar Documents

Publication Publication Date Title
Saggio et al. Worldwide healthy adult voice baseline parameters: a comprehensive review
EP3954278A1 (en) Apnea monitoring method and device
Lopez et al. Acoustic, aerodynamic, and perceptual analyses of the voice of cochlear-implanted children
CN116831533A (zh) 基于icf-rft框架的嗓音音质障碍智能康复系统
Colton et al. Measuring vocal fold function
Brockmann-Bauser Improving jitter and shimmer measurements in normal voices
Ball et al. Methods in clinical phonetics
KR20230017135A (ko) 기계학습 음성기술에 기반한 어려운 기도 평가 방법 및 장치
CN113496696A (zh) 一种基于语音识别的言语功能自动评估系统和方法
Munson A method for studying variability in fricatives using dynamic measures of spectral mean
Leeper Jr et al. Consistency of laryngeal airway resistance in adult women
Santoni et al. Influence of voice focus adjustments on oral-nasal balance in speech and song
CN106782616A (zh) 一种通过人声分析检测呼吸道的方法
Mautner A cross-system instrumental voice profile of the aging voice: With considerations of jaw posture effects
McGlashan Evaluation of the Voice
CN117137436A (zh) 基于icf-rft框架的嗓音产生障碍智能康复系统
Case Technology in the assessment of voice disorder
Tan Contact quotient of female singers singing four pitches for five vowels in normal and pressed phonations
Werner et al. Acoustics of breath noises in human speech: Descriptive and three-dimensional modeling approaches
Nieman The Effect of Breathy and Strained Vocal Quality on Vowel Perception
CN117323538A (zh) 基于icf-pct框架的神经性言语障碍构音韵律智能康复系统
Brzdęk et al. Laryngograph as a tool in diagnosis of voice and speech process disorders
CN1147334C (zh) 超声喉疗声教系统
Dejonckere Voice evaluation and respiratory function assessment
RU2738660C1 (ru) Способ диагностики и реабилитации пациентов с нарушениями голосо-речевой функции

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination