CN115066716A - 口腔功能可视化系统、口腔功能可视化方法及程序 - Google Patents

口腔功能可视化系统、口腔功能可视化方法及程序 Download PDF

Info

Publication number
CN115066716A
CN115066716A CN202180013561.3A CN202180013561A CN115066716A CN 115066716 A CN115066716 A CN 115066716A CN 202180013561 A CN202180013561 A CN 202180013561A CN 115066716 A CN115066716 A CN 115066716A
Authority
CN
China
Prior art keywords
oral
user
sound
state
organ
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180013561.3A
Other languages
English (en)
Inventor
松村吉浩
中岛绚子
石丸雅司
清崎若正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN115066716A publication Critical patent/CN115066716A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/75Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 for modelling vocal tract parameters

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Business, Economics & Management (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Dentistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

口腔功能可视化系统(10)具备:输出部(11),进行用来敦促用户(2)以规定的声音发声的输出;取得部(12),取得与输出对应的用户(2)的发声声音;解析部(15),解析取得部(12)所取得的发声声音;以及推断部(16),根据解析部(15)解析发声声音的结果,推断用户(2)的口腔器官的状态;输出部(11)基于推断部(16)推断出的用户(2)的口腔器官的状态,输出用于用户(2)实现适合于以规定的声音发声的口腔器官的状态的信息。

Description

口腔功能可视化系统、口腔功能可视化方法及程序
技术领域
本发明涉及口腔功能可视化系统及口腔功能可视化方法。
背景技术
为了老年人等的口腔功能下降的人群,进行使口开闭的训练或用来练习强化吞咽功能的发音的口腔操(日语:パタカラ体操)等。在专利文献1中,公开了利用使映照有用户的脸等的视图显示在显示器上的利用反射的扩展现实系统等。
现有技术文献
专利文献
专利文献1:日本特表2019-511067号公报
发明内容
发明要解决的课题
但是,专利文献1所公开的利用反射的扩展现实系统等不能基于用户的发音进行用户的口腔内部的可视化。
因此,本公开的目的在于提供一种能够基于用户的发音进行用户的口腔内部的可视化的口腔功能可视化系统、口腔功能可视化方法及程序。
用来解决课题的手段
有关本发明的一方式的口腔功能可视化系统具备:输出部,进行用于敦促用户以规定的声音发声的信息的输出;取得部,取得与上述输出对应的上述用户的发声声音;解析部,对上述取得部所取得的上述发声声音进行解析;以及推断部,根据上述解析部解析上述发声声音的结果,推断上述用户的口腔器官的状态;上述输出部基于上述推断部推断出的上述用户的上述口腔器官的状态,输出用于上述用户实现适合于以上述规定的声音发声的上述口腔器官的状态的信息。
有关本发明的一方式的口腔功能可视化方法包括:第1输出步骤,进行用于敦促用户以规定的声音发声的信息的输出;取得步骤,取得与上述输出对应的上述用户的发声声音;解析步骤,对在上述取得步骤中取得的上述发声声音进行解析;推断步骤,根据在上述解析步骤中解析上述发声声音的结果,推断上述用户的口腔器官的状态;以及第2输出步骤,基于在上述推断步骤中推断出的上述用户的上述口腔器官的状态,输出用于上述用户实现适合于以上述规定的声音发声的上述口腔器官的状态的信息。
有关本发明的一方式的程序使计算机执行口腔功能可视化方法,上述口腔功能可视化方法包括:第1输出步骤,进行用于敦促用户以规定的声音发声的信息的输出;取得步骤,取得与上述输出对应的上述用户的发声声音;解析步骤,对在上述取得步骤中取得的上述发声声音进行解析;推断步骤,根据在上述解析步骤中解析上述发声声音的结果,推断上述用户的口腔器官的状态;以及第2输出步骤,基于在上述推断步骤中推断出的上述用户的上述口腔器官的状态,输出用于上述用户实现适合于以上述规定的声音发声的上述口腔器官的状态的信息。
发明效果
有关本发明的一方式的口腔功能可视化系统等能够基于用户的发音进行用户的口腔内部的可视化。
附图说明
图1是表示根据人发出的声音取得的特征量的图。
图2是表示人的口腔内部的结构的图。
图3是表示本公开的实施方式的口腔功能可视化系统的结构的框图。
图4是本公开的实施方式的口腔功能可视化系统的动作的流程图。
图5是表示共振峰元音与口腔内部的状态的关系的图。
图6是表示在口腔功能的训练中使用的词语的例子和其发音的波形的例子的图。
图7是表示发音特定的辅音时口腔内部的状态的例子的图。
图8是表示在口腔功能的训练中使用的词语的发音的波形的例子的图。
图9是表示发音特定的音时口腔内部的状态的例子的图。
图10是表示本公开的实施方式的口腔功能可视化系统的输出例的图。
图11是表示在本公开的实施方式的口腔功能可视化系统中使用的将图像数据与声音特征量建立了关联的数据的例子的图。
图12是表示本公开的实施方式的与摄食吞咽的过程对应的运动图像显示的内容的表。
具体实施方式
以下,参照附图对实施方式进行说明。另外,以下说明的实施方式均表示包含性或具体的例子。在以下的实施方式中表示的数值、形状、材料、构成要素、构成要素的配置位置及连接形态等是一例,而并不是限定本发明。此外,关于以下实施方式的构成要素中的在独立权利要求中没有记载的构成要素,作为任意的构成要素进行说明。
另外,各图是示意图,并不一定进行严密地图示。此外,在各图中对于实质上相同的构成赋予相同的标号,存在省略或简略重复的说明的情况。
(实施方式1)
[声音特征量及口腔内部的构造]
图1是表示从声音取得的特征量的图。从声音取得第一共振峰频率、第二共振峰频率、声压相对差及讲话的速度作为特征量。在将声音数据的横轴变换为频率而得到的数据中,确认有多个峰值。多个峰值之中的频率最低的峰值的频率是第一共振峰频率F1。此外,第一共振峰频率F1的下个频率较低的峰值的频率是第二共振峰频率F2。此外,第二共振峰频率F2的下个频率较低的峰值的频率是第三共振峰频率F3。各个频率可以通过以下的方法来得到:提取根据已知的方法发音的声音的元音部分,将提取出的元音部分的声音数据进行数据变换成为对应于频率的振幅,从而计算元音部分的频谱。
在图1表示了第一共振峰频率及第二共振峰频率的例子。图1表示了发音“えをかくことにきめた”的词语时的例子。
已知第一共振峰频率是从人的声音的低频率侧数振幅最小的振幅的峰值频率,容易反映受舌的运动(特别是上下运动)影响的声音的特征。除此以外,还已知第一共振峰频率容易反映受颚的打开影响的声音的特征。
已知第二共振峰频率是从人的声音的低频率侧数第两个出现的振幅的峰值频率,容易反映声带音源在声道、口唇及舌等的口腔、鼻腔等发生的共鸣之中的关于舌的位置(特别是前后位置)的影响。此外,例如由于在不存在牙齿的情况下不能正确地发声,因此可以想到准备期的牙齿的咬合状态(牙齿的数量)对第二共振峰频率有影响。此外,例如由于在唾液较少的情况下不能正确地发声,因此可以想到准备期的唾液的分泌功能对第二共振峰频率有影响。另外,舌的运动功能、唾液的分泌功能或牙齿的咬合状态(牙齿的数量)根据从第一共振峰频率得到的特征量及从第二共振峰频率得到的特征量中的任一特征量计算都可以。
此外,第二共振峰频率主要表示发音时舌的前后运动。此外,在图1中还表示了声压相对差及讲话的速度的例子。在发音中,声压相对差主要表示舌的运动的强度。此外,讲话的速度表示舌的灵巧性。
在图1所示的曲线图中,可以确认与“え”、“を”、“か”、“く”、“こ”、“と”、“に”、“き”、“め”、“た”对应的声压的变化。以下说明的口腔功能可视化系统取得图1所示的数据作为表示用户的发音的声音数据。口腔功能可视化系统例如通过已知的方法,计算图1所示的声音数据中包含的“と(to)”的“t”及“o”的各声压、“た(ta)”的“t”及“a”的各声压。此外,口腔功能可视化系统10计算“と(to)”的“t”及“o”的各声压作为特征量。
这样,口腔功能可视化系统从用户发音的声音提取各种特征量。
接着,对口腔功能可视化系统10再现用户2的口腔内部时使用的口腔内部的结构进行说明。图2是表示人的口腔内部的结构的图。如图2所示,口腔以距外部较近的顺序,有上唇、下唇、牙齿、齿龈、舌尖。从舌尖朝向口腔的里侧,接着有舌端、前舌、后舌及舌根。此外,从齿龈起,接着有硬腭齿龈、齿龈硬腭、硬腭、软腭及悬雍垂。口腔功能可视化系统10将这里列举的部位分别模型化,对用户2的发音进行解析,再现各个部位的位置。再现也可以不对口腔内部的全部的部位进行,也可以对口腔内部的一部分的部位进行。
[口腔功能可视化系统的结构]
图3是表示本公开的实施方式的口腔功能可视化系统10的结构的框图。口腔功能可视化系统10具备输出部11、取得部12、控制部13、存储部14、解析部15及推断部16。
输出部11将解析部15解析出的用户2的发音的声音特征量等的数据、或推断部16推断出的用户2的口腔内部的再现图像等向画面输出。输出部11通过显示器等的能够将图像显示在画面上的终端和处理器、微型计算机或专用电路来实现。终端也可以是平板电脑终端或智能电话。此外,口腔功能可视化系统10在向纸面输出用户的口腔状态等的情况下,终端也可以是打印机等。此外,输出部11也可以不仅具备进行图像显示的功能,还具备能够由扬声器等将实现的声音输出的功能。此外,输出部11生成表示推断部16推断出的用户2的口腔状态的图像。输出部11生成用于用户2实现适合于以规定的声音发声的口腔器官的状态的信息,该信息例如也可以是指示舌或唇等的运动方式的词语等。或者,输出部11也可以生成敦促进行用来达成适合于以规定的声音发声的口腔器官的状态的训练的信息。
取得部12取得通过麦克风等非接触方式将用户2发声的声音集音而得到的声音数据。该声音是用户2发出了规定的音节、规定的语句或词语的声音。此外,也可以是取得部12还取得用户2的个人信息。例如,个人信息是输入到便携终端等的信息,是年龄、体重、身高、性别、BMI(Body Mass Index、体重指数)、齿科信息(例如,牙齿的数量、假牙的有无、咬合支承的部位等)、血清蛋白值或进食率等。取得部12将所取得的声音等数据向控制部13中包含的解析部15发送。此外,取得部12例如是进行有线通信或无线通信的通信接口。
控制部13包括输出部11、解析部15及推断部16。控制部13具体而言通过处理器、微型计算机或专用电路来实现。
存储部14存储表示适合于用户2以规定的声音发声的口腔器官的状态的信息。此外,存储部14也可以存储:取得部12所取得的用户2发出的声音的声音数据;解析部15解析出的用户2的发音的声音特征量等的数据;用户2的个人信息;以及输出部11、取得部12、控制部13、解析部15及推断部16执行的程序等。存储部14例如通过ROM(Read Only Memory、只读存储器)、RAM(Random Access Memory、随机存取存储器)、半导体存储器、HDD(Hard DiskDrive、硬盘驱动器)等来实现。
解析部15解析取得部12所取得的用户2的发声声音。解析部15也可以从用户2的发声声音例如如在图1中说明那样,解析第一共振峰频率、第二共振峰频率、声压相对差及讲话的速度等声音特征量。解析部15具体而言通过处理器、微型计算机或专用电路来实现。
推断部16根据解析部15解析发声声音的结果推断用户2的口腔器官的状态。推断部16根据用户2的发声声音,例如基于在图2中说明的口腔内的部位,推断用户2的口腔状态。具体而言,推断部16也可以推断舌端、前舌、后舌在口腔内的位置或者上唇及下唇的位置关系等。推断部16具体而言通过处理器、微型计算机或专用电路来实现。
[口腔功能可视化系统的处理次序]
接着,对口腔功能可视化系统10执行的处理进行说明。
图4是本公开的实施方式的口腔功能可视化系统的动作的流程图。
首先,输出部11将用来敦促用户2以规定的声音发声的信息向画面输出(步骤S100)。例如,输出部11既可以输出表示用于用户2进行发音的例文或单词的图像,也可以输出表示用于用户2进行发音的例文或单词的声音。例如,输出部11既可以输出表示“えをかくことにきめた”这样表示例文的字符串,也可以输出表示“から”、“さら”等的音节的字符串,也可以将表示“いっぱい”、“いっかい”、“いったい”等单词的字符串向画面输出。
另外,存储部14也可以事前存储表示口腔器官的状态的信息。例如,存储部14存储表示与规定的声音特征量建立了关联的口腔器官的状态的图像即口腔状态数据。有关表示与规定的声音特征量建立了关联的口腔器官的状态的图像的数据将在后面叙述。
接着,取得部12取得用户2的发声声音(步骤S101)。取得部12经由麦克风等取得用户2的发声声音。
接着,解析部15解析取得部12所取得的用户2的发声声音(步骤S102)。解析部15解析用户2的发声声音,提取声音特征量。例如,解析部15通过解析用户2的发声声音,从而提取第一共振峰频率、第二共振峰频率及声压相对差等作为声音特征量。
接着,推断部16根据解析部15解析出的用户2的发声声音的声音特征量,推断用户2的口腔器官的状态(步骤S103)。推断部16例如推断用户2的口的开闭状态或用户2的舌端、前舌、后舌及舌根各自的位置。
接着,输出部11将用于用户2实现适合于以规定的声音发声的口腔器官的状态的信息向画面或扬声器等输出(步骤S104)。这里,规定的声音是表示在步骤S100中输出部11对用户2提示以使其发音的词语等的声音。输出部11也可以输出表示推断部16推断出的用户2的口腔器官的状态的图、以及表示适合于发出规定的声音的口腔器官的状态的图,作为用于用户2实现适合于以规定的声音发声的口腔器官的状态的信息。此外,输出部11也可以将表示推断部16推断出的用户2的口腔器官的状态的词语、以及表示适合于发出规定的声音的口腔器官的状态的词语以声音或字符串等方式输出,作为用于用户2实现适合于以规定的声音发声的口腔器官的状态的信息。此时,输出部11也可以输出将推断部16推断出的用户2的口腔器官的状态与适合于发出规定的声音的口腔器官的状态比较的结果。此外,输出部11也可以将用于实现适合于发出规定的声音的口腔器官的状态的建议作为声音或字符串、图等输出,作为用于用户2实现适合于以规定的声音发声的口腔器官的状态的信息。
[共振峰元音与口腔的关系]
图5是表示共振峰元音与口腔内部的状态的关系的图。如图5所示,第一共振峰频率(由F1表示)与口的开闭状态相关,第二共振峰频率(由F2表示)与口腔器官内舌的位置相关。具体而言,在口闭合的状态下,当舌的位置处于前方时,为い(i)的发音。此外,在口半闭合的状态下,当舌的位置处于前方时,为え(e)的发音。接着,在口张开的状态下,当舌的位置处于中央时,为あ(a)的发音。并且,在口闭合的状态下,当舌的位置处于后方时,为う(u)的发音。此外,在口半闭合的状态下,当舌的位置处于后方时,为お(o)的发音。
此外,当舌处于前方时,以い(i)、え(e)及あ(a)的发音的顺序,第一共振峰频率较高。此外,当舌处于后方时,与う(u)的发音时相比,お(o)的发音时第一共振峰频率较高。
此外,当口闭合时,与う(u)的发音时相比,い(i)的发音时第二共振峰频率较高。并且,当口半闭合时,与お(o)的发音时相比,え(e)的发音时第二共振峰频率较高。
[发音的解析和可视化的例子]
图6是表示在口腔功能的训练中使用的词语的例子和其发音的波形的例子的图。如图6所示,口腔功能可视化系统10例如使用户2发音“いっぱい”、“いったい”、以及“いっかい”这样的词语。如图6的(a)、(b)及(c)所示,曲线图中的由Diff表示的地方表示唇或舌处于闭塞状态。此外,如图6的(a)、(b)及(c)所示,曲线图中的由Time表示的地方表示唇或舌的闭塞时间。当曲线图的波形处于比基准线靠上方时,判断为声音是规定以上的强度。
图7是表示发音特定的辅音时口腔内部的状态的例子的图。首先,对口腔功能可视化系统10使用户2发音“いっぱい”的词语的情况进行说明。在“いっぱい”的词语中包含有辅音p。所以,如图7的(a)图示那样,口腔功能可视化系统10解析用户2是否能够在使唇完全闭合后如使空气破裂那样发音。此外,在口腔功能可视化系统10使用户2发音了“いったい”的词语时,口腔功能可视化系统10也可以特别强调唇部分的动作而将用户2的口腔器官的状态可视化。
接着,对口腔功能可视化系统10使用户2发音“いったい”的词语的情况进行说明。在“いっぱい”的词语中包含有辅音t。所以,如图7的(b)图示那样,口腔功能可视化系统10解析用户2是否能够在将舌完全抵接在口腔上部的齿龈之后如将舌弹开那样发音。此外,在口腔功能可视化系统10使用户2发音了“いったい”的词语时,口腔功能可视化系统10也可以特别强调舌尖部分的动作而将用户2的口腔器官的状态可视化。
接着,对口腔功能可视化系统10使用户2发音“いっかい”的词语的情况进行说明。在“いっかい”的词语中包含有辅音k。因此,如图7的(c)图示那样,口腔功能可视化系统10解析用户2是否能够在将后舌完全抵接于口腔上部的硬腭或软腭而将空气的通道关闭后如将空气的通道打开那样发音。此外,口腔功能可视化系统10使用户2发音了“いっかい”的词语时,口腔功能可视化系统10也可以特别强调后舌部分的动作而将用户2的口腔器官的状态可视化。
图8是表示在口腔功能的训练中使用的词语的发音的波形的例子的图。这里,对口腔功能可视化系统10使用户2发音“から”及“さら”的词语的情况进行说明。如图8所示,在发音“から”或“さら”的情况下,可观测到双凸起的山状的波形。在该双凸起的山那样的波形的凸起的部分被观测到平稳的波形的情况下,解释为不能良好地发音“か”或“さ”。另外,如果观测到比基准线高的波形,则解释为音量是规定以上。
例如,在由用户2发音了“から”的词语的情况下,呈现图9的(a)及(b)所示那样的口腔器官的状态。由于在“ka”的发音中需要后舌抵接于口腔上部的硬腭或软腭,所以在用户2能够完全发音“ka”的情况下,呈现后舌抵接于口腔上部的硬腭或软腭的图。相对于此,在用户2不能完全发音“ka”的情况下,呈现后舌没有抵接于口腔上部的硬腭或软腭、而在舌与硬腭或软腭之间隔开间隙的图。
此外,例如在由用户2发音了“さら”的词语的情况下,呈现图9的(c)及(d)所示那样的口腔器官的状态。由于在“sa”的发音中需要舌尖抵接于口腔上部的齿龈,所以在用户2能够适当地发音“sa”的情况下,呈现舌尖抵接于口腔上部的齿龈的图。相对于此,在用户2不能完全发音“sa”的情况下,呈现舌尖没有抵接于口腔上部的齿龈、而在舌与齿龈之间隔开间隙的图。此外,在进行“sa”的发音的情况下,需要唇张开,呈现在上唇及下唇之间隔开间隙的图。
[口腔功能可视化系统的输出例]
图10是表示本发明的实施方式的口腔功能可视化系统的输出例的图。图示了表示根据用户2发出的声音推断的用户2的口腔器官的状态、以及口腔功能可视化系统10用于发音使用户2发音的词语的理想的口腔器官的状态。上述两个状态既可以分别使用两个图表示,也可以使用1个图表现。此外,在口腔功能可视化系统10输出的图中,也可以描绘表示用来改善用户2的口腔器官的位置的方向等的箭头等的图形。除此以外,口腔功能可视化系统10也可以显示表示用来改善用户2的口腔器官的位置的方向等的语句,也可以将敦促用户2进一步进行发音练习的文本等显示在画面上。
例如,口腔功能可视化系统10在使用户2发音特定的词语后,推断与用户2所发音的音节对应的用户2的口腔器官的状态,用图或词语显示。口腔功能可视化系统10推断用户2的口的开闭状态或者用户2的舌端、前舌、后舌及舌根各自的位置,用图或词语显示在画面上。该推断也可以按照用户2所发音的每音节来进行。同时,口腔功能可视化系统10也可以将发音使用户2发音的词语时的理想的口腔器官的状态用图或词语显示在画面上。具体而言,口腔功能可视化系统10将表示虽然舌端朝向了齿龈的方向但没有接触于齿龈的状态的图显示在画面上,作为与用户2发音的音节对应的用户2的口腔器官的状态。并且,口腔功能可视化系统10图示舌端更接近于齿龈的状态,作为发音使用户2发音的词语时的理想的口腔器官的状态。也可以同时图示表示使舌整体向上方移动的朝上的箭头。同时,也可以将“请将舌再稍稍抬起。”这样的表示用来改善用户2的口腔器官的位置的方向等的语句显示在画面上。此外,作为敦促用户2进一步进行发音练习的语句等,也可以将“再练习1次试试看。”这样的语句显示在画面上。另外,这里被说明为显示在画面上的词语等也可以用声音朗读出。
这样,口腔功能可视化系统10输出用户2能够实现理想的发音的口腔器官的状态的图或词语。
[在口腔功能可视化系统中使用的图像数据的例子]
接着,说明口腔功能可视化系统10为了推断并可视化用户2的口腔器官的状态而使用的数据。图11是表示在本公开的实施方式的口腔功能可视化系统中使用的图像数据与声音特征量建立了关联的数据的例子的图。
口腔功能可视化系统10在存储部14中存储表示与规定的声音特征量建立了关联的口腔器官的状态的图像即口腔状态数据。例如,作为与第一共振峰频率为768Hz、第二共振峰频率为1306Hz、第三共振峰频率为2552Hz的“a”这一声音对应的数据,在存储部14中存储有图像A。这里,保存与被分类为“a”的音之中第一共振峰频率、第二共振峰频率、第三共振峰频率的各种组合的音对应的图像数据。关于其他种类的元音及辅音也是同样。此外,这里采用第一共振峰频率、第二共振峰频率及第三共振峰频率作为声音特征量,但也可以使用其他种类的声音特征量。
并且,口腔功能可视化系统10从输出部11输出与作为解析部15解析发声声音的结果而得到的声音特征量对应的口腔状态数据。口腔功能可视化系统10选择与最接近于发声声音的声音特征量的声音特征量对应的口腔状态数据(例如图像数据)并输出。口腔功能可视化系统10也可以将多个口腔状态数据连续地显示并作为运动图像输出。
[摄食吞咽的评价中的应用]
口腔功能可视化系统10能够应用于摄食吞咽的评价及摄食吞咽功能的提高等。
首先,对摄食吞咽的过程进行说明。摄食吞咽功能是为了达成识别食物、取入口中、接着达到胃为止的一系列的过程所需要的人体的功能。摄食吞咽功能由前期(先行期)、准备期、口腔期、咽部期及食道期的5个阶段构成。
在摄食吞咽中的前期(也称作认知期),判断食物的形状、硬度及温度等。前期的摄食吞咽功能例如是眼睛的辨识功能等。在前期,认知食物的性质及状态,调整好食用方式、唾液分泌及姿势之类的摄食所需要的准备。
在摄食吞咽的准备期(也称作咀嚼期),将被取入到口腔内的食物用牙齿嚼碎、磨碎(即咀嚼),并且通过舌将咀嚼后的食物与唾液混合,聚集为食块。准备期的摄食吞咽功能例如是:用来将食物不洒出地取入到口腔内的表情肌(口唇的肌肉及脸颊的肌肉等)的运动功能;用来识别食物的味道或识别硬度的舌的识别功能;用来将食物推抵到牙齿或将成为细碎的食物与唾液混合而聚集的舌的运动功能;用来将食物嚼碎、磨碎的牙齿的咬合状态;防止食物进入到牙齿与脸颊之间的脸颊的运动功能;作为用来咀嚼的肌肉的总称的咀嚼肌(咬肌及侧头肌等)的运动功能(咀嚼功能);以及用来将成为细碎的食物聚集的唾液的分泌功能等。咀嚼功能受牙齿的咬合状态、咀嚼肌的运动功能、舌的功能等影响。通过准备期的这些摄食吞咽功能,食块成为容易吞入的物性(尺寸、块、粘度),所以食块容易从口腔内经过咽部顺畅地移动到胃。
在摄食吞咽的口腔期,舌(舌的前端)抬起,使食块从口腔内向咽部移动。口腔期的摄食吞咽功能例如是用来使食块向咽部移动的舌的运动功能、将咽部与鼻腔之间封闭的软腭的上升功能等。
在摄食吞咽的咽部期,如果食块达到咽部则发生吞咽反射,在短时间(约1秒)的期间将食块向食道输送。具体而言,软腭升起而将鼻腔与咽部之间封堵,舌根(具体而言支承舌根的舌骨)及喉头升起,食块穿过咽部,此时会厌向下方反转而将气管的入口封堵,不发生误咽地将食块向食道输送。咽部期的摄食吞咽功能例如是:用来将鼻腔与咽部之间封堵的咽部的运动功能(具体而言,将软腭升起的运动功能);用来将食块向咽部输送的舌(具体而言舌根)的运动功能;将食块从咽部向食道输送,或在食块向咽部流入时声门关闭而将气管封堵、通过会厌从其上方垂下到气管的入口而进行封盖等的喉头的运动功能等。
在摄食吞咽的食道期,引起食道壁的蠕动运动,将食块从食道向胃送入。食道期的摄食吞咽功能例如是用来使食块向胃移动的食道蠕动功能等。
例如,人随着年龄增长,从健康状态经过衰弱前期及衰弱期而成为需照护状态。摄食吞咽功能的下降(也称作口腔衰弱)被认为在衰弱前期开始出现。摄食吞咽功能的下降可能是加速从衰弱期向接着的需照护状态发展的原因。因此,通过在衰弱前期的阶段关注摄食吞咽功能怎样下降并事前进行预防及改善,由此不再容易从衰弱期陷入接着的需照护状态,能够较长地保持健康而自立的生活。
接着,说明口腔功能可视化系统10将根据摄食吞咽的过程推断出用户2的口腔器官的状态的图像显示在画面上的例子。图12是表示本公开的实施方式的与摄食吞咽的过程对应的运动图像显示的内容的表。
口腔功能可视化系统10,作为与作为咀嚼期的过程的开闭口对应的音而着眼于“i”、“e”及“a”。口腔功能可视化系统10为了评价开闭口的过程,使用户2发音包含“i”、“e”及“a”的音的词语,对用户2的发音进行解析。并且,口腔功能可视化系统10将根据用户2的发音推断出的用户2的口腔器官的状态显示在画面上。此时,口腔功能可视化系统10也可以还显示发音包含“i”、“e”及“a”的音的词语时的理想的口腔器官的状态。
此外,例如口腔功能可视化系统10作为与作为咀嚼期的过程的咀嚼对应的音而着眼于“ka la”。口腔功能可视化系统10为了评价开闭口的过程,使用户2发音包含“ka la”的音的词语,对用户2的发音进行解析。并且,口腔功能可视化系统10将根据用户2的发音推断出的用户2的口腔器官的状态显示在画面上。此时,口腔功能可视化系统10也可以还显示发音包含“ka la”的音的词语时的理想的口腔器官的状态。
此外,例如口腔功能可视化系统10作为与作为咀嚼期的过程的口唇封闭对应的音而着眼于“p”。口腔功能可视化系统10为了评价开闭口的过程,使用户2发音包含“p”的音的词语,对用户2的发音进行解析。并且,口腔功能可视化系统10将根据用户2的发音推断出的用户2的口腔器官的状态显示在画面上。此时,口腔功能可视化系统10也可以还显示发音包含“p”的音的词语时的理想的口腔器官的状态。
此外,例如口腔功能可视化系统10作为与作为口腔期的过程的前方舌运动对应的音而着眼于“t”、“e”。口腔功能可视化系统10为了评价前方舌运动的过程,使用户2发音包含“t”、“e”的音的词语,对用户2的发音进行解析。并且,口腔功能可视化系统10将根据用户2的发音推断出的用户2的口腔器官的状态显示在画面上。此时,口腔功能可视化系统10也可以还显示发音包含“t”、“e”的音的词语时的理想的口腔器官的状态。
此外,例如口腔功能可视化系统10作为与作为口腔期的过程的里侧舌运动对应的音而着眼于“k”、“o”。口腔功能可视化系统10为了评价前方舌运动的过程,使用户2发音包含“k”、“o”的音的词语,对用户2的发音进行解析。并且,口腔功能可视化系统10将根据用户2的发音推断出的用户2的口腔器官的状态显示在画面上。此时,口腔功能可视化系统10也可以还显示发音包含“k”、“o”的音的词语时的理想的口腔器官的状态。
此外,例如口腔功能可视化系统10作为与作为咽部期的过程的舌腭封闭对应的音而着眼于“ko”。口腔功能可视化系统10为了评价前方舌运动的过程,使用户2发音包含“ko”的音的词语,对用户2的发音进行解析。并且,口腔功能可视化系统10将根据用户2的发音推断出的用户2的口腔器官的状态显示在画面上。此时,口腔功能可视化系统10也可以还显示发音包含“ko”的音的词语时的理想的口腔器官的状态。
由此,口腔功能可视化系统10通过对用户2的发音进行解析,能够评价用户2的摄食吞咽功能。此外,口腔功能可视化系统10通过对用户2的发音进行解析,并将推断出的用户2的口腔器官的状态显示在画面上,由此还能够敦促用户2进行用来改善摄食吞咽功能的训练。这样,口腔功能可视化系统10能够应用于摄食吞咽的评价以及摄食吞咽功能的提高等。
[效果等]
口腔功能可视化系统10具备:输出部11,进行用来敦促用户2以规定的声音发声的输出;取得部12,取得与输出对应的用户2的发声声音;解析部15,解析取得部12所取得的发声声音;以及推断部16,根据解析部15对发声声音解析的结果,推断用户2的口腔器官的状态;输出部11基于推断部16推断出的用户2的口腔器官的状态,输出用于用户2实现适合于以规定的声音发声的口腔器官的状态的信息。
由此,口腔功能可视化系统10例如如果将口腔器官的状态显示在画面上,则能够进行基于用户2的发音的用户2的口腔内部的可视化。用户2由于能够识别出被输出的口腔器官的状态,所以能够留意正确地发声。结果,使得用户2能够正确地进行发声。
具备存储部14,该存储部14存储表示适合于以规定的声音发声的口腔器官的状态的信息,存储部14还存储发声声音;输出部11分别根据存储部14中所存储的发声声音、和取得部12所取得的现时点的发声声音,分别再现由推断部16推断的用户2的口腔器官的状态,将它们进行画面显示。
由此,口腔功能可视化系统10通过推断并再现用户2的口腔器官的状态,从而能够敦促用户2正确地进行以规定的声音发声。
进而,具备记录发声声音的存储部14;输出部11将存储部14中所存储的表示适合于发声规定的声音的口腔器官的状态的图像、和再现了由推断部16推断的用户2的口腔器官的状态的图像分别进行画面显示。
由此,口腔功能可视化系统10通过将为了发声规定的声音的理想的口腔器官的状态、和推断出的用户2的口腔器官的状态显示在画面上,从而能够敦促用户2正确地进行以规定的声音发声。
输出部11使用从横向观察人脸时的口腔内部的剖视图,将口腔内的舌的位置及口腔的开闭状态表示为口腔器官的状态。
输出部11还输出敦促用户2进行用来达成适合于以规定的声音发声的口腔器官的状态的训练的信息。
由此,口腔功能可视化系统10能够敦促用户2训练以规定的声音发声。
存储部14还存储表示与规定的声音特征量建立了关联的口腔器官的状态的图像即口腔状态数据;输出部11输出与作为解析部15解析发声声音的结果而得到的声音特征量对应的口腔状态数据。
由此,口腔功能可视化系统10能够使用预先存储的多个图像,再现由推断部16推断的用户2的口腔器官的状态。
在口腔功能可视化系统10中,图像是运动图像。
由此,口腔功能可视化系统10能够使用运动图像敦促用户2正确地进行以规定的声音发声。
输出部11将用于用户2实现适合于以规定的声音发声的口腔器官的状态的信息、表示适合于发声规定的声音的口腔器官的状态的信息、以及敦促用户2进行用来达成适合于以规定的声音发声的口腔器官的状态的训练的信息中的某个或全部向纸面上输出。
由此,口腔功能可视化系统10能够通过纸质的报告敦促用户2正确地进行以规定的声音发声。
口腔功能可视化方法包括:输出步骤,进行用来敦促用户2以规定的声音发声的输出;存储步骤,存储表示适合于以规定的声音发声的口腔器官的状态的信息;取得步骤,取得与输出对应的用户2的发声声音;解析步骤,对在取得步骤中取得的发声声音进行解析;以及推断步骤,根据在解析步骤中解析发声声音的结果,推断用户2的口腔器官的状态;在输出步骤中,基于在存储步骤中存储的表示适合于以规定的声音发声的口腔器官的状态的信息、和在推断步骤中推断出的用户2的口腔器官的状态,输出用于用户2实现适合于以规定的声音发声的口腔器官的状态的信息。
由此,口腔功能可视化方法能够起到与上述口腔功能可视化系统10同样的效果。
程序使计算机执行口腔功能可视化方法,所述口腔功能可视化方法包括:输出步骤,进行用来敦促用户2以规定的声音发声的输出;存储步骤,存储表示适合于以规定的声音发声的口腔器官的状态的信息;取得步骤,取得与输出对应的用户2的发声声音;解析步骤,对在取得步骤中取得的发声声音进行解析;以及推断步骤,根据在解析步骤中解析发声声音的结果,推断用户2的口腔器官的状态,在输出步骤中,基于在存储步骤中存储的表示适合于以规定的声音发声的口腔器官的状态的信息、和在推断步骤中推断出的用户2的口腔器官的状态,输出用于用户2实现适合于以规定的声音发声的口腔器官的状态的信息。
由此,程序能够起到与上述口腔功能可视化系统10同样的效果。
[其他]
以上,对实施方式进行了说明,但本发明并不限定于上述实施方式。
例如,有关上述实施方式的口腔功能可视化系统既可以通过多个装置来实现,也可以作为单一的装置来实现。例如,口腔功能可视化系统也可以作为客户端服务器系统来实现。此外,口腔功能可视化系统也可以作为智能电话或平板电脑终端等的便携终端单体来实现。在口腔功能可视化系统通过多个装置来实现的情况下,口腔功能可视化系统所具备的构成要素可以以任何方式分布到多个装置。
此外,在上述实施方式中,特定的处理部所执行的处理也可以由其他的处理部来执行。此外,多个处理的顺序也可以进行变更,也可以将多个处理并行地执行。
此外,在上述实施方式中各构成要素也可以通过执行适合于各构成要素的软件程序来实现。各构成要素也可以通过CPU或处理器等程序执行部读取并执行记录在硬盘或半导体存储器等记录介质中的软件程序来实现。
此外,各构成要素也可以通过硬件来实现。例如,各构成要素也可以是电路(或集成电路)。这些电路既可以作为整体构成1个电路,也可以分别是不同的电路。此外,这些电路既可以分别是通用的电路,也可以是专用的电路。
此外,本发明的全局性或具体的形态也可以通过系统、装置、方法、集成电路、计算机程序或计算机可读取的CD-ROM等的记录介质来实现。此外,本发明的全局性或具体的形态也可以通过系统、装置、方法、集成电路、计算机程序及记录介质的任意的组合来实现。
例如,本发明也可以作为用来使计算机执行上述实施方式的口腔功能可视化方法的程序来实现。本发明也可以作为记录有这样的程序的计算机可读取的非暂时性的记录介质来实现。另外,在这样的程序中,包括用来使通用的便携终端作为有关上述实施方式的口腔功能可视化系统进行动作的应用程序。
除此以外,对各实施方式施以本领域技术人员想到的各种变形而得到的形态、或者在不脱离本发明的主旨的范围内将各实施方式的构成要素及功能任意地组合由此实现的形态也包含在本发明中。
标号说明
10口腔功能可视化系统;11输出部;12取得部;13控制部;14存储部;15解析部;16推断部。

Claims (10)

1.一种口腔功能可视化系统,其特征在于,
具备:
输出部,进行用来敦促用户以规定的声音发声的信息的输出;
取得部,取得与上述输出对应的上述用户的发声声音;
解析部,解析上述取得部所取得的上述发声声音;以及
推断部,根据上述解析部解析上述发声声音的结果,推断上述用户的口腔器官的状态,
上述输出部还基于上述推断部所推断出的上述用户的上述口腔器官的状态,输出用于上述用户实现适合于以上述规定的声音发声的上述口腔器官的状态的信息。
2.如权利要求1所述的口腔功能可视化系统,其特征在于,
具备存储表示适合于以上述规定的声音发声的口腔器官的状态的信息、和过去的上述用户的发声声音的存储部,
上述输出部将上述推断部根据上述存储部中所存储的过去的上述用户的发声声音和上述取得部所取得的现时点的发声声音而分别推断的上述用户的上述口腔器官的状态分别进行再现,将其进行画面显示。
3.如权利要求1所述的口腔功能可视化系统,其特征在于,
还具备存储表示适合于发声上述规定的声音的上述口腔器官的状态的图像的存储部,
上述推断部生成表示推断出的上述用户的口腔器官的状态的图像,
上述输出部将上述存储部中所存储的上述图像和上述推断部所生成的上述图像分别进行画面显示。
4.如权利要求2或3所述的口腔功能可视化系统,其特征在于,
上述输出部使用从横向观察人脸时的口腔内部的剖视图,将口腔内的舌的位置及口腔的开闭状态表示为上述口腔器官的状态。
5.如权利要求1~4中任一项所述的口腔功能可视化系统,其特征在于,
上述输出部还输出敦促上述用户进行用来达成适合于以上述规定的声音发声的上述口腔器官的状态的训练的信息。
6.如权利要求2~4中任一项所述的口腔功能可视化系统,其特征在于,
上述存储部还存储表示与规定的声音特征量建立了关联的上述口腔器官的状态的图像即口腔状态数据,
上述输出部输出与作为上述解析部解析上述发声声音的结果而得到的声音特征量对应的上述口腔状态数据。
7.如权利要求6所述的口腔功能可视化系统,其特征在于,
上述图像是运动图像。
8.如权利要求1~6中任一项所述的口腔功能可视化系统,其特征在于,
上述输出部将用于上述用户实现适合于以上述规定的声音发声的上述口腔器官的状态的信息、表示适合于发声上述规定的声音的上述口腔器官的状态的信息、以及敦促上述用户进行用来达成适合于以上述规定的声音发声的上述口腔器官的状态的训练的信息中的至少1个向纸面上输出。
9.一种口腔功能可视化方法,其特征在于,
包括:
第1输出步骤,进行用来敦促用户以规定的声音发声的信息的输出;
取得步骤,取得与上述输出对应的上述用户的发声声音;
解析步骤,解析在上述取得步骤中取得的上述发声声音;
推断步骤,根据在上述解析步骤中解析上述发声声音的结果,推断上述用户的口腔器官的状态;以及
第2输出步骤,基于在上述推断步骤中推断出的上述用户的上述口腔器官的状态,输出用于上述用户实现适合于以上述规定的声音发声的上述口腔器官的状态的信息。
10.一种程序,其特征在于,
用来使计算机执行权利要求9所述的口腔功能可视化方法。
CN202180013561.3A 2020-02-19 2021-02-05 口腔功能可视化系统、口腔功能可视化方法及程序 Pending CN115066716A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-026166 2020-02-19
JP2020026166 2020-02-19
PCT/JP2021/004380 WO2021166695A1 (ja) 2020-02-19 2021-02-05 口腔機能可視化システム、口腔機能可視化方法およびプログラム

Publications (1)

Publication Number Publication Date
CN115066716A true CN115066716A (zh) 2022-09-16

Family

ID=77391013

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180013561.3A Pending CN115066716A (zh) 2020-02-19 2021-02-05 口腔功能可视化系统、口腔功能可视化方法及程序

Country Status (4)

Country Link
US (1) US20230000427A1 (zh)
JP (1) JP7316596B2 (zh)
CN (1) CN115066716A (zh)
WO (1) WO2021166695A1 (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1787035A (zh) * 2005-11-04 2006-06-14 黄中伟 聋哑人汉语发音计算机辅助学习方法
JP2007122004A (ja) * 2005-09-29 2007-05-17 National Institute Of Advanced Industrial & Technology 発音診断装置、発音診断方法、記録媒体、及び、発音診断プログラム
WO2013031677A1 (ja) * 2011-08-26 2013-03-07 国立大学法人豊橋技術科学大学 発音動作可視化装置および発音学習装置
CN103597510A (zh) * 2011-06-30 2014-02-19 株式会社明治 食品开发支援装置、食品开发方法、食品制造方法、饮食教育支援装置及饮食教育方法
CN105261246A (zh) * 2015-12-02 2016-01-20 武汉慧人信息科技有限公司 一种基于大数据挖掘技术的英语口语纠错系统
CN110428812A (zh) * 2019-07-30 2019-11-08 天津大学 基于动态时间规划根据语音信息合成舌超声视频的方法
WO2019225241A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 摂食嚥下機能評価方法、プログラム、摂食嚥下機能評価装置および摂食嚥下機能評価システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2299673C2 (ru) * 2002-02-18 2007-05-27 Такаси ЁСИМИНЕ Диагностическая система и мобильный телефон
JP2006126498A (ja) * 2004-10-28 2006-05-18 Tokyo Univ Of Science 英語の発音の学習を支援するためのプログラム、英語発音学習支援方法、英語発音学習支援装置、英語発音学習支援システム、及びプログラムを記録した記録媒体
JP5469984B2 (ja) * 2009-10-02 2014-04-16 学校法人中部大学 発音評価システムおよび発音評価プログラム
CN112135564B (zh) * 2018-05-23 2024-04-02 松下知识产权经营株式会社 摄食吞咽功能评价方法、记录介质、评价装置以及评价系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122004A (ja) * 2005-09-29 2007-05-17 National Institute Of Advanced Industrial & Technology 発音診断装置、発音診断方法、記録媒体、及び、発音診断プログラム
CN1787035A (zh) * 2005-11-04 2006-06-14 黄中伟 聋哑人汉语发音计算机辅助学习方法
CN103597510A (zh) * 2011-06-30 2014-02-19 株式会社明治 食品开发支援装置、食品开发方法、食品制造方法、饮食教育支援装置及饮食教育方法
WO2013031677A1 (ja) * 2011-08-26 2013-03-07 国立大学法人豊橋技術科学大学 発音動作可視化装置および発音学習装置
CN105261246A (zh) * 2015-12-02 2016-01-20 武汉慧人信息科技有限公司 一种基于大数据挖掘技术的英语口语纠错系统
WO2019225241A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 摂食嚥下機能評価方法、プログラム、摂食嚥下機能評価装置および摂食嚥下機能評価システム
CN110428812A (zh) * 2019-07-30 2019-11-08 天津大学 基于动态时间规划根据语音信息合成舌超声视频的方法

Also Published As

Publication number Publication date
WO2021166695A1 (ja) 2021-08-26
US20230000427A1 (en) 2023-01-05
JP7316596B2 (ja) 2023-07-28
JPWO2021166695A1 (zh) 2021-08-26

Similar Documents

Publication Publication Date Title
Esling et al. Voice quality: The laryngeal articulator model
KR102270653B1 (ko) 영상 객체의 발화 및 표정 구현을 위한 조음기관 물리 특성 기반의 발화-표정 데이터 맵핑 시스템
CN112135564B (zh) 摄食吞咽功能评价方法、记录介质、评价装置以及评价系统
Dellwo et al. How is individuality expressed in voice? An introduction to speech production and description for speaker classification
WO2019225241A1 (ja) 摂食嚥下機能評価方法、プログラム、摂食嚥下機能評価装置および摂食嚥下機能評価システム
Bommangoudar et al. Pedodontist's role in managing speech impairments due to structural imperfections and oral habits: A literature review
Osfar Articulation of whispered alveolar consonants
WO2021166695A1 (ja) 口腔機能可視化システム、口腔機能可視化方法およびプログラム
Lundström et al. High-speed imaging of the voicing source in laryngectomees during production of voiced-voiceless distinctions for stop consonants
Guzman Semioccluded Vocal Tract Exercises: A physiologic approach for voice training and therapy
WO2023228615A1 (ja) 音声特徴量算出方法、音声特徴量算出装置、及び、口腔機能評価装置
Searl Magnitude and variability of oral pressure in tracheoesophageal speech
Ahn The role of tongue position in voicing contrasts in cross-linguistic contexts
Wada et al. Influence of the width and cross-sectional shape of major connectors of maxillary dentures on the accuracy of speech production
WO2023054632A1 (ja) 嚥下障害の判定装置および判定方法
Frazer Approximating subglottal pressure from oral pressure: a methodological study
Gatokowska Diagnosing Dysarthria in Adults: A New Speech Assessment Method for Polish, English, and Spanish
Khaledan A Qualitative Analysis of a Novel Face-Tracking Application and a Proposed Research Design to Study Glossectomy Speech using this Method
WO2022254973A1 (ja) 口腔機能評価方法、プログラム、口腔機能評価装置および口腔機能評価システム
WO2023203962A1 (ja) 口腔機能評価装置、口腔機能評価システム、及び、口腔機能評価方法
Stoykov et al. Methods for assessment of vocal characteristics in dental treatment
Elsubeihi et al. Phonetic considerations in restorative dentistry
Lorenc Diagnosis of the pronunciation norm
Montero Benavides Statistical analysis of the connection between sleep apnea and speech
Gregory Laryngeal Aspects of Infant Language Acquisition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination