JP2021110895A - Hearing impairment determination device, hearing impairment determination system, computer program and cognitive function level correction method - Google Patents

Hearing impairment determination device, hearing impairment determination system, computer program and cognitive function level correction method Download PDF

Info

Publication number
JP2021110895A
JP2021110895A JP2020004362A JP2020004362A JP2021110895A JP 2021110895 A JP2021110895 A JP 2021110895A JP 2020004362 A JP2020004362 A JP 2020004362A JP 2020004362 A JP2020004362 A JP 2020004362A JP 2021110895 A JP2021110895 A JP 2021110895A
Authority
JP
Japan
Prior art keywords
level
deafness
voice
unit
interlocutor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020004362A
Other languages
Japanese (ja)
Other versions
JP6729923B1 (en
Inventor
真輝 大西
Masaki Onishi
真輝 大西
実 佐々木
Minoru Sasaki
実 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2020004362A priority Critical patent/JP6729923B1/en
Application granted granted Critical
Publication of JP6729923B1 publication Critical patent/JP6729923B1/en
Publication of JP2021110895A publication Critical patent/JP2021110895A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

To provide a hearing impairment determination device, a hearing impairment determination system, a computer program and a hearing impairment determination method, which can determine hearing impairment of an object person.SOLUTION: A hearing impairment determination device includes: an acquisition unit for acquiring interaction voice between an object person and an interacting person; an extraction unit for extracting a feature amount on voice of the interacting person on the basis of the acquired interaction voice; a calculation unit for calculating delay time of a response of the object person with respect to utterance of the interacting person on the basis of the acquired interaction voice; and a hearing impairment level determination unit for determining a hearing impairment level of the object person on the basis of the extracted feature amount and the calculated delay time.SELECTED DRAWING: Figure 1

Description

本発明は、難聴判定装置、難聴判定システム、コンピュータプログラム及び難聴判定方法に関する。 The present invention relates to a deafness determination device, a deafness determination system, a computer program, and a deafness determination method.

近年、認知症患者の増加が懸念され、様々なアプローチを用いて認知症の早期発見に関する技術が開発されている。特許文献1には、ユーザの音声データに基づいて韻律特徴量を抽出し、予め構築された学習モデルを用いて認知機能障害の危険度を算出する装置が開示されている。 In recent years, there is concern that the number of dementia patients will increase, and techniques for early detection of dementia have been developed using various approaches. Patent Document 1 discloses a device that extracts prosodic features based on user's voice data and calculates the risk of cognitive dysfunction using a pre-constructed learning model.

特開2011−255106号公報Japanese Unexamined Patent Publication No. 2011-255106

人の聴力は年齢とともに低下し、高齢になると難聴を発症する可能性が高くなる。また、高齢になると認知機能が低下し認知機能障害になる場合もある。しかし、従来、認知症と難聴とを区別することが困難であった。このため、難聴である対象者が、質問者の質問に正しく回答できない場合に、その対象者が認知症であると誤って判定されるおそれがある。 A person's hearing declines with age, and older people are more likely to develop deafness. In addition, cognitive function may decline and cognitive dysfunction may occur in old age. However, in the past, it was difficult to distinguish between dementia and deafness. Therefore, if a subject with hearing loss cannot answer the question of the questioner correctly, the subject may be erroneously determined to have dementia.

本発明は、斯かる事情に鑑みてなされたものであり、対象者の難聴を判定することができる難聴判定装置、難聴判定システム、コンピュータプログラム及び難聴判定方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a deafness determination device, a deafness determination system, a computer program, and a deafness determination method capable of determining a subject's deafness.

本発明の実施の形態に係る難聴判定装置は、対象者と対話者との対話音声を取得する取得部と、前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部とを備える。 The hearing loss determination device according to the embodiment of the present invention extracts a feature amount related to the voice of the interlocutor based on the acquisition unit that acquires the dialogue voice between the target person and the interlocutor and the dialogue voice acquired by the acquisition unit. The extraction unit, the calculation unit that calculates the delay time of the response of the target person to the speech of the interlocutor based on the dialogue voice acquired by the acquisition unit, the feature amount extracted by the extraction unit, and the calculation unit. It is provided with a hearing loss level determining unit that determines the hearing loss level of the subject based on the calculated delay time.

本発明の実施の形態に係る難聴判定システムは、対象者と対話者との対話音声を取得する取得部と、前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部とを備える。 The hearing loss determination system according to the embodiment of the present invention extracts a feature amount related to the voice of the interlocutor based on the acquisition unit that acquires the dialogue voice between the target person and the interlocutor and the dialogue voice acquired by the acquisition unit. The extraction unit, the calculation unit that calculates the delay time of the response of the target person to the speech of the interlocutor based on the dialogue voice acquired by the acquisition unit, the feature amount extracted by the extraction unit, and the calculation unit. It is provided with a hearing loss level determining unit that determines the hearing loss level of the subject based on the calculated delay time.

本発明の実施の形態に係るコンピュータプログラムは、コンピュータに、対象者と対話者との対話音声を取得する処理と、取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する処理と、取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する処理と、抽出した特徴量及び算出した遅延時間に基づいて前記対象者の難聴レベルを判定する処理とを実行させる。 The computer program according to the embodiment of the present invention includes a process of acquiring a dialogue voice between a target person and an interlocutor on a computer, and a process of extracting a feature amount related to the voice of the interlocutor based on the acquired dialogue voice. , A process of calculating the delay time of the subject's response to the interlocutor's utterance based on the acquired dialogue voice, and a process of determining the hearing loss level of the subject based on the extracted feature amount and the calculated delay time. To execute.

本発明の実施の形態に係る難聴判定方法は、対象者と対話者との対話音声を取得し、取得された対話音声に基づいて前記対話者の音声に関する特徴量を抽出し、取得された対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出し、抽出された特徴量及び算出された遅延時間に基づいて前記対象者の難聴レベルを判定する。 In the method for determining hearing loss according to the embodiment of the present invention, the dialogue voice between the subject and the interlocutor is acquired, the feature amount related to the voice of the interlocutor is extracted based on the acquired dialogue voice, and the acquired dialogue is performed. The delay time of the response of the subject to the speech of the interlocutor is calculated based on the voice, and the hearing loss level of the subject is determined based on the extracted feature amount and the calculated delay time.

本発明によれば、対象者の難聴を判定することができる。 According to the present invention, it is possible to determine the deafness of a subject.

実施の形態の難聴判定システムの構成の一例を示す模式図である。It is a schematic diagram which shows an example of the structure of the deafness determination system of embodiment. 対話音声の音声波形の一例を示す模式図である。It is a schematic diagram which shows an example of the voice waveform of the dialogue voice. 年代別の聴力レベルの一例を示す模式図である。It is a schematic diagram which shows an example of the hearing level by age. 対話者の特徴量の一例を示す説明図である。It is explanatory drawing which shows an example of the feature amount of an interlocutor. 難聴レベルの判定方法の一例を示す模式図である。It is a schematic diagram which shows an example of the deafness level determination method. 認知機能レベル判定部の構成の第1例を示す模式図である。It is a schematic diagram which shows the 1st example of the structure of the cognitive function level determination part. 認知機能レベル判定部の構成の第2例を示す模式図である。It is a schematic diagram which shows the 2nd example of the structure of the cognitive function level determination part. 認知機能レベル判定部の構成の第3例を示す模式図である。It is a schematic diagram which shows the 3rd example of the structure of the cognitive function level determination part. 認知機能レベルの補正方法の一例を示す説明図である。It is explanatory drawing which shows an example of the correction method of the cognitive function level. 判定結果の表示方法の第1例を示す模式図である。It is a schematic diagram which shows the 1st example of the display method of the determination result. 判定結果の表示方法の第2例を示す模式図である。It is a schematic diagram which shows the 2nd example of the display method of the determination result. 判定結果の表示方法の第3例を示す模式図である。It is a schematic diagram which shows the 3rd example of the display method of the determination result. 判定結果の表示方法の第4例を示す模式図である。It is a schematic diagram which shows the 4th example of the display method of the determination result. 難聴判定システムの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of a deafness determination system.

以下、本発明の実施の形態を図面に基づいて説明する。図1は本実施の形態の難聴判定システムの構成の一例を示す模式図である。難聴判定システムは、難聴判定装置50、及び端末装置10を備える。難聴判定装置50と端末装置10とは、通信ネットワーク1を介して接続されている。端末装置10は、例えば、パーソナルコンピュータ、タブレット、スマートフォン、スマートスピーカなどの情報処理装置で構成することができる。端末装置10には、マイク11が接続されている。マイク11は、対象者及び対象者と対話する対話者の音声を取得することができる。なお、対象者と対話者の音声を取得することができるのであれば、マイク11は端末装置10に内蔵されていてもよい。対象者は、難聴判定の対象者であり、対話者は、医師、看護師、カウンセラ、介護士などの対象者の難聴判定のための対話を行う者である。対話者がいる場合には、対象者は対話者と会話することができ、対話者がいないときは、予め定められた文章などを読み上げることができる。対象者の音声、あるいは対象者と対話者の音声は、マイク11で集音され、端末装置10を介して難聴判定装置50へ送信される。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram showing an example of the configuration of the hearing loss determination system of the present embodiment. The deafness determination system includes a deafness determination device 50 and a terminal device 10. The deafness determination device 50 and the terminal device 10 are connected via the communication network 1. The terminal device 10 can be composed of, for example, an information processing device such as a personal computer, a tablet, a smartphone, or a smart speaker. A microphone 11 is connected to the terminal device 10. The microphone 11 can acquire the voice of the target person and the interlocutor interacting with the target person. The microphone 11 may be built in the terminal device 10 as long as the voices of the target person and the interlocutor can be acquired. The subject is a subject for deafness determination, and the interlocutor is a person who conducts a dialogue for deafness determination of the subject such as a doctor, a nurse, a counselor, and a caregiver. When there is an interlocutor, the subject can talk with the interlocutor, and when there is no interlocutor, a predetermined sentence or the like can be read aloud. The voice of the target person or the voice of the target person and the interlocutor is collected by the microphone 11 and transmitted to the deafness determination device 50 via the terminal device 10.

なお、対象者と対話者の対話は、通信ネットワーク1を介してオンライン上で行われてもよい。この場合、対象者が利用する端末装置10Aに接続されたマイク11Aにより対象者の音声を取得し、対話者が利用する端末装置10Bに接続されたマイク11Bにより対話者の音声を取得し、マイク11A,Bで取得した音声が難聴判定装置50へ送信される。 The dialogue between the target person and the interlocutor may be performed online via the communication network 1. In this case, the voice of the target person is acquired by the microphone 11A connected to the terminal device 10A used by the target person, and the voice of the interlocutor is acquired by the microphone 11B connected to the terminal device 10B used by the interlocutor. The voices acquired in 11A and B are transmitted to the hearing loss determination device 50.

難聴判定装置50は、装置全体を制御する制御部51、通信部52、音声識別部53、特徴量抽出部54、遅延時間算出部55、記憶部56、不安レベル判定部57、難聴レベル判定部58、認知機能レベル判定部59、補正部60及び出力部61を備える。制御部51は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)などで構成することができる。音声識別部53、特徴量抽出部54、遅延時間算出部55、不安レベル判定部57、難聴レベル判定部58、認知機能レベル判定部59、補正部60及び出力部61は、CPU、GPU(Graphics Processing Units)、DSP(Digital Signal Processors)、FPGA(Field-Programmable Gate Arrays)などのハードウェアのいずれか、あるいはこれらを組み合わせて構成することができる。なお、難聴判定装置50の制御部51、音声識別部53、特徴量抽出部54、遅延時間算出部55、不安レベル判定部57、難聴レベル判定部58、認知機能レベル判定部59、補正部60の各機能を端末装置10に設けてもよく、難聴判定装置50の一部の機能を端末装置10に設けるようにしてもよい。また、難聴判定装置50の各機能を複数の装置に分散させて設ける構成でもよい。 The deafness determination device 50 includes a control unit 51, a communication unit 52, a voice identification unit 53, a feature amount extraction unit 54, a delay time calculation unit 55, a storage unit 56, an anxiety level determination unit 57, and a deafness level determination unit that control the entire device. It includes 58, a cognitive function level determination unit 59, a correction unit 60, and an output unit 61. The control unit 51 can be composed of a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The voice identification unit 53, the feature amount extraction unit 54, the delay time calculation unit 55, the anxiety level determination unit 57, the hearing loss level determination unit 58, the cognitive function level determination unit 59, the correction unit 60, and the output unit 61 are CPUs and GPUs (Graphics). It can be configured by any of hardware such as Processing Units), DSP (Digital Signal Processors), FPGA (Field-Programmable Gate Arrays), or a combination thereof. The control unit 51, the voice identification unit 53, the feature amount extraction unit 54, the delay time calculation unit 55, the anxiety level determination unit 57, the hearing loss level determination unit 58, the cognitive function level determination unit 59, and the correction unit 60 of the hearing loss determination device 50. Each function of the above may be provided in the terminal device 10, and some functions of the hearing loss determination device 50 may be provided in the terminal device 10. Further, each function of the deafness determination device 50 may be distributed and provided in a plurality of devices.

通信部52は、所要の通信モジュールで構成することができ、通信ネットワーク1を介して、端末装置10との間で通信を行う機能を有し、端末装置10との間で所要の情報の送受信を行うことができる。通信部52は、取得部としての機能を有し、対象者と対話者の対話音声を端末装置10から取得することができる。 The communication unit 52 can be configured with a required communication module, has a function of communicating with the terminal device 10 via the communication network 1, and transmits / receives required information with the terminal device 10. It can be performed. The communication unit 52 has a function as an acquisition unit, and can acquire the dialogue voice between the target person and the interlocutor from the terminal device 10.

図2は対話音声の音声波形の一例を示す模式図である。縦軸は音声信号の振幅を示し、横軸は時間を示す。図2の例では、対話者の音声1、対象者の音声1、対話者の音声2、対象者の音声2、対話者の音声3と続いている。対話者の音声1と対象者の音声1との間には、回答遅延時間が存在し、同様に、対話者の音声2と対象者の音声2との間にも回答遅延時間が存在している。 FIG. 2 is a schematic diagram showing an example of a voice waveform of a dialogue voice. The vertical axis shows the amplitude of the audio signal, and the horizontal axis shows the time. In the example of FIG. 2, the voice 1 of the interlocutor, the voice 1 of the subject, the voice 2 of the interlocutor, the voice 2 of the subject, and the voice 3 of the interlocutor follow. There is a response delay time between the interlocutor's voice 1 and the target person's voice 1, and similarly, there is a response delay time between the interlocutor's voice 2 and the target person's voice 2. There is.

音声識別部53は、通信部52を介して取得した対話音声から、対象者の音声と対話者の音声とを識別することができる。音声の識別は、予め対象者と対話者の音声データを記憶部56に記憶しておき、記憶した音声データと照合することにより行うことができる。記憶部56は、ハードディスク又はフラッシュメモリなどで構成することができる。また、音声の識別は、機械学習を用いてもよい。例えば、医師、看護師、カウンセラ、介護士など対話者の音声を機械学習によって識別することができる。また、予め対象者の音声を機械学習させておいてもよい。また、音声の識別の他の方法として、対話者が、対象者が発話するとき、あるいは対話者が発話するときに端末装置10に設けられた操作ボタン等を操作すると、端末装置10は、操作ボタン等が操作されたことを示す識別フラグを音声データと同期させて難聴判定装置50へ送信する。音声識別部53は、識別フラグを取得し、識別フラグの有無に応じて、対象者の音声か対話者の音声かを識別することができる。また、音声の識別の他の方法としては、マイク11の指向性を利用することができる。例えば、指向性の高い領域に対象者が入るようにマイク11を配置して、音声の歪の大小で区別することができる。 The voice identification unit 53 can discriminate between the voice of the target person and the voice of the interlocutor from the dialogue voice acquired via the communication unit 52. The voice can be identified by storing the voice data of the target person and the interlocutor in the storage unit 56 in advance and collating the voice data with the stored voice data. The storage unit 56 can be composed of a hard disk, a flash memory, or the like. In addition, machine learning may be used for voice identification. For example, the voices of interlocutors such as doctors, nurses, counselors, and caregivers can be identified by machine learning. Further, the voice of the target person may be machine-learned in advance. Further, as another method of voice identification, when the interlocutor operates an operation button or the like provided on the terminal device 10 when the target person speaks or when the interlocutor speaks, the terminal device 10 operates. An identification flag indicating that the button or the like has been operated is synchronized with the voice data and transmitted to the hearing loss determination device 50. The voice identification unit 53 can acquire the identification flag and identify whether it is the voice of the target person or the voice of the interlocutor depending on the presence or absence of the identification flag. Further, as another method of voice identification, the directivity of the microphone 11 can be used. For example, the microphone 11 can be arranged so that the target person can enter the region having high directivity, and can be distinguished by the magnitude of the distortion of the sound.

特徴量抽出部54は、抽出部としての機能を有し、通信部52を介して取得した対話音声に基づいて対話者の音声に関する特徴量を抽出する。特徴量は、難聴者にとっての聞き取りにくさを表す特徴量であればよい。加齢性難聴の特徴として、高い周波数が聞こえないという特徴、音声に含まれる微妙な周波数の違いが分からなくなるという周波数分解能の低下という特徴、あるいは、早口の音声が分からなくなるという時間分解能の低下という特徴などが挙げられる。特に、高い周波数が聞こえにくいという特徴は、年代が上がるほど顕著になる。 The feature amount extraction unit 54 has a function as an extraction unit, and extracts a feature amount related to the voice of the interlocutor based on the dialogue voice acquired via the communication unit 52. The feature amount may be any feature amount that represents difficulty in hearing for the hearing impaired. The characteristics of age-related deafness are that high frequencies cannot be heard, that the frequency resolution is reduced because the subtle differences in frequencies contained in the voice cannot be heard, or that the time resolution is reduced because the fast-spoken voice cannot be heard. Features etc. can be mentioned. In particular, the feature that high frequencies are hard to hear becomes more prominent as the age goes up.

図3は年代別の聴力レベルの一例を示す模式図である。図において、縦軸は聴力レベルを示し、人に聞こえる最も小さい音の大きさである。横軸は音声の周波数を示す。図の例では、50代、60代、70代の年齢別の聴力レベルを図示している。図から分かるように、周波数が高くなるほど聞こえなくなる傾向があり、その傾向は年齢とともに大きくなる。そこで、以下では、音声に含まれる高周波数域の程度を示す特徴量を利用する場合について説明する。なお、上述の通り、特徴量はこれに限られず、難聴者にとっての聞き取りにくさを表す任意の特徴量を利用し得る。 FIG. 3 is a schematic diagram showing an example of hearing level by age group. In the figure, the vertical axis represents the hearing level, which is the lowest loudness that a person can hear. The horizontal axis shows the frequency of voice. In the example of the figure, the hearing level of each age group in the 50s, 60s, and 70s is shown. As can be seen from the figure, the higher the frequency, the less audible it tends to be, and the tendency increases with age. Therefore, the case of using the feature amount indicating the degree of the high frequency region included in the voice will be described below. As described above, the feature amount is not limited to this, and any feature amount indicating difficulty in hearing for a deaf person can be used.

図4は対話者の音声の特徴量の一例を示す説明図である。図4に示すように、特徴量としては、例えば、パワー、時間、回数、頻度、及び音声認識難易度などを挙げることができる。パワーは、音の周波数分析において、周波数毎の重み(パワー)を示し、人の聴覚が感じる音の大きさや強さ(音量)とは相違する。特徴量抽出部54は、子音又は所定の閾値以上の高周波数域のパワー、時間、回数、頻度又は音声認識度難易度の少なくとも一つを特徴量として抽出することができる。パワーは、子音又は閾値以上の高周波数域の音声の強さとすることができる。時間は、子音又は閾値以上の高周波数域の音声が出ている時間とすることができる。回数は、対話者の発話の1フレーズ中に、子音又は閾値以上の高周波数域が含まれる単語が何回出現したかを表す。頻度は、単位時間当たりに、閾値以上の高周波数域が含まれる単語が何回出現したかを表す。音声認識度難易度は、子音又は高周波数域の音声をカットしたときの言語認識の難易度とすることができる。言語認識の難易度は、音声自動認識の失敗率とすることができる。子音又は高周波数域の音声をカットすることにより、対話者の発話内容を言語的に分かりにくくすることができる。これらの特徴量は、いずれも音声に含まれる高周波数域の程度を示す。 FIG. 4 is an explanatory diagram showing an example of the feature amount of the voice of the interlocutor. As shown in FIG. 4, as the feature amount, for example, power, time, number of times, frequency, voice recognition difficulty, and the like can be mentioned. Power indicates the weight (power) for each frequency in the frequency analysis of sound, and is different from the loudness and intensity (volume) of sound perceived by human hearing. The feature amount extraction unit 54 can extract at least one of consonants or power, time, number of times, frequency or voice recognition difficulty in a high frequency range equal to or higher than a predetermined threshold value as a feature amount. The power can be the intensity of consonants or speech in the high frequency range above the threshold. The time can be the time during which a consonant or a sound in a high frequency range equal to or higher than the threshold value is output. The number of times indicates how many times a word containing a consonant or a high frequency range equal to or higher than a threshold value appears in one phrase of the interlocutor's utterance. The frequency indicates how many times a word containing a high frequency region above the threshold value appears per unit time. The voice recognition difficulty can be the difficulty of language recognition when consonants or high frequency voices are cut. The difficulty level of language recognition can be the failure rate of automatic speech recognition. By cutting consonants or high-frequency voices, it is possible to make the utterance content of the interlocutor linguistically difficult to understand. All of these features indicate the degree of the high frequency range included in the voice.

遅延時間算出部55は、算出部としての機能を有し、通信部52を介して取得した対話音声に基づいて対話者の発話に対する対象者の回答の遅延時間(回答遅延時間)を算出する。図2に例示したように、遅延時間は、対話者の発話の終了時点から対象者の回答の開始時点までの時間とすることができる。健常者と比較して難聴者の場合は、遅延時間は長くなる傾向があると考えられる。 The delay time calculation unit 55 has a function as a calculation unit, and calculates the delay time (response delay time) of the response of the target person to the utterance of the interlocutor based on the dialogue voice acquired via the communication unit 52. As illustrated in FIG. 2, the delay time can be the time from the end of the interlocutor's utterance to the start of the subject's response. Deaf people tend to have longer delays than healthy people.

難聴レベル判定部58は、判定部としての機能を有し、特徴量抽出部54で抽出した特徴量及び遅延時間算出部55で算出した遅延時間に基づいて対象者の難聴レベルを判定することができる。すなわち、難聴レベル判定部58は、難聴者にとって対話者の発話がどの程度聞き取りにくいかという点と、対話者の発話に対して対象者の発話がどの程度遅れるかという点と、に応じて対象者の難聴レベルを判定する。 The deafness level determination unit 58 has a function as a determination unit, and can determine the deafness level of the subject based on the feature amount extracted by the feature amount extraction unit 54 and the delay time calculated by the delay time calculation unit 55. can. That is, the hearing loss level determination unit 58 targets according to how difficult it is for the hearing-impaired person to hear the interlocutor's utterance and how much the subject's utterance is delayed with respect to the interlocutor's utterance. Determine the level of hearing loss of a person.

不安レベル判定部57は、通信部52を介して取得した対話音声に基づいて対話者の発話に対する対象者の不安レベルを判定することができる。不安レベルの大小は、自信レベルの小大に対応する。不安レベルの判定には、例えば、対象者の発話の声量(声の大きさや強さを表す量)、発話内容の具体性、及び発話内容の明確さの少なくとも1つを用いることができる。例えば、対象者の声が小さい場合には、不安レベルは高いと判定することができる。また、対象者の発話内容が不明瞭又は不明確である場合、不安レベルは高いと判定することができる。 The anxiety level determination unit 57 can determine the anxiety level of the target person with respect to the utterance of the interlocutor based on the dialogue voice acquired via the communication unit 52. The magnitude of the anxiety level corresponds to the magnitude of the self-confidence level. For determining the anxiety level, for example, at least one of the voice volume of the subject's utterance (amount representing the loudness and strength of the voice), the specificity of the utterance content, and the clarity of the utterance content can be used. For example, when the subject's voice is low, it can be determined that the anxiety level is high. In addition, when the utterance content of the subject is unclear or unclear, it can be determined that the anxiety level is high.

なお、不安レベルを判定する場合、端末装置10に備えられたカメラ、又は別個のカメラを端末装置10に接続し、カメラで対象者を撮影して得られた画像に基づいて、対象者の表情、身振りや手ぶり、対象者の視線などを抽出して、対象者の不安レベルを判定してもよい。 When determining the anxiety level, a camera provided in the terminal device 10 or a separate camera is connected to the terminal device 10, and the facial expression of the target person is based on an image obtained by photographing the target person with the camera. , Gestures, gestures, gaze of the subject, etc. may be extracted to determine the anxiety level of the subject.

難聴レベル判定部58は、さらに、不安レベル判定部57で判定した不安レベルに基づいて対象者の難聴レベルを判定してもよい。例えば、不安レベルが高い場合には、対話者の発話が聞こえない、あるいは聞きにくいことが原因と考えられるので、難聴レベルが高いと判定することができる。これにより、対象者の難聴レベルをさらに精度よく判定することができる。 The deafness level determination unit 58 may further determine the deafness level of the subject based on the anxiety level determined by the anxiety level determination unit 57. For example, when the level of anxiety is high, it can be determined that the level of deafness is high because it is considered that the cause is that the interlocutor's utterance cannot be heard or is difficult to hear. As a result, the deafness level of the subject can be determined more accurately.

図5は難聴レベルの判定方法の一例を示す模式図である。対話者と対象者Aとの対話音声の中に、対話者の音声1〜5(質問)と、これらにそれぞれ対応する対象者の音声1〜5(回答)とが含まれるものとする。対話者の音声1、2、3、4、5それぞれに対する特徴レベルXが、2、2、5、1、4であるとする。特徴レベルXは、特徴量抽出部54で抽出した特徴量それぞれに重み付けを行って、例えば、1〜5の5段階に区分することができる。特徴レベルXの数値が大きいほど、難聴者にとって対話者の発話が聞き取りにくいことを表すことができる。また、対象者Aの音声1、2、3、4、5それぞれに対する回答の遅延時間Yが、1、1、2、1、3であるとする。遅延時間Yは、例えば、1〜5の5段階に区分することができる。遅延時間Yの数値が大きいほど、遅延時間が長いことを表すことができる。また、対象者Aの音声1、2、3、4、5それぞれに対する不安レベルZが、1、2、3、1、5であるとする。不安レベルZは、例えば、1〜5の5段階に区分することができる。不安レベルZの数値が大きいほど、対象者Aの不安が強いことを表すことができる。 FIG. 5 is a schematic diagram showing an example of a method for determining the level of deafness. It is assumed that the dialogue voice between the interlocutor and the target person A includes the voices 1 to 5 (question) of the interlocutor and the voices 1 to 5 (answer) of the target person corresponding to each of them. It is assumed that the feature level X for each of the interlocutor's voices 1, 2, 3, 4, and 5 is 2, 2, 5, 1, 4. The feature level X can be divided into 5 stages of 1 to 5, for example, by weighting each feature amount extracted by the feature amount extraction unit 54. The larger the value of the feature level X, the more difficult it is for the deaf person to hear the interlocutor's utterance. Further, it is assumed that the delay time Y of the response to each of the voices 1, 2, 3, 4, and 5 of the subject A is 1, 1, 2, 1, 3. The delay time Y can be divided into 5 stages of 1 to 5, for example. The larger the value of the delay time Y, the longer the delay time can be expressed. Further, it is assumed that the anxiety level Z for each of the voices 1, 2, 3, 4, and 5 of the subject A is 1, 2, 3, 1, 5. The anxiety level Z can be divided into 5 stages of 1 to 5, for example. The larger the value of the anxiety level Z, the stronger the anxiety of the subject A can be shown.

特徴レベルXは、難聴者にとっての聞き取りにくさを表す。したがって、対象者Aが難聴でない場合、対象者Aの遅延時間Y及び不安レベルZは、対話者の音声の特徴レベルXに依存しない。一方、対象者Aが難聴である場合、対象者Aの遅延時間Y及び不安レベルZは、対話者の音声の特徴レベルXに依存する。具体的には、対象者Aが難聴である場合、特徴レベルXが大きいほど、対応する遅延時間Y及び不安レベルZが大きくなる。この傾向は、対象者Aの難聴の程度が強くなる(難聴レベルが高くなる)ほど、強くなる。 The feature level X represents the difficulty of hearing for the hearing impaired. Therefore, when the subject A is not deaf, the delay time Y and the anxiety level Z of the subject A do not depend on the feature level X of the interlocutor's voice. On the other hand, when the subject A has hearing loss, the delay time Y and the anxiety level Z of the subject A depend on the voice feature level X of the interlocutor. Specifically, when the subject A has hearing loss, the larger the feature level X, the larger the corresponding delay time Y and the anxiety level Z. This tendency becomes stronger as the degree of deafness of subject A becomes stronger (the level of deafness becomes higher).

そこで、難聴レベル判定部58は、特徴レベルXに対する遅延時間Yの相関が強いほど、難聴レベルを高く判定する。同様に、難聴レベル判定部58は、特徴レベルXに対する不安レベルZの相関が強いほど、難聴レベルを高く判定する。難聴レベルは、例えば、特徴レベルXに対する遅延時間Y及び不安レベルZの少なくとも一方の相関係数であるが、これに限られない。 Therefore, the deafness level determination unit 58 determines the deafness level higher as the correlation of the delay time Y with respect to the feature level X is stronger. Similarly, the deafness level determination unit 58 determines the deafness level higher as the correlation between the feature level X and the anxiety level Z is stronger. The deafness level is, for example, a correlation coefficient of at least one of the delay time Y and the anxiety level Z with respect to the feature level X, but is not limited to this.

認知機能レベル判定部59は、通信部52を介して取得した対話音声に基づいて対象者の認知機能レベルを判定する。認知機能レベルの判定には、例えば、対話音声の音声特徴量(例えば、音声の高さに関連するピッチ、母音や子音の特徴に関連するフォルマント周波数、声道特性に関連するメル周波数スペクトラム係数(MFCC)など)に基づいて行うことができる。認知機能レベルの判定には、例えば、ルールベース、機械学習の一手法であるサポートベクターマシン(SVM)、ニューラルネットワークなどの学習モデルを用いることができる。 The cognitive function level determination unit 59 determines the cognitive function level of the subject based on the dialogue voice acquired via the communication unit 52. For determining the cognitive function level, for example, the voice feature amount of the dialogue voice (for example, the pitch related to the pitch of the voice, the formant frequency related to the characteristics of vowels and consonants, and the mel frequency spectrum coefficient related to the vocal tract characteristic (for example). It can be done based on MFCC) etc.). For the determination of the cognitive function level, for example, a learning model such as a rule base, a support vector machine (SVM) which is a method of machine learning, or a neural network can be used.

また、認知機能レベル判定部59は、対象者の音声だけでなく、対話者の音声に基づいて対象者の認知機能を判定することができる。すなわち、対象者の音声だけでなく、対象者と対話する対話者の音声も認知機能の判定の要素とすることができる。対話者の質問等の発話に対する対象者の回答等の応答を、対象者の認知機能の判定に用いることができるので、人の問いかけに対して、対象者がどのように反応しているかを判断材料とすることができ、認知機能の判定の精度を向上させることができる。 Further, the cognitive function level determination unit 59 can determine the cognitive function of the subject based not only on the voice of the subject but also on the voice of the interlocutor. That is, not only the voice of the subject but also the voice of the interlocutor who interacts with the subject can be an element for determining the cognitive function. Since the response such as the answer of the subject to the utterance of the interlocutor's question can be used to judge the cognitive function of the subject, it is possible to judge how the subject responds to the question of the person. It can be used as a material, and the accuracy of determination of cognitive function can be improved.

次に、認知機能レベル判定部59の詳細について説明する。 Next, the details of the cognitive function level determination unit 59 will be described.

図6は認知機能レベル判定部59の構成の第1例を示す模式図である。図6に示すように、認知機能レベル判定部59は、音声特徴量抽出部591、及びDNN(Deep Neural Network:深層ニューラルネットワーク)592を備える。音声特徴量抽出部591は、対話者の音声波形と対象者の音声波形(例えば、対話者の質問と質問に対する対象者の回答を1つの纏まりとする音声波形)に基づいて、対象者の音声特徴量(例えば、ピッチ、フォルマント周波数、メル周波数スペクトラム係数(MCFF))を抽出するとともに、対話者の音声特徴量(例えば、ピッチ、フォルマント周波数、メル周波数スペクトラム係数(MCFF))を抽出する。認知機能障害を特定するには、音声の3つの要素(韻律、音質及び音韻)のうち、特に韻律が重要な非言語情報であることが知られている。そこで、韻律を特徴付ける音声特徴量として、ピッチ、フォルマント周波数及びメル周波数スペクトラム係数を用いてDNN592を学習させることができる。 FIG. 6 is a schematic diagram showing a first example of the configuration of the cognitive function level determination unit 59. As shown in FIG. 6, the cognitive function level determination unit 59 includes a voice feature amount extraction unit 591 and a DNN (Deep Neural Network) 592. The voice feature amount extraction unit 591 is based on the voice waveform of the interlocutor and the voice waveform of the target person (for example, a voice waveform that combines the question of the interlocutor and the answer of the target person to the question). The feature amount (for example, pitch, formant frequency, mel frequency spectrum coefficient (MCFF)) is extracted, and the voice feature amount of the interlocutor (for example, pitch, formant frequency, mel frequency spectrum coefficient (MCFF)) is extracted. Of the three elements of speech (prosody, sound quality, and phonology), prosody is known to be particularly important nonverbal information for identifying cognitive dysfunction. Therefore, DNN592 can be learned by using the pitch, formant frequency, and Mel frequency spectrum coefficient as the speech features that characterize the prosody.

音声特徴量抽出部591には、識別フラグを入力することができる。識別フラグは、対象者フラグ及び対話者フラグとすることができる。例えば、音声特徴量抽出部591に対話者の音声が入力される場合、音声が入力されている間、対話者フラグを入力し続けてもよく、対話者の音声の開始と終了時に対話者フラグを入力してもよい。音声特徴量抽出部591に対象者の音声が入力される場合、音声が入力されている間、対象者フラグを入力し続けてもよく、対象者の音声の開始と終了時に対象者フラグを入力してもよい。これにより、音声特徴量抽出部591は、対象者のみの音声が入力される場合でも、対象者の音声と対話者の音声が順番に繰り返し入力される場合でも、対象者と対話者の別を識別することができる。音声特徴量抽出部591は、抽出した対象者の特徴量と対話者の特徴量とをDNN592に入力する。 An identification flag can be input to the voice feature amount extraction unit 591. The identification flag can be a target person flag and an interlocutor flag. For example, when the voice of the interlocutor is input to the voice feature amount extraction unit 591, the interlocutor flag may be continuously input while the voice is being input, and the interlocutor flag may be input at the start and end of the voice of the interlocutor. May be entered. When the voice of the target person is input to the voice feature amount extraction unit 591, the target person flag may be continuously input while the voice is being input, and the target person flag is input at the start and end of the voice of the target person. You may. As a result, the voice feature amount extraction unit 591 distinguishes between the target person and the interlocutor regardless of whether the voice of only the target person is input or the voice of the target person and the voice of the interlocutor are repeatedly input in order. Can be identified. The voice feature amount extraction unit 591 inputs the extracted feature amount of the target person and the feature amount of the interlocutor into the DNN 592.

また、DNN592には、対話者の質問等の発話に対する対象者の回答等の応答時間を入力してもよい。DNN592は、健常者及び認知機能障害者と対話する対話者の発話に対する健常者及び認知機能障害者の応答時間を含む学習用データを用いて生成されている。応答時間は、対話者の発話の終了時点から健常者及び認知機能障害者の回答の開始時点までの時間とすることができる。認知機能が低下するのに応じて応答時間は長くなる傾向があると考えられるので、応答時間を学習用データに含めることにより、DNN592の認知機能の判定の精度を向上させることができる。 Further, the response time such as the answer of the target person to the utterance of the interlocutor's question or the like may be input to the DNN 592. DNN592 is generated using learning data including the response times of the healthy and cognitively impaired persons to the utterances of the interlocutors who interact with the healthy and cognitively impaired persons. The response time can be the time from the end of the interlocutor's utterance to the start of the response of the healthy person and the cognitively impaired person. Since it is considered that the response time tends to increase as the cognitive function declines, the accuracy of determining the cognitive function of DNN592 can be improved by including the response time in the learning data.

DNN592は、人の音声が入力されると、当該人の認知機能レベルを判定することができる。図6の例では、認知機能レベル(認知機能障害のレベル)をレベル「1」からレベル「m」までのm個に区分している。認知機能レベルmが重度の認知機能障害に相当し、レベルを示す数値が小さいほど、認知機能障害は軽くなる。 When a person's voice is input, the DNN 592 can determine the cognitive function level of the person. In the example of FIG. 6, the cognitive function level (level of cognitive dysfunction) is divided into m from level "1" to level "m". The cognitive function level m corresponds to severe cognitive dysfunction, and the smaller the numerical value indicating the level, the less the cognitive dysfunction.

認知機能レベル判定部59は、DNN592を生成(学習)するための学習処理部を備えてもよい。学習処理部は、他のコンピュータでもよい。認知機能レベル判定部59は、健常者及び認知機能障害者それぞれの音声データを入力層に与え、入力層に与える音声データに対応する健常者及び認知機能障害者それぞれの認知機能レベルを出力層に与えて生成することができる。この場合、健常者及び認知機能障害者の音声データから音声特徴量(例えば、ピッチ、フォルマント周波数、メル周波数スペクトラム係数など)を抽出し、抽出した音声特徴量を学習用データとして用いることができる。また、認知機能レベルは、例えば、数値で1〜5の如く5段階に区分してもよく(図6の例ではm=5)、正常、軽度認知症及び重度認知症の如く3段階に区分してもよく、正常及び認知症の如く2段階で区分してもよい。これにより、DNN592は、音声に基づいて対象者の認知機能レベルを判定することができる。 The cognitive function level determination unit 59 may include a learning processing unit for generating (learning) DNN592. The learning processing unit may be another computer. The cognitive function level determination unit 59 gives voice data of each of the healthy person and the cognitively impaired person to the input layer, and outputs the cognitive function level of each of the healthy person and the cognitively impaired person corresponding to the voice data given to the input layer to the output layer. Can be given and generated. In this case, a voice feature amount (for example, pitch, formant frequency, mel frequency spectrum coefficient, etc.) can be extracted from the voice data of a healthy person and a cognitively impaired person, and the extracted voice feature amount can be used as learning data. Further, the cognitive function level may be numerically divided into 5 stages such as 1 to 5 (m = 5 in the example of FIG. 6), and may be divided into 3 stages such as normal, mild dementia and severe dementia. It may be divided into two stages such as normal and dementia. Thereby, the DNN 592 can determine the cognitive function level of the subject based on the voice.

また、DNN592は、健常者及び認知機能障害者それぞれの音声に加えて、対話者の音声データを入力層に与え、入力層に与える音声データに対応する健常者及び認知機能障害者それぞれの認知機能レベルを出力層に与えて生成することができる。 Further, the DNN 592 gives the voice data of the interlocutor to the input layer in addition to the voices of the healthy person and the cognitively impaired person, and the cognitive function of each of the healthy person and the cognitively impaired person corresponding to the voice data given to the input layer. It can be generated by giving a level to the output layer.

なお、DNN592を学習させる際に、学習用データとして、健常者及び認知機能障害者の難聴レベルを教師ラベルとして与えてもよい。これにより、DNN592は、対象者の難聴レベルを考慮して認知機能レベルを判定することができるので、補正部60を具備しなくてもよい。 When learning DNN592, the hearing loss level of a healthy person and a cognitively impaired person may be given as a teacher label as learning data. As a result, the DNN 592 can determine the cognitive function level in consideration of the deafness level of the subject, so that the correction unit 60 does not have to be provided.

図7は認知機能レベル判定部59の構成の第2例を示す模式図である。図7に示すように、認知機能レベル判定部59は、RNN(Recurrent Neural Network:再帰型ニューラルネットワーク)593を備える。図7に示すように、対話者の音声波形と対象者の音声波形(例えば、対話者の質問と質問に対する対象者の回答を1つの纏まりとする音声波形)がRNN593に入力されると、RNN593は、対象者の認知機能レベルを出力することができる。図7の例では、認知機能レベルをレベル「1」からレベル「m」までのm個に区分している。認知機能レベルmが重度の認知機能障害に相当し、レベルを示す数値が小さいほど、認知機能障害は軽くなる。また、対象者の音声波形と対話者の音声波形を入力する場合、いずれの話者の音声波形であるかを示す話者フラグをRNN563に入力してもよい。 FIG. 7 is a schematic diagram showing a second example of the configuration of the cognitive function level determination unit 59. As shown in FIG. 7, the cognitive function level determination unit 59 includes an RNN (Recurrent Neural Network) 593. As shown in FIG. 7, when the voice waveform of the interlocutor and the voice waveform of the subject (for example, the voice waveform that combines the question of the interlocutor and the answer of the subject to the question) are input to the RNN593, the RNN593 Can output the cognitive function level of the subject. In the example of FIG. 7, the cognitive function level is divided into m from level "1" to level "m". The cognitive function level m corresponds to severe cognitive dysfunction, and the smaller the numerical value indicating the level, the less the cognitive dysfunction. Further, when inputting the voice waveform of the target person and the voice waveform of the interlocutor, a speaker flag indicating which speaker's voice waveform is used may be input to the RNN563.

RNN593には、識別フラグを入力することができる。識別フラグは、対象者フラグ及び対話者フラグとすることができる。例えば、RNN593に対話者の音声が入力される場合、音声が入力されている間、対話者フラグを入力し続けてもよく、対話者の音声の開始と終了時に対話者フラグを入力してもよい。RNN593に対象者の音声が入力される場合、音声が入力されている間、対象者フラグを入力し続けてもよく、対象者の音声の開始と終了時に対象者フラグを入力してもよい。これにより、RNN593は、対象者のみの音声が入力される場合でも、対象者の音声と対話者の音声が順番に繰り返し入力される場合でも、対象者と対話者の別を識別することができる。なお、対話者フラグは入力しなくてもよい。例えば、対象者の音声だけがRNN593に入力される場合、あるいは、対象者の音声と対話者の音声とが予め識別される場合には、対話者フラグは不要である。 An identification flag can be input to the RNN593. The identification flag can be a target person flag and an interlocutor flag. For example, when the interlocutor's voice is input to RNN593, the interlocutor flag may be continuously input while the voice is input, or the interlocutor flag may be input at the start and end of the interlocutor's voice. good. When the voice of the target person is input to the RNN593, the target person flag may be continuously input while the voice is input, or the target person flag may be input at the start and end of the voice of the target person. Thereby, the RNN593 can distinguish between the target person and the interlocutor regardless of whether the voice of the target person only is input or the voice of the target person and the voice of the interlocutor are repeatedly input in order. .. The interlocutor flag does not have to be entered. For example, if only the voice of the target person is input to the RNN593, or if the voice of the target person and the voice of the interlocutor are identified in advance, the interlocutor flag is unnecessary.

認知機能レベル判定部59は、学習用データを用いて学習済のRNN593を生成することができる。RNN593は、健常者及び認知機能障害者それぞれの音声データを入力層に与え、入力層に与える音声データに対応する健常者及び認知機能障害者それぞれの認知機能レベルを出力層に与えて生成することができる。この場合、学習用データとしての音声データは、健常者及び認知機能障害者の音声データでもよく、健常者及び認知機能障害者と対話者の両方の音声データでもよい。音声データは、そのまま学習用データとして直接用いることができる。また、話者フラグをRNN593に入力して学習させてもよい。RNN593は、入力された音声に基づいて対象者の認知機能レベルを判定することができる。 The cognitive function level determination unit 59 can generate the trained RNN593 using the learning data. The RNN593 is generated by giving the voice data of each of the healthy person and the cognitively impaired person to the input layer and giving the cognitive function level of each of the healthy person and the cognitively impaired person corresponding to the voice data given to the input layer to the output layer. Can be done. In this case, the voice data as the learning data may be voice data of a healthy person and a cognitively impaired person, or may be voice data of both a healthy person and a cognitively impaired person and an interlocutor. The voice data can be directly used as learning data as it is. Further, the speaker flag may be input to the RNN593 for learning. The RNN593 can determine the cognitive function level of the subject based on the input voice.

また、RNN593は、健常者及び認知機能障害者それぞれの音声に加えて、対話者の音声データを入力層に与え、入力層に与える音声データに対応する健常者及び認知機能障害者それぞれの認知機能レベルを出力層に与えて生成することができる。 Further, the RNN593 gives the voice data of the interlocutor to the input layer in addition to the voices of the healthy person and the cognitively impaired person, and the cognitive function of each of the healthy person and the cognitively impaired person corresponding to the voice data given to the input layer. It can be generated by giving a level to the output layer.

図8は認知機能レベル判定部59の構成の第3例を示す模式図である。図8に示すように、認知機能レベル判定部59は、FFT変換部595、及びCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)596を備える。FFT(Fast Fourier Transform:高速フーリエ変換)変換部595は、対話者の音声波形と対象者の音声波形(例えば、対話者の質問と質問に対する対象者の回答を1つの纏まりとする音声波形)をスペクトログラムに変換し、変換した、対象者及び対話者それぞれのスペクトログラムをCNN596に出力する。スペクトログラムは、2次元マップであり、縦軸は周波数を示し、横軸は時間を示し、2次元上の各点(座標)の明るさ又は色等によって、その点での周波数の振幅(強さ)を表すことができる。スペクトログラムは、対話者と対象者の音声波形にどのような周波数成分が含まれるかを示すことができる。 FIG. 8 is a schematic diagram showing a third example of the configuration of the cognitive function level determination unit 59. As shown in FIG. 8, the cognitive function level determination unit 59 includes an FFT conversion unit 595 and a CNN (Convolutional Neural Network) 596. The FFT (Fast Fourier Transform) transform unit 595 converts the interlocutor's voice waveform and the subject's voice waveform (for example, a voice waveform that combines the interlocutor's question and the subject's answer to the question). It is converted into a spectrogram, and the converted spectrograms of the subject and the interlocutor are output to CNN596. The spectrogram is a two-dimensional map, the vertical axis shows the frequency, the horizontal axis shows the time, and the amplitude (strength) of the frequency at that point depends on the brightness or color of each point (coordinates) in the two dimensions. ) Can be expressed. The spectrogram can show what frequency components are included in the speech waveforms of the interlocutor and the subject.

FFT変換部595には、識別フラグを入力することができる。識別フラグは、対象者フラグ及び対話者フラグとすることができる。例えば、FFT変換部595に対話者の音声が入力される場合、音声が入力されている間、対話者フラグを入力し続けてもよく、対話者の音声の開始と終了時に対話者フラグを入力してもよい。FFT変換部595に対象者の音声が入力される場合、音声が入力されている間、対象者フラグを入力し続けてもよく、対象者の音声の開始と終了時に対象者フラグを入力してもよい。これにより、FFT変換部595は、対象者のみの音声が入力される場合でも、対象者の音声と対話者の音声が順番に繰り返し入力される場合でも、対象者と対話者の別を識別することができる。CNN596は、スペクトログラムが入力されると、対象者の認知機能レベルを出力することができる。図8の例では、認知機能レベルをレベル「1」からレベル「m」までのm個に区分している。 An identification flag can be input to the FFT conversion unit 595. The identification flag can be a target person flag and an interlocutor flag. For example, when the voice of the interlocutor is input to the FFT conversion unit 595, the interlocutor flag may be continuously input while the voice is being input, and the interlocutor flag is input at the start and end of the voice of the interlocutor. You may. When the voice of the target person is input to the FFT conversion unit 595, the target person flag may be continuously input while the voice is being input, and the target person flag is input at the start and end of the voice of the target person. May be good. As a result, the FFT converter 595 distinguishes between the target person and the interlocutor regardless of whether the voice of only the target person is input or the voice of the target person and the voice of the interlocutor are repeatedly input in order. be able to. The CNN596 can output the cognitive function level of the subject when the spectrogram is input. In the example of FIG. 8, the cognitive function level is divided into m from level "1" to level "m".

認知機能レベル判定部59は、学習用データを用いて学習済のCNN596を生成することができる。CNN596は、健常者及び認知機能障害者の音声データから変換されたスペクトログラムと、当該健常者及び認知機能障害者の認知機能レベルとを学習用データを用いて生成することができる。なお、スペクトログラムに代えて、音声波形を2次元マップとして捉えると、この2次元マップは、各点(座標)の明るさ又は色等によって、その点での音声信号の有無を表すことができる。そこで、2次元マップとして捉えた音声波形をCNN564に入力してもよい。 The cognitive function level determination unit 59 can generate the trained CNN596 using the learning data. CNN596 can generate a spectrogram converted from voice data of a healthy person and a cognitively impaired person and a cognitive function level of the healthy person and the cognitively impaired person by using the learning data. If the audio waveform is captured as a two-dimensional map instead of the spectrogram, the two-dimensional map can indicate the presence or absence of an audio signal at each point (coordinates) by the brightness or color of each point. Therefore, the voice waveform captured as a two-dimensional map may be input to CNN564.

また、CNN596は、健常者及び認知機能障害者の音声の音声データから変換されたスペクトログラムに加えて、対話者の音声の音声データから変換されたスペクトログラムと、当該健常者及び認知機能障害者の認知機能レベルとを学習用データを用いて生成することができる。 Further, the CNN596 includes a spectrogram converted from the voice data of the interlocutor's voice in addition to the spectrogram converted from the voice data of the healthy person and the cognitively impaired person, and the cognition of the healthy person and the cognitively impaired person. The functional level and can be generated using the training data.

本実施の形態において、認知機能の判定は、図6〜図8に例示した、各構成のいずれかを用いてもよく、各構成を組み合わせてもよい。例えば、図6と図7の各構成の両方を用いて認知機能の判定を行ってもよく、図6と図8の各構成の両方を用いて認知機能の判定を行ってもよい。構成を組み合わせる場合には、各構成の判定結果を総合的に判定して最終判定とすればよい。 In the present embodiment, the determination of the cognitive function may use any of the configurations illustrated in FIGS. 6 to 8 or may combine the configurations. For example, the cognitive function may be determined using both the configurations of FIGS. 6 and 7, and the cognitive function may be determined using both the configurations of FIGS. 6 and 8. When combining the configurations, the determination results of each configuration may be comprehensively determined and used as the final determination.

上述のように、DNN592、RNN593、CNN596は、健常者及び認知機能障害者と対話する対話者の音声データを含む学習用データを用いて生成されている。健常者及び認知機能障害者の音声だけでなく、健常者及び認知機能障害者と対話する対話者の音声も認知機能の判定の要素とすることができる。すなわち、対話者の質問等の発話に対する健常者及び認知機能障害者の回答等の応答を認知機能の判定に用いることができるので、人の問いかけに対して、健常者及び認知機能障害者がどのように反応しているかを学習することでき、DNN592、RNN593、CNN596の認知機能の判定の精度を向上させることができる。 As described above, DNN592, RNN593, and CNN596 are generated using learning data including voice data of interlocutors interacting with healthy and cognitively impaired persons. Not only the voices of healthy persons and cognitively impaired persons, but also the voices of interlocutors who interact with healthy persons and cognitively impaired persons can be a factor for determining cognitive function. That is, since the responses such as the answers of the healthy person and the cognitively impaired person to the utterance of the interlocutor's question can be used to judge the cognitive function, which of the healthy person and the cognitively impaired person responds to the human question. It is possible to learn how to react in this way, and it is possible to improve the accuracy of determining the cognitive function of DNN592, RNN593, and CNN596.

本実施の形態において、DNN592、RNN593、CNN596は、自身が判定した対象者の認知機能レベルを、医師が判断した認知機能レベルに更新した学習用データを用いて再学習することができる。例えば、DNN592が、ある対象者の認知機能レベルをレベル「3」と判定したとする。医師が診察によって当該対象者の認知機能レベルをレベル「4」と判定した場合、当該対象者の音声と認知機能レベルを「4」に更新した学習用データを用いてDNN592を再学習させることができる。RNN593、CNN596についても同様である。これにより、DNN592、RNN593、CNN596の認知機能の判定の精度を向上させることができる。 In the present embodiment, the DNN592, RNN593, and CNN596 can relearn the cognitive function level of the subject determined by themselves using the learning data updated to the cognitive function level determined by the doctor. For example, assume that DNN592 determines the cognitive function level of a subject as level "3". If the doctor determines that the subject's cognitive function level is level "4" by medical examination, the DNN592 can be relearned using the learning data with the subject's voice and cognitive function level updated to "4". can. The same applies to RNN593 and CNN596. This makes it possible to improve the accuracy of determining the cognitive function of DNN592, RNN593, and CNN596.

次に、認知機能レベルの補正方法について説明する。 Next, a method for correcting the cognitive function level will be described.

補正部60は、難聴レベル判定部58で判定した難聴レベルに基づいて認知機能レベル判定部59で判定した認知機能レベルを補正することができる。対象者の難聴レベルが高い場合、難聴の影響で、対象者の認知症レベルが本来の認知症レベルより高く判定されている可能性が高い。そこで、補正部60は、難聴レベルが高い対象者の認知機能レベルを低く(軽症に)なるように補正する。 The correction unit 60 can correct the cognitive function level determined by the cognitive function level determination unit 59 based on the deafness level determined by the deafness level determination unit 58. If the subject has a high level of deafness, it is highly likely that the subject's dementia level is determined to be higher than the original dementia level due to the effects of deafness. Therefore, the correction unit 60 corrects the cognitive function level of the subject having a high level of deafness so as to be low (mild).

図9は認知機能レベルの補正方法の一例を示す説明図である。図に示すように、認知機能レベルを数値1〜5で表し、難聴レベルを数値1〜5で表すとする。認知機能レベルの数値及び難聴レベルの数値が大きいほど重症であるとする。図9の各セルの値は、補正後の認知機能レベルを示している。また、図では、便宜上、補正後の認知機能レベルを表す領域を4つに区分している。 FIG. 9 is an explanatory diagram showing an example of a method for correcting the cognitive function level. As shown in the figure, the cognitive function level is represented by numerical values 1 to 5, and the deafness level is represented by numerical values 1 to 5. The larger the cognitive function level and the deafness level, the more severe the condition. The values in each cell of FIG. 9 indicate the corrected cognitive function level. Further, in the figure, for convenience, the area representing the corrected cognitive function level is divided into four.

補正前の認知機能レベルが1〜3であり、かつ難聴レベルが1〜3である領域(図では無模様)は、例えば、非認知症・非難聴の領域である。難聴による認知機能レベルに対する影響は小さいため、補正部60は、認知機能レベルを補正しない。 The region where the cognitive function level before correction is 1 to 3 and the deafness level is 1 to 3 (no pattern in the figure) is, for example, a region of non-dementia / non-deafness. Since the effect of deafness on the cognitive function level is small, the correction unit 60 does not correct the cognitive function level.

補正前の認知機能レベルが1〜3であり、かつ難聴レベルが4〜5である領域(図では左斜線模様)は、例えば、非認知症・難聴の領域である。難聴による認知機能レベルに対する影響はあるものの、非認知症と判定されているため、補正部60は、認知機能レベルを補正しない。 The region where the cognitive function level before correction is 1 to 3 and the hearing loss level is 4 to 5 (left diagonal pattern in the figure) is, for example, a region of non-dementia / deafness. Although there is an effect on the cognitive function level due to deafness, the correction unit 60 does not correct the cognitive function level because it is determined to be non-dementia.

補正前の認知機能レベルが4〜5であり、かつ難聴レベルが1〜3である領域(図では右斜線模様)は、例えば、認知症・非難聴の領域である。難聴による認知機能レベルに対する影響は小さいため、補正部60は、認知機能レベルを補正しない。 The region where the cognitive function level before correction is 4 to 5 and the hearing loss level is 1 to 3 (right diagonal pattern in the figure) is, for example, a dementia / non-deafness region. Since the effect of deafness on the cognitive function level is small, the correction unit 60 does not correct the cognitive function level.

補正前の認知機能レベルが4〜5であり、かつ難聴レベルが4〜5である領域(図では網模様)は、例えば、認知症・難聴の領域である。難聴による認知機能レベルに対する影響があるため、補正部60は、認知機能レベルを補正する。具体的には、補正部60は、難聴レベルが4の場合、認知機能レベルを0.5だけ小さくし、難聴レベルが5の場合、認知機能レベルを1だけ小さくしている。 The region where the cognitive function level before correction is 4 to 5 and the hearing loss level is 4 to 5 (net pattern in the figure) is, for example, a region of dementia / deafness. Since deafness has an effect on the cognitive function level, the correction unit 60 corrects the cognitive function level. Specifically, the correction unit 60 reduces the cognitive function level by 0.5 when the deafness level is 4, and reduces the cognitive function level by 1 when the deafness level is 5.

この場合、補正前に認識機能レベルが4であって認知症と判定された対象者が、難聴レベルが5であったとすると、補正後の認知機能レベルは、4から3に補正されるので、認知症ではないと判定することができる。なお、補正時の数値変更は、図9の例に限定されない。 In this case, if the subject who had a cognitive function level of 4 before the correction and was determined to have dementia had a deafness level of 5, the corrected cognitive function level would be corrected from 4 to 3. It can be determined that there is no dementia. The numerical change at the time of correction is not limited to the example of FIG.

上述のように、対象者が認知症であると判定され、かつ難聴であると判定された場合には、難聴レベルに応じて、判定された認知機能レベルを補正することにより、当該対象者は認知症ではないと判定することができる場合がある。これにより、難聴のために認知症と判定された対象者を識別して、対象者が認知症であると誤って判定されることを防止できる。 As described above, when the subject is determined to have dementia and hearing loss, the subject is corrected by correcting the determined cognitive function level according to the level of hearing loss. It may be possible to determine that you do not have dementia. This makes it possible to identify a subject who has been determined to have dementia due to deafness and prevent the subject from being erroneously determined to have dementia.

次に、判定結果の表示方法について説明する。 Next, a method of displaying the determination result will be described.

出力部61は、認知機能レベル判定部59で判定した認知機能レベルと、難聴レベル判定部58で判定した難聴レベルとを関連付けて表示するための表示データを出力することができる。 The output unit 61 can output display data for displaying the cognitive function level determined by the cognitive function level determination unit 59 and the deafness level determined by the deafness level determination unit 58 in association with each other.

図10は判定結果の表示方法の第1例を示す模式図である。難聴判定装置50は、記憶部56に、対象者の難聴レベル及び認知機能レベルの判定結果の履歴を記録することができる。なお、記憶部56に代えて、外部のデータベースに記録してもよい。図10に示すように、認知機能レベルに応じて、認知症と非認知症の2つの区分に分けるとともに、難聴レベルに応じて、難聴と非難聴の2つの区分に分けるとする。これにより、判定結果を、非認知症・難聴、非認知症・非難聴、認知症・難聴、及び認知症・非難聴の4つの領域に区分でき、認知症と難聴との関係を容易に識別することができる。また、出力部61は、判定した認知機能レベルと、補正した認知機能レベルとを対応付けて出力することができる。図10の例では、補正前では認知症であると判定された対象者は、その対象者の難聴レベルも考慮することにより、認知機能レベルが補正され、認知症ではないと判定されている。このように、対象者が認知症と判定されたが、実際には認知症ではないのか、やはり認知症であるのかを容易に確認することができる。 FIG. 10 is a schematic diagram showing a first example of a determination result display method. The deafness determination device 50 can record the history of the determination result of the deafness level and the cognitive function level of the subject in the storage unit 56. In addition, instead of the storage unit 56, it may be recorded in an external database. As shown in FIG. 10, it is divided into two categories according to the cognitive function level, dementia and non-dementia, and according to the deafness level, it is divided into two categories, deafness and non-deafness. As a result, the judgment results can be divided into four areas: non-dementia / deafness, non-dementia / non-deafness, dementia / deafness, and dementia / non-deafness, and the relationship between dementia and deafness can be easily identified. can do. Further, the output unit 61 can output the determined cognitive function level and the corrected cognitive function level in association with each other. In the example of FIG. 10, the subject determined to have dementia before the correction has the cognitive function level corrected by considering the deafness level of the subject, and is determined not to have dementia. In this way, although the subject was determined to have dementia, it is possible to easily confirm whether or not the subject actually has dementia.

図11は判定結果の表示方法の第2例を示す模式図である。出力部61は、対象者の認知機能レベル及び難聴レベルの少なくとも一方を時系列に表示するための表示データを出力することができる。図11の例では、対象者は認知症ではないが、難聴レベルが年月とともに徐々に増加していることが分かる。図中、実線部分は、過去から現在までの実績を示し、破線部分は将来の予測を示している。図11の例では、対象者の難聴レベルが、どのように推移するかを容易に確認することができる。対象者は、早期に難聴対策を行うことができる。 FIG. 11 is a schematic diagram showing a second example of a determination result display method. The output unit 61 can output display data for displaying at least one of the cognitive function level and the deafness level of the subject in chronological order. In the example of FIG. 11, it can be seen that the subject does not have dementia, but the level of deafness gradually increases over the years. In the figure, the solid line part shows the actual results from the past to the present, and the broken line part shows the future forecast. In the example of FIG. 11, it is possible to easily confirm how the deafness level of the subject changes. The subject can take measures against deafness at an early stage.

図12は判定結果の表示方法の第3例を示す模式図である。図12の例では、対象者は認知症ではないが、難聴レベルが年月とともに徐々に増加するとともに、認知機能レベルも増加していることが分かる。図中、実線部分は、過去から現在までの実績を示し、破線部分は将来の予測を示している。図12の例では、対象者の難聴レベル及び認知機能レベルが、どのように推移するかを容易に確認することができる。対象者は、早期に難聴対策及び認知症対策を行うことができる。 FIG. 12 is a schematic diagram showing a third example of a determination result display method. In the example of FIG. 12, although the subject does not have dementia, it can be seen that the level of deafness gradually increases over the years and the level of cognitive function also increases. In the figure, the solid line part shows the actual results from the past to the present, and the broken line part shows the future forecast. In the example of FIG. 12, it is possible to easily confirm how the deafness level and the cognitive function level of the subject change. The subject can take measures against deafness and dementia at an early stage.

図13は判定結果の表示方法の第4例を示す模式図である。図13の例では、年代別に、認知機能レベルと難聴レベルとの関係が分かるように統計分布を図示している。図では、50代、60代、70代、及び80代の統計分布が図示されている。また、対象者(図では、「あなた」)の認知機能レベルと難聴レベルとに対応する位置も表示している。これにより、対象者が自分の年齢と比較して、どの程度の年代の統計値に相当するのかが分かり、同年代よりも認知症や難聴が進行しているのか否を容易に判断することができる。 FIG. 13 is a schematic diagram showing a fourth example of a determination result display method. In the example of FIG. 13, the statistical distribution is shown so that the relationship between the cognitive function level and the deafness level can be understood by age group. In the figure, the statistical distributions of the 50s, 60s, 70s, and 80s are shown. In addition, the positions corresponding to the cognitive function level and the deafness level of the subject (“you” in the figure) are also displayed. From this, it is possible to know how much the subject corresponds to the statistical value of the age compared to his / her own age, and it is possible to easily determine whether dementia or deafness is more advanced than that of the same age. ..

図14は難聴判定システムの処理手順の一例を示すフローチャートである。端末装置10は、対話音声を取得し(S11)、取得した対話音声を難聴判定装置50へ送信する(S12)。難聴判定装置50は、対話音声を受信し(S13)、対話者の音声と対象者の音声とを識別する(S14)。難聴判定装置50は、対話者の各音声の特徴量を抽出し(S15)、対象者の各回答の遅延時間を算出し(S16)、対象者の各回答の不安レベルを判定する(S17)。 FIG. 14 is a flowchart showing an example of the processing procedure of the deafness determination system. The terminal device 10 acquires the dialogue voice (S11) and transmits the acquired dialogue voice to the deafness determination device 50 (S12). The deafness determination device 50 receives the dialogue voice (S13) and discriminates between the voice of the dialogue person and the voice of the target person (S14). The deafness determination device 50 extracts the feature amount of each voice of the interlocutor (S15), calculates the delay time of each answer of the subject (S16), and determines the anxiety level of each answer of the subject (S17). ..

難聴判定装置50は、対象者の難聴レベルを判定し(S18)、対象者の認知機能レベルを判定する(S19)。難聴判定装置50は、判定した難聴レベルに基づいて対象者の認知機能レベルを補正し(S20)、難聴レベル及び認知機能レベルを対応付けたデータを端末装置10へ送信し(S21)、処理を終了する。端末装置10は、難聴レベル及び認知機能レベルを対応付けたデータを受信して表示し(S22)、処理を終了する。 The deafness determination device 50 determines the deafness level of the subject (S18) and determines the cognitive function level of the subject (S19). The deafness determination device 50 corrects the cognitive function level of the subject based on the determined deafness level (S20), transmits data associated with the deafness level and the cognitive function level to the terminal device 10 (S21), and performs processing. finish. The terminal device 10 receives and displays data associated with the deafness level and the cognitive function level (S22), and ends the process.

難聴判定装置50は、CPU(プロセッサ)、GPU、RAM(メモリ)などを備えた汎用コンピュータを用いて実現することもできる。すなわち、図14に示すような、各処理の手順を定めたコンピュータプログラムをコンピュータに備えられたRAM(メモリ)にロードし、コンピュータプログラムをCPU(プロセッサ)で実行することにより、コンピュータ上で難聴判定装置50を実現することができる。コンピュータプログラムは記録媒体に記録され流通されてもよい。学習済のDNN592、RNN593、CNN596は、それぞれ学習処理部を備える他のサーバ等で生成して、難聴判定装置50にダウンロードしてもよい。 The deafness determination device 50 can also be realized by using a general-purpose computer including a CPU (processor), a GPU, a RAM (memory), and the like. That is, as shown in FIG. 14, a computer program that defines the procedure for each process is loaded into a RAM (memory) provided in the computer, and the computer program is executed by the CPU (processor) to determine hearing loss on the computer. The device 50 can be realized. The computer program may be recorded and distributed on a recording medium. The learned DNN592, RNN593, and CNN596 may be generated by another server or the like having a learning processing unit, and downloaded to the deafness determination device 50.

本実施の形態の難聴判定装置50は、様々な機器に組み込むことができる。例えば、補聴器にマイクと本実施の形態の難聴判定装置50とを組み込むことにより、認知機能判定が可能な補聴器を実現することができる。補聴器のマイクで対象者の音声を取得して、難聴レベルだけでなく認知機能レベルも判定することができる。判定結果は、補聴器との間で無線通信可能な表示ディスプレ(例えば、スマートフォン、タブレット、パーソナルコンピュータ、TVなど)に表示することができる。 The deafness determination device 50 of the present embodiment can be incorporated into various devices. For example, by incorporating a microphone and the hearing loss determination device 50 of the present embodiment into the hearing aid, it is possible to realize a hearing aid capable of determining cognitive function. By acquiring the subject's voice with the microphone of the hearing aid, it is possible to determine not only the deafness level but also the cognitive function level. The determination result can be displayed on a display display (for example, a smartphone, a tablet, a personal computer, a TV, etc.) capable of wireless communication with the hearing aid.

また、本実施の形態の難聴判定装置50をロボットやスマートスピーカに組み込むことができる。ロボットやスマートスピーカは、対象者と対話することにより、対象者の音声を取得し、難聴レベル及び認知機能レベルも判定することができる。この場合、ロボットやスマートスピーカの発話は、例えば、聞き取りにくい話し方と聞き取りやすい話し方の両方の音声を出力して対象者の反応を取得することができる。判定結果は、対象者の携帯端末(例えば、スマートフォン、タブレット)に出力してもよく、音声で判定結果を通知してもよい。このようなロボットは、病院、診療所、役所、店舗などに設置することができる。また、スマートスピーカは、対象者や家族の自宅に設置することにより、例えば、見守りサービスを実現できる。 Further, the hearing loss determination device 50 of the present embodiment can be incorporated into a robot or a smart speaker. By interacting with the subject, the robot or smart speaker can acquire the subject's voice and determine the hearing loss level and the cognitive function level. In this case, the utterance of the robot or the smart speaker can acquire the reaction of the target person by outputting the voices of both the difficult-to-hear and easy-to-hear speeches, for example. The determination result may be output to the target person's mobile terminal (for example, a smartphone or tablet), or the determination result may be notified by voice. Such robots can be installed in hospitals, clinics, government offices, stores, and the like. Further, by installing the smart speaker at the home of the target person or family, for example, a watching service can be realized.

また、本実施の形態の難聴判定装置50を、スマートフォン、タブレット、パーソナルコンピュータ、カメラ等に組み込み、対象者がTV電話を行う際に、音声を取得し、難聴レベル及び認知機能レベルも判定することができる。判定結果は、スマートフォン、タブレット、パーソナルコンピュータ、カメラに記録され、必要に応じて、あるいは定期的に表示又は出力するようにしてもよい。これにより、対象者は、自身の難聴レベル及び認知機能レベルの履歴をいつでも確認することができる。 In addition, the deafness determination device 50 of the present embodiment is incorporated into a smartphone, tablet, personal computer, camera, or the like, and when the subject makes a videophone, the voice is acquired and the deafness level and the cognitive function level are also determined. Can be done. The determination result may be recorded in a smartphone, tablet, personal computer, or camera, and may be displayed or output as needed or periodically. As a result, the subject can check the history of his / her deafness level and cognitive function level at any time.

本実施の形態の難聴判定装置は、対象者と対話者との対話音声を取得する取得部と、前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部とを備える。 The deafness determination device of the present embodiment has an acquisition unit that acquires a dialogue voice between the target person and the interlocutor, and an extraction unit that extracts a feature amount related to the voice of the interlocutor based on the dialogue voice acquired by the acquisition unit. And the calculation unit that calculates the delay time of the response of the target person to the speech of the interlocutor based on the dialogue voice acquired by the acquisition unit, the feature amount extracted by the extraction unit, and the delay calculated by the calculation unit. It is provided with a deafness level determination unit that determines the deafness level of the subject based on time.

本実施の形態の難聴判定システムは、対象者と対話者との対話音声を取得する取得部と、前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部とを備える。 The deafness determination system of the present embodiment has an acquisition unit that acquires a dialogue voice between the target person and the interlocutor, and an extraction unit that extracts a feature amount related to the voice of the interlocutor based on the dialogue voice acquired by the acquisition unit. And the calculation unit that calculates the delay time of the response of the target person to the speech of the interlocutor based on the dialogue voice acquired by the acquisition unit, the feature amount extracted by the extraction unit, and the delay calculated by the calculation unit. It is provided with a deafness level determination unit that determines the deafness level of the subject based on time.

本実施の形態のコンピュータプログラムは、コンピュータに、対象者と対話者との対話音声を取得する処理と、取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する処理と、取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する処理と、抽出した特徴量及び算出した遅延時間に基づいて前記対象者の難聴レベルを判定する処理とを実行させる。 The computer program of the present embodiment has acquired a process of acquiring a dialogue voice between the target person and the interlocutor and a process of extracting a feature amount related to the voice of the interlocutor based on the acquired dialogue voice. A process of calculating the delay time of the subject's response to the interlocutor's utterance based on the dialogue voice and a process of determining the hearing loss level of the subject based on the extracted feature amount and the calculated delay time are executed. Let me.

本実施の形態の難聴判定方法は、対象者と対話者との対話音声を取得し、取得された対話音声に基づいて前記対話者の音声に関する特徴量を抽出し、取得された対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出し、抽出された特徴量及び算出された遅延時間に基づいて前記対象者の難聴レベルを判定する。 The hearing loss determination method of the present embodiment acquires the dialogue voice between the target person and the interlocutor, extracts the feature amount related to the voice of the interlocutor based on the acquired dialogue voice, and is based on the acquired dialogue voice. The delay time of the response of the subject to the speech of the interlocutor is calculated, and the hearing loss level of the subject is determined based on the extracted feature amount and the calculated delay time.

取得部は、対象者と対話者との対話音声を取得する。対象者は、難聴を判定する対象者である。対話者は、対象者と対話する者であり、例えば、医師、看護師、カウンセラ、介護士などが含まれる。抽出部は、取得した対話音声に基づいて対話者の音声に関する特徴量を抽出する。特徴量は、難聴者にとって聞き取りにくさを表すことができる特徴量であればよい。 The acquisition unit acquires the dialogue voice between the target person and the interlocutor. The subject is a subject who determines deafness. The interlocutor is a person who interacts with the subject, and includes, for example, a doctor, a nurse, a counselor, a caregiver, and the like. The extraction unit extracts the feature amount related to the voice of the interlocutor based on the acquired dialogue voice. The feature amount may be any feature amount that can express the difficulty of hearing for a hearing-impaired person.

算出部は、取得した対話音声に基づいて対話者の発話に対する対象者の回答の遅延時間を算出する。遅延時間は、対話者の発話の終了時点から対象者の回答の開始時点までの時間とすることができる。健常者と比較して難聴者の場合は、遅延時間は長くなる傾向があると考えられる。判定部は、抽出した特徴量及び算出した遅延時間に基づいて対象者の難聴レベルを判定する。すなわち、対象者にとって、対話者の発話がどの程度聞き取りにくいかという点と、対話者の発話に対して対象者の発話がどの程度遅れるかという点に応じて対象者の難聴レベルを判定するので、対象者の難聴を判定することができる。 The calculation unit calculates the delay time of the target person's response to the interlocutor's utterance based on the acquired dialogue voice. The delay time can be the time from the end of the interlocutor's utterance to the start of the subject's response. Deaf people tend to have longer delays than healthy people. The determination unit determines the hearing loss level of the subject based on the extracted feature amount and the calculated delay time. That is, the level of deafness of the subject is determined according to how difficult it is for the subject to hear the interlocutor's utterance and how much the subject's utterance is delayed with respect to the interlocutor's utterance. , The deafness of the subject can be determined.

本実施の形態の難聴判定装置は、前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の不安レベルを判定する不安レベル判定部を備え、前記難聴レベル判定部は、前記不安レベル判定部で判定した不安レベルに基づいて前記対象者の難聴レベルを判定する。 The hearing loss determination device of the present embodiment includes an anxiety level determination unit that determines the anxiety level of the subject with respect to the utterance of the interlocutor based on the dialogue voice acquired by the acquisition unit. The hearing loss level of the subject is determined based on the anxiety level determined by the anxiety level determination unit.

不安レベル判定部は、取得した対話音声に基づいて対話者の発話に対する対象者の不安レベルを判定する。不安レベルの大小は、自信レベルの小大に対応する。不安レベルの判定には、例えば、対象者の発話の声量、発話内容の具体性や明確さ等を用いることができる。 The anxiety level determination unit determines the anxiety level of the subject with respect to the utterance of the interlocutor based on the acquired dialogue voice. The magnitude of the anxiety level corresponds to the magnitude of the self-confidence level. For the determination of the anxiety level, for example, the voice volume of the subject's utterance, the specificity and clarity of the utterance content, and the like can be used.

難聴レベル判定部は、判定した不安レベルに基づいて対象者の難聴レベルを判定する。例えば、不安レベルが高い場合には、対話者の発話が聞こえない、あるいは聞きにくいことが原因と考えられるので、難聴レベルが高いと判定することができる。これにより、さらに、対象者の難聴を精度よく判定することができる。 The deafness level determination unit determines the deafness level of the subject based on the determined anxiety level. For example, when the level of anxiety is high, it can be determined that the level of deafness is high because it is considered that the cause is that the interlocutor's utterance cannot be heard or is difficult to hear. As a result, it is possible to accurately determine the deafness of the subject.

不安レベル判定部は、対象者の声量、回答の内容の少なくとも一つに基づいて不安レベルを判定する。例えば、対象者の声が小さい場合には、不安レベルは高いと判定することができる。また、対象者の発話内容が不明瞭又は不明確である場合、不安レベルは高いと判定することができる。 The anxiety level determination unit determines the anxiety level based on at least one of the subject's voice volume and the content of the answer. For example, when the subject's voice is low, it can be determined that the anxiety level is high. In addition, when the utterance content of the subject is unclear or unclear, it can be determined that the anxiety level is high.

本実施の形態の難聴判定装置において、前記抽出部は、前記対話者の音声に含まれる、所定の閾値以上の高周波数域のパワー、時間、回数又は頻度の少なくとも一つを前記特徴量として抽出する。 In the hearing loss determination device of the present embodiment, the extraction unit extracts at least one of the power, time, number of times, or frequency in a high frequency range above a predetermined threshold value included in the voice of the interlocutor as the feature amount. do.

抽出部は、対話者の音声に含まれる、子音又は所定の閾値以上の高周波数域のパワー、時間、回数又は頻度の少なくとも一つを特徴量として抽出する。パワーは、子音又は閾値以上の高周波数域の音声の強さとすることができる。時間は、子音又は閾値以上の高周波数域の音声が出ている時間とすることができる。回数は、対話者の発話の1フレーズ中に、子音又は閾値以上の高周波数域が含まれる単語が何回出現したかを表す。頻度は、単位時間当たりに、子音又は閾値以上の高周波数域が含まれる単語が何回出現したかを表す。 The extraction unit extracts at least one of consonants or power, time, number of times, or frequency in a high frequency range equal to or higher than a predetermined threshold value included in the voice of the interlocutor as a feature amount. The power can be the intensity of consonants or speech in the high frequency range above the threshold. The time can be the time during which a consonant or a sound in a high frequency range equal to or higher than the threshold value is output. The number of times indicates how many times a word containing a consonant or a high frequency range equal to or higher than a threshold value appears in one phrase of the interlocutor's utterance. Frequency indicates how many times a word containing a consonant or a high frequency range above a threshold value appears per unit time.

本実施の形態の難聴判定装置は、前記取得部で取得した対話音声に基づいて前記対象者の認知機能レベルを判定する認知機能判定部と、前記難聴レベル判定部で判定した難聴レベルに基づいて前記認知機能判定部で判定した認知機能レベルを補正する補正部とを備える。 The hearing loss determination device of the present embodiment is based on a cognitive function determination unit that determines the cognitive function level of the subject based on the dialogue voice acquired by the acquisition unit and a hearing loss level determined by the hearing loss level determination unit. A correction unit for correcting the cognitive function level determined by the cognitive function determination unit is provided.

認知機能判定部は、取得した対話音声に基づいて対象者の認知機能レベルを判定する。認知機能レベルの判定には、例えば、対話音声の音声特徴量(例えば、音声の高さに関連するピッチ、母音や子音の特徴に関連するフォルマント周波数、声道特性に関連するメル周波数スペクトラム係数(MFCC)など)に基づいて行うことができる。認知機能レベルの判定には、例えば、ルールベース、機械学習の一手法であるサポートベクターマシン(SVM)、ニューラルネットワークなどの学習モデルを用いることができる。 The cognitive function determination unit determines the cognitive function level of the subject based on the acquired dialogue voice. For determining the cognitive function level, for example, the voice feature amount of the dialogue voice (for example, the pitch related to the pitch of the voice, the formant frequency related to the characteristics of vowels and consonants, and the mel frequency spectrum coefficient related to the vocal tract characteristic (for example). It can be done based on MFCC) etc.). For the determination of the cognitive function level, for example, a learning model such as a rule base, a support vector machine (SVM) which is a method of machine learning, or a neural network can be used.

補正部は、難聴レベル判定部で判定した難聴レベルに基づいて認知機能判定部で判定した認知機能レベルを補正する。例えば、対象者が認知症であると判定され、かつ難聴であると判定された場合には、難聴レベルに応じて、判定された認知機能レベルを補正することにより、当該対象者は認知症ではないと判定することができる場合がある。これにより、難聴のために認知症と判定された対象者を識別して、対象者が認知症であると誤って判定されることを防止できる。 The correction unit corrects the cognitive function level determined by the cognitive function determination unit based on the deafness level determined by the deafness level determination unit. For example, if the subject is determined to have dementia and has hearing loss, the subject may have dementia by correcting the determined cognitive function level according to the level of hearing loss. It may be possible to determine that there is no such thing. This makes it possible to identify a subject who has been determined to have dementia due to deafness and prevent the subject from being erroneously determined to have dementia.

本実施の形態の難聴判定装置は、前記認知機能判定部で判定した認知機能レベルと、前記難聴レベル判定部で判定した難聴レベルとを関連付けて表示するための表示データを出力する出力部を備える。 The deafness determination device of the present embodiment includes an output unit that outputs display data for displaying the cognitive function level determined by the cognitive function determination unit in association with the deafness level determined by the deafness level determination unit. ..

出力部は、認知機能判定部で判定した認知機能レベルと、難聴レベル判定部で判定した難聴レベルとを関連付けて表示するための表示データを出力する。例えば、認知機能レベルに応じて、認知症と非認知症の2つの区分に分けるとともに、難聴レベルに応じて、難聴と非難聴の2つの区分に分けるとする。これにより、判定結果を、非認知症・難聴、非認知症・非難聴、認知症・難聴、及び認知症・非難聴の4つの領域に区分でき、認知症と難聴との関係を容易に識別することができる。 The output unit outputs display data for displaying the cognitive function level determined by the cognitive function determination unit in association with the deafness level determined by the deafness level determination unit. For example, it is divided into two categories, dementia and non-dementia, according to the cognitive function level, and divided into two categories, deafness and non-deafness, according to the level of deafness. As a result, the judgment results can be divided into four areas: non-dementia / deafness, non-dementia / non-deafness, dementia / deafness, and dementia / non-deafness, and the relationship between dementia and deafness can be easily identified. can do.

本実施の形態の難聴判定装置において、前記出力部は、前記対象者の認知機能レベル及び難聴レベルの少なくとも一方を時系列に表示するための表示データを出力する。 In the deafness determination device of the present embodiment, the output unit outputs display data for displaying at least one of the cognitive function level and the deafness level of the subject in time series.

出力部は、対象者の認知機能レベル及び難聴レベルの少なくとも一方を時系列に表示するための表示データを出力する。これにより、対象者の認知機能レベル及び難聴レベルの少なくとも一方が、どのように推移するかを容易に確認することができる。対象者は、早期に難聴対策又は認知症対策を行うことができる。 The output unit outputs display data for displaying at least one of the cognitive function level and the deafness level of the subject in chronological order. This makes it possible to easily confirm how at least one of the cognitive function level and the deafness level of the subject changes. The subject can take measures against deafness or dementia at an early stage.

本実施の形態の難聴判定装置において、前記出力部は、前記認知機能判定部で判定した認知機能レベルと、前記補正部で補正した認知機能レベルとを対応付けて出力する。 In the deafness determination device of the present embodiment, the output unit outputs the cognitive function level determined by the cognitive function determination unit in association with the cognitive function level corrected by the correction unit.

出力部は、判定した認知機能レベルと、補正した認知機能レベルとを対応付けて出力する。これにより、対象者が認知症と判定されたが、実施は認知症ではないのか、やはり認知症であるのかを容易に確認することができる。 The output unit outputs the determined cognitive function level in association with the corrected cognitive function level. As a result, although the subject was determined to have dementia, it is possible to easily confirm whether the implementation is not dementia or also dementia.

1 通信ネットワーク
10 端末装置
11 マイク
50 難聴判定装置
51 制御部
52 通信部
53 音声識別部
54 特徴量抽出部
55 遅延時間算出部
56 記憶部
57 不安レベル判定部
58 難聴レベル判定部
59 認知機能レベル判定部
591 音声特徴量抽出部
592 DNN
593 RNN
595 FFT変換部
596 CNN
60 補正部
61 出力部
1 Communication network 10 Terminal device 11 Microphone 50 Deafness judgment device 51 Control unit 52 Communication unit 53 Voice identification unit 54 Feature extraction unit 55 Delay time calculation unit 56 Storage unit 57 Anxiety level determination unit 58 Deafness level determination unit 59 Cognitive function level determination Part 591 Voice feature extraction part 592 DNN
593 RNN
595 FFT converter 596 CNN
60 Correction unit 61 Output unit

本発明は、難聴判定装置、難聴判定システム、コンピュータプログラム及び認知機能レベル補正方法に関する。 The present invention relates to a deafness determination device, a deafness determination system, a computer program, and a cognitive function level correction method.

本発明は、斯かる事情に鑑みてなされたものであり、対象者の難聴を判定することができる難聴判定装置、難聴判定システム、コンピュータプログラム及び認知機能レベル補正方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a deafness determination device, a deafness determination system, a computer program, and a cognitive function level correction method capable of determining a subject's deafness. ..

本発明の実施の形態に係る難聴判定装置は、対象者と対話者との対話音声を取得する取得部と、前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部と、前記難聴レベル判定部で判定した難聴レベルに基づいて前記対象者の認知機能レベルを補正する補正部とを備える。 The deafness determination device according to the embodiment of the present invention extracts a feature amount related to the voice of the interlocutor based on the acquisition unit that acquires the dialogue voice between the target person and the interlocutor and the dialogue voice acquired by the acquisition unit. The extraction unit, the calculation unit that calculates the delay time of the response of the target person to the speech of the interlocutor based on the dialogue voice acquired by the acquisition unit, the feature amount extracted by the extraction unit, and the calculation unit. It is provided with a deafness level determination unit that determines the deafness level of the subject based on the calculated delay time, and a correction unit that corrects the cognitive function level of the subject based on the deafness level determined by the deafness level determination unit. ..

本発明の実施の形態に係る難聴判定システムは、対象者と対話者との対話音声を取得する取得部と、前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部と、前記難聴レベル判定部で判定した難聴レベルに基づいて前記対象者の認知機能レベルを補正する補正部とを備える。 The deafness determination system according to the embodiment of the present invention extracts a feature amount related to the voice of the interlocutor based on the acquisition unit that acquires the dialogue voice between the target person and the interlocutor and the dialogue voice acquired by the acquisition unit. The extraction unit, the calculation unit that calculates the delay time of the response of the target person to the speech of the interlocutor based on the dialogue voice acquired by the acquisition unit, the feature amount extracted by the extraction unit, and the calculation unit. It is provided with a deafness level determination unit that determines the deafness level of the subject based on the calculated delay time, and a correction unit that corrects the cognitive function level of the subject based on the deafness level determined by the deafness level determination unit. ..

本発明の実施の形態に係るコンピュータプログラムは、コンピュータに、対象者と対話者との対話音声を取得する処理と、取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する処理と、取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する処理と、抽出した特徴量及び算出した遅延時間に基づいて前記対象者の難聴レベルを判定する処理と、判定した難聴レベルに基づいて前記対象者の認知機能レベルを補正する処理とを実行させる。 The computer program according to the embodiment of the present invention includes a process of acquiring a dialogue voice between the target person and the interlocutor and a process of extracting a feature amount related to the voice of the interlocutor based on the acquired dialogue voice. , A process of calculating the delay time of the subject's response to the interlocutor's utterance based on the acquired dialogue voice, and a process of determining the deafness level of the subject based on the extracted feature amount and the calculated delay time. And the process of correcting the cognitive function level of the subject based on the determined deafness level .

本発明の実施の形態に係る認知機能レベル補正方法は、対象者と対話者との対話音声を取得部が取得し、取得された対話音声に基づいて前記対話者の音声に関する特徴量を抽出部が抽出し、取得された対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出部が算出し、抽出された特徴量及び算出された遅延時間に基づいて前記対象者の難聴レベルを難聴レベル判定部が判定判定された難聴レベルに基づいて前記対象者の認知機能レベルを補正部が補正する。 In the cognitive function level correction method according to the embodiment of the present invention, the acquisition unit acquires the dialogue voice between the subject and the interlocutor, and the feature amount related to the voice of the interlocutor is extracted based on the acquired dialogue voice. Is extracted, and the calculation unit calculates the delay time of the response of the subject to the speech of the interlocutor based on the acquired dialogue voice, and the subject is based on the extracted feature amount and the calculated delay time. the deafness level determined hearing loss level determination unit, correction unit cognitive function level of the subject based on the determined hearing loss level is corrected.

本発明の実施の形態に係る難聴判定装置は、対象者と対話者との対話音声を取得する取得部と、前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部と、前記難聴レベル判定部で判定した難聴レベルに基づいて前記対象者の認知機能レベルを補正する補正部と、前記対象者又は対話者の対話音声の音声特徴量、音声波形及び音声波形を変換したスペクトログラムの少なくとも一つを用いて前記対象者の認知機能レベルを判定する認知機能判定部とを備え、前記補正部は、前記難聴レベル判定部で判定した難聴レベルに基づいて前記認知機能判定部で判定した認知機能レベルを補正する。 The deafness determination device according to the embodiment of the present invention extracts a feature amount related to the voice of the interlocutor based on the acquisition unit that acquires the dialogue voice between the target person and the interlocutor and the dialogue voice acquired by the acquisition unit. The extraction unit, the calculation unit that calculates the delay time of the response of the target person to the speech of the interlocutor based on the dialogue voice acquired by the acquisition unit, the feature amount extracted by the extraction unit, and the calculation unit. A deafness level determination unit that determines the deafness level of the subject based on the calculated delay time, a correction unit that corrects the cognitive function level of the subject based on the deafness level determined by the deafness level determination unit, and the above. The correction unit includes a cognitive function determination unit that determines the cognitive function level of the subject using at least one of the voice feature amount, the voice waveform, and the voice waveform of the dialogue voice of the target person or the interlocutor. is that to correct the cognitive level determined by the cognitive function determination unit based on the hearing loss level determined by the hearing level determination unit.

本発明の実施の形態に係る難聴判定システムは、対象者と対話者との対話音声を取得する取得部と、前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部と、前記難聴レベル判定部で判定した難聴レベルに基づいて前記対象者の認知機能レベルを補正する補正部と、前記対象者又は対話者の対話音声の音声特徴量、音声波形及び音声波形を変換したスペクトログラムの少なくとも一つを用いて前記対象者の認知機能レベルを判定する認知機能判定部とを備え、前記補正部は、前記難聴レベル判定部で判定した難聴レベルに基づいて前記認知機能判定部で判定した認知機能レベルを補正する。 The deafness determination system according to the embodiment of the present invention extracts a feature amount related to the voice of the interlocutor based on the acquisition unit that acquires the dialogue voice between the target person and the interlocutor and the dialogue voice acquired by the acquisition unit. The extraction unit, the calculation unit that calculates the delay time of the response of the target person to the speech of the interlocutor based on the dialogue voice acquired by the acquisition unit, the feature amount extracted by the extraction unit, and the calculation unit. A deafness level determination unit that determines the deafness level of the subject based on the calculated delay time, a correction unit that corrects the cognitive function level of the subject based on the deafness level determined by the deafness level determination unit, and the above. The correction unit includes a cognitive function determination unit that determines the cognitive function level of the subject using at least one of the voice feature amount, the voice waveform, and the voice waveform of the dialogue voice of the target person or the interlocutor. is that to correct the cognitive level determined by the cognitive function determination unit based on the hearing loss level determined by the hearing level determination unit.

本発明の実施の形態に係るコンピュータプログラムは、コンピュータに、対象者と対話者との対話音声を取得する処理と、取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する処理と、取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する処理と、抽出した特徴量及び算出した遅延時間に基づいて前記対象者の難聴レベルを判定する処理と、前記対象者又は対話者の対話音声の音声特徴量、音声波形及び音声波形を変換したスペクトログラムの少なくとも一つを用いて前記対象者の認知機能レベルを判定する処理と、判定した難聴レベルに基づいて前記対象者の認知機能レベルを補正する処理とを実行させる。 The computer program according to the embodiment of the present invention includes a process of acquiring a dialogue voice between a target person and an interlocutor on a computer, and a process of extracting a feature amount related to the voice of the interlocutor based on the acquired dialogue voice. , A process of calculating the delay time of the subject's response to the interlocutor's speech based on the acquired dialogue voice, and a process of determining the hearing loss level of the subject based on the extracted feature amount and the calculated delay time. And the process of determining the cognitive function level of the subject using at least one of the voice feature amount of the dialogue voice of the subject or the interlocutor, the voice waveform, and the spectrogram obtained by converting the voice waveform, and the determined hearing loss level. Based on this, the process of correcting the cognitive function level of the subject is executed.

本発明の実施の形態に係る認知機能レベル補正方法は、対象者と対話者との対話音声を取得部が取得し、取得された対話音声に基づいて前記対話者の音声に関する特徴量を抽出部が抽出し、取得された対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出部が算出し、抽出された特徴量及び算出された遅延時間に基づいて前記対象者の難聴レベルを難聴レベル判定部が判定し、前記対象者又は対話者の対話音声の音声特徴量、音声波形及び音声波形を変換したスペクトログラムの少なくとも一つを用いて前記対象者の認知機能レベルを認知機能判定部が判定し、判定された難聴レベルに基づいて前記対象者の認知機能レベルを補正部が補正する。 In the cognitive function level correction method according to the embodiment of the present invention, the acquisition unit acquires the dialogue voice between the subject and the interlocutor, and the feature amount related to the dialogue voice of the interlocutor is extracted based on the acquired dialogue voice. Is extracted, and the calculation unit calculates the delay time of the response of the subject to the speech of the interlocutor based on the acquired dialogue voice, and the subject is based on the extracted feature amount and the calculated delay time. The hearing loss level is determined by the hearing loss level determination unit , and the cognitive function level of the subject is determined by using at least one of the voice feature amount, the voice waveform, and the voice waveform of the dialogue voice of the subject or the interlocutor. The cognitive function determination unit determines, and the correction unit corrects the cognitive function level of the subject based on the determined hearing loss level.

Claims (11)

対象者と対話者との対話音声を取得する取得部と、
前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、
前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、
前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部と
を備える難聴判定装置。
The acquisition unit that acquires the dialogue voice between the target person and the interlocutor,
An extraction unit that extracts features related to the voice of the interlocutor based on the dialogue voice acquired by the acquisition unit, and an extraction unit.
A calculation unit that calculates the delay time of the response of the target person to the utterance of the interlocutor based on the dialogue voice acquired by the acquisition unit, and a calculation unit.
A deafness determination device including a deafness level determination unit that determines the deafness level of the subject based on the feature amount extracted by the extraction unit and the delay time calculated by the calculation unit.
前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の不安レベルを判定する不安レベル判定部を備え、
前記難聴レベル判定部は、
前記不安レベル判定部で判定した不安レベルに基づいて前記対象者の難聴レベルを判定する請求項1に記載の難聴判定装置。
It is provided with an anxiety level determination unit that determines the anxiety level of the target person with respect to the utterance of the interlocutor based on the dialogue voice acquired by the acquisition unit.
The deafness level determination unit
The deafness determination device according to claim 1, wherein the deafness level of the subject is determined based on the anxiety level determined by the anxiety level determination unit.
前記不安レベル判定部は、
前記対象者の声量、回答の内容の少なくとも一つに基づいて不安レベルを判定する請求項2に記載の難聴判定装置。
The anxiety level determination unit
The deafness determination device according to claim 2, wherein the anxiety level is determined based on at least one of the subject's voice volume and the content of the answer.
前記抽出部は、
前記対話者の音声に含まれる、子音又は所定の閾値以上の高周波数域のパワー、時間、回数又は頻度の少なくとも一つを前記特徴量として抽出する請求項1から請求項3のいずれか一項に記載の難聴判定装置。
The extraction unit
Any one of claims 1 to 3 that extracts at least one of a consonant or a power, time, number of times, or frequency in a high frequency range equal to or higher than a predetermined threshold value included in the voice of the interlocutor as the feature amount. The hearing loss determination device described in 1.
前記取得部で取得した対話音声に基づいて前記対象者の認知機能レベルを判定する認知機能判定部と、
前記難聴レベル判定部で判定した難聴レベルに基づいて前記認知機能判定部で判定した認知機能レベルを補正する補正部と
を備える請求項1から請求項4のいずれか一項に記載の難聴判定装置。
A cognitive function determination unit that determines the cognitive function level of the subject based on the dialogue voice acquired by the acquisition unit, and
The deafness determination device according to any one of claims 1 to 4, further comprising a correction unit that corrects the cognitive function level determined by the cognitive function determination unit based on the deafness level determined by the deafness level determination unit. ..
前記認知機能判定部で判定した認知機能レベルと、前記難聴レベル判定部で判定した難聴レベルとを関連付けて表示するための表示データを出力する出力部を備える請求項5に記載の難聴判定装置。 The deafness determination device according to claim 5, further comprising an output unit that outputs display data for displaying the cognitive function level determined by the cognitive function determination unit in association with the deafness level determined by the deafness level determination unit. 前記出力部は、
前記対象者の認知機能レベル及び難聴レベルの少なくとも一方を時系列に表示するための表示データを出力する請求項6に記載の難聴判定装置。
The output unit
The deafness determination device according to claim 6, which outputs display data for displaying at least one of the cognitive function level and the deafness level of the subject in time series.
前記出力部は、
前記認知機能判定部で判定した認知機能レベルと、前記補正部で補正した認知機能レベルとを対応付けて出力する請求項6又は請求項7に記載の難聴判定装置。
The output unit
The deafness determination device according to claim 6 or 7, wherein the cognitive function level determined by the cognitive function determination unit and the cognitive function level corrected by the correction unit are output in association with each other.
対象者と対話者との対話音声を取得する取得部と、
前記取得部で取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する抽出部と、
前記取得部で取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する算出部と、
前記抽出部で抽出した特徴量及び前記算出部で算出した遅延時間に基づいて前記対象者の難聴レベルを判定する難聴レベル判定部と
を備える難聴判定システム。
The acquisition unit that acquires the dialogue voice between the target person and the interlocutor,
An extraction unit that extracts features related to the voice of the interlocutor based on the dialogue voice acquired by the acquisition unit, and an extraction unit.
A calculation unit that calculates the delay time of the response of the target person to the utterance of the interlocutor based on the dialogue voice acquired by the acquisition unit, and a calculation unit.
A deafness determination system including a deafness level determination unit that determines the deafness level of the subject based on the feature amount extracted by the extraction unit and the delay time calculated by the calculation unit.
コンピュータに、
対象者と対話者との対話音声を取得する処理と、
取得した対話音声に基づいて前記対話者の音声に関する特徴量を抽出する処理と、
取得した対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出する処理と、
抽出した特徴量及び算出した遅延時間に基づいて前記対象者の難聴レベルを判定する処理と
を実行させるコンピュータプログラム。
On the computer
The process of acquiring the dialogue voice between the target person and the interlocutor,
A process of extracting features related to the voice of the interlocutor based on the acquired dialogue voice, and
A process of calculating the delay time of the subject's response to the interlocutor's utterance based on the acquired dialogue voice, and
A computer program that executes a process of determining the deafness level of the subject based on the extracted features and the calculated delay time.
対象者と対話者との対話音声を取得し、
取得された対話音声に基づいて前記対話者の音声に関する特徴量を抽出し、
取得された対話音声に基づいて前記対話者の発話に対する前記対象者の回答の遅延時間を算出し、
抽出された特徴量及び算出された遅延時間に基づいて前記対象者の難聴レベルを判定する、
難聴判定方法。
Acquires the dialogue voice between the target person and the interlocutor,
Based on the acquired dialogue voice, the feature amount related to the voice of the interlocutor is extracted.
Based on the acquired dialogue voice, the delay time of the response of the subject to the utterance of the interlocutor is calculated.
Deafness level of the subject is determined based on the extracted features and the calculated delay time.
Deafness determination method.
JP2020004362A 2020-01-15 2020-01-15 Deafness determination device, deafness determination system, computer program, and cognitive function level correction method Active JP6729923B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020004362A JP6729923B1 (en) 2020-01-15 2020-01-15 Deafness determination device, deafness determination system, computer program, and cognitive function level correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020004362A JP6729923B1 (en) 2020-01-15 2020-01-15 Deafness determination device, deafness determination system, computer program, and cognitive function level correction method

Publications (2)

Publication Number Publication Date
JP6729923B1 JP6729923B1 (en) 2020-07-29
JP2021110895A true JP2021110895A (en) 2021-08-02

Family

ID=71738515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020004362A Active JP6729923B1 (en) 2020-01-15 2020-01-15 Deafness determination device, deafness determination system, computer program, and cognitive function level correction method

Country Status (1)

Country Link
JP (1) JP6729923B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276319A1 (en) 2021-07-02 2023-01-05 栗田工業株式会社 Method for improving efficiency of heat transmission by steam

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022054677A1 (en) * 2020-09-08 2022-03-17 テルモ株式会社 Program, information processing device, information processing method, and information processing program
JPWO2022054687A1 (en) * 2020-09-08 2022-03-17

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020165466A1 (en) * 2001-02-07 2002-11-07 Givens Gregg D. Systems, methods and products for diagnostic hearing assessments distributed via the use of a computer network
JP2003533258A (en) * 2000-05-19 2003-11-11 サシャ ジョン マイケル System and method for objectively assessing hearing using auditory steady-state responses
US20050018858A1 (en) * 2002-02-08 2005-01-27 John Michael Sasha Rapid screening, threshold, and diagnostic tests for evaluation of hearing
US20090112616A1 (en) * 2007-10-30 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Polling for interest in computational user-health test output
US20100286490A1 (en) * 2006-04-20 2010-11-11 Iq Life, Inc. Interactive patient monitoring system using speech recognition
US20140148724A1 (en) * 2011-08-03 2014-05-29 Widex A/S Hearing aid with self fitting capabilities
JP2017529198A (en) * 2014-08-14 2017-10-05 オウディックス システムズ リミテッド A system for defining and performing hearing tests
JP2018505759A (en) * 2015-01-06 2018-03-01 バートン,デイビット Portable wearable monitoring system
US20190289409A1 (en) * 2016-11-11 2019-09-19 Eartex Limited Auditory device assembly
JP2019530546A (en) * 2016-07-07 2019-10-24 ゴスホーク・コミュニケーションズ・リミテッドGoshawk Communications Limited Listening test and modulation of acoustic signals

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533258A (en) * 2000-05-19 2003-11-11 サシャ ジョン マイケル System and method for objectively assessing hearing using auditory steady-state responses
US20020165466A1 (en) * 2001-02-07 2002-11-07 Givens Gregg D. Systems, methods and products for diagnostic hearing assessments distributed via the use of a computer network
US20050018858A1 (en) * 2002-02-08 2005-01-27 John Michael Sasha Rapid screening, threshold, and diagnostic tests for evaluation of hearing
US20100286490A1 (en) * 2006-04-20 2010-11-11 Iq Life, Inc. Interactive patient monitoring system using speech recognition
US20090112616A1 (en) * 2007-10-30 2009-04-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Polling for interest in computational user-health test output
US20140148724A1 (en) * 2011-08-03 2014-05-29 Widex A/S Hearing aid with self fitting capabilities
JP2017529198A (en) * 2014-08-14 2017-10-05 オウディックス システムズ リミテッド A system for defining and performing hearing tests
JP2018505759A (en) * 2015-01-06 2018-03-01 バートン,デイビット Portable wearable monitoring system
JP2019530546A (en) * 2016-07-07 2019-10-24 ゴスホーク・コミュニケーションズ・リミテッドGoshawk Communications Limited Listening test and modulation of acoustic signals
US20190289409A1 (en) * 2016-11-11 2019-09-19 Eartex Limited Auditory device assembly

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276319A1 (en) 2021-07-02 2023-01-05 栗田工業株式会社 Method for improving efficiency of heat transmission by steam

Also Published As

Publication number Publication date
JP6729923B1 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
US11856369B1 (en) Methods and systems implementing phonologically-trained computer-assisted hearing aids
US11918372B2 (en) Cognitive function evaluation system, method, and storage medium for dementia by analyzing voice of evaluatee for recognition, remembering or jugment capabilities
Sommers et al. Inhibitory processes and spoken word recognition in young and older adults: the interaction of lexical competition and semantic context.
Yonan et al. The effects of talker familiarity on spoken word identification in younger and older listeners.
US11826161B2 (en) Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and non-transitory computer-readable storage medium
US9149202B2 (en) Device, method, and program for adjustment of hearing aid
Rohanian et al. Alzheimer's dementia recognition using acoustic, lexical, disfluency and speech pause features robust to noisy inputs
JP6729923B1 (en) Deafness determination device, deafness determination system, computer program, and cognitive function level correction method
US11688300B2 (en) Diagnosis and treatment of speech and language pathologies by speech to text and natural language processing
Fager et al. Evaluation of a speech recognition prototype for speakers with moderate and severe dysarthria: A preliminary report
Shafiro et al. The influence of environmental sound training on the perception of spectrally degraded speech and environmental sounds
US20220036878A1 (en) Speech assessment using data from ear-wearable devices
KR102444012B1 (en) Device, method and program for speech impairment evaluation
Vojtech et al. Surface electromyography–based recognition, synthesis, and perception of prosodic subvocal speech
Hu et al. Development of the Mandarin speech banana
US20220335939A1 (en) Customizing Computer Generated Dialog for Different Pathologies
JP2024123237A (en) Conversation-based mental disorder screening method and device
Ooster et al. Speech audiometry at home: automated listening tests via smart speakers with normal-hearing and hearing-impaired listeners
JP6712028B1 (en) Cognitive function determination device, cognitive function determination system and computer program
Mamun et al. Quantifying cochlear implant users’ ability for speaker identification using ci auditory stimuli
CN110767282B (en) Health record generation method and device and computer readable storage medium
Shi et al. Linguistic and attitudinal factors in normal-hearing bilingual listeners' perception of degraded English passages
Pittman et al. Detecting and learning new words: The impact of advancing age and hearing loss
Neger et al. Correlates of older adults’ discrimination of acoustic properties in speech
Levin et al. Voice Discrimination in Quiet and in Background Noise by Simulated and Real Cochlear Implant Users

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200115

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200626

R150 Certificate of patent or registration of utility model

Ref document number: 6729923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250