WO2019087758A1 - 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム - Google Patents

認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム Download PDF

Info

Publication number
WO2019087758A1
WO2019087758A1 PCT/JP2018/038346 JP2018038346W WO2019087758A1 WO 2019087758 A1 WO2019087758 A1 WO 2019087758A1 JP 2018038346 W JP2018038346 W JP 2018038346W WO 2019087758 A1 WO2019087758 A1 WO 2019087758A1
Authority
WO
WIPO (PCT)
Prior art keywords
cognitive function
sentence
evaluation
formant frequency
vowel
Prior art date
Application number
PCT/JP2018/038346
Other languages
English (en)
French (fr)
Inventor
角 貞幸
亮佑 南雲
賢吾 阿部
松村 吉浩
西山 高史
中島 博文
孝司 笹部
誠 苅安
貴子 吉村
稔 外山
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN201880070418.6A priority Critical patent/CN111315302B/zh
Priority to US16/759,573 priority patent/US11918372B2/en
Publication of WO2019087758A1 publication Critical patent/WO2019087758A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/08Elderly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/749Voice-controlled interfaces

Definitions

  • the present invention relates to a cognitive function evaluation device, a cognitive function evaluation system, a cognitive function evaluation method, and a program.
  • a revised Hasegawa simple intelligence evaluation scale HDS-R
  • MMSE Mini
  • CDR Clinical Dementia Rating
  • this invention aims at provision of the cognitive function evaluation apparatus etc. which can evaluate a to-be-evaluated person's cognitive function simply and precisely.
  • a cognitive function evaluation device includes an acquisition unit that acquires sentence speech data indicating speech uttered according to a sentence instructed by the evaluatee, and the sentence speech data acquired by the acquisition unit.
  • a calculation unit that calculates a feature amount based on sentence speech data, and the feature amount calculated by the calculation unit are collated with reference data that indicates a relationship between voice data indicating a voice uttered by a person and a person's cognitive function
  • the evaluation unit for evaluating the cognitive function of the evaluation subject, and the output unit for outputting the sentence to be made to utter to the evaluation subject, and outputting the evaluation result evaluated by the evaluation unit.
  • a cognitive function evaluation system displays the sentence and the evaluation result output from the output unit, the above-described cognitive function evaluation device, a sound collection device that detects the voice of the evaluation subject, And a display device.
  • a cognitive function evaluation method is a cognitive function evaluation method executed by a computer, and includes a sentence output step of outputting a sentence to be uttered by a subject and a voice uttered by the subject.
  • the present invention may also be implemented as a program that causes a computer to execute the steps included in the cognitive function evaluation method.
  • evaluation of a to-be-evaluated person's cognitive function can be performed simply and accurately.
  • FIG. 1 is a diagram showing the configuration of a cognitive function evaluation system according to an embodiment.
  • FIG. 2 is a block diagram showing a characteristic functional configuration of the cognitive function evaluation device and the cognitive function evaluation system according to the embodiment.
  • FIG. 3 is a flowchart showing a processing procedure in which the cognitive function evaluation device according to the embodiment evaluates the cognitive function of the evaluatee.
  • FIG. 4 is a diagram showing an example of a method for the acquisition unit to acquire sentence voice data of the evaluatee.
  • FIG. 5 is a diagram showing an example of sentence speech data indicating speech uttered by the evaluation subject.
  • FIG. 6 is a diagram for explaining formant frequencies calculated by the calculation unit from sentence voice data.
  • FIG. 7 is a diagram showing an example of temporal change of formant frequency calculated by the calculation unit from sentence voice data.
  • FIG. 8 is a diagram for explaining an example of the feature amount of the sentence voice data evaluated by the evaluation unit.
  • FIG. 9 is a diagram for explaining another example of the feature amount of the sentence voice data evaluated by the evaluation unit.
  • FIG. 10 is a diagram showing the score obtained when a person receives the MoCA test.
  • FIG. 11 is a view showing an example of an image displayed on the display device and showing that the cognitive function is deteriorated.
  • FIG. 12 is a diagram showing another example of the image displayed on the display device when acquiring the sentence voice data of the evaluatee.
  • FIG. 13 is a diagram showing the configuration of a cognitive function evaluation system according to a first modification of the embodiment.
  • FIG. 14 is a diagram showing the configuration of a cognitive function evaluation system according to a second modification of the embodiment.
  • parallel means not only completely parallel but also substantially parallel, that is, including, for example, a few percent deviation.
  • FIG. 1 is a diagram showing the configuration of a cognitive function evaluation system according to an embodiment.
  • the cognitive function evaluation system 200 is a device for evaluating the cognitive function of the evaluated person U from the voice emitted by the evaluated person U.
  • Cognitive function refers to the ability to recognize, remember and judge.
  • the cognitive function evaluation device 100 evaluates whether it is a person with dementia (dementia patient).
  • Dementia refers to a condition in which the above-mentioned decline in cognitive function can be seen.
  • AD Alzheimer's disease
  • the family of a patient with a dementia or a third party etc. urges a patient with dementia to see at a hospital, and the patient with dementia will receive a medical examination from a doctor.
  • MoCA Montreal Cognitive Assessment
  • the MoCA test takes about 15 minutes.
  • it is necessary to determine whether or not the subject U is a dementia by performing the MoCA test a plurality of times in the day to diagnose changes in the subject U over time. . That is, the MoCA test takes a long time to diagnose whether the subject U is a dementia.
  • the cognitive function evaluation system 200 is a device that evaluates the degree of the cognitive function of the subject U with high accuracy by analyzing the voice of the subject U.
  • the cognitive function evaluation system 200 includes a cognitive function evaluation device 100, a sound collection device 300 for detecting the voice of the person to be evaluated U, and a display device 400.
  • the cognitive function evaluation apparatus 100 acquires sentence speech data (speech data) indicating speech uttered by the evaluatee U by the sound collection apparatus 300, and evaluates the cognitive function of the evaluation subject U from the acquired sentence speech data. It is a computer. Specifically, the cognitive function evaluation device 100 causes the display device 400 to display sentence data (in other words, image data including the sentence) indicating a specific sentence to be uttered by the evaluation subject U, and the evaluation subject Sentence voice data indicating the voice uttered by U is acquired via the sound collection device 300.
  • sentence speech data speech data
  • the cognitive function evaluation device 100 causes the display device 400 to display sentence data (in other words, image data including the sentence) indicating a specific sentence to be uttered by the evaluation subject U, and the evaluation subject Sentence voice data indicating the voice uttered by U is acquired via the sound collection device 300.
  • the sound collection device 300 is a microphone that detects the voice emitted by the evaluated person U and outputs sentence voice data indicating the detected voice to the cognitive function evaluation device 100. At least one of the sound insulation wall 310 and the pop guard 320 may be arranged around the sound collection device 300 in order to detect the sound emitted by the evaluated person U with high accuracy.
  • the display device 400 displays an image based on the image data output from the cognitive function evaluation device 100. Specifically, the display device 400 acquires sentence data indicating a sentence to be uttered by the subject U output by the output unit 140 (see FIG. 2 described later) and the evaluation result of the cognitive function of the subject U indicate. Specifically, the display device 400 is a monitor device including a liquid crystal panel or an organic EL panel. As the display device 400, an information terminal such as a television, a smartphone, or a tablet terminal may be used.
  • the cognitive function evaluation device 100, the sound collection device 300, and the display device 400 may be connected as long as they can transmit and receive sentence voice data or image data, and may be connected by wire or connected wirelessly communicable. It is also good.
  • the cognitive function evaluation apparatus 100 analyzes the voice of the subject U based on the sentence voice data detected by the sound collection apparatus 300, evaluates the cognitive function of the subject U from the analysis result, and evaluates the result The image shown is output to the display device 400.
  • the cognitive function evaluation device 100 can notify the degree of cognitive function to a dementia patient without a subjective symptom, for example, the dementia patient can be urged to seek medical examination by a doctor.
  • the cognitive function evaluation device 100 can assist a patient with dementia with a doctor for a medical examination by notifying the degree of cognitive function to a patient with dementia without a subjective symptom.
  • the cognitive function evaluation device 100 is, for example, a personal computer, but may be a server device.
  • FIG. 2 is a block diagram showing a characteristic functional configuration of the cognitive function evaluation device 100 according to the embodiment.
  • the cognitive function evaluation device 100 includes an acquisition unit 110, a calculation unit 120, an evaluation unit 130, an output unit 140, a storage unit 150, and an instruction unit 160.
  • the acquisition unit 110 acquires sentence voice data indicating a voice uttered in accordance with a sentence instructed by the evaluatee U. Specifically, sentence / speech data detected by the sound collection device 300 is acquired.
  • the acquisition unit 110 is, for example, a communication interface that performs wired communication or wireless communication.
  • the calculation unit 120 is a processing unit that analyzes the sentence voice data of the evaluation subject U acquired by the acquisition unit 110 to calculate a feature amount based on the sentence speech data.
  • calculation unit 120 is realized in hardware by a processor, a microcomputer, or a dedicated circuit.
  • the sentence indicated by the sentence data output by the output unit 140 includes a character string in which syllables including vowels are continuous, and the calculation unit 120 changes the first formant frequency and the second formant frequency of vowels, the variation of the vowels.
  • the required time taken for the change of the first formant frequency and the second formant frequency, and at least one of the change rate that is the ratio of the change amount to the required time may be calculated as the feature value.
  • the first formant frequency is a peak frequency of the amplitude which is firstly observed from the low frequency side of human voice, and it is known that characteristics relating to tongue movement are easily reflected. In addition, patients with dementia often can not move their tongue well as compared to healthy people. Therefore, it is considered that the first formant frequency is likely to be different between healthy people and patients with dementia.
  • the second formant frequency is the peak frequency of the amplitude seen second from the low frequency side of human voice, and in the resonance of vocal cords, oral cavity such as lip and tongue, nasal cavity etc. It is known that position-related effects are likely to be reflected. In addition, patients with dementia often lose their motor function to maintain the position of their tongue and jaw as compared to healthy people. Therefore, it is considered that the second formant frequency and the amplitude are likely to be different between a healthy person and a patient with dementia.
  • the sentence indicated by the sentence data output by the output unit 140 includes a plurality of syllables including vowels
  • the calculation unit 120 calculates the first formant frequency of the vowels, the second formant frequency of the vowels, and the vowels. At least one variation of the ratio of the second formant frequency of the vowel to the first formant frequency may be calculated as the feature value.
  • the degree of variation calculated as the feature amount is, for example, a standard deviation.
  • the sentence indicated by the sentence data output by the output unit 140 includes at least three syllables including vowels different from one another, and the calculation unit 120 forms the second formant frequency of the vowel relative to the first formant frequency of the vowel. Calculating at least one of the shape and area of the polygon formed by plotting the value of the second formant frequency with respect to the first formant frequency calculated from each of at least three vowels as the feature value in the coordinate space May be
  • the sentence indicated by the sentence data output by the output unit 140 includes at least two syllables including vowels different from each other, and the calculation unit 120 forms the second formant frequency of the vowel relative to the first formant frequency of the vowel.
  • the positional relationship when the value of the second formant frequency is plotted with respect to the first formant frequency calculated from each of at least two vowels may be calculated as the feature value.
  • the sentence indicated by the sentence data output by the output unit 140 includes a syllable composed of a consonant and a vowel following the consonant (following vowel), and the calculating unit 120 determines the sound of the consonant and the subsequent vowel
  • the pressure difference may be calculated as the feature amount.
  • the subsequent vowels are uttered following phonemes that are consonants such as “k”, “s”, “t”, “n”, “h”, “a”, “i” ",” “U”, “e”, “o”, etc. indicates phonemes that become vowels. For example, in the case of "ta (ta)", "t” is a consonant and "a” is a subsequent vowel continuous to the consonant.
  • the sound pressure difference between the consonant and the subsequent vowel is, for example, the difference between the sound pressure of “t” and the sound pressure of “a” in the case of “ta”.
  • the consonant and the subsequent vowel continuous with the consonant are so-called open syllables other than the syllable only of the vowel.
  • consonants adopted when calculating feature quantities are closed consonants (so-called popping sounds) such as "p", "t", "k” and the like that are likely to be different between healthy people and patients with dementia. Good.
  • the calculation unit 120 may calculate the reading time of the sentence of the evaluation subject U as the feature amount.
  • the output unit 140 further outputs an instruction for causing the subject U to read the sentence a plurality of times, and the calculation unit 120 calculates the reading time of each of the sentences spoken by the subject U a plurality of times.
  • the calculated change amount of the reading time may be calculated as the feature amount.
  • the evaluation unit 130 collates the feature data calculated by the calculation unit 120 or the plurality of arbitrarily selected feature amounts with the reference data 151 stored in the storage unit 150, and determines the cognitive function of the evaluatee U. evaluate.
  • the storage unit 150 stores, as the reference data 151, a threshold value of a feature amount for discriminating between a healthy person, a patient with mild dementia, and a patient with dementia.
  • the evaluation unit 130 compares the feature amount calculated by the calculation unit 120 with the threshold value stored as the reference data 151 to determine whether the subject U is a healthy person or a patient with mild dementia Assess whether you are a patient with dementia.
  • the evaluation unit 130 is realized by, for example, a processor, a microcomputer, or a dedicated circuit.
  • the calculation unit 120 and the evaluation unit 130 may be realized by one processor, a microcomputer, or a dedicated circuit having the respective functions together, or two or more of the processor, the microcomputer, or the dedicated circuit. It may be realized by the combination of
  • the output unit 140 outputs, to the display device 400, sentence data (image data) indicating a specific sentence to be uttered by the evaluated person U and the evaluation result of the cognitive function of the evaluated person U evaluated by the evaluating unit 130.
  • the output unit 140 is, for example, a communication interface that performs wired communication or wireless communication.
  • the sentence indicated by the sentence data output from the output unit 140 includes a character string in which at least one of a syllable consisting of a consonant and a vowel following the consonant (following vowel) and a syllable consisting only of a vowel continue. May be That is, the sentence indicated by the sentence data output by the output unit 140 may include a character string in which open syllables are continuously arranged.
  • the sentence indicated by the sentence data output by the output unit 140 may include five or more characters including a closed consonant and a subsequent vowel. Specifically, the sentence indicated by the sentence data output by the output unit 140 indicates that "they come and feel like they are coming", “I like to have a fight or something", and "they come from a cold And at least one string of “.” May be included.
  • the storage unit 150 is a storage device in which reference data 151 indicating a relationship between a feature amount based on voice data indicating voice emitted by a person and a cognitive function of the person is stored.
  • the reference data 151 is data stored in advance in the storage unit 150 which is referred to by the evaluation unit 130 when the evaluation of the cognitive function of the evaluatee U is performed.
  • the storage unit 150 is realized by, for example, a read only memory (ROM), a random access memory (RAM), or the like.
  • the storage unit 150 when the storage unit 150 outputs a program executed by the calculation unit 120 and the evaluation unit 130, image data including a sentence to be uttered by the evaluation subject U, and an evaluation result of the recognition function of the evaluation subject U. Image data indicating the evaluation result to be used is also stored.
  • the instruction unit 160 is a control device that controls the output unit 140 to output sentence data indicating a sentence to be uttered by the evaluation subject U.
  • the instruction unit 160 is, for example, communicably connected to the cognitive function evaluation apparatus 100, and is not shown a touch panel or button (not shown) operated by the user of the cognitive function evaluation apparatus 100 such as the assessee U and an assistant assisting the assessor U.
  • a touch panel or button operated by the user of the cognitive function evaluation apparatus 100 such as the assessee U and an assistant assisting the assessor U.
  • an instruction indicating that the evaluation of the cognitive function of the evaluated person U is to be started is acquired from a user interface such as, the previously created image stored in the storage unit 150 (for example, as shown in FIG. Image 410 shown)
  • the data is output to the output unit 140, thereby instructing the evaluation subject U to utter a specific sentence.
  • instruction unit 160 is realized by a processor, a microcomputer, or a dedicated circuit.
  • the calculation unit 120, the evaluation unit 130, and the instruction unit 160 may be realized by one processor, a microcomputer, or a dedicated circuit having all the functions, a processor, a microcomputer, or a dedicated circuit. It may be realized by a combination of two or more of the above. Further, the control program executed by the instruction unit 160 may be stored in the storage unit 150.
  • the output unit 140 outputs, to the display device 400, sentence data indicating a sentence to be uttered by the subject U stored in the storage unit 150 (step S101).
  • the instruction unit 160 causes the output unit 140 to output, to the output unit 140, sentence data stored in the storage unit 150 and indicating a specific sentence instructing the subject U to utter.
  • the display device 400 displays an image indicated by the sentence data acquired from the output unit 140.
  • the acquisition unit 110 acquires the sentence voice data of the evaluated person U via the sound collection device 300 (step S102).
  • step S102 for example, the evaluatee U utters a sentence displayed on the display device 400, such as "I've come and gone”.
  • the acquisition unit 110 acquires, as sentence / speech data, a voice such as “I came and hit and beat” emitted by the evaluated person U via the sound collection device 300.
  • the calculation unit 120 calculates a feature amount based on the sentence voice data acquired in step S102 (step S103).
  • step S103 for example, the calculation unit 120 extracts “ta” that is uttered first in “the coming from the stalk,” and includes consonants and subsequent vowels in the extracted “ta”. The sound pressure difference of is calculated as the feature amount.
  • the feature amount calculated by the calculation unit 120 is not limited to this. A specific example of the feature quantity calculated by the calculation unit 120 will be described later.
  • the evaluation unit 130 evaluates the cognitive function of the subject U based on the feature amount calculated by the calculation unit 120 in step S103 (step S104).
  • the evaluation unit 130 evaluates the cognitive function of the evaluatee U, for example, from the feature amount calculated by the calculation unit 120 in step S103 and the reference data 151 stored in the storage unit 150.
  • step S105 the output unit 140 outputs the evaluation result of the cognitive function of the evaluation subject U evaluated by the evaluation unit 130 (step S105).
  • step S105 the output unit 140 acquires, for example, an image corresponding to the evaluation result evaluated by the evaluation unit 130 in step S104 from the storage unit 150, and transmits the acquired image to the display device 400.
  • the display device 400 acquires the image output by the output unit 140, and displays the image. By doing this, the evaluatee U can easily confirm the evaluation result of the cognitive function.
  • FIG. 4 is a diagram showing an example of a method in which the acquisition unit 110 acquires voice data of the evaluation subject U in step S101 shown in FIG.
  • (a) of FIG. 4 is a view showing an example of an image 410 displayed on the display device 400 before the cognitive function evaluation device 100 causes the evaluation subject U to utter
  • (b) of FIG. These are figures which show an example of the image 420 displayed on the display apparatus 400, when the cognitive function evaluation apparatus 100 acquires sentence voice data of to-be-evaluated person U
  • (c) of FIG. 4 is displayed on the display apparatus 400. It is a figure which shows a mode that the to-be-evaluated person U is reading a prepared sentence.
  • the cognitive function evaluation apparatus 100 acquires sentence speech data from the evaluation subject U, please talk to the evaluation subject U “close to the round screen in front of the microphone
  • the display device 400 displays an image 410 including the sentence “.” Note that, for example, a doctor or the like may explain the sentence shown in (a) of FIG. 4 directly to the assessee U, or the voice recorded may be told to the assessee U.
  • the display device 400 displays an image 420 including a sentence to be uttered by the evaluation subject U.
  • the image 410 exemplifies, for example, an image 420 including a sentence “I've come and gone”.
  • the subject U utters a sentence included in the image 420.
  • the calculation unit 120 extracts, for example, the “ta (ta)” that is first uttered in “the coming from the new year.”
  • the calculation unit 120 further calculates the sound pressures of the consonant “t” and the subsequent vowel “a” in the extracted “ta (ta)”, and based on the calculated sound pressures, “t”
  • the sound pressure difference between A and "a” is calculated as the feature amount.
  • the voice of the subject U is detected as compared with the case where a doctor or the like conveys the sentence to the subject U by voice. In the case, it will be difficult for noise to enter.
  • FIG. 5 is a diagram showing an example of sentence voice data indicating a voice uttered by the evaluatee U.
  • FIG. 5 is a graph showing sentence / speech data when the evaluated person U utters “I came and struck.”
  • the horizontal axis of the graph shown in FIG. 5 is time, and the vertical axis is power (sound pressure).
  • the unit of power shown on the vertical axis of the graph of FIG. 5 is decibel (dB).
  • step S102 illustrated in FIG. 3 the acquisition unit 110 acquires data illustrated in FIG. 5 as sentence speech data from the evaluation subject U.
  • step S103 shown in FIG. 3 the calculation unit 120 calculates each sound of “t” and “a” in “ta (ta)” appearing first from the sentence voice data shown in FIG. 5 by a known method. Calculate the pressure.
  • the calculator 120 calculates the sound pressure difference ⁇ P1 of “t” and “a” as the feature amount from the calculated sound pressures of “t” and “a”.
  • the reference data 151 includes the threshold of the sound pressure difference ⁇ P1.
  • the evaluation unit 130 determines that the evaluation subject U has dementia if the threshold is equal to or higher than the threshold, If there is, assess as a healthy person.
  • the feature amount may be a variation such as the standard deviation of a plurality of sound pressure differences.
  • the calculation unit 120 calculates, for example, the sound pressure differences ⁇ P1 to ⁇ P9 shown in FIG. 5, and calculates the standard deviations of the sound pressure differences ⁇ P1 to ⁇ P9 as feature amounts.
  • the standard deviation of the sound pressure difference is larger in patients with dementia compared to healthy people.
  • the reference data 151 includes a threshold which is the value of the standard deviation, and the evaluator 130 determines that the evaluator U Is judged to be dementia, and if it is less than the threshold value, it is evaluated that it is a healthy person.
  • the number of sound pressure differences used when calculating the standard deviation is not particularly limited, and may be two or three or more.
  • FIG. 6 is a diagram for explaining formant frequencies calculated by the calculation unit 120 from sentence speech data.
  • the horizontal axis of the graph shown in FIG. 6 is the frequency [Hz], and the vertical axis is the amplitude.
  • the calculation unit 120 extracts the vowel part from the sentence voice data acquired by the acquisition unit 110 according to a known method, and converts the sentence speech data of the extracted vowel part into the amplitude with respect to the frequency.
  • the spectrum of the vowel is calculated by using the equation to calculate the formant frequency.
  • the graph shown in FIG. 6 is calculated by converting the sentence voice data obtained from the person to be evaluated U into the data of the amplitude with respect to the frequency and calculating the envelope thereof.
  • the envelope for example, cepstrum analysis, linear predictive coding (LPC) or the like is adopted.
  • FIG. 7 is a diagram showing an example of time change of formant frequency calculated by the calculation unit 120 from speech data. Specifically, FIG. 7 is a graph for explaining an example of temporal change in frequency of the first formant frequency F1, the second formant frequency F2, and the third formant frequency F3.
  • the cognitive function evaluation device 100 causes the evaluation subject U to utter syllables including a plurality of continuous vowels such as "aiueo".
  • the output unit 140 outputs sentence data indicating a sentence including a character string consisting of syllables including a plurality of consecutive vowels such as “aiueo” to the display device 400 and displays the sentence on the display device 400.
  • the calculation unit 120 calculates the first formant frequency F1 and the second formant frequency F2 of each of the plurality of vowels from the sentence voice data indicating the voice uttered by the evaluated person U.
  • the calculation unit 120 may change the variation of the first formant frequency F1 and the second formant frequency F2 of the character string in which vowels are continuous and the change of the first formant frequency F1 and the second formant frequency F2 of the character string in which vowels are continuous. At least one of the required time and a change rate that is a ratio of the change amount to the required time is calculated as a feature value.
  • the reference data 151 includes a threshold that is the value of the amount of change, the required time, or the rate of change. For example, if it is more than the said threshold value, it determines with to-be-evaluated person U being dementia, and if less than the said threshold value, it will be evaluated that it is a healthy person.
  • the vowels included in the sentence to be uttered by the subject U may not be continuous.
  • the output unit 140 outputs, to the display device 400, sentence data indicating a sentence including a character string consisting of a plurality of vowels that are not continuous, such as "I" and "U” such as "Taiyou".
  • the sentence may be displayed on the display device 400.
  • the calculation unit 120 calculates at least a ratio of the first formant frequency F1 of the vowel, the second formant frequency F2 of the vowel, and the second formant frequency F2 of the vowel to the first formant frequency F1 of the vowel.
  • One variation may be calculated as a feature amount.
  • the degree of variation calculated as the feature amount is, for example, a standard deviation.
  • the variation is greater in patients with dementia compared to healthy individuals.
  • the reference data 151 includes a threshold which is a value of the standard deviation, and the evaluation unit 130 determines that the threshold value is greater than or equal to the threshold, for example. If it exists, it determines with to-be-evaluated person U being dementia, and if it is less than the said threshold value, it will be evaluated as a healthy person.
  • the calculation unit 120 may, for example, only a phoneme of a subsequent vowel.
  • the formant frequency of each subsequent vowel may be calculated to calculate the amount of change in the formant frequency, the required time for the change, the rate of change, and the like.
  • the continuous vowel character string may be a character string in which the subsequent vowel and the vowel are continuous.
  • the cognitive function evaluation device 100 may include a clock unit such as an RTC (Real Time Clock) to measure time.
  • a clock unit such as an RTC (Real Time Clock) to measure time.
  • RTC Real Time Clock
  • FIG. 8 is a diagram for explaining an example of the feature amount of the sentence voice data evaluated by the evaluation unit 130.
  • the horizontal axis is the first formant frequency F1
  • the vertical axis is the second formant frequency F2.
  • the calculation unit 120 plots a single point on the graph shown in FIG. 8 by calculating the first formant frequency F1 and the second formant frequency F2 for one vowel.
  • the evaluation subject U is made to utter “A”, “I”, “U”, “E”, “O”.
  • the output unit 140 outputs sentence data indicating a sentence including “A”, “I”, “U”, “E”, and “O” to the display device 400, and the statement is displayed on the display device 400. By making it display on the screen, the subject U is made to speak “A”, “I”, “U”, “E” and “O".
  • the calculation unit 120 calculates the first formant frequency F1 and the second formant frequency F2 of each of “A”, “I”, “U”, “E”, and “O” included in the sentence voice data. By doing this, the calculation unit 120 plots the points corresponding to “A”, “I”, “U”, “E”, and “O” in the coordinate space shown in FIG. Thus, the calculation unit 120 determines at least three vowels in the coordinate space (specifically, the coordinate space shown in FIG. 8) formed by the second formant frequency F2 of the vowel relative to the first formant frequency F1 of the vowel. By plotting the ratio of the second formant frequency F2 to the first formant frequency F1 calculated from each of at least one of the shape and the area of the polygon formed is calculated as the feature value.
  • the area of the polygon formed in this way is smaller in the patient with dementia than in the healthy person.
  • the reference data 151 includes a threshold which is the value of the area of the polygon, and the evaluation unit 130 evaluates, for example, if it is the threshold or more. It is determined that U is a healthy person, and if it is less than the threshold value, it is evaluated that it is dementia.
  • the shape of the polygon formed in this way is closer to each other in the dementia patient than in the healthy person.
  • the shape of the polygon is distorted more than the regular pentagon when the patient with dementia is approximated as a regular pentagon as compared to a healthy person.
  • the reference data 151 is the distance of each point constituting the polygon or the value of the deviation from each point when each point is approximated by a regular pentagon.
  • a certain threshold is included, and for example, the evaluation unit 130 determines that the evaluatee U is a healthy person if the threshold is equal to or more than the threshold, and evaluates, for example, dementia if it is less than the threshold.
  • the vowels adopted for plotting may be the subsequent vowels following the consonant, and if it is not Japanese but a foreign language, “a” which is a vowel in Japanese such as “ ⁇ ” (phonetic symbols) , “I”, “u”, “e”, “o” may be used.
  • the number of points to plot should just be able to calculate at least one of the shape and area of the polygon comprised from each point, and should just be three or more.
  • FIG. 9 is a diagram for explaining another example of the feature amount of the sentence voice data evaluated by the evaluation unit 130.
  • the calculation unit 120 plots a single point on the graph shown in FIG. 9 by calculating the first formant frequency F1 and the second formant frequency F2 for one vowel.
  • the cognitive function evaluation device 100 causes the person to be evaluated U to utter syllables including continuous vowels such as “Ai”, “Awe”, and “Hey”.
  • the output unit 140 outputs, to the display device 400, sentence data indicating a sentence including a character string in which syllables including vowels such as “Ai”, “Awe”, and “Dee” are continuous, and the corresponding sentence
  • the display device 400 By causing the display device 400 to display the information, the subject U is made to utter “Ai”, “Awe”, “Hey”, and the like.
  • the calculation unit 120 calculates, for example, the first formant frequency F1 and the second formant frequency F2 of “A” and “I” of “Ai” included in the sentence voice data. By doing this, the calculation unit 120 plots points corresponding to “A” and “I”.
  • the sentence indicated by the sentence data output by the output unit 140 includes at least two consecutive vowels, and the calculation unit 120 is formed by the second formant frequency F2 of the vowel relative to the first formant frequency F1 of the vowel.
  • the ratio of the second formant frequency F2 to the first formant frequency F1 calculated from each of at least two vowels in the coordinate space (specifically, the coordinate space shown in FIG. 9) It may be calculated as a quantity.
  • each point plotted in this manner is closer in distance to a patient with dementia as compared to a healthy person.
  • the reference data 151 includes a threshold which is the distance between the points. Is determined to be a healthy person, and if it is less than the threshold value, it is evaluated that it is dementia or the like.
  • the diagnosis of dementia can specify whether the said person is dementia by having a person receive MoCA test which is a batch test for diagnosis of dementia.
  • FIG. 10 is a diagram showing the score obtained when a person receives the MoCA test.
  • the present inventors conducted a MoCA test by collecting a plurality of subjects including a healthy person (NC: Normal Control), a patient with mild dementia (MCI: Mild Cognitive Inpairment) and a patient with dementia (AD). .
  • NC Normal Control
  • MCI Mild Cognitive Inpairment
  • AD patient with dementia
  • the average value of MoCA score (MoCA average score) and the range of scores (MoCA score range) differ between NC, MCI and AD. Specifically, the average score of MoCA in NC was 27.4, the average score of MoCA in MCI was 22.1, and the average score of MoCA in AD was 16.2 .
  • the feature amount of the person based on the voice data and the person are calculated by calculating the above-mentioned feature amount based on voice data (text-to-speech data) indicating voices uttered by each person who received the MoCA test.
  • voice data text-to-speech data
  • the reference data 151 indicating the relationship with the cognitive function of For example, when the evaluation unit 130 determines whether the assessee U is NC, MCI, or AD, two thresholds (for example, a first threshold and a second threshold) having different values are used as the threshold of the feature amount described above. It becomes reference data 151.
  • the evaluation unit 130 evaluates the assessee U as NC if the feature quantity calculated from the sentence voice data acquired from the assessee U is less than the first threshold, and is not less than the first threshold and less than the second threshold. If so, the subject U is evaluated as MCI, and if it is the second threshold or more, the subject U is evaluated as AD.
  • the cognitive function evaluation device 100 can easily evaluate the cognitive function of the assessee U from the feature amount based on the sentence voice data of the assessee U and the reference data 151.
  • the threshold value of the feature amount used as the reference data 151 may be one or two or more.
  • FIG. 11 is a view showing an example of an image displayed on the display device 400 and showing that the cognitive function is deteriorated.
  • the display device 400 displays an image 430 as shown in FIG. 11 as the evaluation result evaluated by the evaluation unit 130.
  • the image 430 is an example of an image displayed when, for example, the evaluation unit 130 evaluates the evaluation function of the evaluation subject U as AD.
  • the display device 400 displays the evaluation result evaluated by the evaluation unit 130 as an image.
  • a sentence to be uttered by the person to be evaluated U may be uttered not only once but a plurality of times, as in "the coming from the bottom,” as shown in (c) of Fig. 4.
  • FIG. 12 is a view showing another example of the image displayed on the display device 400 when acquiring sentence / speech data of the evaluatee U. As shown in FIG.
  • sentence data including a sentence that the output unit 140 causes the subject U to utter may include an explanatory sentence that causes the sentence to be uttered a plurality of times.
  • the calculation unit 120 calculates the reading time of the sentence of the evaluated person U as the feature amount. The reading time of sentences is longer in patients with dementia than in healthy people.
  • the reference data 151 includes the threshold of the reading time, and the evaluation unit 130 determines, for example, that the evaluation subject U has dementia if the threshold is equal to or higher than the threshold, If it is a healthy person, etc.
  • the same sentence may be read by the evaluatee U a plurality of times.
  • the output unit 140 further outputs an instruction for causing the subject U to read the sentence a plurality of times
  • the calculation unit 120 outputs the reading time of each of the sentences spoken by the subject U a plurality of times.
  • the change amount of the reading time calculated from the above may be calculated as the feature amount.
  • the amount of change here is, for example, 10 seconds for the first time for the subject U to read the sentence, and 8 seconds for the second time for the subject U to read the sentence. If the change amount is 2 seconds.
  • the calculation unit 120 calculates the standard deviation of the time taken for the evaluation subject U to read one sentence of the sentence or a plurality of changes calculated The average value of the amounts may be calculated as the feature amount.
  • the amount of change in the reading time of sentences is larger in patients with dementia than in healthy people.
  • the reference data 151 includes the change amount of the reading time, and for example, the evaluation unit 130 determines that the evaluation subject U has dementia if it is the threshold or more, and is less than the threshold If there is, evaluate the healthy person etc.
  • sentence data including a sentence that the output unit 140 causes the evaluated person U to utter may include an explanatory sentence that causes the sentence to be uttered a plurality of times, or includes a plurality of sentences that the evaluated person U utters. It is also good.
  • the cognitive function evaluation device 100 acquires the sentence speech data indicating the speech uttered according to the sentence instructed by the evaluatee U, and the sentence speech data acquired by the acquisition unit 110.
  • a calculation unit 120 that calculates a feature amount based on the sentence voice data, reference data 151 that indicates a relationship between the feature amount calculated by the calculation unit 120, voice data indicating a voice uttered by a person, and the cognitive function of the person
  • an evaluation unit 130 that evaluates the cognitive function of the evaluation subject U, and an output unit 140 that outputs a sentence to be made to be uttered by the evaluation subject U and outputs an evaluation result evaluated by the evaluation unit 130.
  • the cognitive function evaluation apparatus 100 it is possible to acquire, from the evaluatee U, voice data that facilitates evaluation of the cognitive function accurately by the evaluation unit 130. Therefore, according to the cognitive function evaluation apparatus 100, the cognitive function of the person to be evaluated U can be evaluated easily and accurately.
  • the sentence to be uttered by the evaluation subject U may include a consonant, a subsequent vowel following the consonant, and a character string in which at least one of the vowels is continuous.
  • a syllable consisting of a consonant and a vowel following the consonant it is preferable that at least one of a syllable consisting of a consonant and a vowel following the consonant, and a syllable consisting only of a vowel continue.
  • the sound pressure of the vowel "a" is larger than that of the consonant "t".
  • vowels are easier to be collected compared to consonants.
  • the cognitive function of the subject U can be evaluated more accurately it can.
  • a sentence to be uttered by the evaluation subject U is at least one of "I come and feel like I'm coming", “I like protein and so on”, and "I've come and gone” May contain two strings.
  • the sentence indicated by the sentence data output by the output unit 140 may include five or more characters including a closing consonant and a vowel following the closing consonant. Closed consonants are likely to cause differences in audio data between AD and NC. Therefore, for example, let us say that the sentence to be uttered by the evaluated person U is "I come and feel like I'm out", “I like protein and so on", and "I'm kind of addicted.” Thus, the cognitive function of the subject U can be evaluated more accurately.
  • a sentence to be uttered by the evaluation subject U may include a character string in which syllables including vowels are continuous.
  • the calculation unit 120 calculates the change amount of the first formant frequency F1 and the second formant frequency F2 of the vowel, the required time for the change of the first formant frequency F1 and the second formant frequency F2 of the vowel, and the required time. At least one of the change rates, which is the ratio of the change amounts, may be calculated as the feature amount.
  • the first formant frequency F1 is a peak frequency of an amplitude that is first seen from the low frequency side of human voice, and it is known that characteristics relating to tongue movement are easily reflected. Also, AD often can not move the tongue well compared to NC. Therefore, it is considered that the first formant frequency F1 is likely to be different between NC and AD. Also, for example, it can be considered that AD often loses its motor function to maintain the position of the tongue and jaw. Therefore, it is considered that AD emits less stable voice than NC. In other words. In AD, it is considered that the time variation of the first formant frequency F1 and the second formant frequency F2 becomes large because the sound to be emitted is dispersed as compared with the NC.
  • a sentence to be uttered by the subject U may include a plurality of syllables including vowels.
  • the calculation unit 120 may be configured to calculate at least one of a variation of a first formant frequency F1 of a vowel, a second formant frequency F2 of the vowel, and a ratio of the second formant frequency F2 of the vowel to the first formant frequency F1 of the vowel. May be calculated as the feature amount.
  • the first formant frequency F1 and the second formant frequency F2 are likely to be dispersed because the emitted voice is dispersed as compared with the NC.
  • the sentence to be uttered by the evaluation subject U may include at least three syllables including vowels different from one another.
  • the calculation unit 120 may be configured to calculate a first formant frequency F1 calculated from each of at least three different vowels in a coordinate space formed by the second formant frequency F2 of the vowel relative to the first formant frequency F1 of the vowel. At least one of the shape and the area of the polygon formed by plotting the ratio of the two formant frequencies F2 may be calculated as the feature value.
  • the area of the polygon formed in this manner is smaller in the dementia patient as compared to the healthy person.
  • the shape of the polygon formed in this way is closer to each other in the dementia patient than in the healthy person.
  • the shape of the polygon is more distorted with respect to the regular pentagon when the patient with dementia is approximated as a regular pentagon as compared to a healthy person. Therefore, by using at least one of the shape and the area of the polygon formed as described above as the feature amount, it is possible to more accurately evaluate the cognitive function of the person to be evaluated U.
  • the sentence that the evaluation subject U utters may include at least two consecutive syllables including vowels different from one another.
  • the calculation unit 120 is configured to calculate a second formant for the first formant frequency F1 calculated from each of at least two vowels in a coordinate space formed by the second formant frequency F2 for the first formant frequency F1 of the vowel.
  • the positional relationship when the ratio of the frequency F2 is plotted may be calculated as the feature amount.
  • each point plotted in this manner is closer in distance to a patient with dementia as compared to a healthy person. Therefore, by adopting the positional relationship of each point as the feature amount, it is possible to evaluate the cognitive function of the subject U more accurately.
  • a sentence to be uttered by the subject U may include a syllable composed of a consonant and a vowel following the consonant.
  • the calculation unit 120 may calculate the sound pressure difference between the consonant and the subsequent vowel as the feature amount.
  • the evaluation unit 130 determines that the subject U is a dementia if it is equal to or more than the threshold, and evaluates that it is a healthy person if it is less than the threshold.
  • the feature amount may be a variation such as the standard deviation of a plurality of sound pressure differences.
  • the calculation unit 120 calculates, for example, the sound pressure differences ⁇ P1 to ⁇ P9 shown in FIG. 5, and calculates the standard deviations of the sound pressure differences ⁇ P1 to ⁇ P9 as feature amounts.
  • the standard deviation of the sound pressure difference is larger in patients with dementia compared to healthy people. Therefore, by adopting the sound pressure difference as the feature amount, it is possible to evaluate the cognitive function of the subject U more accurately.
  • the calculation unit 120 may calculate the reading time of the sentence of the evaluation subject U as the feature amount.
  • the reading time of sentences is longer in patients with dementia than in healthy people. Therefore, by adopting the reading time of the sentence as the feature amount, it is possible to evaluate the cognitive function of the subject U more accurately.
  • the output unit 140 may further output an instruction for causing the subject U to read a sentence a plurality of times.
  • the calculation unit 120 may calculate, as the feature amount, the change amount of the reading time calculated from the reading time of each of the sentences uttered by the subject U a plurality of times.
  • the amount of change in the reading time of a sentence is larger in patients with dementia than in healthy people. Therefore, by adopting the amount of change in the reading time of the sentence as the feature amount, it is possible to evaluate the cognitive function of the subject U more accurately.
  • the cognitive function evaluation device 100 may include the storage unit 150 that stores the reference data 151.
  • the cognitive function evaluation device 100 may evaluate the cognitive function of the evaluation subject U by communicating with an external server device or the like storing the reference data 151, the reference data 151 is stored.
  • the storage unit 150 may be provided as a storage device. Thereby, the cognitive function evaluation apparatus 100 can evaluate the cognitive function of the evaluatee U without connecting to an external server apparatus for communication. Therefore, the convenience of the cognitive function evaluation device 100 is improved.
  • the cognitive function evaluation system 200 displays the cognitive function evaluation device 100, the sound collection device 300 for detecting the voice of the evaluation subject U, and the sentence and the evaluation result output by the output unit 140. And an apparatus 400.
  • the cognitive function evaluation system 200 presents a sentence to be uttered to the subject U by the display device 400, detects the voice of the subject U by the sound collection device 300, and the subject by the cognitive function evaluation device 100.
  • the cognitive function of U can be evaluated, and the evaluation result can be displayed by the display device 400. That is, according to the cognitive function evaluation system 200, it is possible to acquire from the person U to be evaluated voice data that facilitates the evaluation of the cognitive function by the evaluation unit 130. Therefore, according to the cognitive function evaluation system 200, the cognitive function of the subject U can be evaluated easily and accurately.
  • the cognitive function evaluation method is a cognitive function evaluation method executed by a computer (specifically, the cognitive function evaluation device 100), and a sentence output that outputs a sentence to be uttered by the subject U
  • a computer specifically, the cognitive function evaluation device 100
  • the cognitive function evaluation method according to the present invention it is possible to acquire voice data that can easily evaluate the cognitive function from the evaluatee U. Therefore, according to the cognitive function evaluation method according to the present invention, the cognitive function of the subject U can be evaluated easily and accurately.
  • the present invention may also be implemented as a program that causes a computer to execute the steps included in the cognitive function evaluation method.
  • FIG. 13 is a diagram showing the configuration of a cognitive function evaluation system according to a first modification of the embodiment.
  • the cognitive function evaluation system 200a includes the cognitive function evaluation device 100, the sound collection device 300, and the display device 400.
  • the cognitive function evaluation system 200 may include, for example, a pop guard 320 so as to cover the sound collection device 300.
  • a sound collection device 300 having directivity is adopted.
  • the direction in which the sound collection device 300 shows the maximum sensitivity (the sound collection direction V2 shown in FIG. 13) and the normal direction of the display surface 401 where the display device 400 displays task information. It is arranged to match V1.
  • the sound collecting device 300 and the display device 400 are disposed on a fixed object such as a desk so that the normal direction V1 and the sound collecting direction V2 are parallel to each other.
  • the sound collector 300 and the display device 400 may be fixed to a construction material or the like.
  • the cognitive function evaluation system 200a may include a fixture for fixing the positional relationship between the sound collection device 300 and the display device 400.
  • the sound collection device 300 can easily detect the voice of the person to be evaluated U accurately.
  • FIG. 14 is a diagram showing the configuration of a cognitive function evaluation system according to a second modification of the embodiment.
  • the cognitive function evaluation system 200b includes the cognitive function evaluation device 100, the sound collection device 300a, and the display device 400.
  • the sound collection device 300a is a microphone that detects the sound emitted by the evaluated person U and outputs sound data indicating the detected sound to the cognitive function evaluation device 100.
  • the sound collection apparatus 300a has directivity like the sound collection apparatus 300 in the cognitive function evaluation system 200 which concerns on embodiment.
  • the sound collection device 300a and the display device 400 are integrally formed. Specifically, the sound collector 300a and the display device 400 are disposed in the same housing. In the manufacturing process for integrally forming the sound collection device 300a and the display device 400, if the normal direction V1 and the sound collection direction V2 are formed to coincide with each other, the evaluation subject U evaluates the cognitive function evaluation system 200b. At the time of utilization, the normal direction V1 and the sound collecting direction V2 are prevented from being shifted.
  • Alzheimer's disease was mentioned as one specific example of the symptom of the decline in cognitive function.
  • cognitive function refers to the ability to recognize, remember and judge
  • dementia refers to symptoms in which the above-mentioned decline in cognitive function is observed. That is, the degree of cognitive function evaluated by the cognitive function evaluation apparatus is not limited to Alzheimer's disease, and may be, for example, the degree of vascular dementia, pressure sore, or the like.
  • the storage unit 150 stores in advance the data indicating the relationship between the score of the MoCA test and the feature amount of the formant as the reference data 151.
  • the reference data may be any data that can be used to evaluate the degree of cognitive function by collating with formant feature quantities, and is not limited to data indicating the relationship between MoCA test and formant feature quantities.
  • the reference data may be data indicating a relationship between a score such as Mini-Mental State Examination (MMSE) and a feature amount such as a formant frequency.
  • MMSE Mini-Mental State Examination
  • the relationship between the sentence voice data and the degree of dementia in the above reference data is based on data analysis that gathered the above people to be evaluated by the inventors at the present time, but more people will be
  • the evaluation criteria may change due to the analysis of collected data and data analysis that reviewed the conditions. Therefore, in the above embodiment, when the sound pressure difference is adopted as the feature amount, the evaluation unit determines, for example, that the evaluation subject U is dementia if it is the threshold or more, and if it is less than the threshold Although it evaluated that it was a healthy subject etc., it is not limited to this.
  • to-be-evaluated person U may determine with it being dementia, and if it is more than the said threshold, it may be evaluated that it is a healthy person.
  • the sentence speech data obtained from the evaluatee is calculated as the feature amount to evaluate the cognitive function of the evaluatee, but evaluation is performed by combining other known cognitive functions. May be implemented. For example, it is known that there is a correlation between cognitive functions and walking data related to walking such as stride, step interval, and walking speed.
  • the cognitive function of the subject can be evaluated more accurately by using the sentence voice data of the subject evaluated in the above-described embodiment and the walking data of the subject for evaluation of the cognitive function.
  • the present invention not only can be realized as a cognitive function evaluation device and a cognitive function evaluation system, but also stores a program including, as steps, processing performed by each component performed by the cognitive function evaluation device and the cognitive function evaluation system, and the program As a recording medium such as flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray (registered trademark) Disc), semiconductor memory, etc. It can also be realized. Also, the program may be distributed via a communication channel such as the Internet.
  • the above general or specific aspects may be realized by a system, an apparatus, an integrated circuit, a computer program, or a computer readable recording medium, any of the system, the apparatus, the integrated circuit, the computer program, and the recording medium. It may be realized in combination.
  • the components included in the cognitive function evaluation device do not need to be in one case, and may be disposed in different places so as to be able to transmit and receive various data.
  • cognitive function evaluation device 110 acquisition unit 120 calculation unit 130 evaluation unit 140 output unit 150 storage unit 151 reference data 200, 200a, 200b cognitive function evaluation system 300, 300a sound collector 400 display device F1 first formant frequency F2 second formant Frequency U Evaluate ⁇ P1 to ⁇ P9 Sound pressure difference

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Psychology (AREA)
  • Neurosurgery (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Epidemiology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

認知機能評価装置(100)は、被評価者が指示された文に従って発話した音声を示す文音声データを取得する取得部(110)と、取得部(110)が取得した文音声データから、当該文音声データに基づく特徴量を算出する算出部(120)と、算出部(120)が算出した特徴量と、人が発した音声を示す音声データと当該人の認知機能との関係を示す参照データ(151)とを照合することにより、被評価者の認知機能を評価する評価部(130)と、被評価者に発話させる文を出力し、且つ、評価部(130)が評価した評価結果を出力する出力部(140)と、を備える。

Description

認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム
 本発明は、認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラムに関する。
 従来から、認知機能を評価するテストとして、認知機能が評価される患者である被評価者がテスト用紙に解答を記載する方法である改訂長谷川式簡易知能評価スケール(HDS-R)、MMSE(Mini-Mental State Examination:ミニメンタルステート検査)、CDR(Clinical Dementia Rating)等がある。これらは、一定のトレーニングの受けた医師、臨床心理士等が、被評価者に対して医療機関で行うものである。
 ここで、テスト用紙を用いた評価方法においては、長いテスト時間を要して被評価者の負担を強いることが問題となる。また、繰り返し被評価者に対してテストを実行する場合、同じテストであるために、被評価者が答えを記憶してしまう問題がある。この問題を解決するために、医者等が被評価者に実施するテストにおける質疑応答を音声収録し、被評価者の音声を分析する技術が開示されている(例えば、特許文献1参照)。
国際公開第2012/165602号
 認知機能の評価には、簡便に、且つ、精度良く被評価者の認知機能の評価をすることが要求されている。
 そこで、本発明は、簡便に、且つ、精度良く被評価者の認知機能の評価が可能な認知機能評価装置等の提供を目的とする。
 本発明の一態様に係る認知機能評価装置は、被評価者が指示された文に従って発話した音声を示す文音声データを取得する取得部と、前記取得部が取得した前記文音声データから、当該文音声データに基づく特徴量を算出する算出部と、前記算出部が算出した前記特徴量と、人が発した音声を示す音声データと当該人の認知機能との関係を示す参照データとを照合することにより、前記被評価者の認知機能を評価する評価部と、前記被評価者に発話させる前記文を出力し、且つ、前記評価部が評価した評価結果を出力する出力部と、を備える。
 また、本発明の一態様に係る認知機能評価システムは、上記認知機能評価装置と、前記被評価者の音声を検出する集音装置と、前記出力部が出力した前記文及び前記評価結果を表示する表示装置と、を備える。
 また、本発明の一態様に係る認知機能評価方法は、コンピュータが実行する認知機能評価方法であって、被評価者に発話させる文を出力する文出力ステップと、被評価者が発話した音声を示す文音声データを取得する取得ステップと、前記取得ステップで取得した前記文音声データから、当該文音声データに基づく特徴量を算出する算出ステップと、前記算出ステップで算出した前記特徴量と、人が発した音声を示す音声データと当該人の認知機能との関係を示す参照データとを照合することにより、前記被評価者の認知機能を評価する評価ステップと、前記評価ステップで評価した評価結果を出力する評価結果出力ステップと、を含む。
 また、本発明は、認知機能評価方法に含まれるステップをコンピュータに実行させるプログラムとして実現されてもよい。
 本発明に係る認知機能評価装置等によれば、簡便に、且つ、精度良く被評価者の認知機能の評価が可能となる。
図1は、実施の形態に係る認知機能評価システムの構成を示す図である。 図2は、実施の形態に係る認知機能評価装置及び認知機能評価システムの特徴的な機能構成を示すブロック図である。 図3は、実施の形態に係る認知機能評価装置が被評価者の認知機能を評価する処理手順を示すフローチャートである。 図4は、取得部が被評価者の文音声データを取得する方法の一例を示す図である。 図5は、被評価者が発話した音声を示す文音声データの一例を示す図である。 図6は、文音声データから算出部が算出するフォルマント周波数を説明するための図である。 図7は、文音声データから算出部が算出するフォルマント周波数の時間変化の一例を示す図である。 図8は、評価部が評価する文音声データの特徴量の一例を説明するための図である。 図9は、評価部が評価する文音声データの特徴量の別の一例を説明するための図である。 図10は、人がMoCAテストを受けた際に獲得したスコアを示す図である。 図11は、表示装置に表示される、認知機能が低下していることを示す画像の一例を示す図である。 図12は、被評価者の文音声データを取得する際に表示装置に表示させる画像の別の一例を示す図である。 図13は、実施の形態の変形例1に係る認知機能評価システムの構成を示す図である。 図14は、実施の形態の変形例2に係る認知機能評価システムの構成を示す図である。
 以下、実施の形態について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序等は、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。
 また、以下の実施の形態において、方向を示す表現を用いている。例えば、平行とは、完全に平行であることを意味するだけでなく、実質的に平行とする、すなわち、例えば数%程度のずれを含むことも意味する。
 (実施の形態)
 [認知機能評価装置の構成]
 実施の形態に係る認知機能評価システムの構成に関して説明する。図1は、実施の形態に係る認知機能評価システムの構成を示す図である。
 認知機能評価システム200は、被評価者Uが発した音声から、被評価者Uの認知機能を評価するための装置である。認知機能とは、認識したり、記憶したり、判断したりする能力を示す。一具体例として、認知機能評価装置100は、認知症である人(認知症患者)かどうかを評価する。
 認知症とは、上述した認知機能の低下が見られる症状を示す。認知症の一具体例としては、アルツハイマー型認知症(AD:Alzheimer’s disease)が挙げられる。認知症は自覚症状がないため、認知症患者の家族又は第三者等が認知症患者に病院での診察を促すことで、認知症患者は医師からの診察を受けることとなる。また、MoCA(Montreal Cognitive Assessment)テスト等の認知症の診断のためのバッチテストを被評価者Uが受けることにより、被評価者Uが認知症であるかどうかを確認することができる。
 しかしながら、MoCAテストは、15分程度の時間を要する。また、MoCAテストは、被評価者Uの経時的な変化を診断するために、日をおいて複数回実行することで、被評価者Uが認知症であるかどうかの判定を行う必要がある。つまり、MoCAテストは、被評価者Uが認知症であるかどうかを診断するために、長い期間を要する。
 ところで、認知症患者と、認知症ではない人(健常者)とでは、発話した単語が同じ単語であっても音声に違いがあることが知られている。
 認知機能評価システム200は、被評価者Uの音声を解析することで、被評価者Uの認知機能の程度を精度良く評価する装置である。
 図1に示すように、認知機能評価システム200は、認知機能評価装置100と、被評価者Uの音声を検出する集音装置300と、表示装置400とを備える。
 認知機能評価装置100は、集音装置300によって、被評価者Uが発した音声を示す文音声データ(音声データ)を取得し、取得した文音声データから被評価者Uの認知機能を評価するコンピュータである。具体的には、認知機能評価装置100は、被評価者Uに発話させる特定の文を示す文データ(言い換えると、当該文を含む画像データ)を表示装置400に表示させ、且つ、被評価者Uが発話した音声を示す文音声データを、集音装置300を介して取得する。
 集音装置300は、被評価者Uが発した音声を検出して、検出した音声を示す文音声データを認知機能評価装置100へ出力するマイクである。被評価者Uが発した音声を精度良く検出するために、集音装置300の周囲には、遮音壁310及びポップガード320の少なくとも一方が配置されていてもよい。
 表示装置400は、認知機能評価装置100から出力される画像データに基づいた画像を表示する。具体的には、表示装置400は、後述する出力部140(図2参照)が出力した被評価者Uに発話させる文を示す文データ及び被評価者Uの認知機能の評価結果を取得して表示する。表示装置400は、具体的には、液晶パネル、又は、有機ELパネル等によって構成されるモニタ装置である。表示装置400として、テレビ、スマートフォン、タブレット端末等の情報端末が用いられてもよい。
 認知機能評価装置100と、集音装置300及び表示装置400とは、文音声データ又は画像データを送受信可能であればよく、有線で接続されていてもよいし、無線通信可能に接続されていてもよい。
 認知機能評価装置100は、集音装置300によって検出された文音声データに基づいて被評価者Uの音声を分析し、分析した結果から被評価者Uの認知機能を評価し、評価した結果を示す画像を表示装置400へ出力する。こうすることで、認知機能評価装置100は、自覚症状がない認知症患者へ認知機能の程度を通知できるため、例えば、認知症患者に医師に診察を受けるように促すことができる。言い換えると、認知機能評価装置100は、自覚症状がない認知症患者へ認知機能の程度を通知することで、認知症患者が医師に診察を受ける支援をすることができる。
 なお、認知機能評価装置100は、例えば、パーソナルコンピュータであるが、サーバ装置であってもよい。
 図2は、実施の形態に係る認知機能評価装置100の特徴的な機能構成を示すブロック図である。認知機能評価装置100は、取得部110と、算出部120と、評価部130と、出力部140と、記憶部150と、指示部160とを備える。
 取得部110は、被評価者Uが指示された文に従って発話した音声を示す文音声データを取得する。具体的には、集音装置300によって検出された文音声データを取得する。取得部110は、例えば、有線通信又は無線通信を行う通信インターフェースである。
 算出部120は、取得部110で取得した被評価者Uの文音声データを解析することで、当該文音声データに基づく特徴量を算出する処理部である。算出部120は、具体的には、プロセッサ、マイクロコンピュータ、又は、専用回路によってハードウェア的に実現される。
 例えば、出力部140が出力する文データが示す文は、母音を含む音節が連続した文字列を含み、算出部120は、母音の第一フォルマント周波数及び第二フォルマント周波数の変化量、当該母音の第一フォルマント周波数及び第二フォルマント周波数の変化にかかる所要時間、並びに、当該所要時間に対する当該変化量の比である変化率の少なくとも1つを特徴量として算出してもよい。
 第一フォルマント周波数は、人の音声の低周波数側から数えて1番目に見られる振幅のピーク周波数であり、舌の動きに関する特徴が反映されやすいことが知られている。また、認知症患者は、健常者と比較して舌をうまく動かせない場合が多い。そのため、第一フォルマント周波数は、健常者と認知症患者とで違いが生じやすいと考えられる。
 第二フォルマント周波数は、人の音声の低周波数側から数えて2番目に見られる振幅のピーク周波数であり、声帯音源が声道、唇や舌等の口腔、鼻腔等で生じる共鳴において、舌の位置に関する影響が反映されやすいことが知られている。また、認知症患者は、健常者と比較して舌やあごの位置を維持する運動機能が衰える場合が多い。そのため、第二フォルマント周波数及び振幅には、健常者と認知症患者とで違いが生じやすいと考えられる。
 また、例えば、出力部140が出力する文データが示す文は、母音を含む音節を複数含み、算出部120は、母音の第一フォルマント周波数、当該母音の第二フォルマント周波数、及び、当該母音の第一フォルマント周波数に対する当該母音の第二フォルマント周波数の比の少なくとも1つのばらつきを特徴量として算出してもよい。特徴量として算出されるばらつきの度合いは、例えば、標準偏差である。
 また、例えば、出力部140が出力する文データが示す文は、互いに異なる母音を含む音節を少なくとも3つ含み、算出部120は、母音の第一フォルマント周波数に対する当該母音の第二フォルマント周波数で形成される座標空間において、少なくとも3つの母音のそれぞれから算出される第一フォルマント周波数に対する第二フォルマント周波数の値をプロットすることで形成される多角形の形状及び面積の少なくとも一方を特徴量として算出してもよい。
 また、例えば、出力部140が出力する文データが示す文は、互いに異なる母音を含む音節を少なくとも2つ含み、算出部120は、母音の第一フォルマント周波数に対する当該母音の第二フォルマント周波数で形成される座標空間において、少なくとも2つの母音のそれぞれから算出される第一フォルマント周波数に対する第二フォルマント周波数の値をプロットした場合の位置関係を特徴量として算出してもよい。
 また、例えば、出力部140が出力する文データが示す文は、子音と当該子音に後続した母音(後続母音)とからなる音節を含み、算出部120は、当該子音と当該後続母音との音圧差を特徴量として算出してもよい。なお、本明細書において、後続母音とは、「k」、「s」、「t」、「n」、「h」等の子音となる音素に続いて発話される、「a」、「i」、「u」、「e」、「o」等の母音となる音素を示す。例えば、「た(ta)」の場合、「t」が子音であり、「a」が当該子音に連続した後続母音である。子音と後続母音との音圧差とは、例えば、「た(ta)」の場合、「t」の音圧と、「a」の音圧との差である。子音及び当該子音に連続した後続母音とは、母音のみの音節以外のいわゆる開音節である。特に、特徴量を算出する際に採用される子音は、健常者と認知症患者とで違いが生じやすい「p」、「t」、「k」等の閉鎖子音(いわゆる破裂音)であるとよい。
 また、例えば、算出部120は、被評価者Uの文の読み上げ時間を特徴量として算出してもよい。
 また、例えば、出力部140は、さらに、被評価者Uに文を複数回読み上げさせるための指示を出力し、算出部120は、被評価者Uが複数回発話した文のそれぞれの読み上げ時間から算出される当該読み上げ時間の変化量を特徴量として算出してもよい。
 評価部130は、算出部120が算出した上記いずれか又は任意に選択された複数の特徴量と、記憶部150に記憶されている参照データ151とを照合し、被評価者Uの認知機能を評価する。例えば、記憶部150には、参照データ151として、健常者と、軽度の認知症患者と、認知症患者とを区別するための特徴量の閾値が記憶されている。評価部130は、算出部120が算出した特徴量と、参照データ151として記憶されている閾値とを比較することで、被評価者Uが健常者であるか、軽度の認知症患者であるか、認知症患者であるかを評価する。評価部130は、例えば、プロセッサ、マイクロコンピュータ、又は、専用回路によって実現される。なお、算出部120及び評価部130は、それぞれの機能を併せ持つ1つのプロセッサ、マイクロコンピュータ、又は、専用回路で実現されてもよいし、プロセッサ、マイクロコンピュータ、又は、専用回路のうちの2つ以上の組み合わせによって実現されてもよい。
 出力部140は、被評価者Uに発話させる特定の文を示す文データ(画像データ)、及び、評価部130が評価した被評価者Uの認知機能の評価結果を表示装置400へ出力する。出力部140は、例えば、有線通信又は無線通信を行う通信インターフェースである。例えば、出力部140が出力する文データが示す文は、子音及び当該子音に後続した母音(後続母音)からなる音節、並びに、母音のみからなる音節の少なくとも一方が連続した文字列を含まれていてもよい。つまり、出力部140が出力する文データが示す文には、開音節が連続して配置された文字列が含まれてもよい。
 また、例えば、出力部140が出力する文データが示す文は、閉鎖子音と後続母音とからなる文字が、5以上含まれていてもよい。具体的には、出力部140が出力する文データが示す文は、「きたかぜとたいようがでています」、「たんけんかはぼうけんがだいすきです」、及び、「きたからきたかたたたきき」の少なくとも1つの文字列を含んでいてもよい。
 記憶部150は、人が発した音声を示す音声データに基づく特徴量と、当該人の認知機能との関係を示す参照データ151が記憶されている記憶装置である。参照データ151は、被評価者Uの認知機能の評価が行われるときに評価部130によって参照される予め記憶部150に記憶されているデータである。記憶部150は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等によって実現される。
 また、記憶部150には、算出部120及び評価部130が実行するプログラム、被評価者Uに発話させる文を含む画像データ、及び、被評価者Uの認知機能の評価結果を出力する際に用いられる当該評価結果を示す画像データも記憶されている。
 指示部160は、被評価者Uに発話させる文を示す文データを出力部140に出力させる制御をする制御装置である。指示部160は、例えば、認知機能評価装置100と通信可能に接続され、被評価者U、被評価者Uを補助する補助者等の認知機能評価装置100のユーザが操作する図示しないタッチパネル、ボタン等のユーザインターフェースから被評価者Uの認知機能の評価を開始する旨を示す指示を取得した場合に、記憶部150に記憶されている予め作成された画像(例えば、図4の(a)に示す画像410)データを出力部140に出力させることで、被評価者Uに特定の文を発話させることを指示する。指示部160は、具体的には、プロセッサ、マイクロコンピュータ、又は、専用回路によって実現される。なお、算出部120、評価部130、及び、指示部160は、それぞれの機能を併せ持つ1つのプロセッサ、マイクロコンピュータ、又は、専用回路で実現されてもよいし、プロセッサ、マイクロコンピュータ、又は、専用回路のうちの2つ以上の組み合わせによって実現されてもよい。また、指示部160が実行する制御プログラムは、記憶部150に記憶されていてもよい。
 [認知機能評価方法の処理手順]
 続いて、認知機能評価装置100が実行する認知機能評価方法における具体的な処理手順について説明する。
 まず、出力部140は、記憶部150に記憶されている、被評価者Uに発話させる文を示す文データを表示装置400に出力する(ステップS101)。具体的には、ステップS101において、指示部160は、記憶部150に記憶されている、被評価者Uに発話させる指示をする特定の文を示す文データを出力部140に出力させる。表示装置400は、出力部140から取得した文データが示す画像を表示する。
 次に、取得部110は、集音装置300を介して被評価者Uの文音声データを取得する(ステップS102)。ステップS102において、例えば、被評価者Uは、「きたからきたかたたたきき」等の、表示装置400に表示される文を発話する。取得部110は、集音装置300を介して、被評価者Uが発した「きたからきたかたたたきき」等の音声を、文音声データとして取得する。
 次に、算出部120は、ステップS102で取得した文音声データに基づく特徴量を算出する(ステップS103)。ステップS103において、例えば、算出部120は、文音声データに含まれる「きたからきたかたたたきき」における最初に発話された「た」を抽出し、抽出した「た」における子音と後続母音との音圧差を特徴量として算出する。
 なお、上述したように、算出部120が算出する特徴量はこれに限定されない。算出部120が算出する特徴量の具体例については、後述する。
 次に、評価部130は、ステップS103で算出部120が算出した特徴量から、被評価者Uの認知機能を評価する(ステップS104)。ステップS104において、評価部130は、例えば、ステップS103で算出部120が算出した特徴量と、記憶部150に記憶された参照データ151とから、被評価者Uの認知機能を評価する。
 次に、出力部140は、評価部130が評価した被評価者Uの認知機能の評価結果を出力する(ステップS105)。ステップS105において、出力部140は、例えば、ステップS104で評価部130が評価した評価結果に対応する画像を記憶部150から取得して、表示装置400へ取得した画像を送信する。
 表示装置400は、出力部140が出力した画像を取得して、当該画像を表示させる。こうすることで、被評価者Uは、簡便に、認知機能の評価結果を確認することができる。
 図4は、図3に示すステップS101において、取得部110が被評価者Uの音声データを取得する方法の一例を示す図である。具体的には、図4の(a)は、認知機能評価装置100が被評価者Uに発話させる前に表示装置400に表示させる画像410の一例を示す図であり、図4の(b)は、認知機能評価装置100が被評価者Uの文音声データを取得する際に表示装置400に表示させる画像420の一例を示す図であり、図4の(c)は、表示装置400に表示された文を被評価者Uが読み上げている様子を示す図である。
 図4の(a)に示すように、認知機能評価装置100は、被評価者Uから文音声データを取得する前に、被評価者Uへ「マイクの前の丸いスクリーンに近づいて話してください」という文が含まれる画像410を表示装置400に表示させる。なお、図4の(a)に示す文は、例えば、医者等が直接被評価者Uに説明してもよいし、録音した音声を被評価者Uに聞かせてもよい。
 次に、図4の(b)に示すように、表示装置400には、被評価者Uに発話させる文が含まれる画像420が表示される。画像410には、例えば、「きたからきたかたたたきき」という文が含まれる画像420を例示している。
 次に、図4の(c)に示すように、被評価者Uは、画像420に含まれる文を発話する。図4の(c)に示す例においては、算出部120は、例えば、「きたからきたかたたたきき」における、最初に発話された「た(ta)」を抽出する。算出部120は、さらに、抽出したの「た(ta)」における子音である「t」と後続母音である「a」との音圧を算出し、算出したそれぞれの音圧から、「t」と「a」との音圧差を特徴量として算出する。
 このように、被評価者Uが発話する文を画像420に表示させることで、医者等が当該文を声で被評価者Uに伝える場合と比較して、被評価者Uの音声を検出する場合にノイズが入りにくくなる。
 [特徴量の詳細]
 以下、認知機能評価装置100が、被評価者Uの認知機能の程度を評価する際に用いる特徴量の詳細について説明する。
 図5は、被評価者Uが発話した音声を示す文音声データの一例を示す図である。具体的には、図5は、被評価者Uが「きたからきたかたたたきき」と発話した場合の文音声データを示すグラフである。図5に示すグラフの横軸は時間であり、縦軸はパワー(音圧)である。なお、図5のグラフの縦軸に示すパワーの単位は、デシベル(dB)である。
 図5に示すグラフには、「き」、「た」、「か」、「ら」、「き」、「た」、「か」、「た」、「た」、「た」、「き」、「き」に対応する音圧の変化が確認される。取得部110は、図3に示すステップS102において、被評価者Uから文音声データとして、図5に示すデータを取得する。算出部120は、例えば、図3に示すステップS103において、既知の方法により、図5に示す文音声データから、初めに出現する「た(ta)」における「t」及び「a」の各音圧を算出する。算出部120は、算出した「t」及び「a」の各音圧から、「t」及び「a」の音圧差ΔP1を特徴量として算出する。この場合、参照データ151には、音圧差ΔP1の閾値が含まれており、評価部130は、例えば、当該閾値以上であれば被評価者Uが認知症であると判定し、当該閾値未満であれば健常者であると評価をする。
 なお、特徴量は、複数の音圧差の標準偏差等のばらつきでもよい。この場合、算出部120は、例えば、図5に示す音圧差ΔP1~ΔP9までを算出して、各音圧差ΔP1~ΔP9の標準偏差を特徴量として算出する。音圧差の標準偏差は、健常者と比較して、認知症患者の方が、大きくなる。特徴量として音圧差の標準偏差を採用する場合、参照データ151には、当該標準偏差の値である閾値が含まれており、評価部130は、例えば、当該閾値以上であれば被評価者Uが認知症であると判定し、当該閾値未満であれば健常者である等の評価をする。標準偏差を算出する際に用いられる音圧差の数は、特に限定されず、2つでもよいし、3以上でもよい。
 図6は、文音声データから算出部120が算出するフォルマント周波数を説明するための図である。なお、図6に示すグラフの横軸は周波数[Hz]であり、縦軸は振幅である。
 図6に破線で示すように、文音声データの横軸を周波数に変換して得られるデータには、複数のピークが確認される。複数のピークのうち、周波数の最も低いピークの周波数は、第一フォルマント周波数F1である。また、第一フォルマント周波数F1の次に周波数の低いピークの周波数は、第二フォルマント周波数F2である。また、第二フォルマント周波数F2の次に周波数の低いピークの周波数は、第三フォルマント周波数F3である。このように、算出部120は、取得部110が取得した文音声データから既知の方法により母音の部分を抽出して、抽出した母音の部分の文音声データを、周波数に対する振幅にデータ変換することにより母音のスペクトルを算出して、フォルマント周波数を算出する。
 なお、図6に示すグラフは、被評価者Uから得られる文音声データを周波数に対する振幅のデータに変換し、その包絡線を求めることにより算出される。包絡線の計算には、例えば、ケプストラム分析、線形予測分析(Linear Predictive Coding:LPC)等が採用される。
 図7は、音声データから算出部120が算出するフォルマント周波数の時間変化の一例を示す図である。具体的には、図7は、第一フォルマント周波数F1と、第二フォルマント周波数F2と、第三フォルマント周波数F3との周波数の時間変化の一例を説明するためのグラフである。
 例えば、認知機能評価装置100は、被評価者Uに、「あいうえお」等の連続した複数の母音を含む音節を発話させる。具体的には、出力部140は、「あいうえお」等の連続した複数の母音を含む音節からなる文字列を含む文を示す文データを表示装置400に出力し、当該文を表示装置400に表示させることで、被評価者Uに「あいうえお」等の複数の母音を含む音節を発話させる。算出部120は、被評価者Uが発話した音声を示す文音声データから、複数の母音それぞれの第一フォルマント周波数F1及び第二フォルマント周波数F2を算出する。さらに、算出部120は、母音が連続した文字列の第一フォルマント周波数F1及び第二フォルマント周波数F2の変化量、母音が連続した文字列の第一フォルマント周波数F1及び第二フォルマント周波数F2の変化にかかる所要時間、並びに、当該所要時間に対する当該変化量の比である変化率の少なくとも1つを特徴量として算出する。
 第一フォルマント周波数F1並びに第二フォルマント周波数F2の変化量、所要時間、及び、変化率は、健常者と比較して、認知症患者の方が、それぞれ大きくなる。特徴量として変化量、所要時間、又は、変化率を採用する場合、参照データ151には、変化量、所要時間、又は、変化率の値である閾値が含まれており、評価部130は、例えば、当該閾値以上であれば被評価者Uが認知症であると判定し、当該閾値未満であれば健常者である等の評価をする。
 なお、被評価者Uに発話させる文に含まれる母音は、連続していなくてもよい。具体的には、出力部140は、「たいよう」等の「い」及び「う」のように、連続していない複数の母音からなる文字列を含む文を示す文データを表示装置400に出力し、当該文を表示装置400に表示させてもよい。このような場合、算出部120は、母音の第一フォルマント周波数F1、当該母音の第二フォルマント周波数F2、及び、当該母音の第一フォルマント周波数F1に対する当該母音の第二フォルマント周波数F2の比の少なくとも1つのばらつきを特徴量として算出してもよい。特徴量として算出されるばらつきの度合いは、例えば、標準偏差である。当該ばらつきは、健常者と比較して、認知症患者の方が、大きくなる。特徴量として当該ばらつき(具体的には、標準偏差)を採用する場合、参照データ151には、当該標準偏差の値である閾値が含まれており、評価部130は、例えば、当該閾値以上であれば被評価者Uが認知症であると判定し、当該閾値未満であれば健常者である等の評価をする。
 また、「きたからきたかたたたきき」のように、母音のみの音節はなく、子音と後続母音とからなる開音節のみからなる文の場合、算出部120は、例えば、後続母音の音素のみを抽出して、各後続母音のフォルマント周波数を算出して、当該フォルマント周波数の変化量、変化に係る所要時間、変化率等を算出してもよい。また、連続した母音の文字列は、後続母音と母音とが連続した文字列でもよい。
 なお、認知機能評価装置100は、時間を測定するために、RTC(Real Time Clock)等の計時部を備えてもよい。
 図8は、評価部130が評価する文音声データの特徴量の一例を説明するための図である。なお、図8に示すグラフは、横軸が第一フォルマント周波数F1であり、縦軸が第二フォルマント周波数F2である。
 図8に示すように、算出部120は、一つの母音に対して、第一フォルマント周波数F1と第二フォルマント周波数F2とを算出することで、図8に示すグラフに一点プロットする。例えば、被評価者Uには、「あ」、「い」、「う」、「え」、「お」を発話させる。具体的には、出力部140は、「あ」、「い」、「う」、「え」、「お」を含む文を示す文データを表示装置400に出力し、当該文を表示装置400に表示させることで、被評価者Uに「あ」、「い」、「う」、「え」、「お」を発話させる。算出部120は、文音声データに含まれる「あ」、「い」、「う」、「え」、「お」それぞれの第一フォルマント周波数F1と第二フォルマント周波数F2とを算出する。こうすることで、算出部120は「あ」、「い」、「う」、「え」、「お」それぞれに対応する点を図8に示す座標空間にプロットする。このように、算出部120は、母音の第一フォルマント周波数F1に対する当該母音の第二フォルマント周波数F2で形成される座標空間(具体的には、図8に示す座標空間)において、少なくとも3つの母音のそれぞれから算出される第一フォルマント周波数F1に対する第二フォルマント周波数F2の比をプロットすることで形成される多角形の形状及び面積の少なくとも一方を特徴量として算出する。
 このように形成された多角形の面積は、健常者と比較して、認知症患者の方が、面積が小さくなる。特徴量として当該多角形の面積を採用する場合、参照データ151には、多角形の面積の値である閾値が含まれており、評価部130は、例えば、当該閾値以上であれば被評価者Uが健常者であると判定し、当該閾値未満であれば認知症である等の評価をする。
 また、このように形成された多角形の形状は、健常者と比較して、認知症患者の方が、各点の距離が近くなる。また、当該多角形が五角形の場合、当該多角形の形状は、健常者と比較して、認知症患者の方が、正五角形で近似した場合に、当該正五角形に対してゆがみが大きくなる。特徴量として当該多角形の形状を採用する場合、参照データ151には、多角形を構成する各点の距離、又は、正五角形で各点を近似した場合の各点からのずれ量の値である閾値が含まれており、評価部130は、例えば、当該閾値以上であれば被評価者Uが健常者であると判定し、当該閾値未満であれば認知症である等の評価をする。
 なお、プロットするために採用する母音は、子音に続く後続母音でもよいし、日本語ではなく外国語である場合には、「∧」(発音記号)等、日本語における母音である「a」、「i」、「u」、「e」、「o」以外でもよい。
 また、プロットする点の数は、各点から構成される多角形の形状及び面積の少なくとも一方を算出できればよく、3以上であればよい。
 図9は、評価部130が評価する文音声データの特徴量の別の一例を説明するための図である。
 図9に示すように、算出部120は、一つの母音に対して、第一フォルマント周波数F1と第二フォルマント周波数F2とを算出することで、図9に示すグラフに一点プロットする。例えば、認知機能評価装置100は、被評価者Uに、「あい」、「あう」、「おい」等の連続した母音を含む音節を発話させる。具体的には、出力部140は、「あい」、「あう」、「おい」等の母音を含む音節が連続した文字列を含む文を示す文データを表示装置400に出力し、当該文を表示装置400に表示させることで、被評価者Uに「あい」、「あう」、「おい」等を発話させる。算出部120は、文音声データに含まれる、例えば「あい」のうちの「あ」及び「い」それぞれの第一フォルマント周波数F1と第二フォルマント周波数F2とを算出する。こうすることで、算出部120は「あ」、「い」それぞれに対応する点をプロットする。このように、出力部140が出力する文データが示す文は、連続した少なくとも2つの母音を含み、算出部120は、母音の第一フォルマント周波数F1に対する当該母音の第二フォルマント周波数F2で形成される座標空間(具体的には、図9に示す座標空間)において、少なくとも2つの母音のそれぞれから算出される第一フォルマント周波数F1に対する第二フォルマント周波数F2の比をプロットした場合の位置関係を特徴量として算出してもよい。
 また、このようにプロットされた各点は、健常者と比較して、認知症患者の方が、距離が近くなる。特徴量として当該各点の位置関係を採用する場合、参照データ151には、各点の距離である閾値が含まれており、評価部130は、例えば、当該閾値以上であれば被評価者Uが健常者であると判定し、当該閾値未満であれば認知症である等の評価をする。
 ところで、認知症の診断は、認知症の診断のためのバッチテストであるMoCAテストを人が受けることにより、当該人が認知症であるかどうかを特定することができる。
 図10は、人がMoCAテストを受けた際に獲得したスコアを示す図である。
 本発明者らは、健常者(NC:Normal Control)、軽度の認知症患者(MCI:Mild Cognitive Inpairment)及び認知症患者(AD)を含む複数の被評価者を集めて、MoCAテストを実施した。NCの被評価者数(Number of subjects)は90人とし、MCIの被評価者数は94人とし、ADの被評価者数は93人とした。
 図10から、NC、MCI及びADとでMoCAのスコアの平均値(MoCA average score)及びスコアの範囲(MoCA score range)が異なることが確認できる。具体的には、NCのMoCAのスコアの平均値は27.4であり、MCIのMoCAのスコアの平均値は22.1であり、ADのMoCAのスコアの平均値は16.2であった。
 また、MoCAテストを受けた各人から、当該各人が発話した音声を示す音声データ(文音声データ)に基づく上述した特徴量を算出することで、音声データに基づく人の特徴量と当該人の認知機能との関係を示す参照データ151を作成する。例えば、評価部130によって被評価者UがNCか、MCIか、ADかを判定する場合、上述した特徴量の閾値として、値の異なる2つの閾値(例えば、第一閾値及び第二閾値)が参照データ151となる。評価部130は、例えば、被評価者Uから取得した文音声データから算出される特徴量が、第一閾値未満であれば被評価者UをNCと評価し、第一閾値以上第二閾値未満であれば被評価者UをMCIと評価し、第二閾値以上であれば被評価者UをADと評価する。認知機能評価装置100は、当該参照データ151を用いることで、被評価者Uの文音声データに基づく特徴量と参照データ151とから、被評価者Uの認知機能を簡便に評価することができる。なお、参照データ151として用いられる特徴量の閾値は、1つでもよいし、2以上でもよい。
 図11は、表示装置400に表示される、認知機能が低下していることを示す画像の一例を示す図である。
 表示装置400は、評価部130が評価した評価結果として、図11に示されるような画像430を表示する。画像430は、例えば、評価部130が被評価者Uの認知機能をADと評価した場合に表示する画像の一例である。このように、表示装置400は、評価部130が評価した評価結果を画像として表示する。こうすることで、例えば、被評価者Uが自宅等で認知機能評価装置100を用いて認知機能を評価している場合には、認知機能評価装置100は、被評価者Uに対して医者等の診察を促すことが可能である。
 ところで、図4の(c)に示す「きたからきたかたたたきき」のように、被評価者Uに発話させる文は、一度ではなく、複数回発話させてもよい。
 図12は、被評価者Uの文音声データを取得する際に表示装置400に表示させる画像の別の一例を示す図である。
 図12に示す画像440のように、出力部140が被評価者Uに発話させる文を含む文データには、当該文を複数回発話させる説明文が含まれていてもよい。例えば、算出部120は、被評価者Uの文の読み上げ時間を特徴量として算出する。文の読み上げ時間は、健常者と比較して、認知症患者の方が、長くなる。この場合、参照データ151には、読み上げ時間の閾値が含まれており、評価部130は、例えば、当該閾値以上であれば被評価者Uが認知症であると判定し、当該閾値未満であれば健常者である等の評価をする。
 ここで、被評価者Uに複数回同じ文章を読ませてもよい。具体的には、出力部140は、さらに、被評価者Uに文を複数回読み上げさせるための指示を出力し、算出部120は、被評価者Uが複数回発話した文のそれぞれの読み上げ時間から算出される当該読み上げ時間の変化量を特徴量として算出してもよい。
 なお、ここでいう変化量は、例えば、1回目に被評価者Uが文の読み上げにかかった時間が10秒であり、2回目に被評価者Uが文の読み上げにかかった時間が8秒である場合、変化量は2秒である。また、被評価者Uに3回以上文を読み上げさせた場合、例えば、算出部120は、被評価者Uが文の1回の読み上げにかかった時間の標準偏差、又は、複数算出される変化量の平均値を特徴量として算出してもよい。
 文の読み上げ時間の変化量は、健常者と比較して、認知症患者の方が、大きくなる。この場合、参照データ151には、読み上げ時間の変化量が含まれており、評価部130は、例えば、当該閾値以上であれば被評価者Uが認知症であると判定し、当該閾値未満であれば健常者である等の評価をする。
 なお、図12には、被評価者Uに文を3回発話させる指示について例示したが、2回でもよいし、4回以上でもよい。
 また、出力部140が被評価者Uに発話させる文を含む文データは、当該文を複数回発話させる説明文を含んでいてもよいし、被評価者Uに発話させる文を複数含んでいてもよい。
 [効果等]
 以上、実施の形態に係る認知機能評価装置100は、被評価者Uが指示された文に従って発話した音声を示す文音声データを取得する取得部110と、取得部110が取得した文音声データから、当該文音声データに基づく特徴量を算出する算出部120と、算出部120が算出した特徴量と、人が発した音声を示す音声データと当該人の認知機能との関係を示す参照データ151とを照合することにより、被評価者Uの認知機能を評価する評価部130と、被評価者Uに発話させる文を出力し、且つ、評価部130が評価した評価結果を出力する出力部140と、を備える。
 これにより、認知機能評価装置100によれば、評価部130で認知機能を正確に評価しやすい音声データを被評価者Uから取得することができる。そのため、認知機能評価装置100によれば、簡便に、且つ、精度良く被評価者Uの認知機能を評価できる。
 例えば、被評価者Uに発話させる文は、子音及び当該子音に連続した後続母音、並びに、母音の少なくとも一方が連続した文字列を含んでもよい。
 つまり、評価部130が評価する音声データは、子音及び当該子音に後続した母音からなる音節、並びに、母音のみからなる音節の少なくとも一方が連続しているとよい。例えば、図5に示すように、子音である「t」よりも、母音である「a」の方が、音圧が大きいことが分かる。このように、例えば、集音装置300で集音した場合に、子音と比較して、母音の方が、集音しやすい。また、音及び当該子音に連続した後続母音、並びに、母音の少なくとも一方を連続して発話させることで、複数の母音を解析することができるため、より精度良く被評価者Uの認知機能を評価できる。
 また、例えば、被評価者Uに発話させる文は、「きたかぜとたいようがでています」、「たんけんかはぼうけんがだいすきです」、及び、「きたからきたかたたたきき」の少なくとも1つの文字列を含んでもよい。これらのように、出力部140が出力する文データが示す文は、閉鎖子音と当該閉鎖子音に後続した母音とからなる文字が、5以上含まれていてもよい。閉鎖子音は、ADとNCとで音声データに違いが生じやすい。そのため、被評価者Uに発話させる文を、例えば、「きたかぜとたいようがでています」、「たんけんかはぼうけんがだいすきです」、及び、「きたからきたかたたたきき」とすることで、より精度良く被評価者Uの認知機能を評価できる。
 また、例えば、被評価者Uに発話させる文は、母音を含む音節が連続した文字列を含んでもよい。また、算出部120は、母音の第一フォルマント周波数F1及び第二フォルマント周波数F2の変化量、母音の第一フォルマント周波数F1及び第二フォルマント周波数F2の変化にかかる所要時間、並びに、当該所要時間に対する当該変化量の比である変化率の少なくとも1つを特徴量として算出してもよい。
 第一フォルマント周波数F1は、人の音声の低周波数側から数えて1番目に見られる振幅のピーク周波数であり、舌の動きに関する特徴が反映されやすいことが知られている。また、ADは、NCと比較して舌をうまく動かせない場合が多い。そのため、第一フォルマント周波数F1は、NCとADとで違いが生じやすいと考えられる。また、例えば、ADは、舌やあごの位置を維持する運動機能が衰える場合が多いと考えらえる。そのため、ADは、NCと比較して、発する音声が安定しにくいことが考えられる。つまり。ADは、NCと比較して、発する音声がばらつくために、第一フォルマント周波数F1及び第二フォルマント周波数F2の時間変化が大きくなることが考えられる。そのため、第一フォルマント周波数F1及び第二フォルマント周波数F2の変化量、所要時間、及び、当該所要時間に対する当該変化量の比である変化率を特徴量として認知機能の評価に用いることで、より精度良く被評価者Uの認知機能の評価が可能となる。
 また、例えば、被評価者Uに発話させる文は、母音を含む音節を複数含んでもよい。また、算出部120は、母音の第一フォルマント周波数F1、当該母音の第二フォルマント周波数F2、及び、当該母音の第一フォルマント周波数F1に対する当該母音の第二フォルマント周波数F2の比の少なくとも1つのばらつきを特徴量として算出してもよい。
 上記のとおり、ADは、NCと比較して、発する音声がばらつくために、第一フォルマント周波数F1及び第二フォルマント周波数F2がばらつきやすい。また、フォルマント周波数には、個人差が生じることが推定される。さらに、第一フォルマント周波数F1と第二フォルマント周波数F2とには、個人ごとに相関がみられることが推定される。そのため、母音の第一フォルマント周波数F1に対する当該母音の第二フォルマント周波数F2の比のばらつきを特徴量とすることで、より精度良く被評価者Uの認知機能を評価できる。
 また、例えば、被評価者Uに発話させる文は、互いに異なる母音を含む音節を少なくとも3つ含んでもよい。また、算出部120は、母音の第一フォルマント周波数F1に対する当該母音の第二フォルマント周波数F2で形成される座標空間において、少なくとも3つの互いに異なる母音のそれぞれから算出される第一フォルマント周波数F1に対する第二フォルマント周波数F2の比をプロットすることで形成される多角形の形状及び面積の少なくとも一方を特徴量として算出してもよい。
 上記の通り、このように形成された多角形の面積は、健常者と比較して、認知症患者の方が、面積が小さくなる。また、このように形成された多角形の形状は、健常者と比較して、認知症患者の方が、各点の距離が近くなる。また、当該多角形が五角形の場合、当該多角形の形状は、健常者と比較して、認知症患者の方が、正五角形で近似した場合に、正五角形に対してゆがみが大きくなる。そのため、特徴量として、上記のように形成される多角形の形状及び面積の少なくとも一方を採用することで、より精度良く被評価者Uの認知機能の評価が可能となる。
 また、例えば、被評価者Uに発話させる文は、互いに異なる母音を含む音節を少なくとも2つ連続して含んでもよい。また、算出部120は、母音の第一フォルマント周波数F1に対する当該母音の第二フォルマント周波数F2で形成される座標空間において、少なくとも2つの母音のそれぞれから算出される第一フォルマント周波数F1に対する第二フォルマント周波数F2の比をプロットした場合の位置関係を特徴量として算出してもよい。
 上記の通り、このようにプロットされた各点は、健常者と比較して、認知症患者の方が、距離が近くなる。そのため、特徴量として、当該各点の位置関係を採用することで、より精度良く被評価者Uの認知機能の評価が可能となる。
 また、例えば、被評価者Uに発話させる文は、子音と当該子音に後続した母音とからなる音節を含んでもよい。また、算出部120は、子音と後続母音との音圧差を特徴量として算出してもよい。
 評価部130は、例えば、当該閾値以上であれば被評価者Uが認知症であると判定し、当該閾値未満であれば健常者である等の評価をする。また、例えば、特徴量は、複数の音圧差の標準偏差等のばらつきでもよい。この場合、算出部120は、例えば、図5に示す音圧差ΔP1~ΔP9までを算出して、各音圧差ΔP1~ΔP9の標準偏差を特徴量として算出する。音圧差の標準偏差は、健常者と比較して、認知症患者の方が、大きくなる。そのため、特徴量として音圧差を採用することで、より精度良く被評価者Uの認知機能の評価が可能となる。
 また、例えば、算出部120は、被評価者Uの文の読み上げ時間を特徴量として算出してもよい。
 上記の通り、文の読み上げ時間は、健常者と比較して、認知症患者の方が、長くなる。そのため、特徴量として文の読み上げ時間を採用することで、より精度良く被評価者Uの認知機能の評価が可能となる。
 また、例えば、出力部140は、さらに、被評価者Uに文を複数回読み上げさせるための指示を出力してもよい。また、算出部120は、被評価者Uが複数回発話した文のそれぞれの読み上げ時間から算出される当該読み上げ時間の変化量を特徴量として算出してもよい。
 上記の通り、文の読み上げ時間の変化量は、健常者と比較して、認知症患者の方が、大きくなる。そのため、特徴量として文の読み上げ時間の変化量を採用することで、より精度良く被評価者Uの認知機能の評価が可能となる。
 また、例えば、認知機能評価装置100は、参照データ151を記憶する記憶部150を備えてもよい。
 つまり、認知機能評価装置100は、参照データ151を記憶している外部のサーバ装置等の通信することで、被評価者Uの認知機能の評価をしてもよいが、参照データ151を記憶している記憶装置である記憶部150を備えてもよい。これにより、認知機能評価装置100は、外部のサーバ装置を通信するためのネットワークに接続することなく、被評価者Uの認知機能を評価することができる。そのため、認知機能評価装置100の利便性は、向上される。
 また、実施の形態に係る認知機能評価システム200は、認知機能評価装置100と、被評価者Uの音声を検出する集音装置300と、出力部140が出力した文及び評価結果を表示する表示装置400と、を備える。
 これにより、認知機能評価システム200は、表示装置400によって被評価者Uに発話させる文を提示し、集音装置300によって被評価者Uの音声を検出し、認知機能評価装置100によって被評価者Uの認知機能を評価し、表示装置400によって当該評価結果を表示できる。つまり、認知機能評価システム200によれば、評価部130で認知機能を正確に評価しやすい音声データを被評価者Uから取得することができる。そのため、認知機能評価システム200によれば、簡便に、且つ、精度良く被評価者Uの認知機能を評価できる。
 また、実施の形態に係る認知機能評価方法は、コンピュータ(具体的には、認知機能評価装置100)が実行する認知機能評価方法であって、被評価者Uに発話させる文を出力する文出力ステップと、被評価者Uが発話した音声を示す文音声データを取得する取得ステップと、取得ステップで取得した文音声データから、当該文音声データに基づく特徴量を算出する算出ステップと、算出ステップで算出した特徴量と、人が発した音声を示す音声データと当該人の認知機能との関係を示す参照データとを照合することにより、被評価者Uの認知機能を評価する評価ステップと、評価ステップで評価した評価結果を出力する評価結果出力ステップと、を含む。
 これにより、本発明に係る認知機能評価方法によれば、認知機能を正確に評価しやすい音声データを被評価者Uから取得することができる。そのため、本発明に係る認知機能評価方法によれば、簡便に、且つ、精度良く被評価者Uの認知機能を評価できる。
 また、本発明は、認知機能評価方法に含まれるステップをコンピュータに実行させるプログラムとして実現されてもよい。
 (変形例)
 続いて、実施の形態の変形例1及び変形例2に係る認知機能評価システムについて説明する。なお、実施の形態と同一の構成に関しては同一の符号を付しており、重複する説明は省略又は簡略化する場合がある。
 図13は、実施の形態の変形例1に係る認知機能評価システムの構成を示す図である。
 実施の形態の変形例1に係る認知機能評価システム200aは、実施の形態に係る認知機能評価システム200と同様に、認知機能評価装置100と、集音装置300と、表示装置400とを備える。認知機能評価システム200は、例えば、集音装置300を覆うように、ポップガード320を備えてもよい。
 また、認知機能評価システム200aでは、指向性を有する集音装置300が採用されている。ここで、集音装置300及び表示装置400は、集音装置300が最大感度を示す方向(図13に示す集音方向V2)と表示装置400が課題情報を表示する表示面401の法線方向V1とが一致するように配置されている。具体的には、法線方向V1と集音方向V2とが平行となるように、集音装置300及び表示装置400は、机等の固定物に配置されている。なお、集音装置300及び表示装置400は、造営材等に固定されてもよい。また、認知機能評価システム200aは、集音装置300及び表示装置400の位置関係を固定するための固定具を備えてもよい。
 こうすることで、被評価者Uが表示装置400を見ながら発話した場合においても、集音方向V2と、発話する方向とが一致しやすくなる。そのため、認知機能評価システム200aのような位置関係とすることで、集音装置300は、被評価者Uの音声を正確に検出しやすくなる。
 続いて、実施の形態の変形例2に係る認知機能評価システムについて説明する。
 図14は、実施の形態の変形例2に係る認知機能評価システムの構成を示す図である。
 実施の形態の変形例2に係る認知機能評価システム200bは、実施の形態に係る認知機能評価システム200と同様に、認知機能評価装置100と、集音装置300aと、表示装置400とを備える。
 集音装置300aは、集音装置300と同様に、被評価者Uが発した音声を検出して、検出した音声を示す音声データを認知機能評価装置100へ出力するマイクである。また、集音装置300aは、実施の形態に係る認知機能評価システム200における集音装置300と同様に、指向性を有する。
 認知機能評価システム200bにおいては、集音装置300aと表示装置400とが一体として形成されている。具体的には、集音装置300aと表示装置400とは、同一の筐体に配置されている。集音装置300aと表示装置400とを一体に形成する製造工程において、法線方向V1と集音方向V2とを一致するように形成しておけば、被評価者Uが認知機能評価システム200bを利用する際に、法線方向V1及び集音方向V2がずれることが抑制される。
 (その他の実施の形態)
 以上、実施の形態、実施の形態の変形例1及び変形例2に係る認知機能評価装置等について説明したが、本発明は、上記実施の形態に限定されるものではない。
 また、上記実施の形態では、認知機能の低下の症状の一具体例として、アルツハイマー型認知症が挙げられた。しかしながら、認知機能とは、認識したり、記憶したり、判断したりする能力を示し、認知症とは、上述した認知機能の低下が見られる症状を示す。つまり、認知機能評価装置が評価する認知機能の程度は、アルツハイマー型認知症に限定されず、例えば、血管性認知症、酩酊の度合い等でもよい。
 また、上記実施の形態では、被評価者Uの認知機能の程度を評価するために、MoCAテストのスコアとフォルマントの特徴量との関係性を示すデータを参照データ151として予め記憶部150が記憶している。しかしながら、参照データは、フォルマントの特徴量と照合することで認知機能の程度の評価をすることができるデータであればよく、MoCAテストとフォルマントの特徴量との関係性を示すデータに限定されない。例えば、参照データは、MMSE(Mini-Mental State Examination:ミニメンタルステート検査)等のスコアとフォルマント周波数等の特徴量との関係を示すデータでもよい。
 また、上記実施の形態では、「閾値以上」、「閾値未満」等と記載したが、厳密な意味で記載するものではない。例えば、「閾値以上」と記載する場合においては、閾値よりも大きいことを意味してもよい。また、「閾値以上」、「閾値未満」と対比して記載する場合に、当該閾値を境に区別されることを意味し、それぞれ、「閾値より大きい」、「閾値以下」であることを意味してもよい。
 また、上記参照データにおける文音声データと認知症の程度との関係は、現時点における発明者らの上記被評価者らを集めたデータ分析によりものであるが、今後、より多くの被評価者を集めたデータ分析、条件を見直したデータ分析などが行われることにより評価基準が変更になる可能性がある。したがって、上記実施の形態では、特徴量として音圧差を採用する場合において、評価部は、例えば、当該閾値以上であれば被評価者Uが認知症であると判定し、当該閾値未満であれば健常者である等の評価をしたが、これに限定されない。例えば、当該閾値未満であれば被評価者Uが認知症であると判定し、当該閾値以上であれば健常者である等の評価をしてもよい。他の特徴量における閾値の扱いについても同様である。
 また、上記実施の形態では、被評価者から得られる文音声データのみを特徴量として算出して被評価者の認知機能を評価したが、他の既知の認知機能を評価できるデータを組み合わせて評価を実施してもよい。例えば、認知機能と歩幅、歩隔、歩行速度等の歩行に関する歩行データとには、相関があることが知られている。上記実施の形態で評価された被評価者の文音声データと、被評価者の歩行データとを組み合わせて認知機能の評価に用いることで、より精度良く被評価者の認知機能は評価され得る。
 また、本発明は、認知機能評価装置及び認知機能評価システムとして実現できるだけでなく、認知機能評価装置及び認知機能評価システムの行う各構成要素が行う処理をステップとして含むプログラム、及び、そのプログラムを記録したコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリ等の記録媒体として実現することもできる。また、当該プログラムは、インターネット等の通信路で配信されてもよい。
 つまり、上記包括的又は具体的な態様は、システム、装置、集積回路、コンピュータプログラム又はコンピュータ読み取り可能な記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。例えば、認知機能評価装置が備える各構成要素は、一つの筐体内にある必要はなく、それぞれが異なる場所に配置されて各種データの送受信が可能に接続させていればよい。
 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、又は、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。
 100 認知機能評価装置
 110 取得部
 120 算出部
 130 評価部
 140 出力部
 150 記憶部
 151 参照データ
 200、200a、200b 認知機能評価システム
 300、300a 集音装置
 400 表示装置
 F1 第一フォルマント周波数
 F2 第二フォルマント周波数
 U 被評価者
 ΔP1~ΔP9 音圧差

Claims (14)

  1.  被評価者が指示された文に従って発話した音声を示す文音声データを取得する取得部と、
     前記取得部が取得した前記文音声データから、当該文音声データに基づく特徴量を算出する算出部と、
     前記算出部が算出した前記特徴量と、人が発した音声を示す音声データと当該人の認知機能との関係を示す参照データとを照合することにより、前記被評価者の認知機能を評価する評価部と、
     前記被評価者に発話させる前記文を出力し、且つ、前記評価部が評価した評価結果を出力する出力部と、を備える
     認知機能評価装置。
  2.  前記文は、子音及び当該子音に後続した母音からなる音節、並びに、母音のみからなる音節の少なくとも一方が連続した文字列を含む
     請求項1に記載の認知機能評価装置。
  3.  前記文は、きたかぜとたいようがでています、たんけんかはぼうけんがだいすきです、及び、きたからきたかたたたききの少なくとも1つの文字列を含む
     請求項1に記載の認知機能評価装置。
  4.  前記文は、母音を含む音節が連続した文字列を含み、
     前記算出部は、母音の第一フォルマント周波数及び第二フォルマント周波数の変化量、当該母音の第一フォルマント周波数及び第二フォルマント周波数の変化にかかる所要時間、並びに、前記所要時間に対する前記変化量の比である変化率の少なくとも1つを前記特徴量として算出する
     請求項1に記載の認知機能評価装置。
  5.  前記文は、母音を含む音節を複数含み、
     前記算出部は、母音の第一フォルマント周波数、当該母音の第二フォルマント周波数、及び、当該母音の第一フォルマント周波数に対する当該母音の第二フォルマント周波数の比の少なくとも1つのばらつきを前記特徴量として算出する
     請求項1に記載の認知機能評価装置。
  6.  前記文は、互いに異なる母音を含む音節を少なくとも3つ含み、
     前記算出部は、母音の第一フォルマント周波数に対する当該母音の第二フォルマント周波数で形成される座標空間において、前記少なくとも3つの母音のそれぞれから算出される第一フォルマント周波数に対する第二フォルマント周波数の比をプロットすることで形成される多角形の形状及び面積の少なくとも一方を前記特徴量として算出する
     請求項1に記載の認知機能評価装置。
  7.  前記文は、互いに異なる母音を含む音節を少なくとも2つ連続して含み、
     前記算出部は、母音の第一フォルマント周波数に対する当該母音の第二フォルマント周波数で形成される座標空間において、前記少なくとも2つの母音のそれぞれから算出される第一フォルマント周波数に対する第二フォルマント周波数の比をプロットした場合の位置関係を前記特徴量として算出する
     請求項1に記載の認知機能評価装置。
  8.  前記文は、子音と当該子音に後続した母音とからなる音節を含み、
     前記算出部は、前記子音と前記母音との音圧差を前記特徴量として算出する
     請求項1に記載の認知機能評価装置。
  9.  前記算出部は、前記被評価者の前記文の読み上げ時間を前記特徴量として算出する
     請求項1に記載の認知機能評価装置。
  10.  前記出力部は、さらに、前記被評価者に前記文を複数回読み上げさせるための指示を出力し、
     前記算出部は、前記被評価者が複数回発話した前記文のそれぞれの読み上げ時間から算出される当該読み上げ時間の変化量を前記特徴量として算出する
     請求項1に記載の認知機能評価装置。
  11.  さらに、前記参照データを記憶する記憶部を備える
     請求項1~10のいずれか1項に記載の認知機能評価装置。
  12.  請求項1~11のいずれか1項に記載の認知機能評価装置と、
     前記被評価者の音声を検出する集音装置と、
     前記出力部が出力した前記文及び前記評価結果を表示する表示装置と、を備える
     認知機能評価システム。
  13.  コンピュータが実行する認知機能評価方法であって、
     被評価者に発話させる文を出力する文出力ステップと、
     被評価者が発話した音声を示す文音声データを取得する取得ステップと、
     前記取得ステップで取得した前記文音声データから、当該文音声データに基づく特徴量を算出する算出ステップと、
     前記算出ステップで算出した前記特徴量と、人が発した音声を示す音声データと当該人の認知機能との関係を示す参照データとを照合することにより、前記被評価者の認知機能を評価する評価ステップと、
     前記評価ステップで評価した評価結果を出力する評価結果出力ステップと、を含む
     認知機能評価方法。
  14.  請求項13に記載の認知機能評価方法をコンピュータに実行させるための
     プログラム。
PCT/JP2018/038346 2017-11-02 2018-10-15 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム WO2019087758A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880070418.6A CN111315302B (zh) 2017-11-02 2018-10-15 认知功能评估装置、认知功能评估系统、认知功能评估方法及程序记录介质
US16/759,573 US11918372B2 (en) 2017-11-02 2018-10-15 Cognitive function evaluation system, method, and storage medium for dementia by analyzing voice of evaluatee for recognition, remembering or jugment capabilities

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-213157 2017-11-02
JP2017213157A JP6337362B1 (ja) 2017-11-02 2017-11-02 認知機能評価装置、及び、認知機能評価システム

Publications (1)

Publication Number Publication Date
WO2019087758A1 true WO2019087758A1 (ja) 2019-05-09

Family

ID=62487535

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/038346 WO2019087758A1 (ja) 2017-11-02 2018-10-15 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム

Country Status (5)

Country Link
US (1) US11918372B2 (ja)
JP (1) JP6337362B1 (ja)
CN (1) CN111315302B (ja)
TW (1) TWI680453B (ja)
WO (1) WO2019087758A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111081229A (zh) * 2019-12-23 2020-04-28 科大讯飞股份有限公司 基于语音的评分方法及相关装置
WO2020255127A1 (en) * 2019-06-19 2020-12-24 M.You Cognitive Technologies Ltd. Systems and methods for detecting cognitive change based on voice and smartphone sensors
EP4144302A1 (en) * 2020-04-28 2023-03-08 PST Inc. Information processing device, method, and program

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6667907B2 (ja) * 2018-06-28 2020-03-18 株式会社アルム 認知症診断装置、および認知症診断システム
JP7389421B2 (ja) * 2018-07-13 2023-11-30 Pst株式会社 精神・神経系疾患を推定する装置
CN109859741A (zh) * 2019-01-31 2019-06-07 成都终身成长科技有限公司 语音测评方法、装置、电子设备及存储介质
US20200294669A1 (en) * 2019-03-11 2020-09-17 Fujitsu Limited Learning method, estimating method, and storage medium
JP7241322B2 (ja) * 2019-03-26 2023-03-17 パナソニックIpマネジメント株式会社 認知機能検査システム、及びプログラム
JP7241321B2 (ja) * 2019-03-26 2023-03-17 パナソニックIpマネジメント株式会社 認知機能検査方法、プログラム、及び認知機能検査システム
WO2020208889A1 (ja) * 2019-04-10 2020-10-15 パナソニックIpマネジメント株式会社 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム
JP7479013B2 (ja) * 2019-08-05 2024-05-08 パナソニックIpマネジメント株式会社 認知機能の判定方法、プログラム、認知機能の判定システム
JP2023015420A (ja) * 2020-01-09 2023-02-01 株式会社生命科学インスティテュート 疾患推定プログラムにおける音響特徴量の抽出方法、およびその音響特徴量を用いた疾患推定プログラム並びに装置
US11232570B2 (en) 2020-02-13 2022-01-25 Olympus Corporation System and method for diagnosing severity of gastritis
KR102161638B1 (ko) * 2020-04-13 2020-10-06 가천대학교 산학협력단 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체
JP2024502687A (ja) * 2021-12-08 2024-01-23 セブンポイントワン インコーポレイテッド 人工知能コールを利用した質疑応答基盤の認知症検査方法及びサーバ
CN114343577B (zh) * 2021-12-31 2024-02-13 科大讯飞股份有限公司 认知功能评价方法、终端设备以及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006122375A (ja) * 2004-10-29 2006-05-18 Toshiba Corp 手術記録装置及び脳機能検査装置
JP2009089800A (ja) * 2007-10-04 2009-04-30 Tottori Univ 痴呆症診断装置及び痴呆症診断プログラム
JP2011255106A (ja) * 2010-06-11 2011-12-22 Nagoya Institute Of Technology 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム
US20150112232A1 (en) * 2013-10-20 2015-04-23 Massachusetts Institute Of Technology Using correlation structure of speech dynamics to detect neurological changes
US20170032804A1 (en) * 2014-01-24 2017-02-02 Foundation Of Soongsil University-Industry Cooperation Method for determining alcohol consumption, and recording medium and terminal for carrying out same
JP2017148431A (ja) * 2016-02-26 2017-08-31 パナソニックIpマネジメント株式会社 認知機能評価装置、認知機能評価方法、プログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06297888A (ja) 1993-04-20 1994-10-25 Dainippon Printing Co Ltd 偽造防止証書
JP3475886B2 (ja) 1999-12-24 2003-12-10 日本電気株式会社 パターン認識装置及び方法並びに記録媒体
EP1300831B1 (en) 2001-10-05 2005-12-07 Sony Deutschland GmbH Method for detecting emotions involving subspace specialists
JP2004240394A (ja) 2002-12-12 2004-08-26 Sense It Smart Corp 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
JP4792703B2 (ja) * 2004-02-26 2011-10-12 株式会社セガ 音声解析装置、音声解析方法及び音声解析プログラム
AU2004318986B2 (en) 2004-04-28 2011-03-17 Electronic Navigation Research Institute, An Independent Administrative Institution Cerebrum evaluation device
JP4626310B2 (ja) * 2005-01-12 2011-02-09 ヤマハ株式会社 発音評価装置
JP2006230446A (ja) 2005-02-22 2006-09-07 Nippon Shizen Kagaku Kenkyusho:Kk 健康状態推定装置
JP4811993B2 (ja) * 2005-08-23 2011-11-09 株式会社国際電気通信基礎技術研究所 音声処理装置、およびプログラム
US20070134634A1 (en) * 2005-12-13 2007-06-14 Posit Science Corporation Assessment in cognitive training exercises
JP2010060846A (ja) * 2008-09-03 2010-03-18 Panasonic Electric Works Co Ltd 合成音声評価システム及び合成音声評価方法
US20100233662A1 (en) * 2009-03-11 2010-09-16 The Speech Institute, Llc Method for treating autism spectrum disorders
CN102469961B (zh) * 2010-01-28 2015-05-13 松下电器产业株式会社 语音清晰度评价系统和方法
CN102781322B (zh) * 2010-06-11 2015-02-25 松下电器产业株式会社 语音听取的评价系统、及方法
US9262941B2 (en) * 2010-07-14 2016-02-16 Educational Testing Services Systems and methods for assessment of non-native speech using vowel space characteristics
JP4662509B1 (ja) * 2010-11-17 2011-03-30 日本テクト株式会社 認知機能予測システム
JP5144835B2 (ja) * 2010-11-24 2013-02-13 パナソニック株式会社 うるささ判定システム、装置、方法およびプログラム
EP3780002A1 (en) * 2010-11-24 2021-02-17 Digital Artefacts, LLC Systems and methods to assess cognitive function
JP5959016B2 (ja) 2011-05-31 2016-08-02 国立大学法人 名古屋工業大学 認知機能障害判別装置、認知機能障害判別システム、およびプログラム
JP6128651B2 (ja) * 2012-01-26 2017-05-17 国立研究開発法人国立精神・神経医療研究センター 認知機能検査システム、認知機能推定システム及び認知機能検査方法
US9078598B2 (en) * 2012-04-19 2015-07-14 Barry J. French Cognitive function evaluation and rehabilitation methods and systems
JP6206791B2 (ja) * 2012-08-31 2017-10-04 パナソニックIpマネジメント株式会社 集中度計測装置、プログラム
WO2014093368A1 (en) * 2012-12-10 2014-06-19 The Cleveland Clinic Foundation Performance test for evaluation of neurological function
CN103519785B (zh) * 2013-09-24 2016-01-27 上海泰亿格康复服务有限公司 基于实时语音多维建模的语音障碍多维测量系统及其方法
JP6586099B2 (ja) * 2013-10-31 2019-10-02 パウ−サン ハルタ 言語関連障害の診断及び治療のためのコンピューティング技術
US10383540B2 (en) * 2014-01-23 2019-08-20 National Institute Of Advanced Industrial Science And Technology Cognitive function evaluation apparatus, method, system and program
CN107847194B (zh) * 2014-06-30 2020-11-24 塞罗拉公司 使有操作延迟的pc与有实时时钟的微控制器同步的系统
US10127929B2 (en) * 2015-08-19 2018-11-13 Massachusetts Institute Of Technology Assessing disorders through speech and a computational model
CN106355010A (zh) * 2016-08-30 2017-01-25 深圳市臻络科技有限公司 一种自助认知评估的装置和方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006122375A (ja) * 2004-10-29 2006-05-18 Toshiba Corp 手術記録装置及び脳機能検査装置
JP2009089800A (ja) * 2007-10-04 2009-04-30 Tottori Univ 痴呆症診断装置及び痴呆症診断プログラム
JP2011255106A (ja) * 2010-06-11 2011-12-22 Nagoya Institute Of Technology 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム
US20150112232A1 (en) * 2013-10-20 2015-04-23 Massachusetts Institute Of Technology Using correlation structure of speech dynamics to detect neurological changes
US20170032804A1 (en) * 2014-01-24 2017-02-02 Foundation Of Soongsil University-Industry Cooperation Method for determining alcohol consumption, and recording medium and terminal for carrying out same
JP2017148431A (ja) * 2016-02-26 2017-08-31 パナソニックIpマネジメント株式会社 認知機能評価装置、認知機能評価方法、プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020255127A1 (en) * 2019-06-19 2020-12-24 M.You Cognitive Technologies Ltd. Systems and methods for detecting cognitive change based on voice and smartphone sensors
CN111081229A (zh) * 2019-12-23 2020-04-28 科大讯飞股份有限公司 基于语音的评分方法及相关装置
CN111081229B (zh) * 2019-12-23 2022-06-07 科大讯飞股份有限公司 基于语音的评分方法及相关装置
EP4144302A1 (en) * 2020-04-28 2023-03-08 PST Inc. Information processing device, method, and program

Also Published As

Publication number Publication date
CN111315302B (zh) 2023-04-25
JP6337362B1 (ja) 2018-06-06
JP2019083902A (ja) 2019-06-06
US11918372B2 (en) 2024-03-05
CN111315302A (zh) 2020-06-19
TW201923734A (zh) 2019-06-16
US20210177340A1 (en) 2021-06-17
TWI680453B (zh) 2019-12-21

Similar Documents

Publication Publication Date Title
WO2019087758A1 (ja) 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム
JP6268628B1 (ja) 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
Luz et al. A method for analysis of patient speech in dialogue for dementia detection
JP6312014B1 (ja) 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
Munson et al. The effect of phonological neighborhood density on vowel articulation
Schölderle et al. Dysarthria in adults with cerebral palsy: Clinical presentation and impacts on communication
Fletcher et al. Assessing vowel centralization in dysarthria: A comparison of methods
Khodabakhsh et al. Natural language features for detection of Alzheimer's disease in conversational speech
KR20220048381A (ko) 말 장애 평가 장치, 방법 및 프로그램
Bouvier et al. Progressive apraxia of speech in Quebec French speakers: A case series
JP7022921B2 (ja) 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
Alghowinem From joyous to clinically depressed: Mood detection using multimodal analysis of a person's appearance and speech
JP7307507B2 (ja) 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム
KR101420057B1 (ko) 말지각 검사 장치 및 이를 이용한 말지각 검사방법
WO2020208889A1 (ja) 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム
Moro Velázquez Towards the differential evaluation of Parkinson’s Disease by means of voice and speech processing
Henry et al. “They sure aren’t from around here”: Children’s perception of accent distance in L1 and L2 varieties of English
Bou Zeidan Automatic Speech Recognition to Maintain the Elderly’s Autonomy in Signal Processing and Al Approaches
Simeone et al. Vowel distinctiveness as a concurrent predictor of expressive language function in autistic children
Haderlein et al. Language-independent automatic evaluation of intelligibility of chronically hoarse persons

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18872108

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18872108

Country of ref document: EP

Kind code of ref document: A1