WO2020195163A1 - 認知機能検査方法、プログラム、及び認知機能検査システム - Google Patents
認知機能検査方法、プログラム、及び認知機能検査システム Download PDFInfo
- Publication number
- WO2020195163A1 WO2020195163A1 PCT/JP2020/003857 JP2020003857W WO2020195163A1 WO 2020195163 A1 WO2020195163 A1 WO 2020195163A1 JP 2020003857 W JP2020003857 W JP 2020003857W WO 2020195163 A1 WO2020195163 A1 WO 2020195163A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- subject
- cognitive function
- sentence
- utterance
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
Definitions
- This disclosure relates to cognitive function test methods, programs, and cognitive function test systems. More specifically, the present disclosure relates to cognitive function testing methods, programs, and cognitive function testing systems for testing cognitive function.
- Patent Document 1 describes a dementia diagnosis system (cognitive function test system) used for diagnosing a subject's dementia.
- the dementia diagnosis system described in Patent Document 1 includes a dementia diagnosis device and a terminal device.
- the terminal device records the conversation between the subject and the questioner.
- the dementia diagnostic device calculates the dementia level of the subject from the voice data recorded by the terminal device.
- the purpose of the present disclosure is to provide a cognitive function test method, a program, and a cognitive function test system capable of improving the evaluation accuracy of cognitive function.
- the cognitive function test method is a cognitive function test method in which a subject is made to make an utterance related to the image after an interval period has elapsed after displaying the image on the display unit.
- guide information for promoting the utterance is presented based on the recognition result of the utterance.
- the program according to one aspect of the present disclosure is a program for causing one or more processors to execute the above-mentioned cognitive function test method.
- the cognitive function test system includes a display unit, an examination unit, and a presentation unit.
- the inspection unit causes the subject to make an utterance related to the image after an interval period has elapsed after displaying the image on the display unit.
- the presenting unit presents guide information for promoting the utterance based on the recognition result of the utterance.
- FIG. 1 is an explanatory diagram for explaining an examination situation by a cognitive function examination system according to an embodiment of the present disclosure.
- FIG. 2 is a block diagram showing the configuration of the same cognitive function test system.
- FIG. 3A is a schematic view showing a display example in the first test of the cognitive function test system of the same.
- FIG. 3B is a schematic view showing a display example in the first test of the cognitive function test system of the same.
- FIG. 4A is a schematic view showing a display example in the second test of the cognitive function test system of the same.
- FIG. 4B is a schematic view showing a display example in the second test of the cognitive function test system of the same.
- FIG. 5 is a schematic view showing a display example of an image to be displayed on the display unit between the first test and the second test of the cognitive function test system.
- FIG. 6 is a flowchart showing a series of operations of the cognitive function test system described above.
- the cognitive function test method is a method for testing cognitive function between the examiner 101 and the subject 102 using the cognitive function test system 1. , Realized by cognitive function test system 1.
- the cognitive function test system 1 is, for example, a mobile terminal such as a tablet or a smartphone, a personal computer (PC), or the like.
- the cognitive function test system 1 is a tablet as shown in FIG.
- the cognitive function test system 1 includes a display unit 121, an inspection unit 112, and a presentation unit 12.
- the display unit 121 is, for example, a tablet screen and displays at least the first image (image) I1.
- the inspection unit 112 causes the subject 102 (see FIG. 1) to make an utterance related to the first image I1 after an interval period has elapsed after displaying the first image I1 on the display unit 121.
- the interval period is, for example, several minutes to several tens of minutes, and in this embodiment, it is 5 minutes as an example.
- Subject 102 is, for example, an elderly person.
- the presentation unit 12 presents the guide information G1 for promoting the utterance of the subject 102 based on the recognition result of the utterance of the subject 102.
- the "cognitive function” referred to in the present disclosure refers to a function for correctly understanding and appropriately executing things, and is classified into, for example, a memory function, an attention function, an information processing function, and an execution function.
- “Memory function” refers to the function of keeping past experiences in mind and recalling and using them from time to time.
- “Attention function” refers to the function of consciousness to selectively react and pay attention to surrounding things, specific parts of events, and specific aspects of complex mental activities.
- the "information processing function” refers to a function of processing information input from the outside world (for example, visual information, auditory information, etc.).
- Executive function means a function necessary to effectively accomplish a series of activities with a purpose.
- Mild cognitive impairment is an intermediate state between normal (healthy) and dementia.
- Examples of a simple method for examining cognitive function include the revised Hasegawa simple function evaluation scale (HDS-R), MMSE (Mini-Mental State Examination), and MoCA (Montreal Cognitive Assessment). These test methods are interactive tests and are performed by trained medical professionals and the like. Therefore, people other than medical professionals cannot easily perform the examination, and the examination opportunity cannot be expanded.
- the cognitive function test method according to the present embodiment the following configuration is adopted so that even a person other than a medical worker can perform a test related to cognitive function, thereby expanding test opportunities. are doing.
- the cognitive function test method is a cognitive function in which the subject 102 is made to make an utterance related to the first image I1 after an interval period has elapsed after displaying the first image (image) I1 on the display unit 121. It is an inspection method.
- guide information G1 for promoting the utterance of the subject 102 is presented based on the recognition result of the utterance of the subject 102.
- the guide information G1 is presented based on the recognition result of the utterance of the subject 102. Therefore, the subject 102 can be urged to speak as compared with the case where the guide information G1 is not presented at all, and thereby the evaluation accuracy of the cognitive function can be improved. In addition, it is only necessary to have the subject 102 make an utterance related to the first image I1, and even a person other than a medical worker can easily perform the examination, so that the examination opportunity can be expanded.
- the cognitive function test system 1 includes a control unit 11, a presentation unit 12, a storage unit 13, an operation unit 14, and a setting unit 15. As shown in FIG. 1, the cognitive function test system 1 is, for example, a tablet.
- the control unit 11 is composed of, for example, a microcomputer having a processor and a memory. That is, the control unit 11 is realized by a computer system having a processor and a memory. Then, when the processor executes an appropriate program, the computer system functions as the control unit 11 (including the evaluation unit 111, the inspection unit 112, and the analysis unit 113).
- the program may be pre-recorded in a memory, may be recorded through a telecommunication line such as the Internet, or may be recorded and provided on a non-temporary recording medium such as a memory card.
- the control unit 11 has an evaluation unit 111, an inspection unit 112, and an analysis unit 113.
- the evaluation unit 111 evaluates the subject 102 based on the first test result, which is the test result of the first test, and the second test result, which is the test result of the second test. In other words, the evaluation unit 111 determines the state of the cognitive function of the subject 102, that is, whether or not the cognitive function of the subject 102 is deteriorated based on the two test results.
- the evaluation unit 111 uses, for example, the vocabulary of the subject 102 in the first examination, the task performance time, and the like as feature quantities, and evaluates the cognitive function (attention function and performance function) of the subject 102 based on these feature quantities. ..
- the vocabulary of the subject 102 includes a selection of words for the perforated portion of the perforated sentence S1 described later.
- the task execution time is, for example, the time from displaying the first image I1 and the perforated sentence S1 on the display unit 121 to the end of the utterance of the subject 102.
- the evaluation unit 111 uses, for example, the vocabulary ability of the subject 102 in the second examination, the ability to compose a sentence, the length of one sentence, and the like as feature quantities, and the cognitive function (memory function) of the subject 102 based on these feature quantities. ) Is evaluated.
- the evaluation unit 111 may evaluate the cognitive function of the subject 102 from the change in the voice power (volume) of the subject 102. For example, in the subject 102 whose cognitive function is deteriorated, the voice power is large because the subject 102 can speak smoothly at first, but the voice power becomes small as the words disappear with the passage of time. From such a change in voice power, it can be determined that the cognitive function of the subject 102 is deteriorated.
- the "volume” in the present specification may be a so-called loudness level (unit: phon) or a sound pressure level (unit: decibel). You may.
- the inspection unit 112 is configured to perform the first inspection and the second inspection. Specifically, in the first inspection, the inspection unit 112 outputs the first control signal for displaying the first image I1 and the perforated sentence S1 to the display unit 121, so that the first image I1 and the hole are displayed. The space sentence S1 is displayed on the display unit 121. Further, in the second inspection, the inspection unit 112 outputs the guide information G1 to the display unit 121 by outputting the second control signal for displaying the guide information G1 to the display unit 121.
- the guide information G1 is, for example, at least one of the second image I2 and the sentence S2.
- the second image I2 is, for example, a partial image of the first image I1 (see FIG. 4A).
- the sentence S2 is, for example, a sentence that gives a suggestion about utterance to the subject 102.
- the second image I2 may be displayed, only the sentence S2 may be displayed, or the second image I2 and the sentence S2 may be displayed. You may display both. Further, the second image I2 and the sentence S2 may be displayed in order. In this case, the sentence S2 may be displayed after the second image I2 is displayed, or the second image I2 may be displayed after the sentence S2 is displayed.
- the analysis unit 113 performs voice recognition for the voice input via the voice input / output unit 122.
- the "speech recognition" referred to in the present disclosure includes not only the process of converting the above speech into a character string, but also natural language processing such as semantic analysis and context analysis.
- the analysis unit 113 recognizes the voice (speech recognition) by using the acoustic model, the recognition dictionary, and the like stored in the storage unit 13. That is, the analysis unit 113 extracts the acoustic feature amount by analyzing the voice with reference to the acoustic model, and performs voice recognition with reference to the recognition dictionary.
- the presentation unit 12 has a display unit 121 and an audio input / output unit 122.
- the presentation unit 12 is configured to present information to the subject 102.
- the information presented by the presentation unit 12 is, for example, image information (first image I1, second image I2, third image I3), audio information, and the like.
- the display unit 121 is, for example, a liquid crystal display.
- the display unit 121 is configured to display the first image I1 and the perforated sentence S1 in the first inspection. Further, the display unit 121 is configured to display at least one of the second image I2 and the sentence S2 as the guide information G1 in the second inspection. Further, the display unit 121 is configured to display the third image I3 in the interval period between the first inspection and the second inspection.
- the cognitive function test system 1 includes a touch panel display
- the touch panel display may also serve as the display unit 121 and the operation unit 14.
- the voice input / output unit 122 has, for example, a microphone and a speaker.
- the voice input / output unit 122 is input with the voice of the subject 102 during the first examination, the second examination, and the interval period via the microphone. Further, the voice input / output unit 122 outputs the voice (for example, the guidance voice of the test) from the cognitive function test system 1 during the first test, the second test, and the interval period via the speaker.
- the audio input / output unit 122 converts an analog audio signal input via a microphone into a digital audio signal, and outputs the converted audio data to the control unit 11.
- the storage unit 13 is composed of a readable and writable memory.
- the storage unit 13 is, for example, a flash memory.
- the storage unit 13 stores the first image I1, the second image I2, and the third image I3 to be displayed on the display unit 121 during the first inspection, the second inspection, and the interval period.
- a plurality of perforated sentences S1 related to the first image I1 are set in the first image I1, and the storage unit 13 associates the first image I1 with the plurality of perforated sentences S1.
- a plurality of second images I2 are set as the guide information G1 in the second inspection in the first image I1, and the storage unit 13 associates the first image I1 with the plurality of second images I2.
- a plurality of perforated sentences S1 related to the first image I1 are set in the first image I1
- a plurality of perforated sentences S1 are set in the first image I1
- a plurality of second images I2 are set as the guide information G1 in the second inspection
- a plurality of sentences S2 as guide information G1 in the second inspection are set in the first image I1, and the storage unit 13 stores the first image I1 and the plurality of sentences S2 in association with each other. That is, in the cognitive function test system 1 according to the present embodiment, a plurality of perforated sentences S1, a plurality of second images I2, and a plurality of sentences S2 are associated with one first image I1.
- the storage unit 13 stores the attribute information of the subject 102.
- the attribute information of the subject 102 includes, for example, the age, gender, hobby, birthplace, etc. of the subject 102. These attribute information may be input by the examiner 101 or the subject 102 in the operation unit 14, for example, and when the past examination data of the subject 102 is stored in the storage unit 13, past utterances It may be set automatically based on data or the like.
- the storage unit 13 stores the utterance data of the subject 102 during the first examination, the second examination, and the interval period, the conversation data between the examiner 101 and the subject 102, and the like.
- the storage unit 13 stores an acoustic model, a recognition dictionary, and the like that the analysis unit 113 refers to when performing voice recognition.
- the operation unit 14 is configured to receive operations of the inspector 101 and the subject 102.
- the operation unit 14 has, for example, a plurality of push buttons including a numeric keypad. Then, by pressing at least one push button among the plurality of push buttons, the attribute information of the subject 102 can be registered, and the content (third image I3) to be displayed on the display unit 121 during the interval period can be selected. Can be done.
- the plurality of push buttons may be mechanical switches, or may be touch pads constituting the touch panel if the display unit 121 is a touch panel. The position of the perforated portion of the perforated sentence S1 may be changed by the operation unit 14.
- the setting unit 15 is configured to set the guide information G1 for each area of the first image I1. For example, the setting unit 15 sets the guide information G1 for prompting the subject 102 to speak about the father in the area including the father. Further, the setting unit 15 sets, for example, guide information G1 for prompting the subject 102 to speak about the mother in the area including the mother.
- Test contents The test contents of the cognitive function test system 1 will be described below.
- the first test is a test in which the subject 102 is made to speak about the first image I1 while displaying the first image I1 on the display unit 121 of the cognitive function test system 1.
- the first inspection is, for example, a perforated inspection, as shown in FIGS. 1, 3A, and 3B.
- the perforated test is a test in which the perforated sentence S1 related to the first image I1 and the first image I1 is displayed on the display unit 121, and the perforated sentence S1 is spoken to the subject 102.
- the perforated sentence S1 is a sentence in which a part thereof is left blank.
- the first inspection includes a perforation inspection by a perforation sentence S1 displayed on the display unit 121 together with the first image I1 and leaving a part of the sentence related to the first image I1 blank.
- the perforated portion in the perforated sentence S1 is at the beginning of the sentence, and the subject of, for example, "dad” is entered in the perforated portion.
- the perforated portion of the perforated sentence S1 is at the end of the sentence, and the predicate "drinking" is entered in the perforated portion, for example.
- the position of the perforated portion in the perforated sentence S1 is preferably the beginning or the middle of the sentence, but FIG. 3B shows. As shown, it may be at the end of the sentence.
- FIG. 3A "Father is smoking a cigarette” is the correct answer, and in the example shown in Fig. 3B, "Mother is drinking”. tea) ”is the correct answer.
- the subject 102 utters the perforated sentence S1 while filling the perforated portion while comparing the first image I1 with the perforated sentence S1.
- the first test can mainly evaluate the attention function and the executive function among the above-mentioned four functions included in the cognitive function. Further, in the first inspection, since it is necessary to compare the first image I1 displayed on the display unit 121 with the perforated sentence S1, the selective attention function is particularly required among the attention functions. As a result, it is possible to give the subject 102 a larger load than simply speaking about the first image I1 while looking at the first image I1 displayed on the display unit 121, and as a result, the prediction accuracy for predicting the deterioration of the cognitive function is high. It leads to improvement.
- a plurality of (for example, about 10) perforated sentences S1 are prepared for one first image I1, and when the utterance of one perforated sentence S1 is completed, the next It is necessary to perform an operation to shift to the perforated sentence S1.
- the cognitive function test system 1 includes the operation unit 14, as in the present embodiment, the examiner 101 or the subject 102 can shift to the next perforated sentence S1 at the operation unit 14. ..
- the response time for one perforated sentence S1 in advance and automatically shift to the next perforated sentence S1 when this answer time elapses.
- the subject 102 may move to the next perforated sentence S1 even though the subject 102 has not finished speaking to the perforated sentence S1.
- the utterance time of the subject 102 is shorter than the response time, and unnecessary noise may be recorded in the remaining time after the utterance is completed, which may hinder the voice analysis.
- the cognitive function test system 1 in order to reduce the operation burden, operation error, and test error of the inspector 101 or the subject 102, the following perforated sentence S1 is used by using the voice recognition by the analysis unit 113. It is configured to automatically migrate to.
- the voice recognition by the analysis unit 113. It is configured to automatically migrate to.
- the perforated sentence S1 stating "() is smoking" is displayed on the display unit 121.
- the end of the sentence is a predetermined wording (here, "sucking"). Therefore, when the word "sucking" at the end of the sentence is detected by the voice recognition of the analysis unit 113, it can be determined that the utterance of the subject 102 is completed, and it is used as a trigger for shifting to the next perforated sentence S1. be able to.
- the presence or absence of a response to the perforated sentence S1 is detected based on the partial voice (voice of "sucking") included in the utterance of the subject 102. Then, in the example shown in FIG. 3A, the partial voice is the utterance voice at the end of the perforated sentence S1 (the voice saying "sucking").
- the display unit 121 displays the first image I1 and the next perforated sentence S1. In other words, when there is a reply from the subject 102, the first image I1 and the next perforated sentence S1 are displayed on the display unit 121.
- the next perforated sentence S1 can be obtained.
- the migration can be done reliably.
- the operation burden, the operation error, and the examination error of the inspector 101 or the subject 102 can be reduced. Further, by stopping the recording when the spoken voice at the end of the perforated sentence S1 is detected, there is an advantage that unnecessary noise that may hinder the voice analysis is less likely to be recorded.
- the perforated sentence S1 saying "Mother has tea ()" is displayed on the display unit 121.
- the end of the perforated sentence S1 that is, the end of the perforated sentence S1 is the perforated part, and in this perforated part, "drinking", "sipping", etc.
- Multiple words can be entered. That is, in this case, the partial voice included in the utterance of the subject 102 is the utterance voice of the perforated portion in the perforated sentence S1.
- the trigger for shifting to the next perforated sentence S1 is the wording "drinking".
- the subject 102 may not be able to answer depending on the content of the perforated sentence S1.
- the problem is that the examination time becomes longer by continuing to display the same perforated sentence S1 until the subject 102 can answer. There is. Therefore, in such a case, it is preferable to shift to the next perforated sentence S1 by the specific word (skip word) issued by the subject 102.
- the specific word includes, for example, "path", “next", "don't know", and the like.
- the cognitive function test method it is preferable that the first image I1 and the next perforated sentence S1 are displayed on the display unit 121 when a preset predetermined time has elapsed.
- the specified time is preferably set to, for example, about 30 seconds.
- the next perforated sentence S1 to be displayed on the display unit 121 is changed according to the answer to the previous perforated sentence S1. For example, if the answer in the perforated sentence S1 is incorrect, or if it takes a long time to answer the perforated sentence, the difficulty level of the perforated sentence S1 is lower than that in the previous perforated sentence S1. Is preferably the following perforated sentence S1. On the other hand, if the answer of the perforated part in the perforated sentence S1 is correct and the time required for answering the perforated part is short, the perforated sentence S1 having a higher difficulty level than the previous perforated sentence S1 is next. It is preferable to use the perforated sentence S1. In this way, by changing the next perforated sentence S1 displayed on the display unit 121 according to the response of the subject 102 to the previous perforated sentence S1, the state of the cognitive function of the subject 102 can be discriminated in more stages. can do.
- the second examination is an examination in which the subject 102 is made to make an utterance related to the first image I1 after an interval period has elapsed since the first examination was performed.
- the first image I1 displayed on the display unit 121 in the first examination is not displayed on the display unit 121 (without showing the first image I1 to the subject 102), and the first image I1
- This is a test in which the subject 102 is made to make an utterance related to. That is, the second test is a delayed reproduction test in which the subject 102 remembers the content of the first image I1 and the subject 102 speaks about the content of the first image I1 after the interval period elapses.
- the interval period is preferably set to, for example, several minutes to several tens of minutes, and in this embodiment, it is 5 minutes as an example.
- the inspector 101 gives the subject 102 a task such as "Please talk about the first image I1".
- Subject 102 speaks about the first image I1 without looking at the first image I1.
- the subject 102 whose cognitive function (particularly memory function) is not deteriorated speaks smoothly about the contents of the first image I1 (the father is smoking, the mother is drinking tea, etc.). Can be done.
- the subject 102 whose cognitive function is deteriorated can speak smoothly immediately after the start of the utterance of the first image I1 (for example, several tens of seconds), but the utterance stops after a certain period of examination time. It has been known.
- the second test can mainly evaluate the memory function (short-term memory function) among the four functions included in the cognitive function.
- the cognitive function test method is configured to present guide information G1 to the subject 102 in the second test so that it can be evaluated to what extent the memory function of the subject 102 has deteriorated.
- the guide information G1 about the father is presented to the subject 102 in order to promote the utterance about the father.
- the second image I2 including a part of the father may be displayed on the display unit 121, or as shown in FIG. 4B, the subject may give suggestions for utterance.
- Character information (sentence S2) such as that given to 102 may be displayed on the display unit 121.
- the second image I2 is a partial image based on the first image I1.
- the second image I2 is an image in which at least a part of the first image I1 is hidden.
- the guide information G1 includes information (second image I2, sentence S2) that gives the subject 102 a suggestion about the utterance.
- both the second image I2 and the sentence S2 may be displayed on the display unit 121, or the second image I2 and the sentence S2 may be displayed on the display unit 121 in order.
- the order of displaying the second image I2 and the sentence S2 may be such that the second image I2 comes first or the sentence S2 comes first.
- the remaining part of the first image I1 excluding the second image I2 is visible, but in reality, only the second image I2 is visible and the remaining portion is not visible. To do.
- the analysis unit 113 performs voice recognition in real time based on the voice input to the voice input / output unit 122, and the voice data is character data (character string). It can be converted to. Further, regarding the fluctuation of word notation (for example, father, father, husband, etc.), a dictionary or the like may be created in advance and stored in the storage unit 13. Thereby, the utterance content of the subject 102 can be memorized while corresponding to various expression formats, and the guide information G1 can be presented only for the event that the subject 102 has not uttered.
- the guide information G1 is determined by whether or not the utterance of the subject 102 includes a keyword.
- the keywords in the first image I1 are, for example, “dad”, “mother”, “sister”, “younger brother”, “cigarette”, “tea”, “sucking", and “drinking”. And so on.
- the second image I2 and the sentence S2 are used to encourage the utterance about the father. At least one of the above is displayed on the display unit 121. As a result, even when the subject 102 does not remember the father, the subject 102 can be prompted to speak about the father by presenting the guide information G1.
- the guide information G1 is preferably determined for each area of the first image I1.
- the area of the first image I1 is divided into a first area including a father, a second area including a mother, a third area including an older sister, and a fourth area including a younger brother, and guide information G1 is provided for each area.
- the keywords in the first image I1 are preferably grouped by area.
- the first area including the father is associated with the keywords related to the father, "dad”, "cigarette”, and “smoking”.
- the keywords "mother”, "tea”, and "drinking" related to the mother are linked. In this case, it may be determined that there is no problem in the cognitive function if even one keyword appears in each area, or it may be determined that there is a problem in the cognitive function if all the keywords appear.
- the guide information G1 is displayed hierarchically (stepwise) so that the cognitive function (particularly the memory function) of the subject 102 can be evaluated in multiple stages. For example, assume that the subject 102 is prompted to speak about his father. In the first stage, for example, the guide information G1 such as "Who was in the lower left of the first image I1?" Is displayed on the display unit 121. At this time, if the subject 102 replies "there was a father", the guide information G1 of the next stage is displayed on the display unit 121.
- the guide information G1 of the second stage is, for example, "What was your father doing in the lower left of the first image I1?"
- By presenting the guide information G1 hierarchically (stepwise) in this way it is possible to evaluate the state of the cognitive function of the subject 102, that is, how much the cognitive function of the subject 102 is deteriorated stepwise. ..
- the second image I2 is displayed on the display unit 121 as the guide information G1
- the size of the second image I2 may be increased stepwise, or the position of the second image I2 in the first image I1 may be increased. That is, the area displayed by the second image I2 may be changed.
- the third image I3 is, for example, an advertisement for cat food. That is, the content presented by the cognitive function test system 1 is an advertisement.
- the content is not limited to images, but may be moving images. In this case, it is possible to present a commercial moving image, and it is preferable that the commercial moving image is a moving image optimized for the subject 102 by the recommendation function. As a result, income from commercials is expected, and the cost required for inspection can be reduced. As a result, it is expected that inspection opportunities will be expanded.
- the subject 102 may listen to the content of interest in advance.
- the content presented during the interval period is selected according to the subject 102.
- a plurality of contents that can be displayed during the interval period are displayed on the display unit 121, and the subject 102 is made to select from the plurality of contents.
- the content is manually selected by the subject 102.
- the content that the subject 102 is interested in can be displayed on the display unit 121.
- the content selected by the subject 102 during the interval period may be used for the next second examination, or at least one of the first examination and the second examination thereafter. This allows the subject 102 to be focused on subsequent examinations.
- the content to be displayed on the display unit 121 may be selected according to the attribute information of the subject 102. For example, if the subject 102 likes a cat from the attribute information of the subject 102, a third image I3 that is related to the cat is displayed on the display unit 121 as shown in FIG.
- the content may be automatically switched according to the degree of interest of the subject 102 in the content. For example, it is assumed that the subject 102 continues to talk about the third image I3 displayed on the display unit 121 for 40 seconds. If the threshold value in this case is set to 30 seconds, it can be determined that the subject 102 has a high degree of interest in the third image I3 because the subject 102 continues to speak beyond this threshold value. On the other hand, when the subject 102 speaks about the third image I3 for only 20 seconds, it can be determined that the subject 102 has a low degree of interest in the third image I3 because it is below the above threshold value.
- the third image I3 may be continuously displayed, or the same type of image as the third image I3 may be continuously displayed. Further, when the subject 102 has a low degree of interest in the third image I3, an image of a type different from that of the third image I3 may be displayed.
- the threshold value for determining the degree of interest of the subject 102 in the content is not limited to one, and may be plural. That is, the degree of interest of the subject 102 in the content may be divided into a plurality of stages. Even in this case, by displaying the content according to the degree of interest of the subject 102 on the display unit 121, the subject 102 can be concentrated on the subsequent examination.
- a recommendation system by machine learning using the attribute information of the subject 102 as an explanatory variable (independent variable) and the degree of interest of the subject 102 as an objective variable (dependent variable). For example, when a new subject is registered, by predicting the degree of interest in the image (content) from the attribute information of the subject, an image that is likely to be of high interest in the subject can be displayed on the display unit 121. This makes it possible to encourage the subject to speak to the image.
- the inspection unit 112 of the control unit 11 outputs the first control signal to the display unit 121, and causes the display unit 121 to display the first image I1 and the perforated sentence S1.
- the subject 102 speaks about the perforated sentence S1 while looking at the first image I1 and the perforated sentence S1 displayed on the display unit 121 (step ST1).
- the control unit 11 starts measuring the interval period (step ST2).
- the control unit 11 causes the display unit 121 to display (present) the third image I3 (content) until the interval period elapses (step ST2: No) (step ST3).
- step ST4 the control unit 11 causes the inspection unit 112 to perform the second inspection (step ST4).
- a sentence such as "Please talk about the first image I1" may be displayed on the display unit 121.
- the inspection unit 112 of the control unit 11 outputs a second control signal to the display unit 121 and displays the guide information G1 for prompting the utterance. It is displayed on 121.
- the evaluation unit 111 of the control unit 11 recognizes the subject 102 based on the first inspection result which is the inspection result of the first inspection and the second inspection result which is the inspection result of the second inspection.
- the state of function that is, whether or not the cognitive function of the subject 102 is deteriorated is evaluated (step ST5).
- the control unit 11 causes the display unit 121 to display the evaluation result of the evaluation unit 111 (step ST6).
- the state of the cognitive function of the subject 102 is evaluated based on the two test results. Therefore, it is possible to improve the evaluation accuracy of the cognitive function as compared with the case of evaluating the state of the cognitive function of the subject 102 based on one test result.
- step ST1 is the first inspection step
- step ST4 is the second inspection step
- step ST5 is the evaluation step.
- the cognitive function test method and the cognitive function test system 1 present guide information G1 for promoting the utterance of the subject 102 based on the recognition result of the utterance of the subject 102. Therefore, the subject 102 can be urged to speak as compared with the case where the guide information G1 is not presented at all, and thereby the evaluation accuracy of the cognitive function can be improved. In addition, it is only necessary to have the subject 102 make an utterance related to the first image I1, and even a person other than a medical worker can easily perform the examination, so that the examination opportunity can be expanded.
- the cognitive function test system 1 is a mobile terminal, the place where the test is performed is not restricted, so that it is possible to lead from early detection of MCI to improvement. Further, in the case of a conversational test in which the correct answer has not been determined, such as the cognitive function test method and the cognitive function test system 1 according to the present embodiment, the test cannot be performed accurately because the subject 102 memorizes the test contents. Problems can be reduced.
- information (second image I2 or sentence S2) that gives a suggestion about utterance to the subject 102 is included in the guide information G1. Therefore, the guide information G1 can prompt the subject 102 to speak.
- the second image I2 based on the first image I1 is included in the guide information G1. Therefore, the image information can prompt the subject 102 to speak.
- the second image I2 is an image in which at least a part of the first image I1 is hidden. Therefore, the difficulty level of the examination is higher than that in the case where the first image I1 and the second image I2 are the same, and the evaluation accuracy of the cognitive function can be further improved.
- the guide information G1 includes a sentence S2 that gives a suggestion about utterance to the subject 102. Therefore, the guide information G1 can prompt the subject 102 to speak.
- the second image I2 and the sentence S2 are presented in order as the guide information G1. Therefore, the subject 102 can be urged to speak more effectively than when only one of them is presented.
- the guide information G1 is determined depending on whether or not the utterance of the subject 102 includes a keyword. Therefore, the subject 102 can be prompted to speak regardless of the presence or absence of the keyword.
- the guide information G1 is determined for each area of the first image I1. Therefore, the guide information G1 can be presented for each area of the first image I1.
- the above-described embodiment is only one of the various embodiments of the present disclosure.
- the above-described embodiment can be changed in various ways depending on the design and the like as long as the object of the present disclosure can be achieved.
- the cognitive function test method according to the above-described embodiment and the same function as the cognitive function test system 1 may be embodied in a computer program, a non-temporary recording medium on which the computer program is recorded, or the like.
- the program according to one aspect is a program for causing one or more processors to execute the above-mentioned cognitive function test method.
- the control unit 11 includes a computer system.
- the main configuration of a computer system is a processor and memory as hardware.
- the processor executes the program recorded in the memory of the computer system, the function as the control unit 11 in the present disclosure is realized.
- the program may be pre-recorded in the memory of the computer system, may be provided through a telecommunications line, and may be recorded on a non-temporary recording medium such as a memory card, optical disk, or hard disk drive that can be read by the computer system. May be provided.
- a processor in a computer system is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI).
- IC semiconductor integrated circuit
- LSI large scale integrated circuit
- the integrated circuit such as IC or LSI referred to here has a different name depending on the degree of integration, and includes an integrated circuit called a system LSI, a VLSI (Very Large Scale Integration), or a ULSI (Ultra Large Scale Integration). Further, an FPGA (Field-Programmable Gate Array) programmed after the LSI is manufactured, or a logical device capable of reconfiguring the junction relationship inside the LSI or reconfiguring the circuit partition inside the LSI should also be adopted as a processor. Can be done.
- a plurality of electronic circuits may be integrated on one chip, or may be distributed on a plurality of chips. The plurality of chips may be integrated in one device, or may be distributed in a plurality of devices.
- the computer system referred to here includes a microcontroller having one or more processors and one or more memories. Therefore, the microcontroller is also composed of one or more electronic circuits including a semiconductor integrated circuit or a large-scale integrated circuit.
- the cognitive function test system 1 it is not an essential configuration for the cognitive function test system 1 that a plurality of functions in the cognitive function test system 1 are integrated in one housing. That is, the components of the cognitive function test system 1 may be distributed in a plurality of housings. Further, at least a part of the functions of the cognitive function test system 1, for example, the function of the control unit 11 may be realized by a cloud (cloud computing) or the like.
- the tester 101 and the subject 102 perform the test using the cognitive function test system 1, but the tester 101 may be omitted. Since the cognitive function test system 1 has a structure in which the contents of the first test and the second test are displayed on the display unit 121, it is sufficient that the subject 102 is present, and the subject 102 is tested alone using the cognitive function test system 1. May be done.
- the third image I3 related to the advertisement is displayed as the content to be displayed on the display unit 121 during the interval period, but for example, the recommendation information for the subject 102 may be displayed on the display unit 121.
- the recommendation information is information based on the purchase history of the Internet shop purchased by the subject 102 in the past. For example, if the subject 102 purchases a car tire at an internet shop, information about the car is displayed on the display unit 121 as recommendation information. This recommendation information may be used for the subsequent second inspection, or at least one of the first inspection and the second inspection from the next time onward. As a result, the first examination or the second examination specialized for the subject 102 can be performed.
- the content to be displayed on the display unit 121 during the interval period may be an image or a moving image to be displayed on the display unit 121 in the first inspection, or may be recent news, old events, or the like. Then, with these contents displayed on the display unit 121, the subject may talk about the contents. That is, the content to be displayed on the display unit 121 during the interval period is not limited to the advertisement, and various variations can be considered.
- the perforated portion of the perforated sentence S1 is the subject located at the beginning of the sentence or the compound word located at the end of the sentence, but for example, the perforated portion may be an object located in the sentence.
- the object "tobacco" is a perforated portion.
- the task execution time is the time from displaying the first image I1 and the perforated sentence S1 on the display unit 121 to the completion of the utterance of the subject 102.
- the task execution time may be, for example, the time from displaying the first image I1 and the perforated sentence S1 on the display unit 121 until the subject 102 starts speaking, or the subject 102 may start speaking. It may be the time from the start of the utterance to the end of the utterance.
- the guide information G1 is determined for each area of the first image I1, but for example, the guide information G1 is determined for each subject (father, mother, older sister, younger brother) included in the first image I1. May be determined.
- the keywords in the first image I1 are preferably grouped by subject. For example, if the subject is a father, the keywords “dad”, “cigarette”, and “smoking” are used by the father. Link to. If the subject is a mother, the keywords "mother”, "tea”, and “drinking” are linked to the mother. According to this configuration, since the guide information G1 is changed for each subject, it is possible to prompt the subject 102 to speak for any subject.
- the degree of interest of the subject 102 is determined from the speech time of the subject 102 with respect to the content, but for example, the degree of interest of the subject 102 may be determined from the result of the sentiment analysis of the voice of the subject 102. In this case, for example, if the feeling of "happy" continues for 30 seconds or more from the result of the sentiment analysis, it is determined that the subject 102 has a high degree of interest.
- the analysis unit 113 of the control unit 11 performs voice recognition.
- the server device can perform voice recognition. Recognition may be performed.
- the cognitive function test system 1 transmits the voice data of the subject 102 input via the voice input / output unit 122 to the server device.
- the server device performs voice recognition on the voice data from the cognitive function test system 1 and transmits the result of the voice recognition to the cognitive function test system 1.
- the processing load of the control unit 11 can be reduced by performing voice recognition on the server device. Further, it is not necessary to store the acoustic model, the recognition dictionary, and the like in the storage unit 13, and the memory capacity of the storage unit 13 can be reduced.
- the second image I2 is a partial image of the first image I1, but the second image I2 may be, for example, a mosaic image obtained by applying a mosaic to the first image I1.
- the entire first image I1 may be mosaicked, or only the portion of the first image I1 that is desired to be presented as the guide information G1 may be mosaicked.
- the subject included in the first image I1 is a person, but the subject is not limited to the person, and may be, for example, a wall clock included in the first image I1 and a bay window. ..
- test results of the first test and the second test are used for the evaluation of the cognitive function, but for example, the voice data of the subject during the interval period may be used for the evaluation of the cognitive function. This has the advantage that the evaluation accuracy of cognitive function is expected to improve.
- the cognitive function test method As described above, in the cognitive function test method according to the first aspect, after an interval period has elapsed after displaying the image (I1) on the display unit (121), the subject utterances related to the image (I1). This is a cognitive function test method to be performed in (102). In the cognitive function test method, guide information (G1) for promoting utterance is presented based on the recognition result of utterance.
- the guide information (G1) is presented based on the recognition result of the utterance of the subject (102), the subject (102) is urged to speak as compared with the case where the guide information (G1) is not presented at all. This makes it possible to improve the evaluation accuracy of cognitive function.
- the guide information (G1) includes information that gives a suggestion about utterance to the subject (102).
- the subject (102) can be urged to speak by the guide information (G1).
- the guide information (G1) includes a second image (I2) based on the first image (I1) as an image.
- the subject (102) can be urged to speak by the image information.
- the second image (I2) is an image in which at least a part of the first image (I1) is hidden.
- the difficulty level of the examination is higher than that when the first image (I1) and the second image (I2) are the same, and the evaluation accuracy of the cognitive function can be further improved. ..
- the guide information (G1) includes a sentence (S2) that gives a suggestion about utterance to the subject (102).
- the subject (102) can be urged to speak by the guide information (G1).
- the guide information (G1) is the second image (I2) based on the first image (I1) as an image and the utterance.
- a sentence (S2) that gives a suggestion about the subject (102) and a sentence (S2) are presented in order.
- the guide information (G1) is determined by whether or not the utterance contains a keyword.
- the subject (102) can be urged to speak regardless of the presence or absence of the keyword.
- the guide information (G1) is determined for each subject included in the image (I1).
- the guide information (G1) is changed for each subject, it is possible to encourage the subject (102) to speak for any subject.
- the guide information (G1) is determined for each area of the image (I1).
- the subject (102) can be urged to speak in any area.
- the program according to the tenth aspect is a program for causing one or more processors to execute the cognitive function test method according to any one of the first to ninth aspects.
- the guide information (G1) is presented based on the recognition result of the utterance of the subject (102), the subject (102) is urged to speak as compared with the case where the guide information (G1) is not presented at all. This makes it possible to improve the evaluation accuracy of cognitive function.
- the cognitive function test system (1) includes a display unit (121), an examination unit (112), and a presentation unit (12).
- the examination unit (112) causes the subject (102) to make an utterance related to the image (I1) after an interval period has elapsed since the image (I1) was displayed on the display unit (121).
- the presentation unit (12) presents guide information (G1) for promoting the utterance based on the recognition result of the utterance.
- the guide information (G1) is presented based on the recognition result of the utterance of the subject (102), the subject (102) is urged to speak as compared with the case where the guide information (G1) is not presented at all. This makes it possible to improve the evaluation accuracy of cognitive function.
- the configurations according to the second to ninth aspects are not essential configurations for the cognitive function test method and can be omitted as appropriate.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
認知機能の評価精度の向上を図る。認知機能検査方法は、表示部(121)に第1画像(I1)を表示させてからインターバル期間が経過した後に、第1画像(I1)に関連する発話を被験者(102)に行わせる認知機能検査方法である。認知機能検査方法では、発話の認識結果に基づいて発話を促進させるためのガイド情報(G1)を提示する。
Description
本開示は、認知機能検査方法、プログラム、及び認知機能検査システムに関する。より詳細には、本開示は、認知機能を検査するための認知機能検査方法、プログラム、及び認知機能検査システムに関する。
特許文献1には、被験者の認知症診断に用いられる認知症診断システム(認知機能検査システム)が記載されている。特許文献1に記載の認知症診断システムは、認知症診断装置と、端末装置と、を備える。端末装置は、被験者と質問者の会話を録音する。認知症診断装置は、端末装置で録音された音声データから被験者の認知症レベルを算出する。
特許文献1に記載のような認知症診断システムでは、認知機能の評価精度の向上を図ることが望まれている。
本開示の目的は、認知機能の評価精度の向上を図ることができる認知機能検査方法、プログラム、及び認知機能検査システムを提供することにある。
本開示の一態様に係る認知機能検査方法は、表示部に画像を表示させてからインターバル期間が経過した後に、前記画像に関連する発話を被験者に行わせる認知機能検査方法である。前記認知機能検査方法では、前記発話の認識結果に基づいて前記発話を促進させるためのガイド情報を提示する。
本開示の一態様に係るプログラムは、上述の認知機能検査方法を1以上のプロセッサに実行させるためのプログラムである。
本開示の一態様に係る認知機能検査システムは、表示部と、検査部と、提示部と、を備える。前記検査部は、前記表示部に画像を表示させてからインターバル期間が経過した後に、前記画像に関連する発話を被験者に行わせる。前記提示部は、前記発話の認識結果に基づいて前記発話を促進させるためのガイド情報を提示する。
(実施形態)
(1)概要
本実施形態に係る認知機能検査方法は、図1に示すように、検査者101と被験者102との間で認知機能検査システム1を用いて認知機能を検査するための方法であり、認知機能検査システム1にて実現される。認知機能検査システム1は、例えば、タブレット、スマートフォン等の携帯端末、又はパーソナルコンピュータ(PC)等である。本実施形態では一例として、認知機能検査システム1は、図1に示すように、タブレットである。認知機能検査システム1は、図2に示すように、表示部121と、検査部112と、提示部12と、を備えている。
(1)概要
本実施形態に係る認知機能検査方法は、図1に示すように、検査者101と被験者102との間で認知機能検査システム1を用いて認知機能を検査するための方法であり、認知機能検査システム1にて実現される。認知機能検査システム1は、例えば、タブレット、スマートフォン等の携帯端末、又はパーソナルコンピュータ(PC)等である。本実施形態では一例として、認知機能検査システム1は、図1に示すように、タブレットである。認知機能検査システム1は、図2に示すように、表示部121と、検査部112と、提示部12と、を備えている。
表示部121は、例えば、タブレットの画面であり、少なくとも第1画像(画像)I1を表示する。検査部112は、表示部121に第1画像I1を表示させてからインターバル期間が経過した後に、第1画像I1に関連する発話を被験者102(図1参照)に行わせる。インターバル期間は、例えば数分~数十分であり、本実施形態では一例として5分である。被験者102は、例えば、高齢者である。提示部12は、被験者102の発話の認識結果に基づいて被験者102の発話を促進させるためのガイド情報G1を提示する。
本開示でいう「認知機能」とは、物事を正しく理解して適切に実行するための機能をいい、例えば、記憶機能、注意機能、情報処理機能、及び遂行機能等に分類される。「記憶機能」とは、過去の経験を頭の中に残しておき、ときに応じてそれらを思い起こしたり使用したりする働きをいう。「注意機能」とは、周囲の事物、事象の特定部分や複雑な心的活動の特定の側面に対して、選択的に反応したり注目したりするようにしむける意識の働きをいう。「情報処理機能」とは、外界から入力される情報(例えば、視覚情報、聴覚情報等)に対して処理を行う機能をいう。「遂行機能」とは、目的を持った一連の活動を効果的に成し遂げるために必要な機能をいう。
近年では高齢化社会の到来に伴い、認知症患者の増加が問題になっている。また、認知症に対する特効薬は未だ発見されていないことから、認知症の前段階である軽度認知障害(Mild Cognitive Impairment:MCI)に注目が集まっている。軽度認知機能障害は、正常な状態(健常)と認知症との中間の状態である。
認知機能を簡易的に検査する方法として、例えば、改訂長谷川式簡易機能評価スケール(HDS-R)、MMSE(Mini-Mental State Examination)、MoCA(Montreal Cognitive Assessment)等がある。これらの検査方法は、対話型の検査であり、訓練を受けた医療従事者等が行う検査である。そのため、医療従事者以外の人が簡単に検査を行なうことができず、検査機会を拡充することができていない。本実施形態に係る認知機能検査方法では、医療従事者以外の人であっても認知機能に関する検査を行なうことができ、これにより検査機会の拡充を図ることができるように、以下の構成を採用している。
本実施形態に係る認知機能検査方法は、表示部121に第1画像(画像)I1を表示させてからインターバル期間が経過した後に、第1画像I1に関連する発話を被験者102に行わせる認知機能検査方法である。この認知機能検査方法では、被験者102の発話の認識結果に基づいて被験者102の発話を促進させるためのガイド情報G1を提示する。
本実施形態に係る認知機能検査方法では、被験者102の発話の認識結果に基づいてガイド情報G1を提示している。そのため、ガイド情報G1を全く提示しない場合に比べて被験者102に発話を促すことができ、これにより認知機能の評価精度の向上を図ることができる。また、第1画像I1に関連する発話を被験者102に行わせるだけでよく、医療従事者以外の人であっても簡単に検査を行なうことができるので、検査機会の拡充を図ることができる。
(2)構成
以下、本実施形態に係る認知機能検査システム1の構成について、図1及び図2を参照して説明する。
以下、本実施形態に係る認知機能検査システム1の構成について、図1及び図2を参照して説明する。
本実施形態に係る認知機能検査システム1は、図2に示すように、制御部11と、提示部12と、記憶部13と、操作部14と、設定部15と、を備えている。認知機能検査システム1は、図1に示すように、例えばタブレットである。
制御部11は、例えば、プロセッサ及びメモリを有するマイクロコンピュータで構成されている。つまり、制御部11は、プロセッサ及びメモリを有するコンピュータシステムで実現されている。そして、プロセッサが適宜のプログラムを実行することにより、コンピュータシステムが制御部11(評価部111、検査部112及び解析部113を含む)として機能する。プログラムは、メモリに予め記録されていてもよいし、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的記録媒体に記録されて提供されてもよい。
制御部11は、評価部111と、検査部112と、解析部113と、を有している。
評価部111は、第1検査の検査結果である第1検査結果、及び第2検査の検査結果である第2検査結果に基づいて被験者102の評価を行う。言い換えると、評価部111は、2つの検査結果に基づいて被験者102の認知機能の状態、すなわち被験者102の認知機能が低下しているか否かを判断する。
評価部111は、例えば、第1検査における被験者102の語彙力、及び課題遂行時間等を特徴量とし、これらの特徴量に基づいて被験者102の認知機能(注意機能、及び遂行機能)を評価する。被験者102の語彙力には、後述する穴あき文S1の穴あき部分に対する単語のセレクトが含まれる。課題遂行時間は、例えば、表示部121に第1画像I1及び穴あき文S1を表示させてから被験者102の発話が終了するまでの時間である。また、評価部111は、例えば、第2検査における被験者102の語彙力、文章の構成能力、及び一文の長さ等を特徴量とし、これらの特徴量に基づいて被験者102の認知機能(記憶機能)を評価する。なお、評価部111は、第2検査においては、被験者102の音声パワー(音量)の変化から被験者102の認知機能を評価してもよい。例えば、認知機能が低下した被験者102では、最初のうちはスムーズに話すことができるため音声パワーが大きいが、時間の経過と共に言葉が出なくなることで音声パワーが小さくなる。このような音声パワーの変化から、被験者102の認知機能が低下していると判断することができる。なお、本明細書における「音量」とは、いわゆるラウドネスレベルと称される音の大きさのレベル(単位:phon(フォン))であってもよいし、音圧レベル(単位:デシベル)であってもよい。
検査部112は、第1検査及び第2検査を行なうように構成されている。具体的には、検査部112は、第1検査においては、第1画像I1及び穴あき文S1を表示させるための第1制御信号を表示部121に出力することにより、第1画像I1及び穴あき文S1を表示部121に表示させる。また、検査部112は、第2検査においては、ガイド情報G1を表示させるための第2制御信号を表示部121に出力することにより、ガイド情報G1を表示部121に表示させる。ガイド情報G1は、例えば、第2画像I2と文章S2との少なくとも一方である。第2画像I2は、例えば、第1画像I1の部分画像である(図4A参照)。文章S2は、例えば、発話についての示唆を被験者102に与えるような文章である。第2検査において、ガイド情報G1を表示部121に表示する場合には、第2画像I2のみを表示してもよいし、文章S2のみを表示してもよいし、第2画像I2と文章S2との両方を表示してもよい。また、第2画像I2と文章S2とを順番に表示してもよい。この場合、第2画像I2を表示した後に文章S2を表示してもよいし、文章S2を表示した後に第2画像I2を表示してもよい。
解析部113は、音声入出力部122を介して入力される音声について音声認識を行う。本開示でいう「音声認識」は、上記音声を文字列に変換する処理だけでなく、意味解析及び文脈解析等の自然言語処理を含む。解析部113は、記憶部13に記憶されている音響モデル及び認識辞書等を用いて、上記音声の認識(音声認識)を行う。すなわち、解析部113は、音響モデルを参照して上記音声を分析することにより音響特徴量を抽出し、認識辞書を参照して音声認識を行う。
提示部12は、表示部121と、音声入出力部122と、を有している。提示部12は、被験者102に対して情報を提示するように構成されている。提示部12が提示する情報は、例えば、画像情報(第1画像I1、第2画像I2、第3画像I3)、及び音声情報等である。
表示部121は、例えば、液晶ディスプレイである。表示部121は、第1検査においては、第1画像I1及び穴あき文S1を表示するように構成されている。また、表示部121は、第2検査においては、ガイド情報G1としての第2画像I2及び文章S2の少なくとも一方を表示するように構成されている。また、表示部121は、第1検査と第2検査との間のインターバル期間においては、第3画像I3を表示するように構成されている。なお、認知機能検査システム1がタッチパネルディスプレイを備えている場合には、タッチパネルディスプレイが表示部121と操作部14とを兼ねてもよい。
音声入出力部122は、例えば、マイクロホン及びスピーカを有している。音声入出力部122には、マイクロホンを介して、第1検査、第2検査、及びインターバル期間における被験者102の発話音声が入力される。また、音声入出力部122は、スピーカを介して、第1検査、第2検査、及びインターバル期間における認知機能検査システム1からの音声(例えば、検査のガイダンス音声等)を出力する。音声入出力部122は、マイクロホンを介して入力されたアナログの音声信号をデジタルの音声信号に変換し、変換後の音声データを制御部11に出力する。
記憶部13は、読み書き可能なメモリで構成されている。記憶部13は、例えば、フラッシュメモリである。記憶部13は、第1検査、第2検査、及びインターバル期間に表示部121に表示する第1画像I1、第2画像I2、及び第3画像I3を記憶する。ここで、第1画像I1には、第1画像I1に関連する複数の穴あき文S1が設定されており、記憶部13は、第1画像I1と複数の穴あき文S1とを紐付けて記憶する。また、第1画像I1には、第2検査におけるガイド情報G1としての複数の第2画像I2が設定されており、記憶部13は、第1画像I1と複数の第2画像I2とを紐付けて記憶する。また、第1画像I1には、第2検査におけるガイド情報G1としての複数の文章S2が設定されており、記憶部13は、第1画像I1と複数の文章S2とを紐付けて記憶する。つまり、本実施形態に係る認知機能検査システム1では、1つの第1画像I1に対して複数の穴あき文S1、複数の第2画像I2、及び複数の文章S2が紐付けられている。
さらに、記憶部13は、被験者102の属性情報を記憶する。被験者102の属性情報は、例えば、被験者102の年齢、性別、趣味、出身地等を含む。これらの属性情報は、例えば、検査者101又は被験者102が操作部14にて入力してもよいし、被験者102の過去の検査データが記憶部13に記憶されている場合には、過去の発話データ等に基づいて自動的に設定してもよい。また、記憶部13は、第1検査、第2検査、及びインターバル期間における被験者102の発話データ、検査者101と被験者102の会話データ等を記憶する。さらに、記憶部13は、解析部113が音声認識を行う際に参照する音響モデル及び認識辞書等を記憶する。
操作部14は、検査者101及び被験者102の操作を受け付けるように構成されている。操作部14は、例えば、テンキーを含む複数の押しボタンを有している。そして、複数の押しボタンのうち少なくとも1つの押しボタンを押すことにより、被験者102の属性情報を登録したり、インターバル期間に表示部121に表示させるコンテンツ(第3画像I3)を選択したりすることができる。複数の押しボタンは、メカニカルスイッチであってもよいし、表示部121がタッチパネルであればタッチパネルを構成するタッチパッドであってもよい。なお、穴あき文S1の穴あき部分の位置が操作部14により変更可能であってもよい。
設定部15は、第1画像I1のエリアごとにガイド情報G1を設定するように構成されている。設定部15は、例えば、お父さんが含まれているエリアに対しては、お父さんに関する発話を被験者102に促すようなガイド情報G1を設定する。また、設定部15は、例えば、お母さんが含まれているエリアに対しては、お母さんに関する発話を被験者102に促すようなガイド情報G1を設定する。
(3)検査内容
以下、認知機能検査システム1の検査内容について説明する。
以下、認知機能検査システム1の検査内容について説明する。
(3.1)第1検査
第1検査は、認知機能検査システム1の表示部121に第1画像I1を表示させながら、第1画像I1に関する発話を被験者102に行わせる検査である。第1検査は、図1、図3A、及び図3Bに示すように、例えば、穴あき検査である。穴あき検査は、第1画像I1、及び第1画像I1に関連する穴あき文S1を表示部121に表示させて、穴あき文S1を被験者102に発話させる検査である。穴あき文S1は、その一部を空欄にした文章である。言い換えると、第1検査は、第1画像I1と共に表示部121に表示され第1画像I1に関連する文章の一部を空欄にした穴あき文S1による穴あき検査を含む。図3Aに示す例では、穴あき文S1における穴あき部分は文頭にあり、穴あき部分には、例えば、「お父さん」との主語が入る。図3Bに示す例では、穴あき文S1の穴あき部分は文末にあり、穴あき部分には、例えば、「飲んでいます」との述語が入る。なお、次の穴あき文S1に移行するためのトリガとして穴あき文S1の文末を利用する場合には、穴あき文S1における穴あき部分の位置は、文頭もしくは文中が好ましいが、図3Bに示すように、文末にあってもよい。なお、図3Aに示す例では、「お父さんがたばこを吸っています(Father is smoking a cigarette)」が正解であり、図3Bに示す例では、「お母さんがお茶を飲んでいます(Mother is drinking tea)」が正解となる。
第1検査は、認知機能検査システム1の表示部121に第1画像I1を表示させながら、第1画像I1に関する発話を被験者102に行わせる検査である。第1検査は、図1、図3A、及び図3Bに示すように、例えば、穴あき検査である。穴あき検査は、第1画像I1、及び第1画像I1に関連する穴あき文S1を表示部121に表示させて、穴あき文S1を被験者102に発話させる検査である。穴あき文S1は、その一部を空欄にした文章である。言い換えると、第1検査は、第1画像I1と共に表示部121に表示され第1画像I1に関連する文章の一部を空欄にした穴あき文S1による穴あき検査を含む。図3Aに示す例では、穴あき文S1における穴あき部分は文頭にあり、穴あき部分には、例えば、「お父さん」との主語が入る。図3Bに示す例では、穴あき文S1の穴あき部分は文末にあり、穴あき部分には、例えば、「飲んでいます」との述語が入る。なお、次の穴あき文S1に移行するためのトリガとして穴あき文S1の文末を利用する場合には、穴あき文S1における穴あき部分の位置は、文頭もしくは文中が好ましいが、図3Bに示すように、文末にあってもよい。なお、図3Aに示す例では、「お父さんがたばこを吸っています(Father is smoking a cigarette)」が正解であり、図3Bに示す例では、「お母さんがお茶を飲んでいます(Mother is drinking tea)」が正解となる。
被験者102は、第1検査においては、第1画像I1と穴あき文S1とを見比べながら、穴あき部分を埋めつつ穴あき文S1を発話する。第1検査は、認知機能に含まれる上述の4つの機能のうち、主に、注意機能、及び遂行機能について評価することができる。さらに、第1検査では、表示部121に表示させた第1画像I1と穴あき文S1とを見比べる動作が必要であるため、注意機能の中でも特に選択性注意機能が必要になる。これにより、単に表示部121に表示させた第1画像I1を見ながら第1画像I1について発話するよりも大きな負荷を被験者102に与えることができ、結果として認知機能の低下を予測する予測精度の向上につながる。
ところで、第1検査では、1つの第1画像I1に対して複数(例えば、10個程度)の穴あき文S1が用意されており、1つの穴あき文S1の発話が完了した時点で次の穴あき文S1に移行させる操作が必要である。例えば、本実施形態のように、認知機能検査システム1が操作部14を備えている場合には、検査者101又は被験者102が操作部14にて次の穴あき文S1に移行させることができる。しかしながら、この場合には、操作ミスによって1以上の穴あき文S1を飛ばしてしまう可能性がある。また、1つの穴あき文S1に対する回答時間を予め設定し、この回答時間が経過すると自動的に次の穴あき文S1に移行させることもできる。しかしながら、この場合には、穴あき文S1に対する被験者102の発話が終わっていないにもかかわらず、次の穴あき文S1に移行する可能性がある。また、回答時間に対して被験者102の発話時間が短く、発話終了後の残り時間に不要な雑音が録音されて音声解析の障害となる可能性もある。
本実施形態に係る認知機能検査システム1では、検査者101又は被験者102の操作負担、操作ミス、及び検査ミスを低減するために、解析部113による音声認識を利用して次の穴あき文S1に自動的に移行するように構成されている。以下、具体的に説明する。
まず、図3Aに示すように、「( )がたばこを吸っています」との穴あき文S1を表示部121に表示している場合を想定する。この場合、穴あき部分が文頭にあるため、文末は予め決められた文言(ここでは、「吸っています」)になっている。そのため、解析部113の音声認識によって文末の「吸っています」との文言を検出した時点で、被験者102の発話が完了したと判断でき、次の穴あき文S1に移行させるためのトリガにすることができる。言い換えると、本実施形態に係る認知機能検査方法では、被験者102の発話に含まれる部分音声(「吸っています」との音声)に基づいて穴あき文S1に対する回答の有無を検知する。そして、図3Aに示す例では、上記部分音声は、穴あき文S1における末尾の発話音声(「吸っています」との音声)である。被験者102からの回答があった場合には、表示部121は、第1画像I1と次の穴あき文S1とを表示する。言い換えると、被験者102からの回答があった場合に、第1画像I1と次の穴あき文S1とを表示部121に表示させる。このように、被験者102の発話に含まれる部分音声、特に穴あき文S1の末尾の発話音声を次の穴あき文S1に移行させるためのトリガにすることにより、次の穴あき文S1への移行を確実に行うことができる。しかも、被験者102の発話音声に基づいて自動的に移行させるので、検査者101又は被験者102の操作負担、操作ミス、及び検査ミスを低減することができる。また、穴あき文S1の末尾の発話音声を検出した時点で録音を停止することにより、音声解析の障害となり得る不要な雑音が録音されにくくなるという利点もある。
次に、図3Bに示すように、「お母さんがお茶を( )」との穴あき文S1を表示部121に表示している場合を想定する。この場合、穴あき文S1の文末、つまり穴あき文S1の末尾が穴あき部分になっており、この穴あき部分には、「飲んでいます」、「すすっています(sipping)」等の複数の文言が入り得る。つまり、この場合には、被験者102の発話に含まれる部分音声は、穴あき文S1における穴あき部分の発話音声である。例えば、穴あき部分の回答として「飲んでいます」との文言が設定されている場合、次の穴あき文S1に移行させるためのトリガは、「飲んでいます」との文言である。そのため、例えば、被験者102が「すすっています」と発話した場合には、次の穴あき文S1に移行させることができない。しかしながら、このような場合でも、穴あき部分に入り得る文言の文字数に閾値を設けることにより対応可能である。例えば、図3Bに示す例において、穴あき文S1の穴あき部分に入り得る文言の文字数を6文字と仮定する。この場合、穴あき部分に入り得る文言は、「飲んでいます」であっても「すすっています」であっても同じ6文字であり、いずれの文言であってもトリガにすることができる。また、この場合には、穴あき部分に入り得る文言の選択、及び穴あき部分を発話するまでの時間等によって、本来の目的である認知機能(特に遂行機能)の評価に有効である。このように、穴あき部分に入り得る文言の文字数に閾値を設けることにより、例えば「飲んで・・・い・・・ます」のように、穴あき部分の回答に時間がかかっていたとしても、次の穴あき文S1へのトリガにすることができる。
ところで、第1検査において、穴あき文S1の内容によっては被験者102が回答できない場合もあり、この場合被験者102が回答できるまで同じ穴あき文S1を表示し続けることで検査時間が長くなるという問題がある。そのため、このような場合には、被験者102が発した特定ワード(スキップワード)により、次の穴あき文S1に移行させることが好ましい。言い換えると、本実施形態に係る認知機能検査方法では、被験者102が特定ワードを発した場合に、第1画像I1と次の穴あき文S1とを表示部121に表示させることが好ましい。特定ワードは、例えば、「パス」、「次」、「分かりません」等を含む。その結果、被験者102の回答の有無にかかわらず、次の穴あき文S1に移行させることができ、検査時間が長くなることを抑制できる。
また、第1画像I1及び穴あき文S1を表示部121に表示してから規定時間が経過しても被験者102の回答がない場合には、次の穴あき文S1に移行させることが好ましい(タイムアウト)。言い換えると、本実施形態に係る認知機能検査方法では、予め設定された規定時間が経過した場合に、第1画像I1と次の穴あき文S1とを表示部121に表示させることが好ましい。規定時間は、例えば、30秒程度に設定することが好ましい。その結果、被験者102の回答の有無にかかわらず、次の穴あき文S1に移行させることができ、検査時間が長くなることを抑制できる。
さらに、表示部121に表示させる次の穴あき文S1は、前の穴あき文S1に対する回答に応じて変化させることが好ましい。例えば、穴あき文S1における穴あき部分の回答が間違っている場合、又は穴あき部分の回答に要する時間が長い場合には、前の穴あき文S1よりも難易度を下げた穴あき文S1を次の穴あき文S1にすることが好ましい。一方、穴あき文S1における穴あき部分の回答が正しく、かつ穴あき部分の回答に要する時間が短い場合には、前の穴あき文S1よりも難易度を上げた穴あき文S1を次の穴あき文S1にすることが好ましい。このように、表示部121に表示させる次の穴あき文S1を、前の穴あき文S1に対する被験者102の回答に応じて変化させることにより、被験者102の認知機能の状態をより多段階に判別することができる。
(3.2)第2検査
第2検査は、第1検査を行なってからインターバル期間が経過した後に、第1画像I1に関連する発話を被験者102に行わせる検査である。第2検査は、基本的には、第1検査において表示部121に表示した第1画像I1を表示部121に表示しないで(被験者102に第1画像I1を見せないで)、第1画像I1に関連する発話を被験者102に行わせる検査である。つまり、第2検査は、第1画像I1の内容を被験者102に覚えてもらい、インターバル期間経過後に第1画像I1の内容について被験者102に発話してもらう遅延再生検査である。インターバル期間は、例えば数分~数十分に設定することが好ましく、本実施形態では一例として5分である。第2検査において、検査者101は、例えば、「第1画像I1について話してください」等の課題を被験者102に与える。被験者102は、第1画像I1を見ていない状態で第1画像I1について発話する。ここで、認知機能(特に記憶機能)が低下していない被験者102は、第1画像I1の内容(お父さんがたばこを吸っています、お母さんがお茶を飲んでいます等)についてスムーズに発話することができる。一方、認知機能が低下している被験者102は、第1画像I1についての発話開始直後(例えば数十秒間)はスムーズに話すことができるが、検査時間がある程度経ったのちには発話が止まることが知られている。第2検査は、認知機能に含まれる4つの機能のうち、主に、記憶機能(短期記憶機能)について評価することができる。
第2検査は、第1検査を行なってからインターバル期間が経過した後に、第1画像I1に関連する発話を被験者102に行わせる検査である。第2検査は、基本的には、第1検査において表示部121に表示した第1画像I1を表示部121に表示しないで(被験者102に第1画像I1を見せないで)、第1画像I1に関連する発話を被験者102に行わせる検査である。つまり、第2検査は、第1画像I1の内容を被験者102に覚えてもらい、インターバル期間経過後に第1画像I1の内容について被験者102に発話してもらう遅延再生検査である。インターバル期間は、例えば数分~数十分に設定することが好ましく、本実施形態では一例として5分である。第2検査において、検査者101は、例えば、「第1画像I1について話してください」等の課題を被験者102に与える。被験者102は、第1画像I1を見ていない状態で第1画像I1について発話する。ここで、認知機能(特に記憶機能)が低下していない被験者102は、第1画像I1の内容(お父さんがたばこを吸っています、お母さんがお茶を飲んでいます等)についてスムーズに発話することができる。一方、認知機能が低下している被験者102は、第1画像I1についての発話開始直後(例えば数十秒間)はスムーズに話すことができるが、検査時間がある程度経ったのちには発話が止まることが知られている。第2検査は、認知機能に含まれる4つの機能のうち、主に、記憶機能(短期記憶機能)について評価することができる。
このような遅延再生検査によれば、MCIを含む認知機能の低下を精度よく評価することはできるが、認知機能が大幅に低下した被験者102にとっては非常に難しく、全く答えられない事態が発生することも報告されている。そのため、現状の遅延再生検査では、遅延再生ができたか否かの二択であり、記憶機能がどの程度低下したかを評価することができない。本実施形態に係る認知機能検査方法では、被験者102の記憶機能がどの程度低下したかを評価できるように、第2検査において被験者102に対してガイド情報G1を提示するように構成されている。以下、具体的に説明する。
第2検査中に被験者102の発話が停止した場合を想定する。例えば、それまでの被験者102の発話において「お父さん」、もしくはこれに類する語句を発していない場合、お父さんに関する情報を思い出せていない可能性がある。この場合、お父さんに関する発話を促進させるために、お父さんに関するガイド情報G1を被験者102に提示する。例えば、図4Aに示すように、お父さんの一部(図4Aでは顔)を含む第2画像I2を表示部121に表示してもよいし、図4Bに示すように、発話についての示唆を被験者102に与えるような文字情報(文章S2)を表示部121に表示してもよい。第2画像I2は、第1画像I1に基づく部分画像である。言い換えると、第2画像I2は、第1画像I1の少なくとも一部を隠した画像である。また、ガイド情報G1は、発話についての示唆を被験者102に与える情報(第2画像I2、文章S2)を含む。さらに、ガイド情報G1として、第2画像I2と文章S2との両方を表示部121に表示してもよいし、第2画像I2と文章S2とを順番に表示部121に表示してもよい。第2画像I2と文章S2とを表示する順番は、第2画像I2が先であってもよいし、文章S2が先であってもよい。なお、図4Aでは、第1画像I1のうち第2画像I2を除く残りの部分が見えているが、実際には第2画像I2のみが見えており、残りの部分については見えていないものとする。
ここで、第2検査中に被験者102が発話した内容については、音声入出力部122に入力された音声を元に解析部113がリアルタイムに音声認識を行い、音声データを文字データ(文字列)に変換すればよい。また、単語の表記揺れ(例えば、お父さん、父親、旦那等)については、予め辞書等を作成して記憶部13に記憶しておけばよい。これにより、様々な表現形式に対応しつつ被験者102の発話内容を記憶することができ、被験者102が発話していない事象についてのみガイド情報G1を提示することができる。
ところで、ガイド情報G1は、被験者102の発話にキーワードが含まれているか否かによって決定されることが好ましい。ここで、第1画像I1におけるキーワードは、例えば、「お父さん」、「お母さん」、「お姉ちゃん」、「弟」、「たばこ」、「お茶」、「吸っています」、「飲んでいます」等である。例えば、お父さんに関するキーワードである「お父さん」、「たばこ」、「吸っています」のいずれもが被験者102の発話に含まれていない場合、お父さんに関する発話を促すように第2画像I2と文章S2との少なくとも一方を表示部121に表示する。これにより、被験者102が、お父さんについて思い出していない場合であっても、ガイド情報G1を提示することによりお父さんに関する発話を被験者102に促すことができる。
また、ガイド情報G1は、第1画像I1のエリアごとに決定されることが好ましい。例えば、第1画像I1のエリアを、お父さんを含む第1エリア、お母さんを含む第2エリア、お姉ちゃんを含む第3エリア、及び弟を含む第4エリアに分割し、エリアごとにガイド情報G1を決定(設定)する。この場合において、第1画像I1におけるキーワードは、エリアごとにグループ化されていることが好ましい。例えば、お父さんを含む第1エリアに対しては、お父さんに関するキーワードである「お父さん」、「たばこ」、「吸っています」を紐付ける。また、お母さんを含む第2エリアに対しては、お母さんに関するキーワードである「お母さん」、「お茶」、「飲んでいます」を紐付ける。この場合において、各エリアにおけるキーワードが1つでも出れば認知機能に問題がないと判断してもよいし、すべてのキーワードが出なければ認知機能に問題があると判断してもよい。
さらに、ガイド情報G1は、被験者102の認知機能(特に記憶機能)を多段階に評価できるように、階層的(段階的)に表示させることが好ましい。例えば、お父さんについての発話を被験者102に促す場合を想定する。第1段階では、例えば、「第1画像I1の左下には誰がいましたか?」とのガイド情報G1を表示部121に表示する。このとき、被験者102が「お父さんがいました」と回答した場合には、次の段階のガイド情報G1を表示部121に表示する。第2段階のガイド情報G1は、例えば、「第1画像I1の左下にお父さんがいましたが、何をしていましたか?」である。このように、ガイド情報G1を階層的(段階的)に提示することにより、被験者102の認知機能の状態、つまり被験者102の認知機能がどの程度低下しているかを段階的に評価することができる。なお、ガイド情報G1として第2画像I2を表示部121に表示する場合には、第2画像I2の大きさを段階的に大きくしてもよいし、第1画像I1における第2画像I2の位置、つまり第2画像I2によって表示される領域を変えてもよい。
(3.3)インターバル期間
第1検査と第2検査との間のインターバル期間には、図5に示すように、第3画像I3を表示部121に表示させることが好ましい。言い換えると、インターバル期間に、被験者102にコンテンツを提示することが好ましい。第3画像I3は、例えば、キャットフードの広告である。つまり、認知機能検査システム1が提示しているコンテンツは広告である。なお、コンテンツは、画像に限らず、動画であってもよい。この場合、コマーシャル動画を提示することが可能であり、このコマーシャル動画は、レコメンド機能により被験者102に最適化された動画であることが好ましい。これにより、コマーシャルによる収入が見込まれるため、検査に要する費用を低減することができる。その結果、検査機会の拡充も見込まれる。なお、インターバル期間に提示するコンテンツは、被験者102が興味のあるコンテンツを事前に聞いてもよい。
第1検査と第2検査との間のインターバル期間には、図5に示すように、第3画像I3を表示部121に表示させることが好ましい。言い換えると、インターバル期間に、被験者102にコンテンツを提示することが好ましい。第3画像I3は、例えば、キャットフードの広告である。つまり、認知機能検査システム1が提示しているコンテンツは広告である。なお、コンテンツは、画像に限らず、動画であってもよい。この場合、コマーシャル動画を提示することが可能であり、このコマーシャル動画は、レコメンド機能により被験者102に最適化された動画であることが好ましい。これにより、コマーシャルによる収入が見込まれるため、検査に要する費用を低減することができる。その結果、検査機会の拡充も見込まれる。なお、インターバル期間に提示するコンテンツは、被験者102が興味のあるコンテンツを事前に聞いてもよい。
ここで、インターバル期間に提示するコンテンツは、被験者102に応じて選択されることが好ましい。例えば、インターバル期間に表示可能な複数のコンテンツを表示部121に表示して、複数のコンテンツの中から被験者102に選択させる。言い換えると、コンテンツは、被験者102によって手動で選択される。その結果、被験者102が興味のあるコンテンツを表示部121に表示させることができる。また、インターバル期間に被験者102が選択したコンテンツを、次の第2検査、又は次以降の第1検査と第2検査との少なくとも一方に利用してもよい。これにより、その後に行われる検査に対して被験者102を集中させることができる。
また、例えば、被験者102の属性情報に応じて表示部121に表示させるコンテンツを選択してもよい。例えば、被験者102の属性情報から被験者102が猫好きであれば、図5に示すように、猫に関連するような第3画像I3を表示部121に表示する。
さらに、コンテンツは、コンテンツに対する被験者102の関心度に応じて自動的に切り替えられてもよい。例えば、表示部121に表示している第3画像I3について被験者102が40秒継続して話し続けたとする。この場合における閾値を30秒に設定しておけば、この閾値を超えて被験者102が話し続けているので、第3画像I3に対する被験者102の関心度が高いと判断することができる。一方、被験者102が第3画像I3について20秒しか話さなかった場合には、上記閾値を下回っていることから、第3画像I3に対する被験者102の関心度が低いと判断することができる。そして、第3画像I3に対する被験者102の関心度が高い場合には、第3画像I3を表示し続けてもよいし、第3画像I3と同じ種類の画像を連続的に表示してもよい。また、第3画像I3に対する被験者102の関心度が低い場合には、第3画像I3とは異なる種類の画像を表示すればよい。
なお、コンテンツに対する被験者102の関心度を判断するための閾値は1つに限らず、複数であってもよい。つまり、コンテンツに対する被験者102の関心度が複数段階に分けられてもよい。この場合においても、被験者102の関心度に応じたコンテンツを表示部121に表示することで、その後に行われる検査に対して被験者102を集中させることができる。
ここで、被験者102の属性情報を説明変数(独立変数)、被験者102の関心度を目的変数(従属変数)として、機械学習によるレコメンドシステムを構築可能である。例えば、新しい被験者が登録された場合に、この被験者の属性情報から画像(コンテンツ)に対する関心度を予測することで、被験者の関心度の高そうな画像を表示部121に表示することができる。これにより、画像に対する被験者の発話を促すことができる。
(4)動作
次に、本実施形態に係る認知機能検査システム1の一連の動作について、図6を参照して説明する。
次に、本実施形態に係る認知機能検査システム1の一連の動作について、図6を参照して説明する。
制御部11の検査部112は、表示部121に対して第1制御信号を出力し、表示部121に第1画像I1及び穴あき文S1を表示させる。被験者102は、表示部121に表示した第1画像I1及び穴あき文S1を見ながら、穴あき文S1について発話する(ステップST1)。制御部11は、第1検査が終了すると、インターバル期間の計測を開始する(ステップST2)。制御部11は、インターバル期間が経過するまでは(ステップST2:No)、表示部121に第3画像I3(コンテンツ)を表示(提示)させる(ステップST3)。
制御部11は、インターバル期間が経過していれば(ステップST2:Yes)、検査部112に第2検査を行なわせる(ステップST4)。このとき、例えば、「第1画像I1について話してください」等の文章を表示部121に表示してもよい。ここで、被験者102の発話が途中で停止した場合には、制御部11の検査部112は、表示部121に対して第2制御信号を出力し、発話を促すためのガイド情報G1を表示部121に表示させる。
制御部11の評価部111は、第2検査が終了すると、第1検査の検査結果である第1検査結果、及び第2検査の検査結果である第2検査結果に基づいて、被験者102の認知機能の状態、つまり被験者102の認知機能が低下しているか否かを評価する(ステップST5)。そして、制御部11は、評価部111の評価結果を表示部121に表示させる(ステップST6)。
本実施形態に係る認知機能検査方法及び認知機能検査システム1では、上述のように、2つの検査結果に基づいて被験者102の認知機能の状態を評価している。そのため、1つの検査結果に基づいて被験者102の認知機能の状態を評価する場合に比べて、認知機能の評価精度の向上を図ることができる。また、第1検査及び第2検査の各々において、第1画像I1に関連する発話を被験者102に行わせるだけでよく、専門的な訓練等も必要ないため、医療従事者以外の人でも検査を行なうことができ、検査機会の拡充を図ることができる。
本実施形態では、ステップST1が第1検査ステップであり、ステップST4が第2検査ステップであり、ステップST5が評価ステップである。
(5)効果
本実施形態に係る認知機能検査方法及び認知機能検査システム1では、被験者102の発話の認識結果に基づいて被験者102の発話を促進させるためのガイド情報G1を提示している。そのため、ガイド情報G1を全く提示しない場合に比べて被験者102に発話を促すことができ、これにより認知機能の評価精度の向上を図ることができる。また、第1画像I1に関連する発話を被験者102に行わせるだけでよく、医療従事者以外の人であっても簡単に検査を行なうことができるので、検査機会の拡充を図ることができる。
本実施形態に係る認知機能検査方法及び認知機能検査システム1では、被験者102の発話の認識結果に基づいて被験者102の発話を促進させるためのガイド情報G1を提示している。そのため、ガイド情報G1を全く提示しない場合に比べて被験者102に発話を促すことができ、これにより認知機能の評価精度の向上を図ることができる。また、第1画像I1に関連する発話を被験者102に行わせるだけでよく、医療従事者以外の人であっても簡単に検査を行なうことができるので、検査機会の拡充を図ることができる。
さらに、認知機能検査システム1が携帯端末の場合には、検査を行なう場所が制限されないため、MCIの早期発見から改善へとつなげることができる。また、本実施形態に係る認知機能検査方法及び認知機能検査システム1のように、正解が決まっていない会話型の検査であれば、被験者102が検査内容を記憶することで正確に検査が行えなくなる不具合を低減することができる。
また、本実施形態に係る認知機能検査方法では、発話についての示唆を被験者102に与える情報(第2画像I2、又は文章S2)がガイド情報G1に含まれている。そのため、ガイド情報G1によって被験者102に発話を促すことができる。
また、本実施形態に係る認知機能検査方法では、第1画像I1に基づく第2画像I2がガイド情報G1に含まれている。そのため、画像情報によって被験者102に発話を促すことができる。
また、本実施形態に係る認知機能検査方法では、第2画像I2が第1画像I1の少なくとも一部を隠した画像である。そのため、第1画像I1と第2画像I2とが同じである場合に比べて検査の難易度が高くなっており、認知機能の評価精度を更に向上させることができる。
また、本実施形態に係る認知機能検査方法では、発話についての示唆を被験者102に与える文章S2がガイド情報G1に含まれている。そのため、ガイド情報G1によって被験者102に発話を促すことができる。
また、本実施形態に係る認知機能検査方法では、ガイド情報G1として、第2画像I2と文章S2とを順番に提示している。そのため、いずれか一方のみを提示する場合に比べて、より効果的に被験者102に発話を促すことができる。
また、本実施形態に係る認知機能検査方法では、被験者102の発話にキーワードが含まれているか否かによってガイド情報G1を決定している。そのため、キーワードの有無にかかわらず、被験者102に発話を促すことができる。
また、本実施形態に係る認知機能検査方法では、第1画像I1のエリアごとにガイド情報G1を決定している。そのため、第1画像I1のエリアごとにガイド情報G1を提示することができる。
(6)変形例
上述の実施形態は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、上述の実施形態に係る認知機能検査方法、及び認知機能検査システム1と同様の機能は、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。一態様に係るプログラムは、1以上のプロセッサに上述の認知機能検査方法を実行させるためのプログラムである。
上述の実施形態は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、上述の実施形態に係る認知機能検査方法、及び認知機能検査システム1と同様の機能は、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。一態様に係るプログラムは、1以上のプロセッサに上述の認知機能検査方法を実行させるためのプログラムである。
以下、上述の実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。
本開示における認知機能検査システム1において、制御部11は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における制御部11としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。更に、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
また、認知機能検査システム1における複数の機能が、1つの筐体内に集約されていることは、認知機能検査システム1に必須の構成ではない。つまり、認知機能検査システム1の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、認知機能検査システム1の少なくとも一部の機能、例えば、制御部11の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。
上述の実施形態では、検査者101と被験者102との間で認知機能検査システム1を用いて検査を行なっているが、検査者101は省略されてもよい。認知機能検査システム1では、第1検査及び第2検査の内容が表示部121に表示される構造であるため、被験者102がいればよく、認知機能検査システム1を用いて被験者102が一人で検査を行なってもよい。
上述の実施形態では、インターバル期間に表示部121に表示させるコンテンツとして、広告に関する第3画像I3を表示しているが、例えば、被験者102に対するレコメンド情報を表示部121に表示してもよい。例えば、レコメンド情報は、被験者102が過去に購入したインターネットショップの購入履歴に基づく情報である。例えば、被験者102がインターネットショップにて車のタイヤを購入していれば、レコメンド情報として車に関する情報を表示部121に表示する。このレコメンド情報は、その後の第2検査、又は次回以降の第1検査と第2検査との少なくとも一方に利用してもよい。これにより、被験者102に特化させた第1検査又は第2検査を行なうことができる。
また、インターバル期間に表示部121に表示させるコンテンツは、第1検査で表示部121に表示させるような画像又は動画であってもよいし、最近のニュース、昔の出来事等であってもよい。そして、これらのコンテンツを表示部121に表示させた状態で、被験者にコンテンツについて話をしてもらえばよい。つまり、インターバル期間に表示部121に表示させるコンテンツは広告に限らず、いろいろなバリエーションが考えられる。
上述の実施形態では、穴あき文S1の穴あき部分が文頭に位置する主語、又は文末に位置する熟語であるが、例えば、穴あき部分が文中に位置する目的語であってもよい。この場合、図3Aに示す例では目的語である「たばこ」が穴あき部分になる。
上述の実施形態では、課題遂行時間が、表示部121に第1画像I1及び穴あき文S1を表示させてから被験者102の発話が完了するまでの時間である。これに対して、課題遂行時間は、例えば、表示部121に第1画像I1及び穴あき文S1を表示させてから被験者102が発話を開始するまでの時間であってもよいし、被験者102が発話を開始してから発話を終了するまでの時間であってもよい。
上述の実施形態では、第1画像I1のエリアごとにガイド情報G1を決定しているが、例えば、第1画像I1内に含まれる主体(お父さん、お母さん、お姉ちゃん、弟)ごとにガイド情報G1を決定してもよい。この場合、第1画像I1におけるキーワードは、主体ごとにグループ化されていることが好ましく、例えば、主体がお父さんであれば、「お父さん」、「たばこ」、「吸っています」とのキーワードをお父さんに紐付ける。また、主体がお母さんであれば、「お母さん」、「お茶」、「飲んでいます」とのキーワードをお母さんに紐付ける。この構成によれば、主体ごとにガイド情報G1を変えるので、いずれの主体についても被験者102に発話を促すことができる。
上述の実施形態では、コンテンツに対する被験者102の発話時間から被験者102の関心度を判断しているが、例えば、被験者102の音声の感情分析の結果から被験者102の関心度を判断してもよい。この場合、例えば、感情分析の結果から「うれしい」という感情が30秒以上続いていれば、被験者102の関心度が高いと判断する。
上述の実施形態では、制御部11の解析部113にて音声認識を行っているが、例えば、認知機能検査システム1が外部に設けられたサーバ装置と通信可能であれば、サーバ装置にて音声認識を行ってもよい。この場合、認知機能検査システム1は、音声入出力部122を介して入力された被験者102の音声データをサーバ装置に送信する。サーバ装置は、認知機能検査システム1からの音声データに対して音声認識を行い、音声認識の結果を認知機能検査システム1に向けて送信する。この構成によれば、サーバ装置にて音声認識を行うことにより、制御部11の処理負担を軽減することができる。また、音響モデル及び認識辞書等を記憶部13に記憶させなくてもよく、記憶部13のメモリ容量を小さくすることができる。
上述の実施形態では、第2画像I2が第1画像I1の部分画像であるが、第2画像I2は、例えば、第1画像I1にモザイクをかけたモザイク画像であってもよい。この場合において、第1画像I1全体にモザイクがかけられていてもよいし、第1画像I1のうちガイド情報G1として提示したい部分のみにモザイクがかけられていてもよい。
上述の実施形態で説明した穴あき部分に入る語句は一例であり、例えば、色、数字等であってもよい。
上述の実施形態では、第1画像I1に含まれている主体を人物としているが、主体は人物に限らず、例えば、第1画像I1に含まれている掛け時計、及び出窓等であってもよい。
上述の実施形態では、第1検査及び第2検査の検査結果を認知機能の評価に用いているが、例えば、インターバル期間における被験者の音声データを認知機能の評価に用いてもよい。これにより、認知機能の評価精度の向上が見込まれるという利点がある。
(まとめ)
以上説明したように、第1の態様に係る認知機能検査方法は、表示部(121)に画像(I1)を表示させてからインターバル期間が経過した後に、画像(I1)に関連する発話を被験者(102)に行わせる認知機能検査方法である。認知機能検査方法では、発話の認識結果に基づいて発話を促進させるためのガイド情報(G1)を提示する。
以上説明したように、第1の態様に係る認知機能検査方法は、表示部(121)に画像(I1)を表示させてからインターバル期間が経過した後に、画像(I1)に関連する発話を被験者(102)に行わせる認知機能検査方法である。認知機能検査方法では、発話の認識結果に基づいて発話を促進させるためのガイド情報(G1)を提示する。
この態様によれば、被験者(102)の発話の認識結果に基づいてガイド情報(G1)を提示するので、ガイド情報(G1)を全く提示しない場合に比べて被験者(102)に発話を促すことができ、これにより認知機能の評価精度の向上を図ることができる。
第2の態様に係る認知機能検査方法では、第1の態様において、ガイド情報(G1)は、発話についての示唆を被験者(102)に与える情報を含む。
この態様によれば、ガイド情報(G1)によって被験者(102)に発話を促すことができる。
第3の態様に係る認知機能検査方法では、第1又は2の態様において、ガイド情報(G1)は、画像としての第1画像(I1)に基づく第2画像(I2)を含む。
この態様によれば、画像情報によって被験者(102)に発話を促すことができる。
第4の態様に係る認知機能検査方法では、第3の態様において、第2画像(I2)は、第1画像(I1)の少なくとも一部を隠した画像である。
この態様によれば、第1画像(I1)と第2画像(I2)とが同じである場合に比べて検査の難易度が高くなっており、認知機能の評価精度を更に向上させることができる。
第5の態様に係る認知機能検査方法では、第1~4のいずれかの態様において、ガイド情報(G1)は、発話についての示唆を被験者(102)に与える文章(S2)を含む。
この態様によれば、ガイド情報(G1)によって被験者(102)に発話を促すことができる。
第6の態様に係る認知機能検査方法では、第1~5のいずれかの態様において、ガイド情報(G1)として、画像としての第1画像(I1)に基づく第2画像(I2)と、発話についての示唆を被験者(102)に与える文章(S2)と、を順番に提示する。
この態様によれば、第2画像(I2)と文章(S2)との一方を提示する場合に比べて、より効果的に被験者(102)に発話を促すことができる。
第7の態様に係る認知機能検査方法では、第1~6のいずれかの態様において、ガイド情報(G1)は、発話にキーワードが含まれているか否かによって決定される。
この態様によれば、キーワードの有無に応じてガイド情報(G1)を変えるので、キーワードの有無にかかわらず被験者(102)に発話を促すことができる。
第8の態様に係る認知機能検査方法では、第7の態様において、ガイド情報(G1)は、画像(I1)内に含まれる主体ごとに決定される。
この態様によれば、主体ごとにガイド情報(G1)を変えるので、いずれの主体についても被験者(102)に発話を促すことができる。
第9の態様に係る認知機能検査方法では、第7の態様において、ガイド情報(G1)は、画像(I1)のエリアごとに決定される。
この態様によれば、画像(I1)のエリアごとにガイド情報を変えるので、いずれのエリアについても被験者(102)に発話を促すことができる。
第10の態様に係るプログラムは、第1~9のいずれかの態様に係る認知機能検査方法を1以上のプロセッサに実行させるためのプログラムである。
この態様によれば、被験者(102)の発話の認識結果に基づいてガイド情報(G1)を提示するので、ガイド情報(G1)を全く提示しない場合に比べて被験者(102)に発話を促すことができ、これにより認知機能の評価精度の向上を図ることができる。
第11の態様に係る認知機能検査システム(1)は、表示部(121)と、検査部(112)と、提示部(12)と、を備える。検査部(112)は、表示部(121)に画像(I1)を表示させてからインターバル期間が経過した後に、画像(I1)に関連する発話を被験者(102)に行わせる。提示部(12)は、発話の認識結果に基づいて発話を促進させるためのガイド情報(G1)を提示する。
この態様によれば、被験者(102)の発話の認識結果に基づいてガイド情報(G1)を提示するので、ガイド情報(G1)を全く提示しない場合に比べて被験者(102)に発話を促すことができ、これにより認知機能の評価精度の向上を図ることができる。
第2~9の態様に係る構成については、認知機能検査方法に必須の構成ではなく、適宜省略可能である。
1 認知機能検査システム
12 提示部
112 検査部
121 表示部
102 被験者
G1 ガイド情報
I1 第1画像(画像)
S2 文章
12 提示部
112 検査部
121 表示部
102 被験者
G1 ガイド情報
I1 第1画像(画像)
S2 文章
Claims (11)
- 表示部に画像を表示させてからインターバル期間が経過した後に、前記画像に関連する発話を被験者に行わせる認知機能検査方法であって、
前記発話の認識結果に基づいて前記発話を促進させるためのガイド情報を提示する、
認知機能検査方法。 - 前記ガイド情報は、前記発話についての示唆を前記被験者に与える情報を含む、
請求項1に記載の認知機能検査方法。 - 前記ガイド情報は、前記画像としての第1画像に基づく第2画像を含む、
請求項1又は2に記載の認知機能検査方法。 - 前記第2画像は、前記第1画像の少なくとも一部を隠した画像である、
請求項3に記載の認知機能検査方法。 - 前記ガイド情報は、前記発話についての示唆を前記被験者に与える文章を含む、
請求項1~4のいずれか1項に記載の認知機能検査方法。 - 前記ガイド情報として、前記画像としての第1画像に基づく第2画像と、前記発話についての示唆を前記被験者に与える文章と、を順番に提示する、
請求項1~5のいずれか1項に記載の認知機能検査方法。 - 前記ガイド情報は、前記発話にキーワードが含まれているか否かによって決定される、
請求項1~6のいずれか1項に記載の認知機能検査方法。 - 前記ガイド情報は、前記画像内に含まれる主体ごとに決定される、
請求項7に記載の認知機能検査方法。 - 前記ガイド情報は、前記画像のエリアごとに決定される、
請求項7に記載の認知機能検査方法。 - 請求項1~9のいずれか1項に記載の認知機能検査方法を1以上のプロセッサに実行させるためのプログラム。
- 表示部と、
前記表示部に画像を表示させてからインターバル期間が経過した後に、前記画像に関連する発話を被験者に行わせる検査部と、
前記発話の認識結果に基づいて前記発話を促進させるためのガイド情報を提示する提示部と、を備える、
認知機能検査システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021508163A JP7145427B2 (ja) | 2019-03-26 | 2020-02-03 | 認知機能検査システム、及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019059470 | 2019-03-26 | ||
JP2019-059470 | 2019-03-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020195163A1 true WO2020195163A1 (ja) | 2020-10-01 |
Family
ID=72609991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/003857 WO2020195163A1 (ja) | 2019-03-26 | 2020-02-03 | 認知機能検査方法、プログラム、及び認知機能検査システム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7145427B2 (ja) |
TW (1) | TW202044276A (ja) |
WO (1) | WO2020195163A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017168907A1 (ja) * | 2016-03-31 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2018015139A (ja) * | 2016-07-26 | 2018-02-01 | ヤンマー株式会社 | 認知症検査システム |
-
2020
- 2020-02-03 JP JP2021508163A patent/JP7145427B2/ja active Active
- 2020-02-03 WO PCT/JP2020/003857 patent/WO2020195163A1/ja active Application Filing
- 2020-02-06 TW TW109103619A patent/TW202044276A/zh unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017168907A1 (ja) * | 2016-03-31 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2018015139A (ja) * | 2016-07-26 | 2018-02-01 | ヤンマー株式会社 | 認知症検査システム |
Also Published As
Publication number | Publication date |
---|---|
TW202044276A (zh) | 2020-12-01 |
JP7145427B2 (ja) | 2022-10-03 |
JPWO2020195163A1 (ja) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI680453B (zh) | 認知功能評估裝置、認知功能評估系統、認知功能評估方法及程式 | |
Picou et al. | Visual cues and listening effort: Individual variability | |
Pinget et al. | Native speakers’ perceptions of fluency and accent in L2 speech | |
Ahmed et al. | Speech-driven mobile games for speech therapy: User experiences and feasibility | |
McKechnie et al. | Automated speech analysis tools for children’s speech production: A systematic literature review | |
Ko | Nonlinear development of speaking rate in child-directed speech | |
Van Nuffelen et al. | Speech technology‐based assessment of phoneme intelligibility in dysarthria | |
Borrie et al. | Generalized adaptation to dysarthric speech | |
Hustad et al. | Development of speech intelligibility between 30 and 47 months in typically developing children: A cross-sectional study of growth | |
Womack et al. | Disfluencies as extra-propositional indicators of cognitive processing | |
Redford et al. | Lay listener classification and evaluation of typical and atypical children’s speech | |
JP2006337667A (ja) | 発音評価方法、音素列モデル学習方法、これらの方法を用いた装置、プログラム、および記録媒体。 | |
Bleaman et al. | Medium-shifting and intraspeaker variation in conversational interviews | |
WO2019188405A1 (ja) | 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム | |
JP2010054549A (ja) | 回答音声認識システム | |
WO2020195163A1 (ja) | 認知機能検査方法、プログラム、及び認知機能検査システム | |
WO2020195164A1 (ja) | 認知機能検査方法、プログラム、及び認知機能検査システム | |
WO2020195165A1 (ja) | 認知機能検査方法、プログラム、及び認知機能検査システム | |
WO2020116280A1 (ja) | 学習支援装置、学習支援方法および記録媒体 | |
JP7135372B2 (ja) | 学習支援装置、学習支援方法およびプログラム | |
Sutkowski et al. | Comparative analysis of the temporal aspects of word-final disfluencies, stuttering-like disfluencies, and nonstuttering-like disfluencies | |
Luthra et al. | Boosting lexical support does not enhance lexically guided perceptual learning. | |
KR102336015B1 (ko) | 동영상 기반의 언어장애 분석 시스템, 방법 및 이를 수행하기 위한 프로그램을 기록한 기록매체 | |
JP6639857B2 (ja) | 聴力検査装置、聴力検査方法および聴力検査プログラム | |
Arts et al. | Development and structure of the VariaNTS corpus: A spoken Dutch corpus containing talker and linguistic variability |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20779802 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2021508163 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20779802 Country of ref document: EP Kind code of ref document: A1 |