WO2022034682A1 - 情報処理装置、制御方法及び記憶媒体 - Google Patents

情報処理装置、制御方法及び記憶媒体 Download PDF

Info

Publication number
WO2022034682A1
WO2022034682A1 PCT/JP2020/030882 JP2020030882W WO2022034682A1 WO 2022034682 A1 WO2022034682 A1 WO 2022034682A1 JP 2020030882 W JP2020030882 W JP 2020030882W WO 2022034682 A1 WO2022034682 A1 WO 2022034682A1
Authority
WO
WIPO (PCT)
Prior art keywords
measurement
intellectual ability
cognitive function
estimation
result
Prior art date
Application number
PCT/JP2020/030882
Other languages
English (en)
French (fr)
Inventor
剛範 辻川
旭美 梅松
恵 渋谷
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US18/020,568 priority Critical patent/US20230301572A1/en
Priority to JP2022542561A priority patent/JPWO2022034682A5/ja
Priority to PCT/JP2020/030882 priority patent/WO2022034682A1/ja
Publication of WO2022034682A1 publication Critical patent/WO2022034682A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Definitions

  • the present disclosure relates to technical fields of information processing devices, control methods, and storage media that perform processing related to estimation of an internal state.
  • Patent Document 1 discloses a system in which a predetermined image is displayed on a screen and a cognitive function score is calculated based on the movement of an eyeball when the subject views the image.
  • Patent Document 2 discloses a system for predicting the severity of dementia by analyzing free conversation.
  • Patent Document 1 and Patent Document 2 do not disclose or suggest any description considering the condition of the subject.
  • An object of the present disclosure is to provide an information processing device, a control method, and a storage medium that can suitably execute the estimation of the intellectual ability of the subject or the output of information on the intellectual ability in view of the above-mentioned problems.
  • One aspect of the information processing device is The first acquisition method for acquiring the measurement result of the intellectual ability of the person to be measured, A second acquisition means for acquiring the estimation result of the inner surface state of the measurement target person having an influence on the measurement of the intellectual ability, and An estimation means for estimating the intellectual ability based on the measurement result of the intellectual ability and the estimation result of the inner surface state, and an estimation means. It is an information processing device having.
  • control method By computer Acquire the measurement result of the intellectual ability of the person to be measured, Obtain the estimation result of the inner surface state of the person to be measured, which affects the measurement of the intellectual ability. It is a control method that estimates the intellectual ability based on the measurement result of the intellectual ability and the estimation result of the inner surface state.
  • the "computer” includes any electronic device (which may be a processor included in the electronic device), and may be composed of a plurality of electronic devices.
  • One aspect of the storage medium is Acquire the measurement result of the intellectual ability of the person to be measured, Obtain the estimation result of the inner surface state of the person to be measured, which affects the measurement of the intellectual ability. It is a storage medium in which a program for causing a computer to execute a process of estimating the intellectual ability based on the measurement result of the intellectual ability and the estimation result of the inner surface state is stored.
  • the schematic configuration of the cognitive function test system which concerns on 1st Embodiment is shown.
  • the hardware configuration of the information processing device is shown.
  • This is an example of a functional block of an information processing device. It is a graph which showed the relationship between cognitive function and arousal degree by age. It is a figure which shows the outline of the calculation of the cognitive function estimation score.
  • This is an example of the inspection result screen in the first embodiment.
  • This is an example of a flowchart showing a procedure of processing executed by the information processing apparatus in the first embodiment.
  • the schematic configuration of the cognitive function test system which concerns on the 1st modification is shown.
  • the schematic configuration of the cognitive function test system in the second modification is shown. It is a functional block diagram of the information processing apparatus in 2nd Embodiment.
  • the schematic block diagram of the information processing apparatus in 3rd Embodiment is shown.
  • the schematic block diagram of the information processing apparatus in 4th Embodiment is shown.
  • System Configuration Figure 1 shows a schematic configuration of the cognitive function test system 100 according to the first embodiment.
  • the cognitive function test system 100 performs a test related to the cognitive function of the measurement target person 9 (also referred to as a “cognitive function test”), and presents the test result to the user.
  • the cognitive function test system 100 mainly includes an information processing device 1, a camera (imaging means) 2, and a display device 3.
  • the information processing device 1 performs data communication with the camera 2 and the display device 3 by communication via a communication network or direct communication by wireless or wired. Then, the information processing apparatus 1 performs a simple cognitive function test on the measurement target person 9 based on the captured image "S1" supplied from the camera 2. Further, the information processing device 1 generates a display signal "S2" based on the test result regarding the cognitive function of the measurement target person 9, and supplies the generated display signal S2 to the display device 3.
  • the information processing device 1 may be a personal computer, or may be a mobile terminal such as a smartphone integrally configured with the camera 2 and the display device 3.
  • the camera 2 generates a captured image S1 and supplies the generated captured image S1 to the information processing device 1.
  • the camera 2 may be a camera built in the information processing device 1.
  • the display device 3 displays predetermined information based on the display signal S2 supplied from the information processing device 1.
  • the display device 3 is, for example, a display or a projector.
  • the configuration of the cognitive function test system 100 shown in FIG. 1 is an example, and various changes may be made to the configuration.
  • the cognitive function test system 100 may further include an input device (including a voice input device) that accepts user input by the measurement target person 9, or the like, or a sound output device that outputs guidance, warning sounds, and the like.
  • the information processing device 1 may be composed of a plurality of devices. In this case, the plurality of devices constituting the information processing device 1 exchange information necessary for executing the pre-assigned process among the plurality of devices. In this case, the information processing apparatus 1 functions as an information processing system.
  • FIG. 2 shows a hardware configuration of the information processing device 1.
  • the information processing device 1 includes a processor 11, a memory 12, and an interface 13 as hardware.
  • the processor 11, the memory 12, and the interface 13 are connected via the data bus 19.
  • the processor 11 functions as a controller (arithmetic unit) that controls the entire information processing device 1 by executing a program stored in the memory 12.
  • the processor 11 is, for example, a processor such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a TPU (Tensor Processing Unit), or a quantum processor.
  • the processor 11 may be composed of a plurality of processors.
  • the processor 11 is an example of a computer.
  • the memory 12 is composed of various volatile memories such as RAM (Random Access Memory), ROM (Read Only Memory), and flash memory, and non-volatile memory. Further, the memory 12 stores a program for executing the process executed by the information processing apparatus 1. Further, for example, the memory 12 contains information on parameters used for estimation of cognitive function and estimation of a specific inner surface state, respectively. A part of the information stored in the memory 12 may be stored by one or a plurality of external storage devices that can communicate with the information processing device 1, and is stored by a storage medium that can be attached to and detached from the information processing device 1. You may.
  • the above-mentioned external storage device may be a server device that performs data communication with the information processing device 1.
  • the interface 13 is an interface for electrically connecting the information processing device 1 and another device.
  • These interfaces may be wireless interfaces such as network adapters for wirelessly transmitting and receiving data to and from other devices, and may be hardware interfaces for connecting to other devices by cables or the like.
  • the hardware configuration of the information processing device 1 is not limited to the configuration shown in FIG.
  • the information processing device 1 may include at least one of the camera 2 and the display device 3.
  • the information processing apparatus 1 roughly estimates the cognitive function and the inner surface state that affects the measurement of the cognitive function for the measurement target person 9, and based on these measurement results and the estimation results, the measurement target.
  • the cognitive function of person 9 is estimated.
  • the information processing device 1 displays information on the estimation result of the cognitive function of the measurement target person 9 on the display device 3.
  • FIG. 3 is an example of a functional block of the information processing apparatus 1.
  • the processor 11 of the information processing device 1 includes a cognitive function measuring unit 14, an internal state estimation unit 15, a cognitive function estimation unit 16, and an output control unit 17.
  • the blocks in which data is exchanged are connected by a solid line, but the combination of blocks in which data is exchanged is not limited to FIG. The same applies to the figures of other functional blocks described later.
  • the cognitive function measurement unit 14 measures the cognitive function based on the captured image S1 supplied from the camera 2 via the interface 13, and supplies the measurement results to the cognitive function estimation unit 16 and the output control unit 17, respectively. In this case, the cognitive function measurement unit 14 calculates the score related to the cognitive function of the measurement target person 9 (also referred to as “cognitive function measurement score Sm”) as the above measurement result based on the captured image S1.
  • the cognitive function measurement score Sm is, for example, a comprehensive score (total score) relating to the cognitive function of the measurement target person 9.
  • the cognitive function measurement score Sm may further include a cognitive ability score for each function (also referred to as a "function-specific score") in addition to the above-mentioned total score.
  • the functional score is, for example, a score for each of language comprehension, perceptual integration, working memory, and processing speed.
  • the cognitive function measuring unit 14 first supplies the captured image S1 to the display device 3 via the interface 13 to display a predetermined inspection screen on the display device 3. Then, the cognitive function measurement unit 14 moves the eyeball (including the sclera, iris, and pupil) of the measurement target person 9 based on the photographed image S1 in which the measurement target person 9 is visually recognizing the screen. To analyze. As a result, the cognitive function measurement unit 14 calculates the cognitive function measurement score Sm obtained by scoring the cognitive function of the measurement target person 9.
  • a technique for scoring a subject's cognitive function by image analysis of the subject's eyeball movement is disclosed in, for example, Patent Document 1.
  • the inner surface state estimation unit 15 estimates the inner surface state at the time of measurement of the cognitive function of the measurement target person 9 based on the captured image S1 supplied from the camera 2, and the estimation result is the cognitive function estimation unit 16 and the output control unit. Supply to 17 respectively.
  • the internal state to be estimated is the internal state of the measurement target person 9, which has an influence on the measurement of the cognitive function and has a short-term fluctuation.
  • the inner surface state estimation unit 15 estimates the arousal degree, which is an index representing the inner surface state that has an influence on the measurement of the cognitive function and has a short-term fluctuation.
  • the inner surface state estimation unit 15 analyzes the captured image S1 to recognize the movement or facial expression of the eyelid of the measurement target person 9, and based on the recognition result, the score of the measurement target person 9 at the time of measurement of the cognitive function. Estimate the degree of arousal.
  • the internal state estimation unit 15 uses the degree of stress, the degree of drowsiness, the degree of pulse (heart rate), the degree of concentration, the emotion, or the degree of alcohol contained in the measurement target 9 in place of the arousal degree. You may estimate. In this case, as the above-mentioned "emotion", for example, the internal state estimation unit 15 may estimate which of the plurality of pre-classified emotions the emotion of the measurement target 9 corresponds to.
  • the cognitive function measurement unit 14 and the inner surface state estimation unit 15 may calculate the cognitive function measurement score Sm and the arousal degree by using an inference device learned in advance based on machine learning such as deep learning. ..
  • the inference device used by the cognitive function measuring unit 14 uses a predetermined number of images of the measurement target person as input data, and the correct answer data is the score of the measurement target person's cognitive function at the time of shooting the image. It is a model of machine learning learned as.
  • the score of the cognitive function as the correct answer data may be specified based on an arbitrary cognitive function test method.
  • the inference device used by the inner surface state estimation unit 15 is a machine learned by using a predetermined number of images of the measurement target person as input data and the arousal degree of the measurement target person at the time of shooting the image as correct answer data. It becomes a model of learning.
  • the arousal degree as the correct answer data may be one measured by a sensor or may be estimated based on a questionnaire or the like.
  • the parameters of the inferior obtained by learning are stored in advance in the memory 12 or the like.
  • the memory 12 has a layer structure, a neuron structure of each layer, a number of filters and a filter size in each layer, a weight of each element of each filter, and the like. Various parameters of are stored.
  • the cognitive function estimation unit 16 is based on the measurement result of the cognitive function of the measurement target person 9 by the cognitive function measurement unit 14 and the estimation result of the arousal degree of the measurement target person 9 by the internal state estimation unit 15. Estimate cognitive function. Specifically, the cognitive function estimation unit 16 corrects the cognitive function measurement score Sm, which is the measurement result of the cognitive function of the measurement target person 9, based on the estimated arousal degree.
  • the score of the cognitive function corrected by the cognitive function measurement score Sm is also referred to as "cognitive function estimation score Se".
  • the specific calculation method of the cognitive function estimation score Se will be described in detail in the section “(1-4) Calculation of cognitive function estimation score ”.
  • the cognitive function estimation unit 16 supplies the cognitive function estimation score Se, which is the estimation result of the cognitive function of the measurement target person 9, to the output control unit 17.
  • the cognitive function estimation unit 16 corrects these based on the estimated arousal degree. May be good. In this case, the cognitive function estimation unit 16 calculates the estimated value of the total score of the cognitive function and the estimated value of each of the functional scores as the cognitive function estimated score Se.
  • the output control unit 17 displays the test results related to the cognitive function of the measurement target person 9 based on the estimation results or measurement results supplied from the cognitive function measurement unit 14, the internal state estimation unit 15, and the cognitive function estimation unit 16, respectively. Displayed on the device 3. In this case, the output control unit 17 generates a display signal S2 based on the above estimation result and measurement result, and supplies the generated display signal S2 to the display device 3 via the interface 13.
  • the information to be displayed on the display device 3 will be described later in "(1-5) Inspection result screen ".
  • the viewer of the information displayed on the display device 3 may be, for example, the measurement target person 9 or a medical person who makes a diagnosis for the measurement target person 9.
  • Each component of the cognitive function measuring unit 14, the internal state estimation unit 15, the cognitive function estimation unit 16, and the output control unit 17 described with reference to FIG. 3 can be realized, for example, by the processor 11 executing a program. Further, each component may be realized by recording a necessary program in an arbitrary non-volatile storage medium and installing it as needed. It should be noted that at least a part of each of these components is not limited to being realized by software by a program, but may be realized by any combination of hardware, firmware, and software. Further, at least a part of each of these components may be realized by using a user-programmable integrated circuit such as an FPGA (Field-Programmable Gate Array) or a microcontroller.
  • FPGA Field-Programmable Gate Array
  • this integrated circuit may be used to realize a program composed of each of the above components. Further, at least a part of each component may be configured by an ASIC (Application Specific Standard Produce) or an ASIC (Application Specific Integrated Circuit). As described above, each of the above-mentioned components may be realized by various hardware. Further, each of these components may be realized by the collaboration of a plurality of computers by using, for example, cloud computing technology. The above is the same in other embodiments described later.
  • the cognitive function estimation unit 16 corrects the cognitive function measurement score Sm based on the degree of exertion of the cognitive function of the measurement target person 9, which is estimated based on the arousal degree estimated by the internal state estimation unit 15.
  • the function estimation score Se is calculated.
  • the cognitive function estimation unit 16 outputs the estimation result of the cognitive function that does not depend on the arousal degree at the time of measurement of the measurement target person 9.
  • FIG. 4 is a diagram showing the relationship between the cognitive function score and the arousal level by age group.
  • FIG. 4 shows graphs 50 to 52 showing the relationship between the cognitive function score and the arousal level of a general healthy person without cognitive impairment on two-dimensional coordinates for each of the 50s, 70s, and 90s. There is. Further, on each of these two-dimensional coordinates, the cognitive function of a healthy person and a cognitively impaired person when the arousal degree is "Da1" to "Da3", “Db1" to "Db3", and "Dc1" to "Dc3". The scores are plotted respectively.
  • the cognitive impairment person includes a patient with mild cognitive impairment (MCI: Mild Cognitive Impairment) and a patient with dementia.
  • MCI Mild Cognitive Impairment
  • the degree of exertion of cognitive function differs depending on the degree of arousal in any age group. For example, in the fifties, the cognitive function of a healthy person when the arousal degree is "Da1" or “Da3" is lower than the cognitive function of a healthy person when the arousal degree is "Da2". In other words, when the arousal degree is "Da1" or “Da3", the degree of exertion of the cognitive function is lower than when the arousal degree is "Da2".
  • the cognitive function score of a healthy person when the degree of cognitive function is low (for example, "Da1") is the cognition when the degree of cognitive function is high (for example, “Da2"). It may be lower than the cognitive function score of the disabled.
  • the measured cognitive function score depends on the degree of arousal at the time of measurement.
  • the measured cognitive function score depends on the degree of arousal at the time of measurement. This tendency is consistent with Yerkes-Dodson's law, which indicates that performance is highest at moderate arousal levels.
  • the cognitive function estimation unit 16 corrects the cognitive function measurement score Sm based on the arousal degree at the time of measurement of the cognitive function measurement score Sm of the measurement target person 9. Specifically, the cognitive function estimation unit 16 estimates the degree of cognitive function exertion when compared with the reference arousal degree based on the estimated arousal degree at the time of measurement of the cognitive function measurement score Sm. , The cognitive function measurement score Sm is corrected according to the degree of exertion.
  • FIG. 5 is a diagram showing an outline of calculation of the cognitive function estimation score Se by the cognitive function estimation unit 16.
  • FIG. 5 shows a graph 53 showing the relationship between the degree of arousal and the cognitive function score.
  • This graph 53 is a statistical model calculated by applying a statistical method such as regression analysis to a sample of a plurality of combinations of a cognitive function score and an arousal degree measured for a plurality of subjects, for example. ..
  • graph 53 is a statistical calculation calculated by applying a statistical method such as regression analysis to a sample of multiple combinations of cognitive function scores and arousal measured multiple times for the same subject. Model may be.
  • the cognitive function estimation unit 16 has a reference arousal degree “Dtag” which is a reference arousal degree based on the relationship shown in the graph 53, the cognitive function measurement score Sm, and the arousal degree estimated at the time of measuring the score.
  • the cognitive function score exhibited in the above is estimated as the cognitive function estimation score Se.
  • the reference arousal degree “Dtag” is set as, for example, the arousal degree when the cognitive function score is most exerted in the relationship shown in the graph 53.
  • the cognitive function estimation unit 16 determines the arousal degree Dx and the reference arousal degree Dtag in the graph 53.
  • the cognitive function measurement score Sm is corrected based on the difference or ratio of the cognitive function score with.
  • the cognitive function estimation unit 16 calculates the cognitive function estimation score Se as a value obtained by adding the above difference to the cognitive function measurement score Sm or dividing by the above ratio (here, less than 1).
  • the cognitive function estimation unit 16 divides the cognitive function measurement score Sm by "0.7” to obtain the cognitive function estimation score. Calculated as Se.
  • the cognitive function estimation unit 16 determines the difference or ratio of the cognitive function scores between the arousal degree Dy and the reference arousal degree Dtag in the graph 53. Based on, the cognitive function measurement score Sm is corrected.
  • a look-up table showing the above difference or ratio for each degree of arousal that can be estimated by the inner surface state estimation unit 15 is stored in the memory 12 or the like. Then, the cognitive function estimation unit 16 calculates the cognitive function estimation score Se by specifying the above-mentioned difference or ratio with reference to this look-up table. In another example, the cognitive function estimation unit 16 uses an equation for obtaining the above-mentioned difference or ratio from the arousal degree, and specifies the above-mentioned difference or ratio from the arousal degree estimated by the internal state estimation unit 15, thereby cognitive recognition. The function estimation score Se may be calculated.
  • the cognitive function estimation unit 16 takes the cognitive function measurement score Sm and the estimated arousal as input values, and directly obtains the corrected cognitive function estimation score Se based on the above difference or ratio.
  • the cognitive function estimation score Se may be obtained using the uptable.
  • the cognitive function estimation unit 16 is a machine such as deep learning so as to infer the cognitive function estimation score Se when the cognitive function measurement score Sm and the estimated arousal degree are input instead of the formula or the lookup table.
  • the cognitive function estimation score Se may be obtained by using the inference device learned by learning.
  • the cognitive function estimation unit 16 may calculate the cognitive function estimation score Se in consideration of the age of the measurement target person 9. As shown in FIG. 4, the relationship between the arousal degree and the cognitive function generally differs depending on the age of the measurement subject 9. Therefore, the statistical relationship between the cognitive function score corresponding to the graph 53 and the arousal degree is calculated for each predetermined age group, and based on this statistical relationship, the above-mentioned look-up table, formula, or the above-mentioned lookup table, formula, or is used for each age group.
  • the inferior may be stored in the memory 12.
  • the cognitive function estimation unit 16 or another processing unit estimates the age of the measurement target person 9 by performing an age estimation process for analyzing the face and the like of the measurement target person 9 on the captured image S1.
  • the cognitive function estimation unit 16 can refer to the attribute information.
  • the age of the measurement target person 9 may be specified.
  • FIG. 6 is an example of an inspection result screen displayed on the display device 3 by the output control unit 17 in the first embodiment.
  • the 78-year-old "Nippon Taro" is the measurement target person 9.
  • the output control unit 17 generates a display signal S2 based on the information supplied from the cognitive function measurement unit 14, the inner surface state estimation unit 15, and the cognitive function estimation unit 16, and supplies the display signal S2 to the display device 3.
  • the inspection result screen shown in FIG. 6 is displayed on the display device 3.
  • the output control unit 17 mainly provides a score display field 60, a function-specific score request button 61, and a remarks display field 62 on the test result screen.
  • the output control unit 17 displays the "cognitive function score (estimated value)" representing the comprehensive cognitive function estimated for the measurement target person 9 in the score display field 60, and also displays the “cognitive function” as a reference value. "Score (measured value)”, “awakening degree”, and “normal value” are displayed.
  • the output control unit 17 displays the cognitive function estimation score Se (here, a score of 30 stages) estimated by the cognitive function estimation unit 16 as the “cognitive function score (estimated value)”. Further, the output control unit 17 displays a score (here, 4) representing the arousal degree estimated by the inner surface state estimation unit 15 in 10 stages as the “awakening degree”.
  • the output control unit 17 displays the range of the cognitive function score (here, 26 or more out of 30 stages) stored in advance in the memory 12 or the like as a "normal value” and can be regarded as a healthy person. There is.
  • the value presented as the "normal value” may be a value that fluctuates according to the age group of the measurement target person 9.
  • the function-specific score request button 61 is a button for instructing the display of the function-specific score for each cognitive function of the measurement target person 9, and when the output control unit 17 detects that the function-specific score request button 61 is selected. , The score for each function of the measurement target person 9 is displayed. In this case, the output control unit 17 displays, for example, an estimated value of the score for each function for each cognitive function such as language comprehension, perceptual integration, working memory, and processing speed on the test result screen.
  • the remarks display column 62 is a column for displaying a comment on the cognitive function estimation score Se of the measurement target person 9.
  • the output control unit 17 since the cognitive function estimation score Se of the measurement target 9 is out of the normal value range, the output control unit 17 is suspected of having mild cognitive impairment and should undergo a more detailed examination. Notification (warning) is displayed on the remarks display column 62.
  • the output control unit 17 determines the text information to be displayed in the remarks display column 62 based on the cognitive function estimation score Se. For example, a table in which the cognitive function estimation score Se and the text information to be displayed in the remarks display column 62 are associated with each other is stored in the memory 12 or the like, and the output control unit 17 refers to the table and the cognitive function estimation score. From Se, the text information to be displayed in the remarks display field 62 is determined.
  • the output control unit 17 can suitably present to the viewer the cognitive function estimation score Se that does not depend on the short-term internal state of the measurement target person 9.
  • the output control unit 17 can suitably present to the viewer various scores related to cognitive functions other than the cognitive function estimated score Se and comments related to cognitive impairment.
  • FIG. 7 is an example of a flowchart showing a procedure of processing executed by the information processing apparatus 1 in the first embodiment.
  • the information processing apparatus 1 repeatedly executes the processing of the flowchart shown in FIG. 7.
  • the information processing apparatus 1 acquires the captured image S1 generated by the camera 2 (step S11).
  • the information processing apparatus 1 detects that a person exists in the shooting range of the camera 2, the information processing apparatus 1 acquires a shot image S1 shot with the person as the measurement target person 9.
  • the information processing apparatus 1 may acquire the captured image S1 generated by the camera 2 at the timing specified by the user input.
  • the user input may be an input based on an operation on the input device, or may be a voice input.
  • the cognitive function measuring unit 14 of the information processing apparatus 1 measures the cognitive function based on the captured image S1 acquired in step S11, and the internal surface state estimation unit 15 of the information processing apparatus 1 awakens based on the captured image S1.
  • the degree is estimated (step S12).
  • the cognitive function measurement unit 14 calculates the cognitive function measurement score Sm, and the internal state estimation unit 15 calculates the estimated value of the arousal degree.
  • the processing of the cognitive function measuring unit 14 and the processing of the internal state estimation unit 15 are in no particular order, and either of them may be executed first or may be executed at the same time.
  • the cognitive function estimation unit 16 estimates the cognitive function based on the measurement result of the cognitive function and the estimation result of the arousal degree in step S12 (step S13).
  • the cognitive function estimation unit 16 is based on the cognitive function measurement score Sm calculated by the cognitive function measurement unit 14 and the estimated value of the arousal degree calculated by the inner surface state estimation unit 15, and the state of the measurement target person 9 (so-called so-called).
  • the cognitive function estimation score Se that does not depend on the condition) is calculated.
  • the output control unit 17 causes the display device 3 to display the estimation result of the cognitive function (step S14).
  • the output control unit 17 generates the display signal S2 based on the cognitive function estimation score Se or the like calculated in step S13, and supplies the display signal S2 to the display device 3 via the interface 13.
  • the output control unit 17 causes the display device 3 to display the inspection result screen or the like as shown in FIG.
  • the information processing apparatus 1 corrects the cognitive function measurement score Sm based on the arousal degree at the time of the examination of the measurement target person 9. As a result, the information processing apparatus 1 can suitably calculate the cognitive function estimation score Se that does not depend on the internal state of the measurement target person 9 that changes in a short period of time.
  • the information processing apparatus 1 may measure the cognitive function of the measurement target person 9 and estimate the inner surface state that affects the measurement based on the information other than the image of the measurement target person 9.
  • FIG. 8 shows a schematic configuration diagram of the cognitive function test system 100A according to the first modification.
  • the cognitive function test system 100A shown in FIG. 8 has a sensor 5 and an input device 6.
  • the sensor 5 is, for example, a wearable sensor that can be freely worn by the measurement target person 9, measures the biological signal or the like of the measurement target person 9, and supplies the measured biological signal or the like to the information processing device 1A as the sensor signal S3.
  • the sensor signal S3 is an arbitrary biological signal (including vital information) such as the subject's heartbeat, electroencephalogram, sweating amount, hormone secretion amount, cerebral blood flow, blood pressure, body temperature, myoelectricity, and respiratory rate. May be good.
  • the sensor 5 may be a device that analyzes blood collected from the subject and outputs a sensor signal S3 indicating the analysis result.
  • the sensor 5 may be a device for performing body measurement such as a jump for measuring body fatigue or the like.
  • the input device 6 is an interface that accepts user input (manual input) of information about each target person, and receives, for example, input of information necessary for measuring cognitive function or estimating internal state (for example, answering a questionnaire).
  • the input device 6 may be various user input interfaces such as a touch panel, a button, a keyboard, a mouse, and a voice input device.
  • the input device 6 supplies the input signal "S4" generated based on the user's input to the information processing device 1.
  • the information processing device 1A has the same hardware configuration (see FIG. 1) and functional configuration (see FIG. 3) as the information processing device 1. Then, the cognitive function measuring unit 14 of the information processing apparatus 1A measures the cognitive function of the measurement target person 9 based on the sensor signal S3 or the input signal S4. Further, the inner surface state estimation unit 15 of the information processing apparatus 1A estimates the inner surface state of the measurement target person 9 based on the sensor signal S3 or the input signal S4. In this case, the internal state estimation unit 15 is, for example, the degree of arousal, the degree of stress, the degree of drowsiness, the pulse (heart rate), the concentration, the emotion, or the degree of alcohol collected by the measurement subject 9. Is calculated as the estimation result of the inner surface state.
  • the degree of stress, the degree of drowsiness, the pulse (heart rate), the concentration, the emotion, or the degree of alcohol collected by the measurement subject 9 are the same as the relationship between the arousal degree and the cognitive function score shown in FIG.
  • the degree of exertion of the cognitive function of the measurement subject differs depending on the index (score) indicating the inner state.
  • the cognitive function measuring unit 14 measures the cognitive function by analyzing the utterance content of the measurement target person 9 based on the audio signal.
  • a technique for measuring cognitive function by analyzing free conversation is disclosed in, for example, Patent Document 2.
  • the cognitive function measuring unit 14 measures the cognitive function based on the information indicating the answer. conduct.
  • MMSE Mini-Mental State Examination
  • the cognitive function estimation unit 16 estimates the cognitive function based on the measurement result of the cognitive function by the cognitive function measurement unit 14 and the estimation result of the inner surface state by the inner surface state estimation unit 15.
  • the degree of arousal, the degree of stress, the degree of drowsiness, the pulse (heart rate), the degree of concentration, the emotion, or the degree of alcohol collected by the measurement subject 9, etc. estimated by the internal state estimation unit 15 are as described above.
  • the cognitive function estimation unit 16 corrects the cognitive function measurement score Sm calculated by the cognitive function measurement unit 14 with the estimated value of the internal surface state estimated by the internal surface state estimation unit 15.
  • the cognitive function estimation unit 16 can suitably calculate the cognitive function estimation score Se that does not depend on the state of the measurement target person 9, as in the first embodiment.
  • the information processing apparatus 1A measures the cognitive function of the measurement target person 9 and estimates the inner surface state that affects the measurement even when the information other than the image obtained by capturing the measurement target person 9 is used. Can be preferably carried out.
  • the information processing apparatus 1A may acquire the measurement result of the cognitive function and the estimation result of the inner surface state manually input by the user as the input signal S4.
  • the cognitive function estimation unit 16 of the information processing apparatus 1A calculates the cognitive function estimation score Se based on the cognitive function score indicated by the input signal S4 and the estimated value of the inner surface state.
  • the information processing apparatus 1A can suitably perform estimation of the cognitive function that does not depend on the internal state of the measurement subject 9 that changes in a short period of time.
  • the information processing device 1 may function as a server in the server-client model.
  • FIG. 9 shows a schematic configuration of the cognitive function test system 100B in the second modification.
  • the cognitive function test system 100B mainly includes an information processing device 1B for performing data communication via a network (communication network) 7 and a terminal device 8.
  • the cognitive function test system 100B according to the second modification is a server-client model system, the information processing device 1B functions as a server device, and the terminal device 8 functions as a client terminal.
  • the terminal device 8 is a terminal having an input function, a display function, and a communication function, and functions as the display device 3 shown in FIG.
  • the terminal device 8 may be, for example, a personal computer, a tablet terminal, a PDA (Personal Digital Assistant), or the like.
  • the terminal device 8 supplies the captured image S1 shown in FIG. 1 or the sensor signal S3 and the input signal S4 shown in FIG. 8 to the information processing device 1B.
  • the information processing device 1B has the same hardware configuration (see FIG. 1) and functional configuration (see FIG. 3) as the information processing device 1 or the information processing device 1A. Then, the information processing apparatus 1B is a cognitive function measuring unit 14, an internal surface state estimation unit 15, a cognitive function estimation unit 16 and an output control unit 17 shown in FIG. 3 based on the information received from the terminal device 8 via the network 7. Execute each process. Then, the information processing device 1B transmits a display signal S2 indicating the estimation result of the cognitive function or the like to the terminal device 8 via the network 7.
  • the information processing apparatus 1B preferably executes the estimation of the cognitive function independent of the internal state of the measurement target person 9 which changes in a short period of time, and also provides information on the estimation result and the like to the terminal apparatus 8. It can be preferably presented to the user.
  • the output control unit 17 may output a voice output indicating the estimation result of the cognitive function estimation unit 16 to a sound output device such as a speaker.
  • the output control unit 17 generates, for example, a voice signal for notifying the cognitive function estimation score Se and the like, and supplies the voice signal to the sound output device via the interface 13, so that the cognitive function estimation score is scored.
  • the sound output device execute audio output such as Se.
  • the output control unit 17 can suitably notify the user of information regarding the result of the cognitive function test.
  • the cognitive function test system 100 determines the suitability of the cognitive function test based on the estimation result of the internal state, and displays according to the determination result. It is different from the inspection system 100.
  • the same components as those in the first embodiment will be appropriately designated with the same reference numerals, and the description thereof will be omitted.
  • FIG. 10 shows a functional block diagram of the information processing apparatus 1C according to the second embodiment.
  • the information processing device 1C has the hardware configuration shown in FIG. 2, and the processor 11 of the information processing device 1A functionally has a cognitive function measuring unit 14, an internal state estimation unit 15, and a cognitive function estimation unit 16. And an output control unit 17C and a determination unit 18C.
  • the determination unit 18C determines the suitability of the cognitive function test of the measurement target person 9 based on the estimation result of the internal surface state of the measurement target person 9 (hereinafter, referred to as the arousal degree as an example) by the internal surface state estimation unit 15. In other words, the determination unit 18C determines whether or not the measurement target person 9 is in a state suitable for a cognitive function test (measurement of cognitive function). In this case, for example, the determination unit 18C determines that the measurement target person 9 can appropriately measure the cognitive function when the arousal degree estimated by the inner surface state estimation unit 15 is in a predetermined range. ..
  • the determination unit 18C determines that the measurement target person 9 cannot appropriately measure the cognitive function.
  • the "predetermined range” is a range of arousal degree suitable for exerting the cognitive function by the measurement target person 9, and is stored in advance in, for example, a memory 12.
  • the "predetermined range” may be determined based on the difference or ratio of the cognitive function score from the reference arousal degree Dtag, and the arousal degree such that the estimation error of the cognitive function estimation score Se is within the permissible range. It may be set to be in the range of. Then, the determination unit 18C supplies the determination result regarding the suitability of the cognitive function test of the measurement target person 9 to the output control unit 17C.
  • the output control unit 17C uses the measurement result generated by the cognitive function measurement unit 14, the estimation result generated by the inner surface state estimation unit 15, the estimation result generated by the cognitive function estimation unit 16, and the determination result of the determination unit 18C. Based on this, the display signal S2 is generated. Then, the output control unit 17C supplies the generated display signal S2 to the display device 3 via the interface 13. As a result, the output control unit 17C causes the display device 3 to display a test result screen including the content of notification to the user regarding the suitability of the cognitive function test. A specific example of the inspection result screen in the second embodiment will be described later with reference to FIG.
  • FIG. 11 is an example of an inspection result screen displayed on the display device 3 by the output control unit 17C in the second embodiment.
  • the output control unit 17C supplies the display signal S2 generated based on the information supplied from the cognitive function measurement unit 14, the inner surface state estimation unit 15, the cognitive function estimation unit 16 and the determination unit 18C to the display device 3, and the figure shows the figure.
  • the inspection result screen shown in 6 is displayed on the display device 3.
  • the output control unit 17A mainly provides a notification display field 63 and a score display field 64 on the inspection result screen.
  • the output control unit 17C displays the content based on the determination result by the determination unit 18C on the notification display field 63.
  • the output control unit 17C detects that the test inappropriateness has been determined based on the determination result supplied from the determination unit 18C, and the current state of the measurement target person 9 is inappropriate for the cognitive function test. A warning to that effect and a warning that the cognitive function test should be re-executed after a while is displayed in the notification display column 63.
  • the output control unit 17C When the output control unit 17C detects that the appropriateness of the inspection has been determined based on the determination result supplied from the determination unit 18C, for example, the current state of the measurement target person 9 is used for the cognitive function test. A notice to the effect that it is suitable may be displayed in the notice display field 63. In another example, the output control unit 17C may provide the notification display field 63 on the inspection result screen only when the determination unit 18C determines that the inspection is inappropriate.
  • the output control unit 17C displays each score related to the cognitive function and the internal state (here, the degree of arousal) in the score display column 64. Specifically, “cognitive function score (measured value)”, “awakening degree”, “cognitive function score (estimated value)” and “cognitive function score (estimated value)” which are the same kind of scores as various scores displayed in the score display column 60 of FIG. "Normal value” is displayed respectively.
  • the cognitive function estimation score Se is not calculated because the test is determined to be unsuitable. Therefore, the output control unit 17C hides the cognitive function estimation score Se that should be displayed in the “cognitive function score (estimated value)”.
  • the output control unit 17C determines that fact and the necessity of retrying the cognitive function test. It is possible to preferably notify the user.
  • FIG. 12 is an example of a flowchart showing a procedure of processing executed by the information processing apparatus 1C in the second embodiment.
  • the information processing apparatus 1C repeatedly executes the processing of the flowchart shown in FIG.
  • the information processing apparatus 1C acquires the captured image S1 generated by the camera 2 (step S21). Then, the cognitive function measuring unit 14 of the information processing apparatus 1 measures the cognitive function based on the captured image S1 acquired in step S21, and the internal surface state estimation unit 15 of the information processing apparatus 1 awakens based on the captured image S1. The degree is estimated (step S22).
  • the determination unit 18C determines whether or not the inner surface state of the measurement target person 9 is suitable for the inspection based on the arousal degree estimated in step S22 (step S23). Then, when the determination unit 18C determines that the internal surface state of the measurement target person 9 is a state suitable for inspection (step S23; Yes), the information processing apparatus 1C is in step S13 of FIG. 7 described in the first embodiment. And the same process as in step S14. That is, the cognitive function estimation unit 16 estimates the cognitive function based on the measurement result of the cognitive function and the estimation result of the arousal degree in step S22 (step S24). Then, the output control unit 17C causes the display device 3 to display the estimation result of the cognitive function (step S25).
  • the output control unit 17C outputs a warning regarding the cognitive function test (step S26).
  • the output control unit 17C causes the display device 3 to display an inspection result screen including the notification display field 63, as shown in FIG.
  • the output control unit 17C can suitably notify the viewer that the result of the cognitive function test has not been appropriately obtained when the cognitive function test is performed in an unsuitable condition.
  • the information processing apparatus 1C may estimate the cognitive function in step S24 regardless of the determination result in step S23, and display the cognitive function estimation score Se in step S26. Even in this case, the information processing apparatus 1C can output a warning regarding the test in step S26 so that the viewer can suitably recognize that the displayed cognitive function estimation score Se is unreliable. ..
  • the measured cognitive function depends on the internal state such as the arousal degree of the measurement target person 9 at the time of measurement, and is the measurement target at the time of measurement.
  • the cognitive function may be measured lower than the original ability, and in such a state of the person 9 to be measured, the reliability of the cognitive function test may be low.
  • the information processing apparatus 1C determines whether or not the measurement target person is in a state suitable for measuring the intellectual ability based on the arousal degree, and the result of the determination is used. Based on this, it outputs a notification regarding the reliability of measurement of cognitive function. This makes it possible to preferably encourage the measurement subject 9 to undergo a cognitive function test under suitable conditions.
  • the output control unit 17C relates to the fact that the measurement subject 9 is not in a state suitable for the cognitive function test and the necessity of re-examination. Sound output may be performed.
  • the output control unit 17C may output the voice of the text sentence displayed in the notification display field 63 to the sound output device, or may output a predetermined warning sound or the like to the sound output device.
  • the output control unit 17C can suitably notify the user that the measurement target person 9 is not in a state suitable for the cognitive function test and the necessity of the retest.
  • the information processing apparatus 1C does not have to have the cognitive function estimation unit 16.
  • a cognitive function measurement score Sm that reflects the original cognitive function of the measurement target person 9 can be obtained.
  • the information processing apparatus 1C sets the cognitive function measurement score Sm as the cognitive function estimation score Se when the determination unit 18C determines that the state of the measurement target person 9 is suitable for the inspection. Deemed, the cognitive function estimation score Se is not calculated by the cognitive function estimation unit 16. Even in this case, the information processing apparatus 1C can suitably present to the user a cognitive function score that is substantially unaffected by a short-term change in the internal state of the measurement target person 9.
  • FIG. 13 shows a schematic configuration diagram of the information processing apparatus 1X according to the third embodiment.
  • the information processing apparatus 1X mainly includes a first acquisition unit 14X, a second acquisition unit 15X, and an estimation unit 16X.
  • the information processing device 1X may be composed of a plurality of devices.
  • the first acquisition means 14X acquires the measurement result of the intellectual ability of the measurement target person.
  • the "measurement result of intellectual ability” is not limited to the measurement result of the ability measured in the examination of cognitive impairment and dementia, but the measurement of the intellectual ability measured in the aptitude test conducted as a part of the entrance examination. Includes results and results of intellectual skills measured by the English proficiency test.
  • the first acquisition means 14X measures the cognitive function in the first embodiment (including the case where the modified example is applied, the same applies hereinafter) or the second embodiment (including the case where the modified example is applied, the same applies hereinafter). It can be part 14.
  • the first acquisition means 14X may acquire the measurement result of the intellectual ability of the measurement target person by receiving the measurement result of the intellectual ability of the measurement target person supplied from another device.
  • the second acquisition means 15X acquires the estimation result of the internal state of the measurement target person who has an influence on the measurement of the intellectual ability.
  • the "internal state of the person to be measured that affects the measurement of intellectual ability” represents one aspect of the internal state of the person to be measured, such as arousal, stress, concentration, emotion, or drowsiness. The ones that fluctuate from time to time are applicable.
  • the second acquisition means 15X can be the inner surface state estimation unit 15 in the first embodiment or the second embodiment. Further, the second acquisition means 15X may acquire the estimation result by receiving the estimation result of the inner surface state of the measurement target person having an influence on the measurement of the intellectual ability from another device.
  • the estimation means 16X estimates the intellectual ability based on the measurement result of the intellectual ability and the estimation result of the internal state.
  • the estimation means 16X can be the cognitive function estimation unit 16 in the first embodiment or the second embodiment.
  • FIG. 14 is an example of a flowchart executed by the information processing apparatus 1X in the third embodiment.
  • the first acquisition means 14X of the information processing apparatus 1X acquires the measurement result of the intellectual ability of the measurement target person (step S31).
  • the second acquisition means 15X acquires the estimation result of the inner surface state of the measurement target person who has an influence on the measurement of the intellectual ability (step S32).
  • the estimation means 16X estimates the intellectual ability based on the measurement result of the intellectual ability and the estimation result of the inner surface state (step S33).
  • the information processing apparatus 1X can suitably execute the estimation of the intellectual ability that does not depend on the state (condition) of the measurement target person.
  • FIG. 15 shows a schematic configuration diagram of the information processing apparatus 1Y according to the fourth embodiment.
  • the information processing apparatus 1Y mainly includes a first acquisition unit 14Y, a second acquisition unit 15Y, and an output control unit 17Y.
  • the information processing device 1Y may be composed of a plurality of devices.
  • the first acquisition means 14Y acquires the measurement result of the intellectual ability of the measurement target person.
  • the first acquisition means 14Y measures the cognitive function in the first embodiment (including the case where the modified example is applied, the same applies hereinafter) or the second embodiment (including the case where the modified example is applied, the same applies hereinafter). It can be part 14. Further, the first acquisition means 14Y may acquire the measurement result of the intellectual ability of the measurement target person by receiving the measurement result of the intellectual ability of the measurement target person supplied from another device.
  • the second acquisition means 15Y acquires the estimation result of the internal state of the measurement target person who has an influence on the measurement of the intellectual ability.
  • the second acquisition means 15Y can be the inner surface state estimation unit 15 in the first embodiment or the second embodiment.
  • the second acquisition means 15Y may acquire the estimation result by receiving the estimation result of the inner surface state of the measurement target person having an influence on the measurement of the intellectual ability from another device.
  • the output control means 17Y displays or sounds about the measurement result of the intellectual ability based on the estimation result of the inner surface state.
  • the "information regarding the measurement result of intellectual ability” may be the cognitive function measurement score Sm, the cognitive function estimation score Se, or both of them in the second embodiment, and the notification text displayed in the notification display column 63 of FIG. May be.
  • Display or sound output is not limited to the mode in which the output control means 17Y displays or outputs sound by itself, and a predetermined control signal is sent to another processing unit in the information processing device 1 or an external device other than the information processing device 1. A mode in which display or sound output is executed by transmission is also included.
  • the output control means 17Y can be the output control unit 17C in the second embodiment.
  • FIG. 16 is an example of a flowchart executed by the information processing apparatus 1Y in the fourth embodiment.
  • the first acquisition means 14Y of the information processing apparatus 1Y acquires the measurement result of the intellectual ability of the measurement target person (step S41).
  • the second acquisition means 15Y acquires the estimation result of the inner surface state of the measurement target person who has an influence on the measurement of the intellectual ability (step S42).
  • the output control means 17Y displays or sounds output information regarding the measurement result of the intellectual ability based on the estimation result of the inner surface state (step S43).
  • the information processing apparatus 1Y preferably obtains information on the measurement result of the intellectual ability of the measurement target person based on the estimation result of the inner surface state of the measurement target person having an influence on the measurement of the intellectual ability. Can be presented to the user.
  • Non-temporary computer-readable media include various types of tangible storage medium.
  • Examples of non-temporary computer-readable media include magnetic storage media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical storage media (eg, magneto-optical disks), CD-ROMs (ReadOnlyMemory), CD-Rs, Includes CD-R / W, semiconductor memory (eg, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (RandomAccessMemory)).
  • the program may also be supplied to the computer by various types of transient computer readable medium.
  • Examples of temporary computer readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • Appendix 1 The first acquisition method for acquiring the measurement result of the intellectual ability of the person to be measured, A second acquisition means for acquiring the estimation result of the inner surface state of the measurement target person having an influence on the measurement of the intellectual ability, and An estimation means for estimating the intellectual ability based on the measurement result of the intellectual ability and the estimation result of the inner surface state, and an estimation means.
  • Information processing device with. [Appendix 2] The second acquisition means, as an estimation result of the inner surface state, arousal degree, pulse rate, drowsiness degree, stress degree, concentration degree, emotion or alcohol degree at the time of measurement of the intellectual ability of the measurement subject.
  • the measurement result of the intellectual ability is a score representing the intellectual ability, and is The information processing apparatus according to Appendix 1 or 2, wherein the estimation means calculates a score obtained by correcting a score representing the intellectual ability based on the estimation result of the inner surface state as the estimation result of the intellectual ability.
  • the first acquisition means generates the measurement result of the cognitive function of the measurement target person as the measurement result of the intellectual ability based on the image generated by the image pickup means that images the measurement target person.
  • the information processing apparatus according to any one of Supplementary note 1 to 4, wherein the second acquisition means generates an estimation result of the inner surface state based on the image.
  • the information processing apparatus according to any one of Supplementary note 1 to 5, further comprising an output control means for displaying or sound outputting the estimation result of the intellectual ability by the estimation means.
  • the output control means displays or sounds output the measurement result of the intellectual ability or at least one of the information representing the normal value of the intellectual ability and the estimation result of the intellectual ability.
  • Appendix 8 Further, it has a determination means for determining whether or not the measurement target person is in a state suitable for measuring the intellectual ability based on the estimation result of the inner surface state.
  • the information processing apparatus according to Appendix 6 or 7, wherein the output control means notifies the measurement of the intellectual ability based on the result of the determination.
  • the estimation means estimates the cognitive function of the measurement target person, and obtains the estimation.
  • the output control means displays or outputs information on the possibility of cognitive impairment of the measurement target person based on the estimation result of the cognitive function and the criteria for cognitive impairment, any one of Supplementary note 6 to 8.
  • Appendix 10 Further having a third acquisition means for acquiring information on the age of the measurement target person, The information processing according to any one of Supplementary note 1 to 9, wherein the estimation means estimates the intellectual ability based on the measurement result of the intellectual ability, the estimation result of the inner surface state, and the information regarding the age. Device.
  • the first acquisition method for acquiring the measurement result of the intellectual ability of the person to be measured A second acquisition means for acquiring an estimation result of the inner surface state, which is the inner surface state of the measurement target person, which affects the measurement of the intellectual ability, and An output control means that displays or outputs information about the measurement result of the intellectual ability based on the estimation result of the inner surface state, and Information processing device with.
  • Appendix 12 It has a determination means for determining whether or not the measurement target person is in a state suitable for measuring the intellectual ability based on the estimation result of the inner surface state.
  • the output control means displays a warning regarding the measurement of the intellectual ability as information regarding the measurement result of the intellectual ability.
  • the information processing apparatus according to Appendix 11, which outputs sound. [Appendix 13] It has a determination means for determining whether or not the measurement target person is in a state suitable for measuring the intellectual ability based on the estimation result of the inner surface state. When it is determined that the measurement target person is in a state suitable for the measurement of the intellectual ability, the output control means can be used as information regarding the measurement result of the intellectual ability.
  • Appendix 14 By computer Acquire the measurement result of the intellectual ability of the person to be measured, Obtain the estimation result of the internal state of the person to be measured, which affects the measurement of the intellectual ability. The intellectual ability is estimated based on the measurement result of the intellectual ability and the estimation result of the inner surface state. Control method.
  • Appendix 15 Acquire the measurement result of the intellectual ability of the person to be measured, Obtain the estimation result of the internal state of the person to be measured, which affects the measurement of the intellectual ability.
  • a storage medium in which a program for causing a computer to execute a process of estimating the intellectual ability based on the measurement result of the intellectual ability and the estimation result of the inner surface state is stored.
  • Appendix 16 By computer Acquire the measurement result of the intellectual ability of the person to be measured, Obtain the estimation result of the inner surface state, which is the inner surface state of the measurement target person, which affects the measurement of the intellectual ability. Based on the estimation result of the inner surface state, information on the measurement result of the intellectual ability is displayed or sound is output. Control method.
  • Appendix 17 Acquire the measurement result of the intellectual ability of the person to be measured, Obtain the estimation result of the inner surface state, which is the inner surface state of the measurement target person, which affects the measurement of the intellectual ability.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

情報処理装置1Xは、主に、第1取得手段14Xと、第2取得手段15Xと、推定手段16Xとを有する。第1取得手段14Xは、計測対象者の知的能力の計測結果を取得する。第2取得手段15Xは、知的能力の計測に影響がある計測対象者の内面状態の推定結果を取得する。推定手段16Xは、知的能力の計測結果と内面状態の推定結果とに基づき、知的能力を推定する。

Description

情報処理装置、制御方法及び記憶媒体
 本開示は、内面状態の推定に関する処理を行う情報処理装置、制御方法及び記憶媒体の技術分野に関する。
 軽度認知障害や認知症を判定するための認知機能検査として、ミニメンタルステート検査などが知られている。また、特許文献1には、画面上に所定の画像を表示し、その画像を対象者が見たときの眼球の動きに基づき、認知機能のスコアを算出するシステムが開示されている。また、特許文献2には、自由会話を解析することによって認知症の重症度を予測するシステムが開示されている。
国際公開WO2018/089852 国際公開WO2020/054186
 認知機能は、加齢によって低下することが知られているが、対象者の状態によっても一時的に低下することがある。しかしながら、特許文献1及び特許文献2には、対象者の状態を考慮する記載については、何ら開示及び示唆がない。
 本開示の目的は、上述した課題を鑑み、対象者の知的能力の推定又は知的能力に関する情報の出力を好適に実行可能な情報処理装置、制御方法及び記憶媒体を提供することである。
 情報処理装置の一の態様は、
 計測対象者の知的能力の計測結果を取得する第1取得手段と、
 前記知的能力の計測に影響がある前記計測対象者の内面状態の推定結果を取得する第2取得手段と、
 前記知的能力の計測結果と前記内面状態の推定結果とに基づき、前記知的能力を推定する推定手段と、
を有する情報処理装置である。
 制御方法の一の態様は、
 コンピュータにより、
 計測対象者の知的能力の計測結果を取得し、
 前記知的能力の計測に影響がある前記計測対象者の内面状態の推定結果を取得し、
 前記知的能力の計測結果と前記内面状態の推定結果とに基づき、前記知的能力を推定する、制御方法である。なお、「コンピュータ」は、あらゆる電子機器(電子機器に含まれるプロセッサであってもよい)を含み、かつ、複数の電子機器により構成されてもよい。
 記憶媒体の一の態様は、
 計測対象者の知的能力の計測結果を取得し、
 前記知的能力の計測に影響がある前記計測対象者の内面状態の推定結果を取得し、
 前記知的能力の計測結果と前記内面状態の推定結果とに基づき、前記知的能力を推定する処理をコンピュータに実行させるプログラムが格納された記憶媒体である。
 本開示によれば、対象者の知的能力を好適に推定したり、知的能力に関する情報を好適に出力したりすることができる。
第1実施形態に係る認知機能検査システムの概略構成を示す。 情報処理装置のハードウェア構成を示す。 情報処理装置の機能ブロックの一例である。 認知機能と覚醒度との関係を年代別に示したグラフである。 認知機能推定スコアの算出の概要を示す図である。 第1実施形態における検査結果画面の一例である。 第1実施形態において情報処理装置が実行する処理の手順を示すフローチャートの一例である。 第1変形例に係る認知機能検査システムの概略構成を示す。 第2変形例における認知機能検査システムの概略構成を示す。 第2実施形態における情報処理装置の機能ブロック図である。 第2実施形態における検査結果画面の一例である。 第2実施形態において情報処理装置が実行する処理の手順を示すフローチャートの一例である。 第3実施形態における情報処理装置の概略構成図を示す。 第3実施形態において情報処理装置が実行する処理の手順を示すフローチャートの一例である。 第4実施形態における情報処理装置の概略構成図を示す。 第4実施形態において情報処理装置が実行する処理の手順を示すフローチャートの一例である。
 以下、図面を参照しながら、情報処理装置、制御方法及び記憶媒体の実施形態について説明する。
 <第1実施形態>
 (1-1)システム構成
 図1は、第1実施形態に係る認知機能検査システム100の概略構成を示す。認知機能検査システム100は、計測対象者9の認知機能に関する検査(「認知機能検査」とも呼ぶ。)を行い、その検査結果をユーザに提示する。認知機能検査システム100は、主に、情報処理装置1と、カメラ(撮像手段)2と、表示装置3とを備える。
 情報処理装置1は、通信網を介した通信、又は、無線若しくは有線による直接通信により、カメラ2及び表示装置3とデータ通信を行う。そして、情報処理装置1は、カメラ2から供給される撮影画像「S1」に基づいて、計測対象者9に対する簡易的な認知機能検査を行う。また、情報処理装置1は、計測対象者9の認知機能に関する検査結果に基づき表示信号「S2」を生成し、生成した表示信号S2を表示装置3に供給する。情報処理装置1は、パーソナルコンピュータであってもよく、カメラ2及び表示装置3と一体に構成されたスマートフォンなどの携帯端末であってもよい。
 カメラ2は、撮影画像S1を生成し、生成した撮影画像S1を情報処理装置1へ供給する。カメラ2は、情報処理装置1に内蔵されたカメラであってもよい。表示装置3は、情報処理装置1から供給される表示信号S2に基づき、所定の情報を表示する。表示装置3は、例えば、ディスプレイ又はプロジェクタ等である。
 なお、図1に示す認知機能検査システム100の構成は一例であり、当該構成に種々の変更が行われてもよい。例えば、認知機能検査システム100は、計測対象者9等によるユーザ入力を受け付ける入力装置(音声入力装置も含む)、又は、ガイダンスや警告音などを出力する音出力装置などをさらに備えてもよい。また、情報処理装置1は、複数の装置から構成されてもよい。この場合、情報処理装置1を構成する複数の装置は、予め割り当てられた処理を実行するために必要な情報の授受を、これらの複数の装置間において行う。この場合、情報処理装置1は、情報処理システムとして機能する。
 (1-2)情報処理装置のハードウェア構成
 図2は、情報処理装置1のハードウェア構成を示す。情報処理装置1は、ハードウェアとして、プロセッサ11と、メモリ12と、インターフェース13とを含む。プロセッサ11、メモリ12及びインターフェース13は、データバス19を介して接続されている。
 プロセッサ11は、メモリ12に記憶されているプログラムを実行することにより、情報処理装置1の全体の制御を行うコントローラ(演算装置)として機能する。プロセッサ11は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)、量子プロセッサなどのプロセッサである。プロセッサ11は、複数のプロセッサから構成されてもよい。プロセッサ11は、コンピュータの一例である。
 メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。また、メモリ12には、情報処理装置1が実行する処理を実行するためのプログラムが記憶される。また、例えば、メモリ12には、認知機能の推定及び特定の内面状態の推定に夫々用いるパラメータの情報が含まれている。なお、メモリ12が記憶する情報の一部は、情報処理装置1と通信可能な1又は複数の外部記憶装置により記憶されてもよく、情報処理装置1に対して着脱自在な記憶媒体により記憶されてもよい。上記の外部記憶装置は、情報処理装置1とデータ通信を行うサーバ装置であってもよい。
 インターフェース13は、情報処理装置1と他の装置とを電気的に接続するためのインターフェースである。これらのインターフェースは、他の装置とデータの送受信を無線により行うためのネットワークアダプタなどのワイアレスインタフェースであってもよく、他の装置とケーブル等により接続するためのハードウェアインターフェースであってもよい。
 なお、情報処理装置1のハードウェア構成は、図2に示す構成に限定されない。例えば、情報処理装置1は、カメラ2又は表示装置3の少なくとも一方を含んでもよい。
 (1-3)機能ブロック
 次に、情報処理装置1が実行する具体的な処理について説明する。情報処理装置1は、概略的には、計測対象者9に対して認知機能の計測及び認知機能の計測に影響を与える内面状態の推定を行い、これらの計測結果及び推定結果に基づき、計測対象者9の認知機能の推定を行う。そして、情報処理装置1は、計測対象者9の認知機能の推定結果に関する情報を表示装置3に表示する。
 図3は、情報処理装置1の機能ブロックの一例である。情報処理装置1のプロセッサ11は、機能的には、認知機能計測部14と、内面状態推定部15と、認知機能推定部16と、出力制御部17と、を有する。なお、図3では、データの授受が行われるブロック同士を実線により結んでいるが、データの授受が行われるブロックの組合せは図3に限定されない。後述する他の機能ブロックの図においても同様である。
 認知機能計測部14は、インターフェース13を介してカメラ2から供給される撮影画像S1に基づき、認知機能の計測を行い、その計測結果を認知機能推定部16及び出力制御部17に夫々供給する。この場合、認知機能計測部14は、撮影画像S1に基づき、計測対象者9の認知機能に関するスコア(「認知機能計測スコアSm」とも呼ぶ。)を、上記の計測結果として算出する。認知機能計測スコアSmは、例えば、計測対象者9の認知機能に関する総合的なスコア(総合スコア)である。なお、認知機能計測スコアSmは、上述の総合スコアに加えて、機能毎の認知能力のスコア(「機能別スコア」とも呼ぶ。)をさらに含んでもよい。機能別スコアは、例えば、言語理解、知覚統合、作動記憶及び処理速度の各々に対するスコアである。
 ここで、撮影画像S1に基づく認知機能計測スコアSmの算出方法について補足説明する。例えば、認知機能計測部14は、まず、インターフェース13を介して撮影画像S1を表示装置3に供給することで、所定の検査用の画面を表示装置3に表示させる。そして、認知機能計測部14は、計測対象者9が当該画面を視認している状態を撮影した撮影画像S1に基づき、計測対象者9の眼球(強膜、虹彩、瞳孔を含む)の動きを解析する。これにより、認知機能計測部14は、計測対象者9の認知機能をスコア化した認知機能計測スコアSmを算出する。なお、被験者の眼球の動きを画像解析することにより被験者の認知機能のスコア化を行う技術は、例えば、特許文献1に開示されている。
 内面状態推定部15は、カメラ2から供給される撮影画像S1に基づき、計測対象者9の認知機能の計測時点における内面状態の推定を行い、その推定結果を認知機能推定部16及び出力制御部17に夫々供給する。この場合に推定対象となる内面状態は、認知機能の計測に影響があり、かつ、短期的に変動がある計測対象者9の内面状態である。本実施形態では、内面状態推定部15は、認知機能の計測に影響があり、かつ、短期的に変動がある内面状態を表す一つの指標である覚醒度の推定を行う。この場合、内面状態推定部15は、撮影画像S1を解析して計測対象者9の瞼の動き又は表情を認識し、その認識結果に基づき、認知機能の計測時点での計測対象者9のスコア化された覚醒度を推定する。なお、内面状態推定部15は、覚醒度に代えて、計測対象者9のストレスの度合い、眠気の度合い、脈拍(心拍数)、集中度、感情又は計測対象者9に含まれるアルコールの程度を推定してもよい。この場合、上記の「感情」として、例えば、内面状態推定部15は、予め分類された複数の感情のうち計測対象者9の感情がいずれの分類に該当するかを推定してもよい。
 ここで、認知機能計測部14及び内面状態推定部15は、深層学習などの機械学習に基づき予め学習された推論器を用いることで、認知機能計測スコアSm及び覚醒度の算出を行ってもよい。この場合、例えば、認知機能計測部14が使用する推論器は、計測対象者を撮影した所定枚数の画像を入力データとし、当該画像の撮影時点での計測対象者の認知機能のスコアを正解データとして学習された機械学習のモデルである。この場合に正解データとする認知機能のスコアは、任意の認知機能の検査手法に基づき特定されたものであってもよい。また、内面状態推定部15が使用する推論器は、計測対象者を撮影した所定枚数の画像を入力データとし、当該画像の撮影時点での計測対象者の覚醒度を正解データとして学習された機械学習のモデルとなる。この場合に正解データとする覚醒度は、センサにより計測されたものであってもよく、アンケート等に基づき推定されたものであってもよい。学習により得られた推論器のパラメータは、メモリ12等に予め記憶されている。なお、上述の機械学習のモデルが畳み込みニューラルネットワークなどのニューラルネットワークである場合、メモリ12には、層構造、各層のニューロン構造、各層におけるフィルタ数及びフィルタサイズ、並びに各フィルタの各要素の重みなどの各種パラメータが記憶される。
 認知機能推定部16は、認知機能計測部14による計測対象者9の認知機能の計測結果と、内面状態推定部15による計測対象者9の覚醒度の推定結果とに基づき、計測対象者9の認知機能の推定を行う。具体的には、認知機能推定部16は、推定された覚醒度に基づき、計測対象者9の認知機能の計測結果である認知機能計測スコアSmを補正する。以後では、認知機能計測スコアSmを補正した認知機能のスコアを、「認知機能推定スコアSe」とも呼ぶ。認知機能推定スコアSeの具体的な算出方法については、「(1-4)認知機能推定スコアの算出」のセクションで詳しく説明する。認知機能推定部16は、計測対象者9の認知機能の推定結果である認知機能推定スコアSeを、出力制御部17に供給する。
 なお、認知機能計測スコアSmが認知機能の総合スコアと、機能毎の機能別スコアとを夫々含む場合には、認知機能推定部16は、推定された覚醒度に基づき、夫々これらを補正してもよい。この場合、認知機能推定部16は、認知機能の総合スコアの推定値と、機能別スコアの各々の推定値とを、認知機能推定スコアSeとして算出する。
 出力制御部17は、認知機能計測部14、内面状態推定部15、及び認知機能推定部16から夫々供給される推定結果又は計測結果に基づき、計測対象者9の認知機能に関する検査結果を、表示装置3に表示させる。この場合、出力制御部17は、上述の推定結果及び計測結果に基づき、表示信号S2を生成し、生成した表示信号S2を、インターフェース13を介して表示装置3に供給する。表示装置3に表示させる情報については「(1-5)検査結果画面」において後述する。なお、表示装置3に表示された情報の閲覧者は、例えば、計測対象者9であってもよく、計測対象者9に対して診断を行う医療関係者であってもよい。
 なお、図3において説明した認知機能計測部14、内面状態推定部15、認知機能推定部16及び出力制御部17の各構成要素は、例えば、プロセッサ11がプログラムを実行することによって実現できる。また、必要なプログラムを任意の不揮発性記憶媒体に記録しておき、必要に応じてインストールすることで、各構成要素を実現するようにしてもよい。なお、これらの各構成要素の少なくとも一部は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組合せ等により実現してもよい。また、これらの各構成要素の少なくとも一部は、例えばFPGA(Field-Programmable Gate Array)又はマイクロコントローラ等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、上記の各構成要素から構成されるプログラムを実現してもよい。また、各構成要素の少なくとも一部は、ASSP(Application Specific Standard Produce)やASIC(Application Specific Integrated Circuit)により構成されてもよい。このように、上述の各構成要素は、種々のハードウェアにより実現されてもよい。さらに、これらの各構成要素は,例えば,クラウドコンピューティング技術などを用いて、複数のコンピュータの協働によって実現されてもよい。以上のことは、後述する他の実施の形態においても同様である。
 (1-4)認知機能推定スコアの算出
 次に、認知機能推定部16による認知機能推定スコアSeの算出方法について具体的に説明する。概略的には、認知機能推定部16は、内面状態推定部15が推定した覚醒度に基づき推定される、計測対象者9の認知機能の発揮度合いに基づき、認知機能計測スコアSmを補正した認知機能推定スコアSeを算出する。これにより、認知機能推定部16は、計測対象者9の計測時の覚醒度に依存しない認知機能の推定結果を出力する。
 まず、認知機能推定部16の推定処理において前提となる認知機能と覚醒度との一般的な関係について、図4を参照して説明する。
 図4は、認知機能スコアと覚醒度との関係を年代別に示した図である。図4では、50代、70代及び90代の夫々に対する2次元座標上において、認知障害がない一般的な健常者の認知機能スコアと覚醒度との関係を示すグラフ50~52が示されている。また、これらの各2次元座標上では、覚醒度が「Da1」~「Da3」、「Db1」~「Db3」、「Dc1」~「Dc3」である場合の健常者と認知障害者の認知機能スコアが夫々プロットされている。ここで、認知障害者は、軽度認知障害(MCI:Mild Cognitve Impairment)の患者や認知症の患者を含む。
 グラフ50~52に示されるように、いずれの年代においても、覚醒度に応じて認知機能の発揮の度合いが異なっている。例えば、50代において、覚醒度「Da1」又は「Da3」のときの健常者の認知機能は、覚醒度「Da2」のときの健常者の認知機能と比べると低くなっている。言い換えると、覚醒度「Da1」又は「Da3」の時には、覚醒度「Da2」の時に比べて認知機能の発揮度合いが低くなっている。その結果、認知機能の発揮の度合いが低い覚醒度(例えば「Da1」)の時の健常者の認知機能スコアは、認知機能の発揮の度合いが高い覚醒度(例えば「Da2」)のときの認知障害者の認知機能スコアよりも低くなる場合がある。
 このように、50代において、計測される認知機能スコアは、計測時の覚醒度に依存する。70代及び90代においても同様に、計測される認知機能スコアは、計測時の覚醒度に依存する。なお、この傾向は、適度な覚醒度においてパフォーマンスが最も高くなることを示すヤーキーズ・ドットソンの法則に整合するものである。
 以上を勘案し、認知機能推定部16は、計測対象者9の認知機能計測スコアSmの計測時での覚醒度に基づき、認知機能計測スコアSmを補正する。具体的には、認知機能推定部16は、認知機能計測スコアSmの計測時点での推定された覚醒度に基づき、基準となる覚醒度のときと比較したときの認知機能の発揮度合いを推定し、当該発揮度合いに応じて認知機能計測スコアSmを補正する。
 図5は、認知機能推定部16による認知機能推定スコアSeの算出の概要を示す図である。図5には、覚醒度と認知機能スコアとの関係を示すグラフ53が示されている。このグラフ53は、例えば、複数の被験者について計測した認知機能スコアと覚醒度との複数の組み合わせのサンプルに対し、回帰分析などの統計的手法を適用することで算出された統計的なモデルである。他の例では、グラフ53は、同一の被験者について複数回計測した認知機能スコアと覚醒度との複数の組み合わせのサンプルに対し、回帰分析などの統計的手法を適用することで算出された統計的なモデルであってもよい。
 認知機能推定部16は、グラフ53に示す関係と、認知機能計測スコアSmと、当該スコアの計測時に推定された覚醒度とに基づき、基準となる覚醒度である基準覚醒度「Dtag」のときに発揮される認知機能スコアを、認知機能推定スコアSeとして推定する。ここでは、基準覚醒度「Dtag」は、一例として、グラフ53に示す関係において最も認知機能スコアが発揮されるときの覚醒度に設定されている。
 例えば、内面状態推定部15により計測対象者9の認知機能検査時の覚醒度が「Dx」と推定された場合には、認知機能推定部16は、グラフ53における覚醒度Dxと基準覚醒度Dtagとの認知機能スコアの差又は比に基づき、認知機能計測スコアSmを補正する。この場合、認知機能推定部16は、認知機能計測スコアSmに対して上述の差を加算した値又は上述の比(ここでは1未満)により割った値を、認知機能推定スコアSeとして算出する。例えば、認知機能推定部16は、覚醒度Dxに対する基準覚醒度Dtagが「0、7」である場合には、認知機能計測スコアSmを「0.7」により割った値を、認知機能推定スコアSeとして算出する。同様に、内面状態推定部15により覚醒度が「Dy」と推定された場合には、認知機能推定部16は、グラフ53における覚醒度Dyと基準覚醒度Dtagとの認知機能スコアの差又は比に基づき、認知機能計測スコアSmを補正する。
 この場合、例えば、内面状態推定部15により推定され得る覚醒度毎に上述の差又は比を示したルックアップテーブルがメモリ12等に記憶されている。そして、認知機能推定部16は、このルックアップテーブルを参照して上述の差又は比を特定することで、認知機能推定スコアSeを算出する。他の例では、認知機能推定部16は、覚醒度から上述の差又は比を求める式を用い、内面状態推定部15により推定される覚醒度から上述の差又は比を特定することで、認知機能推定スコアSeを算出してもよい。さらに別の例では、認知機能推定部16は、認知機能計測スコアSm及び推定された覚醒度を入力値とし、上述の差又は比に基づく補正済みの認知機能推定スコアSeを直接求める式またはルックアップテーブルを用いて、認知機能推定スコアSeを求めてもよい。なお、認知機能推定部16は、式またはルックアップテーブルに代えて、認知機能計測スコアSm及び推定された覚醒度が入力された場合に認知機能推定スコアSeを推論するように深層学習などの機械学習により学習された推論器を用いて、認知機能推定スコアSeを求めてもよい。
 また、認知機能推定部16は、計測対象者9の年齢をさらに勘案して認知機能推定スコアSeを算出してもよい。図4に示すように、計測対象者9の年齢によって、覚醒度と認知機能との関係は一般的には異なる。従って、所定の年齢層毎にグラフ53に相当する認知機能スコアと覚醒度との統計的な関係を算出し、この統計的な関係に基づき、年齢層毎に、上述のルックアップテーブル、式又は推論器をメモリ12に記憶してもよい。この場合、認知機能推定部16又は他の処理部は、撮影画像S1に対して計測対象者9の顔等を解析する年齢推定処理を行うことで、計測対象者9の年齢を推定する。なお、認知機能検査前に登録された計測対象者9の年齢を含む属性情報がメモリ12等に予め記憶されている場合には、認知機能推定部16は、当該属性情報を参照することで、計測対象者9の年齢を特定してもよい。
 (1-5)検査結果画面
 図6は、第1実施形態において出力制御部17が表示装置3に表示させる検査結果画面の一例である。ここでは、一例として、78歳の「日本太郎」が計測対象者9となっている。出力制御部17は、認知機能計測部14、内面状態推定部15及び認知機能推定部16から供給される情報に基づき表示信号S2を生成し、当該表示信号S2を表示装置3に供給することで、図6に示す検査結果画面を表示装置3に表示させる。出力制御部17は、検査結果画面上において、主に、スコア表示欄60と、機能別スコア要求ボタン61と、備考表示欄62とを、検査結果画面上に設けている。
 出力制御部17は、スコア表示欄60に、計測対象者9に対して推定された総合的な認知機能を表す「認知機能スコア(推定値)」を表示すると共に、参考値として、「認知機能スコア(計測値)」、「覚醒度」、及び「正常値」を表示している。ここで、出力制御部17は、「認知機能スコア(推定値)」として、認知機能推定部16が推定した認知機能推定スコアSe(ここでは30段階のスコア)を表示している。また、出力制御部17は、「覚醒度」として、内面状態推定部15が推定した覚醒度を10段階により表したスコア(ここでは4)を表示する。また、出力制御部17は、「正常値」として、メモリ12等に予め記憶された、健常者とみなすことができる認知機能スコアの値域(ここでは、30段階のうち26以上)を表示している。「正常値」として提示する値は、計測対象者9の年齢層に応じて変動する値であってもよい。
 機能別スコア要求ボタン61は、計測対象者9の認知機能毎の機能別スコアの表示を指示するボタンであり、出力制御部17は、機能別スコア要求ボタン61が選択されたことを検知した場合、計測対象者9の各機能別スコアを表示する。この場合、出力制御部17は、例えば、言語理解、知覚統合、作動記憶及び処理速度などの各認知機能に対する機能別スコアの推定値を検査結果画面上に表示する。
 備考表示欄62は、計測対象者9の認知機能推定スコアSeに対するコメントを表示する欄である。図6の例では、出力制御部17は、計測対象者9の認知機能推定スコアSeが正常値の範囲から外れていることから、軽度認知障害の疑いがある旨及びより詳しい検査を受けるべき旨の通知(警告)を、備考表示欄62上に表示している。この場合、出力制御部17は、認知機能推定スコアSeに基づき、備考表示欄62に表示すべきテキスト情報を決定する。例えば、認知機能推定スコアSeと備考表示欄62に表示すべきテキスト情報とを対応付けたテーブルがメモリ12等に記憶されており、出力制御部17は、当該テーブルを参照し、認知機能推定スコアSeから備考表示欄62に表示すべきテキスト情報を決定する。
 図6に示す検査結果画面を表示することで、出力制御部17は、計測対象者9の短期的な内面状態に依存しない認知機能推定スコアSeを好適に閲覧者に提示することができる。また、出力制御部17は、認知機能推定スコアSe以外の認知機能に関する各種スコア及び認知障害に関するコメント等についても閲覧者に好適に提示することができる。
 (1-6)処理フロー
 図7は、第1実施形態において情報処理装置1が実行する処理の手順を示すフローチャートの一例である。情報処理装置1は、図7に示すフローチャートの処理を、繰り返し実行する。
 まず、情報処理装置1は、カメラ2が生成した撮影画像S1を取得する(ステップS11)。この場合、例えば、情報処理装置1は、人物がカメラ2の撮影範囲に存在することを検知した場合に、当該人物を計測対象者9として撮影した撮影画像S1を取得する。他の例では、情報処理装置1は、ユーザ入力により指定されたタイミングにおいてカメラ2が生成した撮影画像S1を取得してもよい。この場合、ユーザ入力は、入力デバイスへの操作に基づく入力であってもよく、音声入力であってもよい。
 そして、情報処理装置1の認知機能計測部14は、ステップS11で取得された撮影画像S1に基づき認知機能の計測を行い、情報処理装置1の内面状態推定部15は、撮影画像S1に基づき覚醒度の推定を行う(ステップS12)。これにより、認知機能計測部14は、認知機能計測スコアSmを算出し、内面状態推定部15は、覚醒度の推定値を算出する。なお、認知機能計測部14の処理と内面状態推定部15の処理は順不同であり、いずれが先に実行されてもよく、同時に実行されてもよい。
 そして、認知機能推定部16は、ステップS12での認知機能の計測結果及び覚醒度の推定結果に基づき、認知機能の推定を行う(ステップS13)。この場合、認知機能推定部16は、認知機能計測部14が算出した認知機能計測スコアSmと、内面状態推定部15が算出した覚醒度の推定値とに基づき、計測対象者9の状態(所謂コンディション)に依存しない認知機能推定スコアSeを算出する。
 そして、出力制御部17は、認知機能の推定結果を表示装置3に表示させる(ステップS14)。この場合、出力制御部17は、ステップS13で算出された認知機能推定スコアSe等に基づき表示信号S2を生成し、インターフェース13を介して表示信号S2を表示装置3に供給する。これにより、出力制御部17は、図6に示すような検査結果画面等を表示装置3に表示させる。
 (1-7)技術的効果
 次に、第1実施形態における技術的効果について補足説明する。
 図4に示されるように、認知機能の低下は、認知障害に起因して生じる他、加齢に起因して生じ、かつ、計測対象者9の内面状態の短期的な変化にも起因して生じる。一方、従来の認知機能検査の手法では、計測対象者9の検査時の内面状態については考慮していないため、計測対象者9の内面状態の短期的な変化に起因した認知機能の低下なのか、認知障害に起因した認知機能の低下なのかを区別できないという課題があった。以上を勘案し、第1実施形態では、情報処理装置1は、計測対象者9の検査時での覚醒度に基づき認知機能計測スコアSmを補正する。これにより、情報処理装置1は、短期的に変化する計測対象者9の内面状態に依存しない認知機能推定スコアSeを、好適に算出することができる。
 (1-8)変形例
 次に、第1実施形態に好適な変形例について説明する。以下の変形例は、組み合わせて適用してもよい。
 (第1変形例)
 情報処理装置1は、計測対象者9を撮影した画像以外の情報に基づき、計測対象者9の認知機能の計測及び当該計測に影響がある内面状態の推定を行ってもよい。
 図8は、第1変形例に係る認知機能検査システム100Aの概略構成図を示す。図8に示す認知機能検査システム100Aは、センサ5と、入力装置6とを有する。
 センサ5は、例えば計測対象者9が装着自在であるウェアラブルセンサであり、計測対象者9の生体信号等を測定し、測定した生体信号等を、センサ信号S3として情報処理装置1Aへ供給する。この場合、センサ信号S3は、対象者の心拍、脳波、発汗量、ホルモン分泌量、脳血流、血圧、体温、筋電、呼吸数などの任意の生体信号(バイタル情報を含む)であってもよい。また、センサ5は、対象者から採取された血液を分析し、その分析結果を示すセンサ信号S3を出力する装置であってもよい。また、センサ5は、身体疲労等を測定するためのジャンプなどの身体測定を行う装置であってもよい。
 入力装置6は、各対象者に関する情報のユーザ入力(手入力)を受け付けるインターフェースであり、例えば、認知機能の計測又は内面状態の推定に必要な情報(例えばアンケートの回答)の入力を受け付ける。入力装置6は、例えば、タッチパネル、ボタン、キーボード、マウス、音声入力装置などの種々のユーザ入力用インターフェースであってもよい。入力装置6は、ユーザの入力に基づき生成した入力信号「S4」を、情報処理装置1へ供給する。
 情報処理装置1Aは、情報処理装置1と同一のハードウェア構成(図1参照)及び機能構成(図3参照)を有する。そして、情報処理装置1Aの認知機能計測部14は、センサ信号S3又は入力信号S4に基づき、計測対象者9の認知機能の計測を行う。また、情報処理装置1Aの内面状態推定部15は、センサ信号S3又は入力信号S4に基づき、計測対象者9の内面状態の推定を行う。この場合、内面状態推定部15は、例えば、計測対象者9の覚醒度、ストレスの度合い、眠気の度合い、脈拍(心拍数)、集中度、感情又は、計測対象者9が採取したアルコールの程度を、内面状態の推定結果として算出する。なお、ストレスの度合い、眠気の度合い、脈拍(心拍数)、集中度、感情又は、計測対象者9が採取したアルコールの程度は、図4に示される覚醒度と認知機能スコアとの関係と同様に、認知機能スコアに影響を与える内面状態の指標の一例である。言い換えると、これらの内面状態を示す指標(スコア)に応じて、計測対象者の認知機能の発揮の度合いが異なる。
 ここで、認知機能の計測について補足説明する。例えば、センサ信号S3が音声信号である場合には、認知機能計測部14は、当該音声信号に基づき計測対象者9の発話内容を解析することで、認知機能の計測を行う。なお、自由会話を解析することで認知機能を計測する技術は、例えば、特許文献2に開示されている。他の例では、入力信号S4が認知機能の検査に使用される質問事項に対する回答を示す情報である場合には、認知機能計測部14は、当該回答を示す情報に基づき、認知機能の計測を行う。なお、被験者の回答に基づく認知機能の検査として、例えば、ミニメンタルステート検査(MMSE:Mini Mental State Examination)などが存在する。
 そして、認知機能推定部16は、認知機能計測部14による認知機能の計測結果及び内面状態推定部15による内面状態の推定結果に基づき、認知機能の推定を行う。ここで、内面状態推定部15が推定する覚醒度、ストレスの度合い、眠気の度合い、脈拍(心拍数)、集中度、感情又は、計測対象者9が採取したアルコールの程度等は、上述したように、いずれも認知機能スコアの計測に影響を与えるものである。従って、認知機能推定部16は、認知機能計測部14が算出した認知機能計測スコアSmを、内面状態推定部15が推定した内面状態の推定値により補正する。これにより、認知機能推定部16は、第1実施形態と同様に、計測対象者9の状態に依存しない認知機能推定スコアSeを好適に算出することができる。
 このように、情報処理装置1Aは、計測対象者9を撮影した画像以外の情報を用いた場合であっても、計測対象者9の認知機能の計測及び当該計測に影響がある内面状態の推定を好適に実行することができる。
 なお、情報処理装置1Aは、認知機能の計測及び内面状態の推定を行う代わりに、ユーザが手入力した認知機能の計測結果及び内面状態の推定結果を、入力信号S4として取得してもよい。この場合、情報処理装置1Aの認知機能推定部16は、入力信号S4が示す認知機能スコアと、内面状態の推定値とに基づき、認知機能推定スコアSeを算出する。この態様によっても、情報処理装置1Aは、短期的に変化する計測対象者9の内面状態に依存しない認知機能の推定を好適に実行することができる。
 (第2変形例)
 情報処理装置1は、サーバクライアントモデルにおけるサーバとして機能してもよい。
 図9は、第2変形例における認知機能検査システム100Bの概略構成を示す。認知機能検査システム100Bは、主に、ネットワーク(通信網)7を介してデータ通信を行う情報処理装置1Bと、端末装置8とを有する。第2変形例に係る認知機能検査システム100Bは、サーバクライアントモデルのシステムであり、情報処理装置1Bは、サーバ装置として機能し、端末装置8は、クライアント端末として機能する。
 端末装置8は、入力機能、表示機能、及び通信機能を有する端末であり、図1に示される表示装置3として機能する。端末装置8は、例えば、パーソナルコンピュータ、タブレット型端末、PDA(Personal Digital Assistant)などであってもよい。端末装置8は、図1に示す撮影画像S1、又は、図8に示されるセンサ信号S3及び入力信号S4を情報処理装置1Bに供給する。
 情報処理装置1Bは、情報処理装置1又は情報処理装置1Aと同一のハードウェア構成(図1参照)及び機能構成(図3参照)を有する。そして、情報処理装置1Bは、ネットワーク7を介して端末装置8から受信した情報に基づき、図3に示す認知機能計測部14、内面状態推定部15、認知機能推定部16及び出力制御部17の各処理を実行する。そして、情報処理装置1Bは、認知機能の推定結果等を示す表示信号S2を、ネットワーク7を介して端末装置8へ送信する。この態様によっても、情報処理装置1Bは、短期的に変化する計測対象者9の内面状態に依存しない認知機能の推定を好適に実行し、かつ、その推定結果等に関する情報を、端末装置8のユーザに好適に提示するこができる。
 (第3変形例)
 出力制御部17は、検査結果画面を表示装置3に表示させる代わりに、認知機能推定部16の推定結果等を示す音声出力をスピーカなどの音出力装置に出力させてもよい。
 この場合、出力制御部17は、例えば、認知機能推定スコアSe等を通知するための音声信号を生成し、インターフェース13を介して音出力装置に当該音声信号を供給することで、認知機能推定スコアSe等の音声出力を音出力装置に実行させる。この態様によっても、出力制御部17は、認知機能検査の結果に関する情報をユーザに好適に通知することができる。
 <第2実施形態>
 第2実施形態に係る認知機能検査システム100は、内面状態の推定結果に基づき、認知機能の検査の適否を判定し、判定結果に応じた表示を行う点において、第1実施形態に係る認知機能検査システム100と異なる。以後では、第1実施形態と同一の構成要素については、適宜同一符号を付し、その説明を省略する。
 (2-1)機能ブロック
 図10は、第2実施形態における情報処理装置1Cの機能ブロック図を示す。情報処理装置1Cは、図2に示すハードウェア構成を有し、情報処理装置1Aのプロセッサ11は、機能的には、認知機能計測部14と、内面状態推定部15と、認知機能推定部16と、出力制御部17Cと、判定部18Cとを有する。
 判定部18Cは、内面状態推定部15による計測対象者9の内面状態(以後では、一例として覚醒度とする)の推定結果に基づき、計測対象者9の認知機能検査の適否を判定する。言い換えると、判定部18Cは、計測対象者9が認知機能検査(認知機能の計測)に適した状態であるか否かについての判定を行う。この場合、例えば、判定部18Cは、内面状態推定部15が推定した覚醒度が所定の値域に存在する場合、計測対象者9が認知機能の計測を適切に実行可能な状態であると判定する。一方、判定部18Cは、内面状態推定部15が推定した覚醒度が上述の所定の値域に属しない場合、計測対象者9が認知機能の計測を適切に実行できない状態であると判定する。ここで、「所定の値域」は、計測対象者9による認知機能の発揮に適した覚醒度の値域であり、例えばメモリ12等に予め記憶される。この場合、「所定の値域」は、基準覚醒度Dtagとの認知機能スコアの差又は比に基づいて定められてもよく、認知機能推定スコアSeの推定誤差が許容範囲内となるような覚醒度の値域になるように設定されてもよい。そして、判定部18Cは、計測対象者9の認知機能検査の適否に関する判定結果を、出力制御部17Cに供給する。
 出力制御部17Cは、認知機能計測部14が生成した計測結果と、内面状態推定部15が生成した推定結果と、認知機能推定部16が生成した推定結果と、判定部18Cの判定結果とに基づき、表示信号S2を生成する。そして、出力制御部17Cは、生成した表示信号S2を、インターフェース13を介して表示装置3に供給する。これにより、出力制御部17Cは、認知機能検査の適否に関するユーザへの通知内容を含んだ検査結果画面を表示装置3に表示させる。第2実施形態における検査結果画面の具体例については、図11を参照して後述する。
 (2-2)検査結果画面
 図11は、第2実施形態において出力制御部17Cが表示装置3に表示させる検査結果画面の一例である。出力制御部17Cは、認知機能計測部14、内面状態推定部15、認知機能推定部16及び判定部18Cから供給される情報に基づき生成した表示信号S2を表示装置3に供給することで、図6に示す検査結果画面を表示装置3に表示させている。出力制御部17Aは、検査結果画面上において、主に、通知表示欄63と、スコア表示欄64とを設けている。
 出力制御部17Cは、通知表示欄63上において、判定部18Cによる判定結果に基づく内容を表示する。この例では、出力制御部17Cは、判定部18Cから供給される判定結果に基づき、検査の不適判定がなされたことを検知し、計測対象者9の現在の状態が認知機能検査に不適である旨、及び、時間をおいてから認知機能検査を再実行すべき旨の警告を、通知表示欄63に表示する。
 なお、出力制御部17Cは、判定部18Cから供給される判定結果に基づき、検査の適正判定がなされたことを検知した場合には、例えば、計測対象者9の現在の状態が認知機能検査に適している旨の通知文を、通知表示欄63に表示するとよい。他の例では、出力制御部17Cは、判定部18Cによる検査の不適判定がなされた場合に限り、通知表示欄63を検査結果画面に設けてもよい。
 また、図11では、出力制御部17Cは、認知機能及び内面状態(ここでは覚醒度)に関する各スコアをスコア表示欄64に表示している。具体的には、図6のスコア表示欄60に表示される各種スコアと同種のスコアである「認知機能スコア(計測値)」、「覚醒度」、「認知機能スコア(推定値)」及び「正常値」を夫々表示する。なお、ここでは、検査の不適判定がなされたことから、認知機能推定スコアSeの計算が行われていない。よって、出力制御部17Cは、「認知機能スコア(推定値)」に表示すべき認知機能推定スコアSeを、非表示にしている。
 このように、図11の表示例によれば、出力制御部17Cは、計測対象者9の現在の状態が認知機能検査に適さない場合に、その旨及び認知機能検査の再試行の必要性を好適にユーザに通知することができる。
 (2-3)処理フロー
 図12は、第2実施形態において情報処理装置1Cが実行する処理の手順を示すフローチャートの一例である。情報処理装置1Cは、図12に示すフローチャートの処理を、繰り返し実行する。
 まず、情報処理装置1Cは、カメラ2が生成した撮影画像S1を取得する(ステップS21)。そして、情報処理装置1の認知機能計測部14は、ステップS21で取得された撮影画像S1に基づき認知機能の計測を行い、情報処理装置1の内面状態推定部15は、撮影画像S1に基づき覚醒度の推定を行う(ステップS22)。
 そして、判定部18Cは、ステップS22で推定された覚醒度に基づき、計測対象者9の内面状態が検査に適した状態であるか否か判定する(ステップS23)。そして、計測対象者9の内面状態が検査に適した状態であると判定部18Cが判定した場合(ステップS23;Yes)、情報処理装置1Cは、第1実施形態において説明した図7のステップS13及びステップS14と同様の処理を行う。即ち、認知機能推定部16は、ステップS22での認知機能の計測結果及び覚醒度の推定結果に基づき、認知機能の推定を行う(ステップS24)。そして、出力制御部17Cは、認知機能の推定結果を表示装置3に表示させる(ステップS25)。
 一方、計測対象者9の内面状態が検査に適した内面状態ではないと判定部18Cが判定した場合(ステップS23;No)、出力制御部17Cは、認知機能検査に関する警告を出力する(ステップS26)。出力制御部17Cは、例えば、上記の警告として、図11に示すように、通知表示欄63を含む検査結果画面を表示装置3に表示させる。これにより、出力制御部17Cは、適さないコンディションにおいて認知機能検査が行われた場合に、認知機能検査の結果が適切に得られなかったことを閲覧者に好適に通知することができる。
 なお、情報処理装置1Cは、ステップS23の判定結果によらずステップS24の認知機能の推定を行い、認知機能推定スコアSeをステップS26において表示してもよい。この場合であっても、情報処理装置1Cは、ステップS26において検査に関する警告を出力することで、表示された認知機能推定スコアSeの信頼性が低いことを閲覧者に好適に認識させることができる。
 (2-4)技術的効果
 ここで、第2実施形態の技術的効果について補足説明する。図4及び図5を用いて第1実施形態において説明したように、計測される認知機能は、計測時点での計測対象者9の覚醒度などの内面状態に依存し、計測時点での計測対象者9の状態によっては、認知機能が本来の能力よりも低く計測される事態が生じ、このような計測対象者9の状態では、認知機能検査の信頼性が低くなる可能性がある。以上を勘案し、第2実施形態では、情報処理装置1Cは、覚醒度に基づき、計測対象者が知的能力の計測に適した状態であるか否かの判定を行い、その判定の結果に基づき、認知機能の計測の信頼性に関する通知を出力する。これにより、適したコンディションのときに計測対象者9が認知機能検査を受けることを好適に促すことができる。
 (2-5)変形例
 第1実施形態で説明した第1変形例~第3変形例の他、以下の第4変形例及び第5変形例を適用してもよい。
 (第4変形例)
 出力制御部17Cは、図11の検査結果画面の通知表示欄63を表示する代わりに、又はこれに加えて、計測対象者9が認知機能検査に適した状態でないこと及び再検査の必要性に関する音出力を行ってもよい。この場合、例えば、出力制御部17Cは、通知表示欄63に表示したテキスト文の音声を音出力装置に出力させてもよく、所定の警告音などを音出力装置に出力させてもよい。この態様によっても、出力制御部17Cは、計測対象者9が認知機能検査に適した状態でないこと及び再検査の必要性をユーザに好適に通知することができる。
 (第5変形例)
 第2実施形態では、情報処理装置1Cは、認知機能推定部16を有しなくともよい。
 一般に、計測対象者9の内面状態が検査に適している場合には、計測対象者9の本来の認知機能を反映した認知機能計測スコアSmが得られる。以上を勘案し、本変形例では、情報処理装置1Cは、計測対象者9の状態が検査に適していると判定部18Cが判定した場合に、認知機能計測スコアSmを認知機能推定スコアSeとみなし、認知機能推定部16による認知機能推定スコアSeの算出を行わない。この場合であっても、情報処理装置1Cは、計測対象者9の短期的な内面状態の変化による影響を実質的に受けていない認知機能スコアをユーザに好適に提示することができる。
 <第3実施形態>
 図13は、第3実施形態における情報処理装置1Xの概略構成図を示す。情報処理装置1Xは、主に、第1取得手段14Xと、第2取得手段15Xと、推定手段16Xとを有する。なお、情報処理装置1Xは、複数の装置により構成されてもよい。
 第1取得手段14Xは、計測対象者の知的能力の計測結果を取得する。ここで、「知的能力の計測結果」は、認知障害や認知症の検査において計測される能力の計測結果に限られず、入社試験の一環として行われる適性検査において測定される知的能力の計測結果、及び、英語技能検定などで測定される知的技能の結果などを含む。例えば、第1取得手段14Xは、第1実施形態(変形例を適用した場合を含む、以下同じ。)又は第2実施形態(変形例を適用した場合を含む、以下同じ。)における認知機能計測部14とすることができる。また、第1取得手段14Xは、他の装置から供給される計測対象者の知的能力の計測結果を受信することで、計測対象者の知的能力の計測結果を取得してもよい。
 第2取得手段15Xは、知的能力の計測に影響がある計測対象者の内面状態の推定結果を取得する。「知的能力の計測に影響がある計測対象者の内面状態」は、計測対象者の内面状態の一側面を表すものであって、覚醒度、ストレス度合い、集中度、感情又は眠気等の様にその時々によって変動が生じるものが該当する。例えば、第2取得手段15Xは、第1実施形態又は第2実施形態における内面状態推定部15とすることができる。また、第2取得手段15Xは、知的能力の計測に影響がある計測対象者の内面状態の推定結果を他の装置から受信することで、当該推定結果を取得してもよい。
 推定手段16Xは、知的能力の計測結果と内面状態の推定結果とに基づき、知的能力を推定する。例えば、推定手段16Xは、第1実施形態又は第2実施形態における認知機能推定部16とすることができる。
 図14は、第3実施形態において情報処理装置1Xが実行するフローチャートの一例である。情報処理装置1Xの第1取得手段14Xは、計測対象者の知的能力の計測結果を取得する(ステップS31)。次に、第2取得手段15Xは、知的能力の計測に影響がある計測対象者の内面状態の推定結果を取得する(ステップS32)。推定手段16Xは、知的能力の計測結果と内面状態の推定結果とに基づき、知的能力を推定する(ステップS33)。
 第3実施形態によれば、情報処理装置1Xは、計測対象者の状態(コンディション)に依存しない知的能力の推定を好適に実行することができる。
 <第4実施形態>
 図15は、第4実施形態における情報処理装置1Yの概略構成図を示す。情報処理装置1Yは、主に、第1取得手段14Yと、第2取得手段15Yと、出力制御手段17Yとを有する。なお、情報処理装置1Yは、複数の装置により構成されてもよい。
 第1取得手段14Yは、計測対象者の知的能力の計測結果を取得する。例えば、第1取得手段14Yは、第1実施形態(変形例を適用した場合を含む、以下同じ。)又は第2実施形態(変形例を適用した場合を含む、以下同じ。)における認知機能計測部14とすることができる。また、第1取得手段14Yは、他の装置から供給される計測対象者の知的能力の計測結果を受信することで、計測対象者の知的能力の計測結果を取得してもよい。
 第2取得手段15Yは、知的能力の計測に影響がある計測対象者の内面状態の推定結果を取得する。例えば、第2取得手段15Yは、第1実施形態又は第2実施形態における内面状態推定部15とすることができる。また、第2取得手段15Yは、知的能力の計測に影響がある計測対象者の内面状態の推定結果を他の装置から受信することで、当該推定結果を取得してもよい。
 出力制御手段17Yは、内面状態の推定結果に基づき、知的能力の計測結果に関する情報を表示又は音出力する。「知的能力の計測結果に関する情報」は、第2実施形態における認知機能計測スコアSm、認知機能推定スコアSe又はこの両方であってもよく、図11の通知表示欄63に表示された通知文であってもよい。「表示又は音出力する」は、出力制御手段17Yが自ら表示又は音出力する態様に限られず、情報処理装置1内の他の処理部又は情報処理装置1以外の外部装置に所定の制御信号を送信することで表示又は音出力を実行させる態様も含まれる。出力制御手段17Yは、第2実施形態における出力制御部17Cとすることができる。
 図16は、第4実施形態において情報処理装置1Yが実行するフローチャートの一例である。情報処理装置1Yの第1取得手段14Yは、計測対象者の知的能力の計測結果を取得する(ステップS41)。次に、第2取得手段15Yは、知的能力の計測に影響がある計測対象者の内面状態の推定結果を取得する(ステップS42)。出力制御手段17Yは、内面状態の推定結果に基づき、知的能力の計測結果に関する情報を表示又は音出力する(ステップS43)。
 第4実施形態によれば、情報処理装置1Yは、知的能力の計測に影響がある計測対象者の内面状態の推定結果に基づいて、計測対象者の知的能力の計測結果に関する情報を好適にユーザに提示することができる。
 なお、上述した各実施形態において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータであるプロセッサ等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 その他、上記の各実施形態の一部又は全部は、以下の付記のようにも記載され得るが以下には限られない。
[付記1]
 計測対象者の知的能力の計測結果を取得する第1取得手段と、
 前記知的能力の計測に影響がある前記計測対象者の内面状態の推定結果を取得する第2取得手段と、
 前記知的能力の計測結果と前記内面状態の推定結果とに基づき、前記知的能力を推定する推定手段と、
を有する情報処理装置。
[付記2]
 前記第2取得手段は、前記内面状態の推定結果として、前記計測対象者の前記知的能力の計測時点での覚醒度、脈拍、眠気の度合い、ストレスの度合い、集中度、感情又はアルコールの程度の少なくともいずれかを取得する、付記1に記載の情報処理装置。
[付記3]
 前記知的能力の計測結果は、前記知的能力を表すスコアであり、
 前記推定手段は、前記内面状態の推定結果に基づき、前記知的能力を表すスコアを補正したスコアを、前記知的能力の推定結果として算出する、付記1または2に記載の情報処理装置。
[付記4]
 前記推定手段は、前記内面状態の推定結果に基づき推定される、前記知的能力の発揮度合いに基づき、前記知的能力を推定する、付記1~3のいずれか一項に記載の情報処理装置。
[付記5]
 前記第1取得手段は、前記計測対象者を撮像する撮像手段が生成した画像に基づき、前記計測対象者の認知機能の計測結果を、前記知的能力の計測結果として生成し、
 前記第2取得手段は、前記画像に基づき、前記内面状態の推定結果を生成する、付記1~4のいずれか一項に記載の情報処理装置。
[付記6]
 前記推定手段による前記知的能力の推定結果を表示又は音出力する出力制御手段をさらに有する、付記1~5のいずれか一項に記載の情報処理装置。
[付記7]
 前記出力制御手段は、前記知的能力の計測結果、又は、前記知的能力の正常値を表す情報の少なくとも一方と、前記知的能力の推定結果とを、表示又は音出力する、付記6に記載の情報処理装置。
[付記8]
 前記内面状態の推定結果に基づき、前記計測対象者が前記知的能力の計測に適した状態であるか否かの判定を行う判定手段をさらに有し、
 前記出力制御手段は、前記判定の結果に基づき、前記知的能力の計測に関する通知を行う、付記6または7に記載の情報処理装置。
[付記9]
 前記推定手段は、前記計測対象者の認知機能の推定を行い、
 前記出力制御手段は、前記認知機能の推定結果と、認知障害に関する基準とに基づき、前記計測対象者の認知障害の可能性に関する情報を表示又は音出力する、付記6~8のいずれか一項に記載の情報処理装置。
[付記10]
 前記計測対象者の年齢に関する情報を取得する第3取得手段をさらに有し、
 前記推定手段は、前記知的能力の計測結果と前記内面状態の推定結果と前記年齢に関する情報とに基づき、前記知的能力を推定する、付記1~9のいずれか一項に記載の情報処理装置。
[付記11]
 計測対象者の知的能力の計測結果を取得する第1取得手段と、
 前記知的能力の計測に影響がある前記計測対象者の内面状態である内面状態の推定結果を取得する第2取得手段と、
 前記内面状態の推定結果に基づき、前記知的能力の計測結果に関する情報を表示又は音出力する出力制御手段と、
を有する情報処理装置。
[付記12]
 前記内面状態の推定結果に基づき、前記計測対象者が前記知的能力の計測に適した状態であるか否かを判定する判定手段を有し、
 前記出力制御手段は、前記計測対象者が前記知的能力の計測に適した状態でないと判定された場合、前記知的能力の計測結果に関する情報として、前記知的能力の計測に関する警告を表示又は音出力する、付記11に記載の情報処理装置。
[付記13]
 前記内面状態の推定結果に基づき、前記計測対象者が前記知的能力の計測に適した状態であるか否かを判定する判定手段を有し、
 前記出力制御手段は、前記計測対象者が前記知的能力の計測に適した状態であると判定された場合、前記知的能力の計測結果に関する情報として、
前記知的能力の計測結果、又は、
前記知的能力の計測結果と前記内面状態の推定結果とに基づく前記知的能力の推定結果
の少なくとも一方を表示する、付記11または12に記載の情報処理装置。
[付記14]
 コンピュータにより、
 計測対象者の知的能力の計測結果を取得し、
 前記知的能力の計測に影響がある前記計測対象者の内面状態の推定結果を取得し、
 前記知的能力の計測結果と前記内面状態の推定結果とに基づき、前記知的能力を推定する、
制御方法。
[付記15]
 計測対象者の知的能力の計測結果を取得し、
 前記知的能力の計測に影響がある前記計測対象者の内面状態の推定結果を取得し、
 前記知的能力の計測結果と前記内面状態の推定結果とに基づき、前記知的能力を推定する処理をコンピュータに実行させるプログラムが格納された記憶媒体。
[付記16]
 コンピュータにより、
 計測対象者の知的能力の計測結果を取得し、
 前記知的能力の計測に影響がある前記計測対象者の内面状態である内面状態の推定結果を取得し、
 前記内面状態の推定結果に基づき、前記知的能力の計測結果に関する情報を表示又は音出力する、
制御方法。
[付記17]
 計測対象者の知的能力の計測結果を取得し、
 前記知的能力の計測に影響がある前記計測対象者の内面状態である内面状態の推定結果を取得し、
 前記内面状態の推定結果に基づき、前記知的能力の計測結果に関する情報を表示又は音出力する処理をコンピュータに実行させるプログラムが格納された記憶媒体。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
 1、1A、1B、1X、1Y 情報処理装置
 2 カメラ(撮像手段)
 3 表示装置
 5 センサ
 6 入力装置
 7 ネットワーク
 8 端末装置
 100、100A、100B 認知機能検査システム

Claims (15)

  1.  計測対象者の知的能力の計測結果を取得する第1取得手段と、
     前記知的能力の計測に影響がある前記計測対象者の内面状態の推定結果を取得する第2取得手段と、
     前記知的能力の計測結果と前記内面状態の推定結果とに基づき、前記知的能力を推定する推定手段と、
    を有する情報処理装置。
  2.  前記第2取得手段は、前記内面状態の推定結果として、前記計測対象者の前記知的能力の計測時点での覚醒度、脈拍、眠気の度合い、ストレスの度合い、集中度、感情又はアルコールの程度の少なくともいずれかを取得する、請求項1に記載の情報処理装置。
  3.  前記知的能力の計測結果は、前記知的能力を表すスコアであり、
     前記推定手段は、前記内面状態の推定結果に基づき、前記知的能力を表すスコアを補正したスコアを、前記知的能力の推定結果として算出する、請求項1または2に記載の情報処理装置。
  4.  前記推定手段は、前記内面状態の推定結果に基づき推定される、前記知的能力の発揮度合いに基づき、前記知的能力を推定する、請求項1~3のいずれか一項に記載の情報処理装置。
  5.  前記第1取得手段は、前記計測対象者を撮像する撮像手段が生成した画像に基づき、前記計測対象者の認知機能の計測結果を、前記知的能力の計測結果として生成し、
     前記第2取得手段は、前記画像に基づき、前記内面状態の推定結果を生成する、請求項1~4のいずれか一項に記載の情報処理装置。
  6.  前記推定手段による前記知的能力の推定結果を表示又は音出力する出力制御手段をさらに有する、請求項1~5のいずれか一項に記載の情報処理装置。
  7.  前記出力制御手段は、前記知的能力の計測結果、又は、前記知的能力の正常値を表す情報の少なくとも一方と、前記知的能力の推定結果とを、表示又は音出力する、請求項6に記載の情報処理装置。
  8.  前記内面状態の推定結果に基づき、前記計測対象者が前記知的能力の計測に適した状態であるか否かの判定を行う判定手段をさらに有し、
     前記出力制御手段は、前記判定の結果に基づき、前記知的能力の計測に関する通知を行う、請求項6または7に記載の情報処理装置。
  9.  前記推定手段は、前記計測対象者の認知機能の推定を行い、
     前記出力制御手段は、前記認知機能の推定結果と、認知障害に関する基準とに基づき、前記計測対象者の認知障害の可能性に関する情報を表示又は音出力する、請求項6~8のいずれか一項に記載の情報処理装置。
  10.  前記計測対象者の年齢に関する情報を取得する第3取得手段をさらに有し、
     前記推定手段は、前記知的能力の計測結果と前記内面状態の推定結果と前記年齢に関する情報とに基づき、前記知的能力を推定する、請求項1~9のいずれか一項に記載の情報処理装置。
  11.  計測対象者の知的能力の計測結果を取得する第1取得手段と、
     前記知的能力の計測に影響がある前記計測対象者の内面状態である内面状態の推定結果を取得する第2取得手段と、
     前記内面状態の推定結果に基づき、前記知的能力の計測結果に関する情報を表示又は音出力する出力制御手段と、
    を有する情報処理装置。
  12.  前記内面状態の推定結果に基づき、前記計測対象者が前記知的能力の計測に適した状態であるか否かを判定する判定手段を有し、
     前記出力制御手段は、前記計測対象者が前記知的能力の計測に適した状態でないと判定された場合、前記知的能力の計測結果に関する情報として、前記知的能力の計測に関する警告を表示又は音出力する、請求項11に記載の情報処理装置。
  13.  前記内面状態の推定結果に基づき、前記計測対象者が前記知的能力の計測に適した状態であるか否かを判定する判定手段を有し、
     前記出力制御手段は、前記計測対象者が前記知的能力の計測に適した状態であると判定された場合、前記知的能力の計測結果に関する情報として、
    前記知的能力の計測結果、又は、
    前記知的能力の計測結果と前記内面状態の推定結果とに基づく前記知的能力の推定結果
    の少なくとも一方を表示する、請求項11または12に記載の情報処理装置。
  14.  コンピュータにより、
     計測対象者の知的能力の計測結果を取得し、
     前記知的能力の計測に影響がある前記計測対象者の内面状態の推定結果を取得し、
     前記知的能力の計測結果と前記内面状態の推定結果とに基づき、前記知的能力を推定する、
    制御方法。
  15.  計測対象者の知的能力の計測結果を取得し、
     前記知的能力の計測に影響がある前記計測対象者の内面状態の推定結果を取得し、
     前記知的能力の計測結果と前記内面状態の推定結果とに基づき、前記知的能力を推定する処理をコンピュータに実行させるプログラムが格納された記憶媒体。
PCT/JP2020/030882 2020-08-14 2020-08-14 情報処理装置、制御方法及び記憶媒体 WO2022034682A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/020,568 US20230301572A1 (en) 2020-08-14 2020-08-14 Information processing device, control method, and storage medium
JP2022542561A JPWO2022034682A5 (ja) 2020-08-14 情報処理装置、制御方法及びプログラム
PCT/JP2020/030882 WO2022034682A1 (ja) 2020-08-14 2020-08-14 情報処理装置、制御方法及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/030882 WO2022034682A1 (ja) 2020-08-14 2020-08-14 情報処理装置、制御方法及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2022034682A1 true WO2022034682A1 (ja) 2022-02-17

Family

ID=80247042

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/030882 WO2022034682A1 (ja) 2020-08-14 2020-08-14 情報処理装置、制御方法及び記憶媒体

Country Status (2)

Country Link
US (1) US20230301572A1 (ja)
WO (1) WO2022034682A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199839A1 (ja) * 2022-04-13 2023-10-19 日本電気株式会社 内面状態推定装置、内面状態推定方法及び記憶媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021149220A1 (ja) * 2020-01-23 2021-07-29 日本電気株式会社 処理装置、処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002529120A (ja) * 1998-10-30 2002-09-10 ウォルター リード アーミー インスティテュート オブ リサーチ 人の認知能力を予測する方法
WO2018179292A1 (ja) * 2017-03-30 2018-10-04 日本電気株式会社 情報処理装置と方法とプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002529120A (ja) * 1998-10-30 2002-09-10 ウォルター リード アーミー インスティテュート オブ リサーチ 人の認知能力を予測する方法
WO2018179292A1 (ja) * 2017-03-30 2018-10-04 日本電気株式会社 情報処理装置と方法とプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023199839A1 (ja) * 2022-04-13 2023-10-19 日本電気株式会社 内面状態推定装置、内面状態推定方法及び記憶媒体
WO2023199422A1 (ja) * 2022-04-13 2023-10-19 日本電気株式会社 内面状態推定装置、内面状態推定方法及び記憶媒体

Also Published As

Publication number Publication date
JPWO2022034682A1 (ja) 2022-02-17
US20230301572A1 (en) 2023-09-28

Similar Documents

Publication Publication Date Title
MacDougall et al. A new saccadic indicator of peripheral vestibular function based on the video head impulse test
JP2021507792A (ja) 医師による遠隔評価のためのデジタル眼検査方法
US11699529B2 (en) Systems and methods for diagnosing a stroke condition
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
US20170258319A1 (en) System and method for assessing eyesight acuity and hearing ability
US20170344713A1 (en) Device, system and method for assessing information needs of a person
US11417045B2 (en) Dialog-based testing using avatar virtual assistant
JP2012059107A (ja) 感情推定装置、感情推定方法およびプログラム
WO2022034682A1 (ja) 情報処理装置、制御方法及び記憶媒体
WO2019162054A1 (en) System and method for client-side physiological condition estimations based on a video of an individual
US11848079B2 (en) Biomarker identification
CN115334957A (zh) 用于对瞳孔心理感觉反应进行光学评估的系统和方法
US20240032852A1 (en) Cognitive function estimation device, cognitive function estimation method, and storage medium
Migliorelli et al. A store-and-forward cloud-based telemonitoring system for automatic assessing dysarthria evolution in neurological diseases from video-recording analysis
EP4325517A1 (en) Methods and devices in performing a vision testing procedure on a person
Mantri et al. Cumulative video analysis based smart framework for detection of depression disorders
WO2023199839A1 (ja) 内面状態推定装置、内面状態推定方法及び記憶媒体
WO2022144978A1 (ja) 情報処理装置、制御方法及び記憶媒体
US20240071240A1 (en) Test familiar determination device, test familiar determination method and storage medium
TWM579360U (zh) Questioning system for detecting facial expressions
US20230284974A1 (en) Systems and methods for diagnosing, assessing, and quantifying sedative effects
WO2024116280A1 (ja) 情報処理装置、決定方法及び記憶媒体
WO2022113276A1 (ja) 情報処理装置、制御方法及び記憶媒体
US20220409096A1 (en) Head-position sway measuring device, head-position sway measuring method, and biological information acquisition system using said device and method
US20230148944A1 (en) Systems and methods for screening subjects for neuropathology associated with a condition utilizing a mobile device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20949544

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022542561

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20949544

Country of ref document: EP

Kind code of ref document: A1