WO2023189309A1 - コンピュータプログラム、情報処理方法及び情報処理装置 - Google Patents

コンピュータプログラム、情報処理方法及び情報処理装置 Download PDF

Info

Publication number
WO2023189309A1
WO2023189309A1 PCT/JP2023/008702 JP2023008702W WO2023189309A1 WO 2023189309 A1 WO2023189309 A1 WO 2023189309A1 JP 2023008702 W JP2023008702 W JP 2023008702W WO 2023189309 A1 WO2023189309 A1 WO 2023189309A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
face
subject
facial
neurological disorder
Prior art date
Application number
PCT/JP2023/008702
Other languages
English (en)
French (fr)
Inventor
康之 本間
俊彦 西村
Original Assignee
テルモ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テルモ株式会社 filed Critical テルモ株式会社
Publication of WO2023189309A1 publication Critical patent/WO2023189309A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present disclosure relates to a computer program, an information processing method, and an information processing device for estimating the presence or absence of a neurological disorder in a subject.
  • Patent Document 1 a facial image including the subject's face is acquired, and a trained model that has been deep learned in advance is used to determine whether the subject has facial nerve paralysis based on the facial image, and to ask questions regarding stroke.
  • a stroke determination device has been proposed that is presented to a subject, obtains answers to interview items, and determines the possibility of a stroke in the subject based on the presence or absence of facial nerve paralysis and the answers.
  • the present disclosure has been made in view of such circumstances, and its purpose is to accurately estimate the presence or absence of a neurological disorder in a subject based on facial information obtained from a direction other than the front view. It is an object of the present invention to provide a computer program, an information processing method, and an information processing device that can be expected to have the following advantages.
  • a computer program causes a computer to acquire facial information of a target person detected by a sensor, generate facial structure information of the target person based on the acquired facial information, and generate facial structure information of the generated facial structure. Based on the information, missing face information of the subject is complemented with respect to the acquired face information, and a process of estimating the presence or absence of a neurological disorder of the subject is executed based on the supplemented face information.
  • it can be expected to accurately estimate the presence or absence of a neurological disorder in a subject based on face information acquired from a direction other than the front view.
  • FIG. 1 is a schematic diagram for explaining an overview of an information processing system according to the present embodiment.
  • 1 is a block diagram showing the configuration of a server device according to Embodiment 1.
  • FIG. FIG. 2 is a block diagram showing the configuration of a terminal device according to the present embodiment.
  • 3 is a flowchart for explaining the procedure of pre-processing performed in the information processing system according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining pre-processing performed in the information processing system according to the first embodiment.
  • 2 is a flowchart illustrating a procedure for estimating the presence or absence of a neurological disorder performed by the server device according to the present embodiment.
  • 7 is a flowchart illustrating a procedure of facial image complementation processing performed by the server device according to the first embodiment.
  • FIG. 1 is a block diagram showing the configuration of a server device according to Embodiment 1.
  • FIG. FIG. 2 is a block diagram showing the configuration of a terminal device according to the present embodiment.
  • 3 is
  • FIG. 2 is a schematic diagram for explaining a method for estimating the presence or absence of a neurological disorder performed by the server device according to the present embodiment. It is a schematic diagram which shows an example of the notification screen of the estimation result of a neurological disorder.
  • FIG. 7 is a schematic diagram for explaining the configuration of a learning model included in the server device according to Embodiment 2.
  • FIG. 3 is a schematic diagram showing an example of shape information output by a shape estimation model. 7 is a flowchart illustrating the procedure of facial image complementation processing performed by the server device according to the second embodiment.
  • FIG. 1 is a schematic diagram for explaining an overview of an information processing system according to this embodiment.
  • the information processing system according to the present embodiment includes a server device 1 that performs processing for estimating the presence or absence of a neurological disorder in a subject, and a device that performs processing such as photographing a face image of the subject necessary for the estimation processing performed by the server device 1. or a plurality of terminal devices 3.
  • the terminal device 3 is installed in a residence where a subject lives (for example, a living room or a dining room), a nursing care facility, a medical facility, or the like.
  • the terminal device 3 is equipped with a camera, and regularly photographs the subject inside the residence, and transmits the photographed images to the server device 1.
  • the server device 1 Based on the photographed image of the subject obtained from the terminal device 3, the server device 1 performs a process of estimating whether the subject has a neurological disorder such as apoplexy (cerebrovascular disorder), cerebral infarction, or facial nerve paralysis.
  • the server device 1 estimates the presence or absence of a neurological disorder based on the subject's face included in the photographed image. For example, when the server device 1 estimates that the subject has a neurological disorder, the server device 1 transmits this estimation result to the terminal device 3.
  • the terminal device 3 that has received this estimation result displays a warning message on the display unit or outputs a voice, etc., to notify the target person or other users related to the target person (family members or medical professionals). etc.) can be notified of the risk of neurological disorders. Note that even when the server device 1 estimates that the subject does not have a neurological disorder, it may transmit this to the terminal device 3 as the estimation result.
  • the information processing system estimates the presence or absence of a neurological disorder based on the image taken of the subject by the camera, and when it is estimated that the subject has a neurological disorder, the information processing system installed in the terminal device 3
  • Information on the subject may be detected using a sensor other than a camera, such as a distance measuring sensor or a microphone, and the presence or absence of a neurological disorder may be further estimated based on the detected information.
  • the terminal device 3 that has received from the server device 1 the estimation result that there is a neurological disorder based on the captured image of the camera detects information using a sensor different from the camera, and transmits the detected information to the server device 1.
  • the server device 1 further performs a process of estimating the presence or absence of a neurological disorder in the subject based on the information received from the terminal device 3.
  • Detection of information about a subject includes, for example, detection of abnormal biological information, facial paralysis, mental abnormality, fall, agitation or tremor, weakness, abnormal speech, and the like.
  • Specific symptoms of bioinformation abnormalities include abnormalities in pulse rate, heart rate variability, breathing, blood oxygen concentration, or blood pressure fluctuations.
  • the server device 1 determines that the subject has a neurological disorder based on an image captured by a camera, and also determines that the subject has a neurological disorder based on information detected by another sensor, the server device 1 ultimately determines whether the subject has a neurological disorder.
  • the estimation result indicating that there is a failure is transmitted to the terminal device 3.
  • the server device 1 determines that the subject has a neurological disorder based on an image captured by a camera, but determines that there is no neurological disorder based on information detected by another sensor, the server device 1 ultimately determines that the subject has a neurological disorder.
  • the estimation result of "none" is transmitted to the terminal device 3.
  • this additional estimation of the presence or absence of a neurological disorder may be performed based on the image of the subject taken by the camera, rather than information detected by a sensor different from the camera.
  • the additional estimation is performed by a method different from the determination of the presence or absence of a neurological disorder based on the subject's face, such as a method such as determination of the presence or absence of a neurological disorder based on the subject's entire body.
  • the additional estimation does not necessarily need to be performed, and the server device 1 may only estimate the presence or absence of a neurological disorder based on the subject's face photographed by the camera of the terminal device 3.
  • the information processing system may perform a diagnostic test on the subject in order to understand, for example, the degree of the symptoms of the neurological disorder.
  • the server device 1 sends information to the terminal device 3 of a subject who has been determined to have a neurological disorder based on a judgment index such as CPSS (Cincinnati Prehospital Stroke Scale), NIHSS (National Institute of Health Stroke Scale), or KPSS (Kurashiki Prehospital Scale). Submit information to perform diagnostic tests for neurological disorders.
  • the terminal device 3 performs a diagnostic test based on the information received from the server device 1 and transmits the information obtained from the subject to the server device 1.
  • the server device 1 makes a determination regarding one or more test items included in the diagnostic test based on the information received from the terminal device 3, and transmits the results of the diagnostic test to the terminal device 3.
  • the terminal device 3 displays the result of the diagnostic test received from the server device 1 and notifies the subject. Note that a diagnostic test does not necessarily have to be performed.
  • the server device 1 in order to accurately perform the first estimation process regarding the presence or absence of a neurological disorder, that is, the estimation of the presence or absence of a neurological disorder based on the image of the subject's face captured by the camera of the terminal device 3.
  • the server device 1 is performing various processes.
  • the server device 1 estimates the presence or absence of a neurological disorder by checking the left-right symmetry of the subject's face based on the image of the subject's face taken by the camera of the terminal device 3.
  • the server device 1 also compares the image of the subject's normal face registered in advance with the image of the subject's face taken by the camera of the terminal device 3, and determines whether or not there is a neurological disorder based on the difference. presume.
  • the above estimation of the presence or absence of a neurological disorder is based on the premise that the subject's face photographed by the camera of the terminal device 3 is viewed from the front.
  • the information processing system according to the present embodiment photographs the subject with the camera of the terminal device 3 installed in the subject's residence, and it is not necessarily possible to photograph the subject's face from the front. Therefore, in the information processing system according to the present embodiment, the image of the subject's face taken by the camera of the terminal device 3 is taken from a direction other than the front (for example, diagonally forward right or diagonally left) If the captured image does not show the entire face of the subject, the server device 1 complements the parts that are not shown (missing parts) and generates a front-view image of the subject's face. Then, use the method described above to estimate the presence or absence of neurological disorders.
  • FIG. 2 is a block diagram showing the configuration of the server device 1 according to the first embodiment.
  • the server device 1 according to the present embodiment includes a processing section 11, a storage section 12, a communication section (transceiver) 13, and the like. Note that although the present embodiment will be described assuming that the processing is performed by one server device, the processing may be performed in a distributed manner by a plurality of server devices.
  • the processing unit 11 includes an arithmetic processing unit such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), a GPU (Graphics Processing Unit), or a quantum processor, a ROM (Read Only Memory), a RAM (Random Access Memory), etc. It is configured using The processing unit 11 reads out and executes the server program 12a stored in the storage unit 12, thereby performing processing for estimating the presence or absence of a neurological disorder in the subject based on the photographed image acquired from the terminal device 3, and determining whether the subject has a neurological disorder.
  • Various processes such as a process for implementing a diagnostic test on the determined subject are performed.
  • the storage unit 12 is configured using a large-capacity storage device such as a hard disk, for example.
  • the storage unit 12 stores various programs executed by the processing unit 11 and various data necessary for processing by the processing unit 11.
  • the storage unit 12 stores a server program 12a executed by the processing unit 11, and is provided with a reference information storage unit 12b that stores information used for estimation processing of the presence or absence of a neurological disorder.
  • the server program (computer program, program product) 12a is provided in a form recorded on a recording medium 99 such as a memory card or an optical disk, and the server device 1 reads the server program 12a from the recording medium 99 and stores it. It is stored in section 12.
  • the server program 12a may be written into the storage unit 12, for example, during the manufacturing stage of the server device 1.
  • the server program 12a may be distributed by another remote server device, and the server device 1 may obtain it through communication.
  • the server program 12 a may be recorded on the recording medium 99 by a writing device and written into the storage unit 12 of the server device 1 .
  • the server program 12a may be provided in the form of distribution via a network, or may be provided in the form of being recorded on the recording medium 99.
  • the reference information storage unit 12b stores information regarding the subject's face (normal face) obtained and/or generated in advance as reference information.
  • the information stored in the reference information storage unit 12b may include, for example, a photographed image of the subject's face taken from the front, a three-dimensional model of the subject's face, and the like.
  • the communication unit 13 communicates with various devices via a network N including a mobile phone communication network, a wireless LAN (Local Area Network), the Internet, and the like. In this embodiment, the communication unit 13 communicates with one or more terminal devices 3 via the network N. The communication unit 13 transmits data provided from the processing unit 11 to other devices, and also provides data received from other devices to the processing unit 11.
  • a network N including a mobile phone communication network, a wireless LAN (Local Area Network), the Internet, and the like.
  • the communication unit 13 communicates with one or more terminal devices 3 via the network N.
  • the communication unit 13 transmits data provided from the processing unit 11 to other devices, and also provides data received from other devices to the processing unit 11.
  • the storage unit 12 may be an external storage device connected to the server device 1.
  • the server device 1 may be a multicomputer including a plurality of computers, or may be a virtual machine virtually constructed by software.
  • the server device 1 is not limited to the above configuration, and may include, for example, a reading unit that reads information stored in a portable storage medium, an input unit that accepts operation input, a display unit that displays an image, etc. .
  • the server device 1 includes a face image acquisition unit 11a, a three-dimensional model generation unit 11b, a face image generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b, a facial image acquisition unit 11a, a three-dimensional model generation unit 11b,
  • the complementing section 11c, the neurological disorder estimating section 11d, the second estimating section 11e, the diagnostic test processing section 11f, the notification processing section 11g, etc. are implemented in the processing section 11 as software-like functional sections.
  • functional units of the processing unit 11 functional units related to the process of estimating the presence or absence of a neurological disorder in the subject are illustrated, and functional units related to other processes are omitted.
  • the face image acquisition unit 11a performs a process of acquiring an image of the target person's face photographed by the terminal device 3 by communicating with the terminal device 3 through the communication unit 13. Further, for example, when the whole body of the subject is captured in the image taken by the terminal device 3, the face image acquisition unit 11a performs a process of detecting the face of the subject from the captured image and extracting a partial image of the detected face. You may go. Note that the process of extracting the target person's face image from the photographed image may be performed not by the server device 1 but by the terminal device 3. In this case, the server device 1 extracts the target person's face image extracted from the photographed image. A face image can be acquired from the terminal device 3.
  • the three-dimensional model generation unit 11b generates ( Performs processing to generate the latest) 3D model.
  • a three-dimensional model of the target person's face is created in advance by photographing and measuring the face of the target person, and is stored in the reference information storage unit 12b of the server device 1. I'll keep it.
  • the subject's face is photographed from multiple angles, and two-dimensional images of the subject's face from various angles are collected. Further, the surface shape of the subject's face is measured with a distance measurement sensor that uses infrared rays, ultrasonic waves, or the like, and a shape model that reproduces the shape of the subject's face in a three-dimensional virtual space is generated. By pasting the collected two-dimensional images onto this shape model, a three-dimensional model serving as a reference of the subject's face is generated.
  • the server device 1 stores in advance the generated three-dimensional model and two-dimensional images of the subject's face taken from multiple angles when creating the three-dimensional model in the reference information storage unit 12b.
  • the three-dimensional model of the subject's face stored in the reference information storage unit 12b will be referred to as a reference three-dimensional model
  • the two-dimensional image will be referred to as a reference face image.
  • the shape model may be generated based on a two-dimensional image of the subject's face taken from one or more angles.
  • a trained face mesh learning model may be used to generate a three-dimensional shape model from a two-dimensional image.
  • the face mesh learning model is a machine learning model that detects facial key points (feature points) from images, and can output several hundred feature points from a human face in three-dimensional coordinates.
  • the reference three-dimensional model of the subject's face is preferably generated as a plurality of models for a plurality of facial expressions, or as a model that can change facial expressions. For this reason, it is preferable that the photographing of the subject's face and the measurement of the surface shape be performed with various facial expressions of the subject. Further, in this embodiment, it is preferable that the various facial expressions include left-right asymmetric facial expressions.
  • the three-dimensional model generation unit 11b pastes the image of the target person's face acquired by the face image acquisition unit 11a onto the reference three-dimensional model of the target person's face stored in the reference information storage unit 12b. A three-dimensional model of the subject's face is generated. At this time, the 3D model generation unit 11b compares, for example, the image of the face to be pasted with the image of the face pasted on the surface of the reference 3D model, and selects the reference 3D model with the closest facial expression. , paste the face image onto this reference 3D model.
  • the three-dimensional model generated by this is a model in which the image of the subject's face taken by the terminal device 3 is pasted, and the parts of the face that are missing in the image taken by the terminal device 3 are pasted. becomes the model of the face image pasted on the reference three-dimensional model.
  • the face image complementation unit 11c performs processing to complement the missing portions of the image of the subject's face based on the three-dimensional model of the subject's face generated by the three-dimensional model generation unit 11b.
  • the face image complementing unit 11c converts the generated three-dimensional model of the face into a two-dimensional image viewed from the front, that is, a two-dimensional image taken with a virtual camera placed in front of the three-dimensional model of the face in the three-dimensional virtual space. By generating the image, a front-view face image of the subject is obtained in which missing portions in the image captured by the terminal device 3 are supplemented.
  • the neurological disorder estimating unit 11d performs a process of estimating the presence or absence of a neurological disorder in the subject based on the facial image of the subject supplemented by the facial image complementing unit 11c. Note that if the facial image of the subject obtained from the terminal device 3 is a front-view image, the neurological disorder estimating unit 11d determines the subject based on the image obtained from the terminal device 3 without performing the above-mentioned complementation process. The presence or absence of a neurological disorder in a person may be estimated.
  • the neurological disorder estimating unit 11d extracts various feature points such as the positions of the eyes, mouth, forehead, and cheeks, as well as the angles of the corners of the mouth and eyebrows from the facial image of the subject, and extracts the extracted features. Compare points on the left and right sides of the face to check for symmetry.
  • the neurological disorder estimating unit 11d can calculate, for example, the amount of deviation between the left and right sides of various features of the face, and if the calculated amount of deviation exceeds a predetermined threshold value, it can be estimated that there is a neurological disorder.
  • the neurological disorder estimating unit 11d may also compare, for example, the subject's latest face image and past facial images, and estimate the presence or absence of a neurological disorder based on the difference.
  • the server device 1 uses a facial image (information on features extracted from this facial image, or a three-dimensional model generated from this facial image) that has been previously photographed in a normal state (no neurological disorder) of the subject. ) is stored in the reference information storage section 12b.
  • the neurological disorder estimating unit 11d extracts various features from the facial image acquired from the terminal device 3 (or a facial image supplemented with the facial image acquired from the terminal device 3), and extracts various features from the normal image stored in the reference information storage unit 12b. Compare with the features extracted from the state's face image.
  • the neurological disorder estimating unit 11d can calculate the amount of deviation for the features of both facial images, and if the calculated amount of deviation exceeds a predetermined threshold, it can be estimated that there is a neurological disorder.
  • the neurological disorder estimating unit 11d compares the latest face image and the past face image of the subject separately for the left half and right half of the face, and determines the amount of deviation for either the left or right half of the face. exceeds a threshold, the subject is presumed to have a neurological disorder. If the amount of deviation exceeds the threshold on both the left and right sides of the face, and if the amount of deviation does not exceed the threshold on both the left and right sides of the face, the neurological disorder estimation unit 11d estimates that the subject does not have a neurological disorder. Note that in the case where the amount of deviation exceeds a threshold value on both the left and right sides of the face, the neurological disorder estimating unit 11d may estimate that there is a neurological disorder.
  • the second estimation unit 11e adds estimation of the presence or absence of a neurological disorder in the subject using a sensor different from the camera included in the terminal device 3.
  • the shape of the target person's face is measured using the ranging sensor included in the terminal device 3, and the server device 1 acquires the measurement result from the terminal device 3 and performs the second estimation.
  • the unit 11e estimates the presence or absence of a neurological disorder in the subject by comparing the shape of the subject's face with the left and right symmetry or the normal shape.
  • the additional estimation by the second estimation unit 11e may be performed using any sensor included in the terminal device 3, and the estimation may be performed using any method based on the information acquired by the sensor. Good too.
  • the diagnostic test processing section 11f is configured to perform a diagnostic test on the subject using the terminal device 3 when the neurological disorder estimating section 11d and the second estimating section 11e estimate that the subject has a neurological disorder. Perform processing.
  • the diagnostic test processing unit 11f performs a stroke diagnostic test based on a determination index such as CPSS, NIHSS, or KPSS.
  • the diagnostic test may be performed, for example, by displaying a question message on the display unit of the terminal device 3 and receiving an answer from the subject by text input, voice input, or the like.
  • a message or the like requesting a predetermined action or expression is displayed on the display section of the terminal device 3, and a camera is used to photograph the subject performing the requested action or expression. This can be done by acquiring an image.
  • the method for implementing the diagnostic test described above is an example, and the present invention is not limited to this, and the diagnostic test processing unit 11f may implement any type of diagnostic test.
  • the diagnostic test processing unit 11f transmits information such as questions or requests regarding the diagnostic test to the terminal device 3. Based on this information, the terminal device 3 outputs a message such as a question or request related to the diagnostic test, accepts an answer from the subject, or photographs the subject's movements, and transmits information such as the received answer or the photographed image to the server. Send to 1.
  • the diagnostic test processing unit 11f of the server device which has received the information regarding the diagnostic test from the terminal device 3, determines whether the subject has a neurological disorder, its degree, etc. based on the received information.
  • the notification processing unit 11g performs a process of notifying the estimation results of the neurological disorder estimation unit 11d, the estimation results of the second estimation unit 11e, and/or the diagnosis results of the diagnostic test processing unit 11f.
  • the notification processing unit 11g notifies the target person by transmitting information such as these estimation results or diagnosis results to the terminal device 3.
  • the notification processing unit 11g may also notify other users related to the target person, such as family members, based on information such as a pre-registered email address or telephone number.
  • FIG. 3 is a block diagram showing the configuration of the terminal device 3 according to the present embodiment.
  • the terminal device 3 according to the present embodiment includes a processing section 31, a storage section 32, a communication section (transceiver) 33, a display section 34, an operation section 35, a camera 36, a distance measurement sensor 37, etc. It is composed of
  • the terminal device 3 is a device installed in a residence or the like where a subject lives, whose presence or absence of neurological disorder is to be estimated.
  • the terminal device 3 may be, for example, a device fixedly installed in a house or the like, or may be a portable device such as a smartphone or a tablet terminal device mounted on a stand or the like.
  • the processing unit 31 is configured using an arithmetic processing device such as a CPU or MPU, a ROM, a RAM, and the like.
  • the processing unit 31 reads out and executes the program 32a stored in the storage unit 32, thereby performing a process of photographing the target person using the camera 36, a process of detecting information regarding the target person using the ranging sensor 37, and a process of detecting information about the target person using the distance measuring sensor 37. Performs various processes such as inputting and outputting information for diagnostic tests between the computer and the computer.
  • the storage unit 32 is configured using, for example, a nonvolatile memory element such as a flash memory or a storage device such as a hard disk.
  • the storage unit 32 stores various programs executed by the processing unit 31 and various data necessary for processing by the processing unit 31.
  • the storage unit 32 stores a program 32a executed by the processing unit 31.
  • the program 32a is distributed by a remote server device or the like, and the terminal device 3 acquires it through communication and stores it in the storage unit 32.
  • the program 32a may be written into the storage unit 32, for example, during the manufacturing stage of the terminal device 3.
  • the program 32a may be stored in the storage unit 32 by reading the program 32a recorded on a recording medium 98 such as a memory card or an optical disk by the terminal device 3.
  • the program 32a may be recorded on the recording medium 98 and read by a writing device and written into the storage unit 32 of the terminal device 3.
  • the program 32a may be provided in the form of distribution via a network, or may be provided in the form of being recorded on the recording medium 98.
  • the communication unit 33 communicates with various devices via a network N including a mobile phone communication network, wireless LAN, the Internet, and the like.
  • the communication unit 33 communicates with the server device 1 via the network N.
  • the communication unit 33 transmits data provided from the processing unit 31 to other devices, and also provides data received from other devices to the processing unit 31.
  • the display unit 34 is configured using a liquid crystal display or the like, and displays various images, characters, etc. based on the processing of the processing unit 31.
  • the operation unit 35 accepts user operations and notifies the processing unit 31 of the accepted operations.
  • the operation unit 35 receives user operations using input devices such as mechanical buttons or a touch panel provided on the surface of the display unit 34 .
  • the operation unit 35 may be an input device such as a mouse and a keyboard, and these input devices may be configured to be detachable from the terminal device 3.
  • the camera 36 is configured using an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the camera 36 provides data of an image (moving image) captured by an image sensor to the processing unit 31 .
  • the camera 36 may be built into the terminal device 3 or may be configured to be detachable from the terminal device 3.
  • the distance sensor 37 is a sensor that measures the distance to an object by emitting, for example, infrared rays, ultrasonic waves, electromagnetic waves, etc., and detecting their reflected waves.
  • a sensor called LiDAR Light Detection And Ranging
  • the distance measurement sensor 37 is used for an additional estimation process performed when it is estimated that the subject has a neurological disorder based on the facial image taken by the camera 36. .
  • the distance sensor 37 can measure the shape of the subject's face, and based on this measurement result, the server device 1 can estimate whether the subject has a neurological disorder.
  • the sensor provided in the terminal device 3 for the additional estimation process is not limited to the ranging sensor 37, and may be a sensor (microphone) that detects audio, for example, or any other sensor other than these. Good too.
  • the processing section 31 when the processing section 31 reads and executes the program 32a stored in the storage section 32, the photographing processing section 31a, the distance measurement processing section 31b, the diagnostic test processing section 31c, etc. is implemented in the processing section 31 as a software-like functional section.
  • the photographing processing unit 31a performs a process of photographing the subject using the camera 36 and transmitting the obtained photographed image to the server device 1.
  • the photographing processing unit 31a repeatedly performs photographing at a cycle of, for example, several times to several tens of times per second.
  • the photographing processing unit 31a continuously performs photographing with the camera 36 regardless of whether or not there is a subject in the house, and transmits the image obtained by photographing to the server device 1.
  • the photographing processing unit 31a performs, for example, a process of detecting a person from an image obtained by photographing, a process of detecting a person's face, a process of identifying a person photographed in the image, etc.
  • images in which the subject's face is captured may be selected and transmitted to the server device 1. Furthermore, the photographing processing unit 31 a may extract a partial image in which the face of the subject is captured from the photographed image of the camera 36 and transmit the extracted partial image to the server device 1 . Further, the photographing processing unit 31a may perform photographing only when there are people around the terminal device 3, when the terminal device 3 is equipped with, for example, a human sensor.
  • the distance measurement processing unit 31b performs a process of measuring the surface shape of the target person's face by measuring the distance to the target person's face using the distance measurement sensor 37.
  • the measurement by the distance measurement processing unit 31b is not always performed, but is started when an instruction to perform additional estimation processing is given from the server device 1.
  • the distance measurement processing unit 31b grasps the position of the target person's face based on, for example, an image taken by the camera 36, and obtains information corresponding to the position of the target person's face from distance information measured by the distance measurement sensor 37.
  • the extracted information is transmitted to the server device 1 as information on the surface shape of the subject's face.
  • the diagnostic test processing unit 31c performs a diagnostic test regarding neurological disorders by outputting messages and the like to the subject and accepting input from the subject.
  • the diagnostic test processing unit 31c displays, for example, a message of a question given from the server device 1 on the display unit 34, receives an input of an answer to this question from the subject through the operation unit 35, and transmits the received answer to the server device. Send to 1.
  • the output of the question and the input of the answer may be performed by voice input/output.
  • the diagnostic test processing unit 31c displays a message regarding a request for movement or facial expression given from the server device 1 on the display unit 34, and displays the movement, facial expression, etc. performed by the subject in response to this request on the camera 34. and transmits the photographed image (moving image or still image) to the server device 1.
  • FIG. 4 is a flowchart for explaining the procedure of pre-processing performed in the information processing system according to the first embodiment.
  • FIG. 5 is a schematic diagram for explaining pre-processing performed in the information processing system according to the first embodiment.
  • the preprocessing may be performed by the server device 1, the terminal device 3, or one or more devices other than these. In this embodiment, it is assumed that the pre-processing is performed using the server device 1 and the terminal device 3.
  • the server device 1 uses, for example, the camera 36 of the terminal device 3 to photograph the face of the subject in a normal state for predicting the presence or absence of a neurological disorder (step S1).
  • the target person can be viewed from multiple directions by, for example, manually or automatically moving the terminal device 3 relative to the target person's face, or by moving the target person's face relative to the camera 36 of the terminal device 3.
  • Acquire multiple images of the face of the person for example, a message is displayed on the display unit 34 of the terminal device 3 to request the subject to make various facial expressions, and a plurality of captured images of faces with various facial expressions are obtained.
  • the various facial expressions include asymmetrical facial expressions.
  • FIG. 5 an example of the target person's face image obtained in the process of step S1 is shown.
  • the server device 1 measures the three-dimensional shape of the target person's face using, for example, the distance measurement sensor 37 of the terminal device 3 (step S2). Regarding this measurement as well, it is preferable to perform measurements with various facial expressions of the subject. Further, the photographing in step S1 and the measurement in step S2 may be performed simultaneously.
  • the server device 1 creates a three-dimensional shape model that reproduces the subject's face in a three-dimensional virtual space based on the measurement results in step S2 (step S3).
  • the shape model created by the server device 1 in step S3 is a model that reproduces the shape (structure) of the subject's face, and does not reproduce the color or pattern of the surface of the face. In the middle part of FIG. 5, an example of the shape model created in the process of step S3 is shown.
  • the server device 1 generates a three-dimensional model of the target person's face by pasting the image of the target person's face photographed in step S1 on the surface of the shape model created in step S3 (step S4 ).
  • the three-dimensional model generated in step S4 is a model whose orientation can be changed in the three-dimensional virtual space. Furthermore, it is preferable that a plurality of three-dimensional models be generated in association with a plurality of facial expressions of the subject, or a model that can change facial expressions in a three-dimensional virtual space.
  • the lower part of FIG. 5 shows an example of the three-dimensional model generated in the process of step S4, in which a plurality of images corresponding to the case where the three-dimensional model is changed to a plurality of orientations are arranged horizontally. It is shown.
  • the server device 1 stores the face image acquired in step S1 and the three-dimensional model generated in step S4 in the reference information storage section 12b of the storage section 12 (step S5), and ends the pre-processing. .
  • These pieces of information stored in the reference information storage unit 12b of the server device 1 are used in a process that complements the image of the subject's face taken by the terminal device 3 when performing the process of estimating the presence or absence of a neurological disorder in the subject. used for.
  • the terminal device 3 installed in the target person's residence continuously takes pictures with the camera 36, and the image of the target person obtained by the photography (an image of the target person's face) is used. ) is continuously transmitted to the server device 1.
  • the server device 1 acquires an image of the subject's face photographed by the terminal device 3, and performs a process of estimating whether or not the subject has a neurological disorder.
  • FIG. 6 is a flowchart showing a procedure for estimating the presence or absence of a neurological disorder performed by the server device 1 according to the present embodiment.
  • the facial image acquisition unit 11a of the processing unit 11 of the server device 1 communicates with the terminal device 3 through the communication unit 13, and the facial image of the target person photographed by the terminal device 3 using the camera 36. (Step S21).
  • the face image acquisition unit 11a determines whether the face image acquired in step S21 is a front-view image obtained by photographing the subject's face from the front (step S22). If the image is a front view image (S22: YES), the processing unit 11 advances the process to step S24. If the image is not a front-view image (S22: NO), the processing unit 11 performs face image complementation processing (Step S23), and advances the process to Step S24. Note that the face image complementation process performed in step S23 will be described later.
  • the neurological disorder estimating unit 11d of the processing unit 11 performs a process of estimating the presence or absence of a neurological disorder of the subject based on the face image acquired from the terminal device 3 or the face image obtained by correcting this facial image (step S24). At this time, the neurological disorder estimating unit 11d compares the left half and right half of the subject's face captured in the face image, and estimates the presence or absence of a neurological disorder based on the left-right symmetry. The neurological disorder estimating unit 11d also compares the face image acquired from the terminal device 3 or the face image obtained by correcting this face image with the face image of the subject in a normal state stored in the reference information storage unit 12b, Based on the difference, the presence or absence of neurological disorder is estimated.
  • the processing unit 11 determines whether the subject is estimated to have a neurological disorder through the neurological disorder estimation process in step S24 (step S25). When it is estimated that there is no neurological disorder (S25: NO), the processing unit 11 returns the process to step S21 and repeats the above-described process. When it is estimated that there is a neurological disorder (S25: YES), the second estimation unit 11e of the processing unit 11 performs a second estimation process using the ranging sensor 37 provided in the terminal device 3 (Step S26). In the second estimation process, the second estimation unit 11e transmits, for example, a command to the terminal device 3 to perform measurement by the distance measurement sensor 37, and the measurement result of the surface shape of the subject's face by the distance measurement sensor 37 ( face information) is acquired from the terminal device 3.
  • the second estimating unit 11e estimates the presence or absence of a neurological disorder based on the left-right symmetry of the surface shape of the subject's face, or the Using a method such as estimating the presence or absence of a neurological disorder based on a comparison with the surface shape of the face, it is possible to estimate the presence or absence of a neurological disorder in the subject using the distance measuring sensor 37.
  • the processing unit 11 determines whether the subject is estimated to have a neurological disorder through the second estimation process of step S26 (step S27). If it is estimated that there is no neurological disorder (S27: NO), the processing unit 11 returns the process to step S21 and repeats the above-described process. If it is estimated that the subject has a neurological disorder (S27: YES), the diagnostic test processing unit 11f of the processing unit 11 performs a diagnostic test regarding the neurological disorder by conducting a question and answer session with the subject via the terminal device 3. (Step S28). The diagnostic test processing unit 11f causes the terminal device 3 to output the message, for example, by transmitting a message asking the subject a question to the terminal device 3, and also acquires the answer that the terminal device 3 receives from the subject.
  • the diagnostic test processing unit 11f transmits a message requesting the subject to make an action or facial expression to the terminal device 3, causes the terminal device 3 to output the message, and photographs the motion or facial expression performed by the subject in response to this message using the camera 36. An image is acquired from the terminal device 3.
  • the diagnostic test processing unit 11f performs these processes multiple times to collect information about the subject, and determines the presence or absence and degree of neurological disorder based on indicators such as CPSS, NIHSS, or KPSS.
  • the notification processing unit 11g of the processing unit 11 transmits information regarding the estimation processing result in step S24, the estimation processing result in step S26, and/or the diagnostic test result in step S28 to the terminal device 3.
  • the results of the estimation and diagnosis regarding the failure are notified to the subject (step S29), and the process ends.
  • the notification processing unit 11g sends the notification to a terminal device other than the terminal device 3 installed at the target person's home, such as a terminal device used by the target person's family or a terminal device used by the target person's doctor. Good too.
  • FIG. 7 is a flowchart showing the procedure of face image complementation processing performed by the server device 1 according to the first embodiment.
  • the face image complementation process shown in this flowchart is a process executed in step S23 when it is determined in the flowchart shown in FIG. 7 that the face image acquired from the terminal device 3 is not a front view image.
  • the three-dimensional model generation unit 11b of the processing unit 11 of the server device 1 reads out the reference three-dimensional model stored in the reference information storage unit 12b (step S41).
  • the 3D model generation unit 11b pastes the face image of the target person photographed by the camera 36 of the terminal device 3 onto the reference 3D model read out in step S41, thereby generating the current face of the target person.
  • a three-dimensional model is generated (step S42).
  • the 3D model generation unit 11b extracts feature points from the face image, for example, and sets the facial expression of the reference 3D model so that the feature points of the face of the reference 3D model and the feature points of the face image match. or select a reference 3D model with the most matching feature points from a plurality of reference 3D models with facial expressions.
  • the face image complementing unit 11c of the processing unit 11 generates a front-view two-dimensional image from the three-dimensional model of the subject's face generated in step S42, thereby replacing the missing portion of the face image captured by the terminal device 3.
  • a face image is generated by complementing the above (step S43), and the face image complementing process ends.
  • the face image complementing unit 11c sets a virtual camera in front of a 3D model of the subject's face in a 3D virtual space, and acquires a 2D image of the 3D model with the virtual camera. It is possible to obtain a facial image.
  • the facial image of the subject to be subjected to face image complementation processing is a face that includes at least one feature point indicating a characteristic such as facial distortion. It is an image. For example, for a subject whose right half of the face has features such as distortion, a face image in which only the left half of the face is photographed is not subject to face image complementation processing. If the face image contains the left half of the face and at least a part of the right half of the face (the part where features such as distortion appear), a reference 3D model can be selected based on the feature points included in this part. Through face image complementation processing, it is possible to generate a front-view face image in which distortion or the like appears on the right half of the face.
  • the face image complementing unit 11c can generate a front-view face image in which the right half of the face is distorted and the left half is undistorted, by complementing the left half of the undistorted face.
  • FIG. 8 is a schematic diagram for explaining a method for estimating the presence or absence of a neurological disorder performed by the server device 1 according to the present embodiment.
  • FIG. 8 shows an example of a face image of a subject who can be estimated to have a neurological disorder. This face image is a photographed image photographed by the camera 36 of the terminal device 3, or an image obtained by supplementing missing portions based on this photographed image.
  • the neurological disorder estimating unit 11d of the processing unit 11 of the server device 1 extracts feature points from the facial image of the subject.
  • the face image in FIG. 8 shows feature points at the corners of the mouth and the ends of the eyebrows extracted from the face image of the subject.
  • the neurological disorder estimating unit 11d divides the subject into left and right halves along the median plane (center line indicated by a dashed line in FIG. 8), and compares the positional relationship of the feature points on the left half and right half of the subject's face. , determine the left-right symmetry of the subject's face.
  • FIG. 8 for example, when comparing the positional relationship between the position of the right corner of the mouth and the position of the left corner of the subject's mouth, the position of the right corner of the mouth is lower than the position of the left corner of the mouth. Similarly, the position of the right eyebrow of the subject is lower than the position of the left eyebrow.
  • the neurological disorder estimating unit 11d calculates the difference in coordinates or distance from the center line of feature points on the left and right sides of the face, such as the corners of the mouth and the ends of the eyebrows, and determines a neurological disorder if this difference exceeds a predetermined threshold. It can be assumed that there is.
  • the neurological disorder estimating unit 11d uses a reference face image of the subject in a normal state that has been photographed in advance, a face image of the subject that has been photographed by the camera 36 of the terminal device 3, or a face supplemented with this. The images are compared to estimate whether the subject has a neurological disorder.
  • the neurological disorder estimating unit 11d extracts feature points from the reference face image stored in the reference information storage unit 12b, extracts feature points from the face image acquired from the terminal device 3, and compares the feature points of both images. .
  • the neurological disorder estimating unit 11d can estimate that there is a neurological disorder when the difference in the positions of corresponding feature points in both images exceeds a predetermined threshold.
  • FIG. 9 is a schematic diagram showing an example of a notification screen of the estimation result of neurological disorder.
  • the notification screen shown in FIG. 9 may be displayed, for example, after the estimation process based on the face image is performed and before the diagnostic test is performed, or may be displayed, for example, after the diagnostic test is completed.
  • the server device 1 transmits information such as an image and a message for displaying a notification screen to the terminal device 3 at an appropriate timing, and the terminal device 3 that receives the information displays the illustrated notification screen on the display unit 34.
  • the terminal device 3 Based on the information from the server device 1, the terminal device 3 displays, for example, the target person's face image from one week ago and the current face image used for estimation side by side, as shown in FIG. At this time, if the missing part of the face image photographed by the camera 36 has been supplemented, the terminal device 3 updates the current face image so that the actually photographed part and the complemented part of the current face image can be distinguished. Display a face image. For the distinguishable display, a display method such as displaying in different colors or displaying in shading may be adopted. In the example shown in FIG. 9, the current face image is displayed with the complementary portion shaded.
  • the terminal device 3 displays, as a result of the estimation of a neurological disorder by the server device 1, for example, ⁇ The right corner of the mouth and the tip of the eyebrow are lower than the left, and there is a suspicion of a neurological disorder.We recommend that you undergo a detailed examination at a hospital.'' ” is displayed below the two facial images.
  • the current face image is displayed to indicate which part of the face (feature point) is the basis for inferring that the patient has a neurological disorder.
  • the terminal device 3 displays a circle surrounding the right corner of the mouth and the right eyebrow over the face image as the basis for estimating that the person has a neurological disorder. Note that the method of displaying the evidence part is not limited to the superimposition of circles shown in FIG. Any display method may be used.
  • the terminal device 3 installed in the target person's home or the like continuously photographs the target person.
  • the server device 1 estimates the presence or absence of a neurological disorder in the subject based on the facial image of the subject photographed by the terminal device 3, and stores the facial image used when the subject is estimated to have no neurological disorder. You can stay there.
  • the server device 1 can store and collect face images of the subject in a normal state (no neurological disorder), and use the collected face images as a reference face image in subsequent estimation processing.
  • the terminal device 3 may continuously perform measurements using the distance measurement sensor 37, and the server device 1 may store and collect the measurement results obtained by the distance measurement sensor 37 together with the facial image of the subject in a normal state.
  • the server device 1 collects the face image taken by the camera 36 and the measurement result of the distance sensor 37 (i.e., the surface shape of the subject's face), and generates a three-dimensional model of the subject's face based on the collected information. be able to.
  • the server device 1 continuously collects this information, periodically generates a three-dimensional model of the subject's face, and uses the collected facial images and the generated three-dimensional model as the subject's reference face image and reference 3. It is stored in the reference information storage unit 12b as a dimensional model.
  • the collection of facial images and surface shape information by the server device 1 may not cover all of the information acquired from the terminal device 3, but may be collected, for example, about several times a day.
  • the server device 1 stores, for example, several pieces of information selected under various conditions from among a plurality of face images and surface shape information photographed by the terminal device 3 in one day.
  • the selection conditions include, for example, the front view of the subject, the brightness of the image exceeds a predetermined threshold, the ratio of the face to the entire photographed image exceeds the predetermined threshold, such as a smiling face, etc.
  • Various conditions may be employed, such as a predetermined facial expression. Note that the selection conditions may be any conditions.
  • the generation of the reference three-dimensional model by the server device 1 may be performed at a predetermined period, such as once every several months.
  • the server device 1 may overwrite and update the old reference face image and reference 3D model that are already stored with the new reference face image and reference 3D model, and A new reference face image and a new reference three-dimensional model may be added and stored while leaving the three-dimensional model.
  • the server device 1 acquires the face image (face information) of the target person photographed (detected) by the camera 36 (sensor) of the terminal device 3, and the acquired face A 3D model of the subject's face (facial structure information) is generated based on the image, the missing parts of the facial image are complemented based on the generated 3D model, and the neurological disorder of the subject is determined based on the supplemented facial image.
  • face information face information
  • facial structure information facial structure information
  • the positional relationship between the target person and the device such as a camera that photographs the target person's face is not limited, it is expected that restrictions on where the device can be installed in a house etc. will be relaxed, and the target person's real-time It is expected that the system will be able to perform monitoring and abnormality detection.
  • the server device 1 stores a reference three-dimensional model of the subject generated in advance in the reference information storage unit 12b, and the face image photographed by the camera 36 of the terminal device 3, the reference A three-dimensional model of the subject is generated based on the reference three-dimensional model stored in the information storage unit 12b.
  • the standard 3D model is a multi-view face image (multi-view face information) taken of the subject's face from two or more directions with a camera, and the surface shape of the subject's face is measured using a distance sensor. It is generated based on the shape model (three-dimensional face information) reproduced by .
  • the server device 1 does not generate and store a reference 3D model in advance, but stores multi-view face images and shape models for generating the reference 3D model, and stores them as necessary.
  • a reference three-dimensional model may also be generated.
  • the server device 1 stores the face image of the target person taken by the camera 36 by the terminal device 3 and the shape information of the target person's face measured by the distance measuring sensor 37 in the storage unit. 12 to store and accumulate. Based on the accumulated information, the server device 1 can update the reference 3D model etc. stored in the reference information storage unit 12b, and by using the updated reference 3D model, the missing parts of the face image can be removed. It is expected that accurate complementation will be achieved.
  • the right half of the face image of the subject photographed by the terminal device 3 or the face image supplemented with this and the right half of the face image stored in the reference information storage unit 12b are combined. Based on the comparison result and the comparison result between the left half of the face image of the subject photographed by the terminal device 3 or the face image supplemented with this and the left half of the face image stored in the reference information storage unit 12b, The server device 1 estimates whether the person has a neurological disorder.
  • the information processing system can be expected to accurately estimate the presence or absence of a neurological disorder in a subject.
  • the information processing system calculates the value based on the symmetry of the left half and right half of the target person's face. , to estimate the presence or absence of a neurological disorder in the subject.
  • the server device 1 estimates that the subject has a neurological disorder, for example, if the right half of the face is lower than the left half, or if the left half of the face is lower than the right half. be able to.
  • the information processing system according to this embodiment can be expected to accurately estimate the presence or absence of a neurological disorder in a subject.
  • the terminal device 3 when the face image photographed by the terminal device 3 is a face image other than a front-view face image, the supplemented front-view face image is displayed on the display unit of the terminal device 3. Further, the terminal device 3 displays the complemented face image and the reference face image stored in the reference information storage unit 12b side by side. Note that the terminal device 3 may display the complemented face image and the reference face image in a superimposed manner instead of displaying them side by side. Further, the terminal device 3 displays, together with the subject's face image, which part is the basis for the estimation result of the presence or absence of a neurological disorder. As a result, the information processing system according to the present embodiment can be expected to present the estimation results of the presence or absence of neurological disorders to the subject in an easy-to-understand manner.
  • the server device 1 when the server device 1 estimates that the subject has a neurological disorder based on the facial image of the subject photographed by the camera 36 of the terminal device 3, the terminal device 3 The distance sensor 37 measures the surface shape of the subject's face, and based on the measured surface shape, the server device 1 further estimates whether or not the subject has a neurological disorder.
  • the information processing system may first perform the estimation based on the measurement result of the distance measuring sensor 37, and may perform the estimation based on the captured image of the camera 36 later. Further, the information processing system according to the present embodiment performs a diagnostic test on the subject when it is estimated that the subject has a neurological disorder through these estimation processes. With these, the information processing system according to the present embodiment can be expected to accurately determine the presence or absence and degree of neurological disorder in a subject.
  • the camera 36 is used as a sensor for acquiring face information of the subject in the initial process of estimating the presence or absence of a neurological disorder, but this is only an example and is not limited to this.
  • the sensor may be, for example, the distance measuring sensor 37, or may be a sensor other than these.
  • the distance measuring sensor 37 is used as the second sensor in the process of estimating the presence or absence of a second neurological disorder, but this is merely an example and is not limited to this.
  • the second sensor may be, for example, a microphone, an event-driven photographing device that extracts luminance changes, a millimeter wave sensor, an ultrasonic sensor, a thermography camera, or the like, or may be a sensor other than these.
  • the second sensor may include multiple types of sensors.
  • the information acquired by the second sensor is not limited to face information, but also abnormalities of the subject such as changes in arm fluctuation (body sway/tremor), arm weakness, and speech abnormalities (aphasia/dysarthria). It may also be information indicating.
  • the server device 1 performs a process of estimating the presence or absence of a neurological disorder of the subject based on the face image taken by the camera of the terminal device 3, but this is not limited to this. Instead, the terminal device 3 may perform the process of estimating the presence or absence of a neurological disorder, and in this case, the information processing system does not need to include the server device 1.
  • the server device 1 fills in missing portions of the target person's face image photographed by the terminal device 3 using a reference three-dimensional model and a reference face image that are stored in advance.
  • a learning model so-called AI By using Artificial Intelligence
  • the server device 1 fills in the missing portions of the target person's face image photographed by the terminal device 3.
  • FIG. 10 is a schematic diagram for explaining the configuration of a learning model included in the server device 1 according to the second embodiment.
  • the storage unit 12 is not provided with the reference information storage unit 12b, and instead, information regarding learned learning models is stored in the storage unit 12.
  • the information regarding the learning model may include, for example, information defining the structure of the learning model and information such as values of internal parameters determined by machine learning.
  • the server device 1 according to the second embodiment uses two learning models, a shape estimation model 51 and a complementation model 52, to perform a process of complementing a missing part of a target person's face image.
  • the shape estimation model 51 receives a two-dimensional face image as input, estimates the three-dimensional surface shape of the face captured in this face image, and has undergone machine learning in advance to output the estimation result as shape information.
  • This is a learning model.
  • a trained facial mesh learning model may be used as the shape estimation model 51.
  • the face mesh learning model is a machine learning model that detects facial key points (feature points) from images, and can output several hundred feature points from a human face in three-dimensional coordinates.
  • FIG. 11 is a schematic diagram showing an example of shape information output by the shape estimation model 51.
  • This figure shows multiple feature points output by a face mesh learning model plotted in a three-dimensional virtual space.
  • the shape of a human face is reproduced, and the direction of the face can be changed in the three-dimensional virtual space. is possible.
  • the face mesh learning model is an existing technology, detailed explanation of the machine learning method and the like will be omitted.
  • a learning model other than the face mesh learning model may be adopted.
  • the shape estimation model 51 is configured to be able to estimate this by inputting a facial image that includes at least one feature point indicating a characteristic such as facial distortion. It is possible to output shape information that reproduces the distortion of the subject's face. Even if the subject has a neurological disorder, if a face image that does not include any feature points indicating features such as facial distortion is input, the shape estimation model 51 It is possible to output shape information that reproduces a normal face without reproducing facial distortion.
  • the complementary model 52 is machined in advance to receive a two-dimensional face image and the shape information estimated from the face image by the shape estimation model 51 as input, and to generate a three-dimensional model of the face captured in the face image. This is a learning model that has been trained.
  • the three-dimensional model output by the complementary model 52 is a three-dimensional model in which a facial image is pasted onto the input shape information, and missing portions of the facial image are complemented.
  • the complementary model 52 may be a learning model such as a DNN (Deep Neural Network) or a CNN (Convolutional Neural Network).
  • the complementary model 52 acquires a face image, shape information, and a three-dimensional model using the same procedure as the three-dimensional model generation performed as pre-processing in the information processing system according to the first embodiment (see FIG. 5), for example. It can be generated by performing machine learning using these as training data. Note that since the machine learning processing of these learning models is an existing technology, a detailed explanation will be omitted.
  • FIG. 12 is a flowchart showing the procedure of face image complementation processing performed by the server device 1 according to the second embodiment.
  • the three-dimensional model generation unit 11b of the processing unit 11 of the server device 1 according to the second embodiment converts the face image of the subject photographed by the camera 36 of the terminal device 3 into a shape estimation model 51 that has undergone machine learning in advance. (Step S61).
  • the three-dimensional model generation unit 11b acquires the shape information output by the shape estimation model 51 (step S62).
  • the three-dimensional model generation unit 11b inputs the target person's face image and the shape information acquired in step S62 to the complementary model 52 (step S63).
  • the three-dimensional model generation unit 11b generates a three-dimensional model of the subject's face by acquiring the three-dimensional model output by the complementary model 52 (step S64).
  • the face image complementing unit 11c of the processing unit 11 generates a front-view two-dimensional image from the three-dimensional model of the subject's face generated in step S63, thereby replacing the missing portion of the face image captured by the terminal device 3.
  • a face image is generated by complementing the above (step S65), and the face image complementing process ends.
  • the face image taken by the terminal device 3 using the camera 36 and/or the shape information measured by the distance measuring sensor 37 etc. similarly to the information processing system according to the first embodiment, the face image taken by the terminal device 3 using the camera 36 and/or the shape information measured by the distance measuring sensor 37 etc., and store them in memory. This accumulated information can be used to retrain the complementary model 52.
  • the server device 1 can store information several times a day, for example, and relearn the complementary model 52 once a week, for example.
  • the server device 1 complements the face image of the subject photographed by the camera 36 of the terminal device 3, and estimates that the subject has a neurological disorder based on the complemented face image, and then, for example, within a predetermined time. If it is estimated that there is no neurological disorder without performing complementation processing based on the front-view face image taken by the camera 36 of the terminal device 3, it is determined that the initial estimation result was incorrect.
  • the server device 1 stores the face image used in the initial estimation process which was incorrect, the face image supplemented with this, the measurement result by the distance measurement sensor 37 performed following the initial estimation process, and the subsequent estimation process. Information such as face images used in the process is stored as information for relearning. In this way, by accumulating information when the server device 1 determines that there is an error in the estimation result and using it for relearning the complementary model 52, it is possible to improve the accuracy of face image complementation by the complementary model 52. You can expect it.
  • the information processing system receives a face image of a subject's face as input, and performs machine learning to output a three-dimensional model of the subject (shape estimation).
  • the server device 1 includes a learning model (a learning model that is a combination of a model 51 and a complementary model 52).
  • the server device 1 generates a three-dimensional model from the target person's facial image by inputting the facial image photographed by the camera 36 of the terminal device 3 into the learning model and acquiring the three-dimensional model output from the learning model.
  • the information processing system according to the second embodiment can be expected to accurately generate a three-dimensional model of the subject and complement the missing portions of the facial image with accuracy.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

正面視以外の方向から取得された顔情報を基に対象者の神経障害の有無を精度よく推定することが期待できるコンピュータプログラム、情報処理方法及び情報処理装置を提供する。 本実施の形態に係るコンピュータプログラムは、コンピュータに、センサが検知した対象者の顔情報を取得し、取得した前記顔情報を基に、前記対象者の顔構造情報を生成し、生成した前記顔構造情報に基づいて、取得した前記顔情報について欠落した前記対象者の顔情報を補完し、補完した前記顔情報に基づいて、当該対象者の神経障害の有無を推定する処理を実行させる。コンピュータプログラムは、予め生成された前記対象者の基準顔構造情報を記憶部から取得し、前記センサが検知した前記顔情報、及び、前記記憶部に記憶された前記基準顔構造情報に基づいて、前記対象者の顔構造情報を生成してもよい。

Description

コンピュータプログラム、情報処理方法及び情報処理装置
 本開示は、対象者の神経障害の有無を推定するコンピュータプログラム、情報処理方法及び情報処理装置に関する。
 特許文献1においては、被験者の顔面を含む顔画像を取得し、予め深層学習された学習済モデルを用いて、顔画像に基づいて被験者の顔面神経麻痺の有無を判定し、脳卒中に関する問診項目を被験者に提示し、問診項目に対する回答を取得し、顔面神経麻痺の有無及び回答に基づいて、被験者の脳卒中の可能性を判定する脳卒中判定装置が提案されている。
特開2020-199072号公報
 特許文献1に記載の脳卒中判定装置のように、カメラで撮影した被験者の顔画像に基づいて顔面神経麻痺の有無を判定するためには、被験者の顔を正面から撮影した顔画像を用いなければ、顔面神経麻痺の有無を精度よく判定することは難しい。
 本開示は、斯かる事情に鑑みてなされたものであって、その目的とするところは、正面視以外の方向から取得された顔情報を基に対象者の神経障害の有無を精度よく推定することが期待できるコンピュータプログラム、情報処理方法及び情報処理装置を提供することにある。
 一実施形態に係るコンピュータプログラムは、コンピュータに、センサが検知した対象者の顔情報を取得し、取得した前記顔情報を基に、前記対象者の顔構造情報を生成し、生成した前記顔構造情報に基づいて、取得した前記顔情報について欠落した前記対象者の顔情報を補完し、補完した前記顔情報に基づいて、当該対象者の神経障害の有無を推定する処理を実行させる。
 一実施形態による場合は、正面視以外の方向から取得された顔情報を基に対象者の神経障害の有無を精度よく推定することが期待できる。
本実施の形態に係る情報処理システムの概要を説明するための模式図である。 実施の形態1に係るサーバ装置の構成を示すブロック図である。 本実施の形態に係る端末装置の構成を示すブロック図である。 実施の形態1に係る情報処理システムにて行われる事前処理の手順を説明するためのフローチャートである。 実施の形態1に係る情報処理システムにて行われる事前処理を説明するための模式図である。 本実施の形態に係るサーバ装置が行う神経障害の有無の推定処理の手順を示すフローチャートである。 実施の形態1に係るサーバ装置が行う顔画像補完処理の手順を示すフローチャートである。 本実施の形態に係るサーバ装置が行う神経障害の有無の推定方法を説明するための模式図である。 神経障害の推定結果の通知画面の一例を示す模式図である。 実施の形態2に係るサーバ装置が備える学習モデルの構成を説明するための模式図である。 形状推定モデルが出力する形状情報の一例を示す模式図である。 実施の形態2に係るサーバ装置が行う顔画像補完処理の手順を示すフローチャートである。
 本開示の実施形態に係る情報処理システムの具体例を、以下に図面を参照しつつ説明する。なお、本開示はこれらの例示に限定されるものではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
<システム構成>
 図1は、本実施の形態に係る情報処理システムの概要を説明するための模式図である。本実施の形態に係る情報処理システムは、対象者の神経障害の有無を推定する処理を行うサーバ装置1と、サーバ装置1が行う推定処理に必要な対象者の顔画像の撮影等を行う一又は複数の端末装置3とを備えて構成されている。本実施の形態に係る情報処理システムでは、対象者が住む住宅内(例えばリビングルーム又はダイニングルーム等)、介護施設又は医療施設等に端末装置3が設置される。端末装置3は、カメラを搭載しており、住宅内で定期的に対象者の撮影を行って、撮影画像をサーバ装置1へ送信する。
 サーバ装置1は、端末装置3から取得した対象者の撮影画像に基づいて、対象者について脳卒中(脳血管障害)、脳梗塞又は顔面神経麻痺等の神経障害の有無を推定する処理を行う。本実施の形態に係るサーバ装置1は、撮影画像に含まれる対象者の顔を基に、神経障害の有無を推定する。サーバ装置1は、例えば対象者について神経障害ありと推定した場合に、この推定結果を端末装置3へ送信する。この推定結果を受信した端末装置3は、例えば警告メッセージを表示部に表示する又は音声出力する等の処理を行うことによって、対象者又は当該対象者に関係する他のユーザ(家族又は医療従事者等)に神経障害のリスクを通知することができる。なおサーバ装置1は、対象者について神経障害がないと推定した場合にも、その旨を推定結果として端末装置3へ送信してよい。
 また本実施の形態に係る情報処理システムは、端末装置3がカメラにより対象者を撮影した画像に基づく神経障害の有無を推定し、神経障害ありと推定した場合に、端末装置3に搭載されたカメラとは異なるセンサ、例えば測距センサ又はマイク(マイクロフォン)等による対象者の情報検出を行い、検出した情報に基づく神経障害の有無の推定を更に行ってもよい。例えば、カメラの撮影画像に基づいて神経障害ありとの推定結果をサーバ装置1から受信した端末装置3は、カメラとは異なるセンサによる情報検出を行い、検出した情報をサーバ装置1へ送信する。サーバ装置1は、端末装置3から受信した情報に基づいて対象者の神経障害の有無を推定する処理を更に行う。対象者の情報検出は、例えば、生体情報異常、顔面麻痺、メンタル異常、転倒、動揺もしくは振戦、脱力、または発話異常等の情報検出が挙げられる。具体的な生体情報異常の症状には、脈拍、心拍変動、呼吸、血中酸素濃度、または血圧変動の異常が含まれる。
 サーバ装置1は、例えばカメラで撮像した画像に基づいて神経障害ありと判定し、且つ、他のセンサにて検出した情報に基づいて神経障害ありと判定した場合に、最終的に対象者について神経障害ありとの推定結果を端末装置3へ送信する。サーバ装置1は、例えばカメラで撮像した画像に基づいて神経障害ありと判定したが、他のセンサにて検出した情報に基づいて神経障害なしと判定した場合に、最終的に対象者について神経障害なしとの推定結果を端末装置3へ送信する。
 なお、この神経障害の有無についての追加での推定は、カメラとは異なるセンサが検知した情報ではなく、カメラが撮影した対象者の画像に基づいて行われてよい。この場合に追加での推定は、対象者の顔に基づく神経障害の有無の判定とは異なる方法、例えば対象者の身体全体に基づく神経障害の有無の判定等の方法で行われる。また追加での推定は必ずしも行われなくてもよく、サーバ装置1は、端末装置3のカメラで撮影された対象者の顔に基づく神経障害の有無の推定のみを行ってもよい。
 また本実施の形態に係る情報処理システムは、対象者について神経障害ありと推定した場合、例えば神経障害の症状の程度等を把握すべく、対象者に対する診断テストを実施してもよい。例えばサーバ装置1は、神経障害ありと判定した対象者の端末装置3へ、CPSS(Cincinnati Prehospital Stroke Scale)、NIHSS(National Institute of Health Stroke Scale)又はKPSS(Kurashiki Prehospital Scale)等の判断指標に基づく神経障害の診断テストを実施するための情報を送信する。端末装置3は、サーバ装置1から受信した情報に基づいて診断テストを実施し、対象者から得られた情報をサーバ装置1へ送信する。サーバ装置1は、端末装置3から受信した情報に基づいて、診断テストに含まれる一又は複数のテスト項目についての判定を行い、診断テストの結果を端末装置3へ送信する。端末装置3は、サーバ装置1から受信した診断テストの結果を表示して対象者に通知する。なお診断テストは必ずしも行われなくてよい。
 本実施の形態に係る情報処理システムでは、神経障害の有無に関する最初の推定処理、即ち端末装置3のカメラが撮影した対象者の顔の画像に基づく神経障害の有無の推定を精度よく行うべく、サーバ装置1が様々な処理を行っている。サーバ装置1は、端末装置3のカメラが撮影した対象者の顔の画像に基づき、対象者の顔について左右の対称性を調べることで、神経障害の有無を推定する。またサーバ装置1は、予め登録された対象者の正常時の顔の画像と、端末装置3のカメラが撮影した対象者の顔の画像とを比較し、その差異に基づいて神経障害の有無を推定する。
 ただし、上記の神経障害の有無の推定は、端末装置3のカメラが撮影した対象者の顔が正面視のものであることが前提である。本実施の形態に係る情報処理システムは、対象者の住宅内に設置された端末装置3のカメラで対象者を撮影するものであり、必ずしも対象者の顔を正面から撮影できるわけではない。そこで本実施の形態に係る情報処理システムでは、端末装置3のカメラにて撮影された対象者の顔の画像が、正面以外の方向(例えば、右斜め前又は左斜め前等)から撮影されたものであり、撮影された画像に対象者の顔全体が写されていない場合、サーバ装置1が写されていない部分(欠落部分)を補完して対象者の顔の正面視での画像を生成し、上記の方法で神経障害の有無を推定する。
<装置構成>
 図2は、実施の形態1に係るサーバ装置1の構成を示すブロック図である。本実施の形態に係るサーバ装置1は、処理部11、記憶部(ストレージ)12及び通信部(トランシーバ)13等を備えて構成されている。なお本実施の形態においては、1つのサーバ装置にて処理が行われるものとして説明を行うが、複数のサーバ装置が分散して処理を行ってもよい。
 処理部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)又は量子プロセッサ等の演算処理装置、ROM(Read Only Memory)及びRAM(Random Access Memory)等を用いて構成されている。処理部11は、記憶部12に記憶されたサーバプログラム12aを読み出して実行することにより、端末装置3から取得した撮影画像に基づいて対象者の神経障害の有無を推定する処理及び神経障害ありと判定した対象者に対する診断テストを実施するための処理等の種々の処理を行う。
 記憶部12は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行するサーバプログラム12aが記憶されると共に、神経障害の有無の推定処理に用いられる情報を記憶する基準情報記憶部12bが設けられている。
 本実施の形態においてサーバプログラム(コンピュータプログラム、プログラム製品)12aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、サーバ装置1は記録媒体99からサーバプログラム12aを読み出して記憶部12に記憶する。ただし、サーバプログラム12aは、例えばサーバ装置1の製造段階において記憶部12に書き込まれてもよい。また例えばサーバプログラム12aは、遠隔の他のサーバ装置等が配信するものをサーバ装置1が通信にて取得してもよい。例えばサーバプログラム12aは、記録媒体99に記録されたものを書込装置が読み出してサーバ装置1の記憶部12に書き込んでもよい。サーバプログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。
 基準情報記憶部12bは、予め取得及び/又は生成された対象者の顔(正常時の顔)に関する情報を基準情報として記憶する。基準情報記憶部12bが記憶する情報には、例えば対象者の顔を正面から撮影した撮影画像、及び、対象者の顔の3次元モデル等の情報が含まれ得る。
 通信部13は、携帯電話通信網、無線LAN(Local Area Network)及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部13は、ネットワークNを介して、一又は複数の端末装置3との間で通信を行う。通信部13は、処理部11から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部11へ与える。
 なお記憶部12は、サーバ装置1に接続された外部記憶装置であってよい。またサーバ装置1は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。またサーバ装置1は、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。
 また本実施の形態に係るサーバ装置1には、記憶部12に記憶されたサーバプログラム12aを処理部11が読み出して実行することにより、顔画像取得部11a、3次元モデル生成部11b、顔画像補完部11c、神経障害推定部11d、第2推定部11e、診断テスト処理部11f及び通知処理部11g等が、ソフトウェア的な機能部として処理部11に実現される。なお本図においては、処理部11の機能部として、対象者の神経障害の有無を推定する処理に関連する機能部を図示し、これ以外の処理に関する機能部は図示を省略している。
 顔画像取得部11aは、通信部13にて端末装置3との通信を行うことにより、端末装置3が撮影した対象者の顔の画像を取得する処理を行う。また例えば端末装置3が撮影する画像に対象者の全身が写されている場合、顔画像取得部11aは、撮影画像から対象者の顔を検出し、検出した顔の部分画像を抽出する処理を行ってもよい。なお撮影画像から対象者の顔の画像を抽出する処理は、サーバ装置1が行うのではなく、端末装置3が行ってもよく、この場合にサーバ装置1は撮影画像から抽出された対象者の顔の画像を端末装置3から取得することができる。
 3次元モデル生成部11bは、顔画像取得部11aが取得した対象者の顔の画像と、基準情報記憶部12bに記憶された対象者の3次元モデルとに基づいて、対象者の顔の(最新の)3次元モデルを生成する処理を行う。
 本実施の形態に係る情報処理システムでは、対象者の顔について撮影及び測定等を予め行って、対象者の顔の3次元モデルを予め作成してサーバ装置1の基準情報記憶部12bに記憶しておく。例えば、対象者の顔に対して複数の角度から撮影を行い、様々な角度からの対象者の顔の2次元画像を収集する。また、対象者の顔の表面形状を、赤外線又は超音波等を利用した測距センサにて測定し、対象者の顔の形状を3次元の仮想空間に再現した形状モデルを生成する。この形状モデルに対して、収集した2次元画像を貼り付けることにより、対象者の顔の基準となる3次元モデルが生成される。生成された3次元モデルと、この3次元モデルを作成する際に複数の角度から対象者の顔を撮影した2次元画像とを、サーバ装置1は、基準情報記憶部12bに予め記憶する。以下の説明においては、基準情報記憶部12bに記憶された対象者の顔の3次元モデルを基準3次元モデルと呼び、2次元画像を基準顔画像と呼ぶ。なお形状モデルの生成を測距センサの測定結果に基づいて行うのではなく、対象者の顔を一又は複数の角度から撮影した2次元画像を基に形状モデルを生成してもよい。2次元画像からの3次元の形状モデルの生成には、例えば学習済みの顔メッシュの学習モデルが用いられ得る。顔メッシュの学習モデルは、画像から顔のキーポイント(特徴点)を検出する機械学習モデルであり、人間の顔から数百の特徴点を3次元座標で出力することができる。
 なお、対象者の顔の基準3次元モデルは、複数の表情について複数のモデルが生成されるか、又は、表情を変化させることが可能なモデルとして生成されることが好ましい。このため、対象者の顔の撮影及び表面形状の測定は、対象者の様々な表情においてなされることが好ましい。また本実施の形態においては、様々な表情に左右非対称の表情が含まれることが好ましい。
 3次元モデル生成部11bは、基準情報記憶部12bに記憶された対象者の顔の基準3次元モデルに対して、顔画像取得部11aが取得した対象者の顔の画像を貼り付けることで、対象者の顔の3次元モデルを生成する。このときに3次元モデル生成部11bは、例えば貼り付ける顔の画像と、基準3次元モデルの表面に貼り付けられた顔の画像とを比較して、最も表情が近い基準3次元モデルを選択し、この基準3次元モデルの上から顔の画像を貼り付ける。これにより生成される3次元モデルは、端末装置3にて撮影された対象者の顔の画像が貼り付けられたモデルとなり、且つ、端末装置3が撮影した画像において欠落している顔の部分については基準3次元モデルに貼り付けられた顔画像のモデルとなる。
 顔画像補完部11cは、3次元モデル生成部11bが生成した対象者の顔の3次元モデルに基づいて、対象者の顔を撮影した画像の欠落部分を補完する処理を行う。顔画像補完部11cは、生成された顔の3次元モデルを正面視での2次元画像に変換する、即ち3次元仮想空間において顔の3次元モデルの正面に配置した仮想カメラで撮影した2次元画像を生成することによって、端末装置3が撮影した画像において欠落していた部分を補完した対象者の正面視での顔画像を取得する。
 神経障害推定部11dは、顔画像補完部11cが補完した対象者の顔画像に基づいて、対象者の神経障害の有無を推定する処理を行う。なお神経障害推定部11dは、端末装置3から取得した対象者の顔画像が正面視のものである場合には、上記の補完処理を行うことなく、端末装置3から取得した画像に基づいて対象者の神経障害の有無を推定してよい。
 本実施の形態において神経障害推定部11dは、例えば対象者の顔画像から目、口、額及び頬等の位置、並びに、口角及び眉の角度等の様々な特徴点を抽出し、抽出した特徴点を顔の左右で比較して対称性を調べる。神経障害推定部11dは、例えば顔の様々な特徴について左右でのズレ量を算出し、算出したズレ量が所定の閾値を超える場合に、神経障害があると推定することができる。
 また神経障害推定部11dは、例えば対象者の最新の顔画像と過去の顔画像とを比較して、その差異に基づいて神経障害の有無を推定してもよい。このためにサーバ装置1は、対象者の正常状態(神経障害がない状態)で予め撮影された顔画像(この顔画像から抽出した特徴の情報、又は、この顔画像から生成した3次元モデルであってもよい)を基準情報記憶部12bに記憶している。神経障害推定部11dは、端末装置3から取得した顔画像(又は、端末装置3から取得した顔画像を補完した顔画像)から様々な特徴を抽出し、基準情報記憶部12bに記憶された正常状態の顔画像から抽出した特徴と比較する。神経障害推定部11dは、両顔画像の特徴についてズレ量を算出し、算出したズレ量が所定の閾値を超える場合に、神経障害があると推定することができる。
 また本実施の形態において神経障害推定部11dは、対象者の最新の顔画像と過去の顔画像との比較を、顔の左半分と右半分とで別に行い、左右のいずれか一方でズレ量が閾値を超える場合に、対象者について神経障害があると推定する。顔の左右の両方でズレ量が閾値を超える場合、及び、顔の左右の両方でズレ量が閾値を超えない場合、神経障害推定部11dは、対象者について神経障害がないと推定する。なお顔の左右の両方でズレ量が閾値を超える場合について、神経障害推定部11dは、神経障害があると推定してもよい。
 第2推定部11eは、神経障害推定部11dが対象者について神経障害があると推定した場合に、端末装置3が備えるカメラとは異なるセンサを用いた対象者の神経障害の有無の推定を追加で行う。本実施の形態に係る情報処理システムでは、端末装置3が備える測距センサを用いた対象者の顔の形状測定を行い、サーバ装置1が端末装置3から測定結果を取得して、第2推定部11eは対象者の顔の形状について左右の対称性又は正常時の形状との比較等を行って、対象者の神経障害の有無を推定する。なお、第2推定部11eによる追加での推定は、端末装置3が備えるどのようなセンサを用いて行われてもよく、センサが取得した情報に基づいてどのような方法で推定が行われてもよい。
 診断テスト処理部11fは、神経障害推定部11d及び第2推定部11eにより対象者の神経障害があると推定された場合に、端末装置3を利用して対象者の診断テストを実施するための処理を行う。本実施の形態において診断テスト処理部11fは、CPSS、NIHSS又はKPSS等の判断指標に基づく脳卒中の診断テストを実施する。本実施の形態において診断テストは、例えば端末装置3の表示部に質問のメッセージを表示して対象者から文字入力又は音声入力等による回答を受け付けることで行われ得る。また例えば診断テストは、所定の動作又は表情等を行うことを要求するメッセージ等を端末装置3の表示部に表示し、対象者が要求された動作又は表情等を行った様子をカメラで撮影した画像を取得することで行われ得る。なお、上記の診断テストの実施方法は一例であって、これに限るものではなく、診断テスト処理部11fはどのような診断テストを実施してもよい。
 診断テスト処理部11fは、診断テストに関する質問又は要求等の情報を端末装置3へ送信する。この情報に基づいて端末装置3は診断テストに係る質問又は要求等のメッセージを出力し、対象者による回答の受け付け又は動作の撮影等を行い、受け付けた回答又は撮影した画像等の情報をサーバ装置1へ送信する。端末装置3から診断テストに関する情報を受信したサーバ装置1の診断テスト処理部11fは、受信した情報に基づいて対象者の神経障害の有無及びその程度等を判定する。
 通知処理部11gは、神経障害推定部11dの推定結果、第2推定部11eの推定結果、及び/又は、診断テスト処理部11fの診断結果等を通知する処理を行う。通知処理部11gは、これらの推定結果又は診断結果等の情報を端末装置3へ送信することによって、対象者に対する通知を行う。また通知処理部11gは、例えば予め登録されたメールアドレス又は電話番号等の情報を基に、家族等の対象者に関係する他のユーザへの通知を行ってもよい。
 図3は、本実施の形態に係る端末装置3の構成を示すブロック図である。本実施の形態に係る端末装置3は、処理部31、記憶部(ストレージ)32、通信部(トランシーバ)33、表示部(ディスプレイ)34、操作部35、カメラ36及び測距センサ37等を備えて構成されている。端末装置3は、神経障害の有無を推定する対象者の住む住宅等に設置される装置である。端末装置3は、例えば住宅等に固定して設置される装置であってもよく、また例えばスマートフォン又はタブレット型端末装置等の可搬型の装置をスタンド等に載置したものであってもよい。
 処理部31は、CPU又はMPU等の演算処理装置、ROM及びRAM等を用いて構成されている。処理部31は、記憶部32に記憶されたプログラム32aを読み出して実行することにより、カメラ36により対象者を撮影する処理、測距センサ37により対象者に関する情報を検出する処理、及び、対象者との間で診断テストのための情報を入出力する処理等の種々の処理を行う。
 記憶部32は、例えばフラッシュメモリ等の不揮発性のメモリ素子又はハードディスク等の記憶装置等を用いて構成されている。記憶部32は、処理部31が実行する各種のプログラム、及び、処理部31の処理に必要な各種のデータを記憶する。本実施の形態において記憶部32は、処理部31が実行するプログラム32aを記憶している。本実施の形態においてプログラム32aは遠隔のサーバ装置等により配信され、これを端末装置3が通信にて取得し、記憶部32に記憶する。ただしプログラム32aは、例えば端末装置3の製造段階において記憶部32に書き込まれてもよい。例えばプログラム32aは、メモリカード又は光ディスク等の記録媒体98に記録されたプログラム32aを端末装置3が読み出して記憶部32に記憶してもよい。例えばプログラム32aは、記録媒体98に記録されたものを書込装置が読み出して端末装置3の記憶部32に書き込んでもよい。プログラム32aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体98に記録された態様で提供されてもよい。
 通信部33は、携帯電話通信網、無線LAN及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部33は、ネットワークNを介して、サーバ装置1との間で通信を行う。通信部33は、処理部31から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部31へ与える。
 表示部34は、液晶ディスプレイ等を用いて構成されており、処理部31の処理に基づいて種々の画像及び文字等を表示する。操作部35は、ユーザの操作を受け付け、受け付けた操作を処理部31へ通知する。例えば操作部35は、機械式のボタン又は表示部34の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部35は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは端末装置3に対して取り外すことが可能な構成であってもよい。
 カメラ36は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を用いて構成されている。カメラ36は、撮像素子により撮影した画像(動画像)のデータを処理部31へ与える。なおカメラ36は、端末装置3に内蔵されていてもよく、端末装置3に対して取り外すことが可能な構成であってもよい。
 測距センサ37は、例えば赤外線、超音波又は電磁波等を出射し、これらの反射波を検知することで、対象物までの距離を測定するセンサである。測距センサ37は、例えばLiDAR(Light Detection And Ranging)と呼ばれるセンサが用いられ得る。本実施の形態において測距センサ37は、カメラ36が撮影した対象者の顔画像に基づく神経障害の有無の推定処理により神経障害ありと推定された場合に行われる追加での推定処理に用いられる。測距センサ37により対象者の顔の形状を測定することができ、この測定結果に基づいてサーバ装置1が対象者の神経障害の有無を推定することができる。なお追加での推定処理のために端末装置3が備えるセンサは、測距センサ37に限らず、例えば音声を検出するセンサ(マイク)であってもよく、これら以外のどのようなセンサであってもよい。
 また本実施の形態に係る端末装置3は、記憶部32に記憶されたプログラム32aを処理部31が読み出して実行することにより、撮影処理部31a、測距処理部31b及び診断テスト処理部31c等がソフトウェア的な機能部として処理部31に実現される。
 撮影処理部31aは、カメラ36による対象者の撮影を行い、得られた撮影画像をサーバ装置1へ送信する処理を行う。撮影処理部31aは、例えば1秒間に数回~数十回等の周期で繰り返し撮影を行っている。撮影処理部31aは、住宅内に対象者がいるか否かに関わらず、カメラ36による撮影を継続的に行っており、撮影により得られた画像をサーバ装置1へ送信する。ただし撮影処理部31aは、例えば撮影により得られた画像から人を検出する処理、人の顔を検出する処理、及び、画像に写されている人が誰であるかを特定する処理等を行って、対象者の顔が写された画像を選別してサーバ装置1へ送信してもよい。また撮影処理部31aは、カメラ36の撮影画像から対象者の顔が写された部分画像を抽出し、抽出した部分画像をサーバ装置1へ送信してもよい。また撮影処理部31aは、端末装置3に例えば人感センサ等が搭載されている場合に、端末装置3の周囲に人が存在する場合にのみ撮影を行ってもよい。
 測距処理部31bは、測距センサ37による対象者の顔までの距離を測定することにより、対象者の顔の表面形状を測定する処理を行う。本実施の形態において測距処理部31bによる測定は、常時行われるのではなく、サーバ装置1から追加での推定処理を行う指示が与えられた場合に開始される。測距処理部31bは、例えばカメラ36の撮影画像を基に対象者の顔の位置を把握し、測距センサ37にて測定された距離の情報から対象者の顔の位置に相当する情報を抽出して、抽出した情報を対象者の顔の表面形状の情報としてサーバ装置1へ送信する。
 診断テスト処理部31cは、対象者に対するメッセージ等の出力と、対象者からの入力の受け付けとを行うことにより、神経障害に関する診断テストを実施する。診断テスト処理部31cは、例えばサーバ装置1から与えられた質問のメッセージを表示部34に表示し、この質問に対する回答の入力を操作部35にて対象者から受け付けて、受け付けた回答をサーバ装置1へ送信する。なお質問の出力及び回答の入力は、音声入出力により行われてもよい。また例えば、診断テスト処理部31cは、サーバ装置1から与えられた運動又は表情等の要求に関するメッセージを表示部34に表示し、この要求に対して対象者が行った運動又は表情等をカメラ36にて撮影し、撮影した画像(動画像又は静止画像)をサーバ装置1へ送信する。
<事前処理>
 実施の形態1に係る情報処理システムでは、予め対象者の正常状態(神経障害がない状態)での顔の情報取得が事前処理として行われる。図4は、実施の形態1に係る情報処理システムにて行われる事前処理の手順を説明するためのフローチャートである。また図5は、実施の形態1に係る情報処理システムにて行われる事前処理を説明するための模式図である。なお事前処理は、サーバ装置1にて行われてもよく、端末装置3にて行われてもよく、これら以外の一又は複数の装置を用いて行われてもよい。本実施の形態において事前処理は、サーバ装置1及び端末装置3を用いて行われるものとする。
 事前処理においてサーバ装置1は、例えば端末装置3のカメラ36を用いて、神経障害の有無を予測する対象者の正常状態での顔の撮影を行う(ステップS1)。このときに、例えば対象者の顔に対して端末装置3を手動又は自動で移動させる、又は、端末装置3のカメラ36に対して対象者が顔を移動させることにより、複数の方向から対象者の顔を撮影した複数の撮影画像を取得する。またこのときに、例えば端末装置3の表示部34にメッセージを表示して対象者に様々な表情を取ることを要求し、様々な表情の顔を撮影した複数の撮影画像を取得する。様々な表情には、左右非対称の表情が含まれることが好ましい。図5の上段には、ステップS1の処理にて得られる対象者の顔画像の一例が示されている。
 またサーバ装置1は、例えば端末装置3の測距センサ37を用いて、対象者の顔の3次元形状の測定を行う(ステップS2)。この測定についても、対象者の様々な表情での測定を行うことが好ましい。またステップS1の撮影とステップS2の測定とは、同時的に行われてもよい。サーバ装置1は、ステップS2の測定結果に基づいて、3次元仮想空間に対象者の顔を再現した3次元の形状モデルを作成する(ステップS3)。なおステップS3にてサーバ装置1が作成する形状モデルは、対象者の顔の形状(構造)を再現したモデルであり、顔の表面の色又は模様等は再現されていない。図5の中段には、ステップS3の処理にて作成される形状モデルの一例が示されている。
 次いでサーバ装置1は、ステップS3にて作成した形状モデルの表面に、ステップS1にて撮影した対象者の顔の画像を貼り付けることによって、対象者の顔の3次元モデルを生成する(ステップS4)。ステップS4にて生成される3次元モデルは、3次元仮想空間において向きを変化させることが可能なモデルである。更に3次元モデルは、対象者の複数の表情に対応付けて複数生成されるか、又は、3次元仮想空間において表情を変化させることが可能なモデルであることが好ましい。図5の下段には、ステップS4の処理にて生成される3次元モデルの一例が示されており、3次元モデルを複数の向きに変化させた場合に対応する複数の画像が水平方向に並べて示されている。
 サーバ装置1は、ステップS1にて取得した顔画像と、ステップS4にて生成した3次元モデルとを、記憶部12の基準情報記憶部12bに記憶して(ステップS5)、事前処理を終了する。サーバ装置1の基準情報記憶部12bに記憶されたこれらの情報は、対象者の神経障害の有無を推定する処理を行う際に、端末装置3が撮影した対象者の顔の画像を補完する処理に用いられる。
<推定処理>
 本実施の形態に係る情報処理システムでは、対象者の住宅内に設置された端末装置3がカメラ36による撮影を継続的に行い、撮影により得られた対象者の画像(対象者の顔の画像)をサーバ装置1へ継続的に送信している。サーバ装置1は、端末装置3が撮影した対象者の顔の画像を取得して、この対象者の神経障害の有無を推定する処理を行う。図6は、本実施の形態に係るサーバ装置1が行う神経障害の有無の推定処理の手順を示すフローチャートである。
 本実施の形態に係るサーバ装置1の処理部11の顔画像取得部11aは、通信部13にて端末装置3との通信を行い、端末装置3がカメラ36にて撮影した対象者の顔画像を取得する(ステップS21)。顔画像取得部11aは、ステップS21にて取得した顔画像が、対象者の顔を正面から撮影した正面視の画像であるか否かを判定する(ステップS22)。正面視の画像である場合(S22:YES)、処理部11は、ステップS24へ処理を進める。正面視の画像ではない場合(S22:NO)、処理部11は、顔画像補完処理を行って(ステップS23)、ステップS24へ処理を進める。なおステップS23で行われる顔画像補完処理については後述する。
 処理部11の神経障害推定部11dは、端末装置3から取得した顔画像又はこの顔画像を補正した顔画像を基に、対象者の神経障害の有無を推定する処理を行う(ステップS24)。このときに神経障害推定部11dは、顔画像に写された対象者の顔の左半分と右半分とを比較し、左右の対称性に基づいて神経障害の有無を推定する。また神経障害推定部11dは、端末装置3から取得した顔画像又はこの顔画像を補正した顔画像と、基準情報記憶部12bに記憶された対象者の正常状態での顔画像とを比較し、その差異に基づいて神経障害の有無を推定する。
 処理部11は、ステップS24の神経障害推定処理により、対象者に神経障害ありと推定されたか否かを判定する(ステップS25)。神経障害なしと推定された場合(S25:NO)、処理部11は、ステップS21へ処理を戻し、上述の処理を繰り返し行う。神経障害ありと推定された場合(S25:YES)、処理部11の第2推定部11eは、端末装置3に備えられた測距センサ37による第2の推定処理を行う(ステップS26)。第2の推定処理において第2推定部11eは、例えば端末装置3に対して測距センサ37による測定を実施する命令を送信し、測距センサ37による対象者の顔の表面形状の測定結果(顔情報)を端末装置3から取得する。第2推定部11eは、例えば顔画像に基づく推定処理の場合と同様に、対象者の顔の表面形状について左右の対称性に基づく神経障害の有無の推定、又は、正常状態での対象者の顔の表面形状との比較に基づく神経障害の有無の推定等の方法で、測距センサ37による対象者の神経障害の有無の推定を行うことができる。
 処理部11は、ステップS26の第2の推定処理により、対象者に神経障害ありと推定されたか否かを判定する(ステップS27)。神経障害なしと推定された場合(S27:NO)、処理部11は、ステップS21へ処理を戻し、上述の処理を繰り返し行う。神経障害ありと推定された場合(S27:YES)、処理部11の診断テスト処理部11fは、端末装置3を介して対象者との間で質疑応答等を行うことによって、神経障害に関する診断テストを実施する(ステップS28)。診断テスト処理部11fは、例えば対象者に対する質問のメッセージを端末装置3へ送信することで、端末装置3にメッセージを出力させると共に、端末装置3が対象者から受け付けた回答を取得する。また診断テスト処理部11fは、例えば対象者に動作又は表情を要求するメッセージを端末装置3へ送信して出力させ、このメッセージに対して対象者が行った動作又は表情をカメラ36にて撮影した画像を端末装置3から取得する。診断テスト処理部11fは、これらの処理を複数回行って対象者に関する情報を収集し、例えばCPSS、NIHSS又はKPSS等の指標に基づく神経障害の有無及び程度等の判定を行う。
 処理部11の通知処理部11gは、ステップS24の推定処理の結果、ステップS26の推定処理の結果、及び/又は、ステップS28の診断テストの結果に関する情報を端末装置3へ送信することにより、神経障害に関する推定及び診断の結果を対象者に通知し(ステップS29)、処理を終了する。なお通知処理部11gは、対象者の自宅に設置された端末装置3以外の端末装置、例えば対象者の家族が使用する端末装置又は対象者の担当医師が使用する端末装置等へ通知を行ってもよい。
 図7は、実施の形態1に係るサーバ装置1が行う顔画像補完処理の手順を示すフローチャートである。本フローチャートに示される顔画像補完処理は、図7に示されたフローチャートにおいて端末装置3から取得した顔画像が正面視のものでないと判定された場合に、ステップS23にて実行される処理である。サーバ装置1の処理部11の3次元モデル生成部11bは、基準情報記憶部12bに記憶された基準3次元モデルを読み出す(ステップS41)。
 3次元モデル生成部11bは、ステップS41にて読み出した基準3次元モデルに対して、端末装置3のカメラ36にて撮影された対象者の顔画像を貼り付けることで、現在の対象者の顔の3次元モデルを生成する(ステップS42)。このときに3次元モデル生成部11bは、例えば顔画像から特徴点の抽出を行い、基準3次元モデルの顔の特徴点と顔画像の特徴点とが一致するように、基準3次元モデルの表情を変化させるか又は複数の表情の基準3次元モデルから最も特徴点が一致する基準3次元モデルを選択する。
 処理部11の顔画像補完部11cは、ステップS42にて生成された対象者の顔の3次元モデルから正面視の2次元画像を生成することにより、端末装置3が撮影した顔画像の欠落部分を補完した顔画像を生成し(ステップS43)、顔画像補完処理を終了する。顔画像補完部11cは、例えば3次元仮想空間において対象者の顔の3次元モデルの正面に仮想カメラを設定し、仮想カメラで3次元モデルを撮影した2次元画像を取得することによって、保管された顔画像を得ることができる。
 なお本実施の形態において、顔画像補完処理の対象となる対象者の顔画像は、もし対象者に神経障害がある場合、顔の歪み等の特徴を示す少なくとも1つの特徴点が含まれた顔画像である。例えば顔の右半分に歪み等の特徴が現れている対象者について、顔の左半分のみが撮影された顔画像は顔画像補完処理の対象とはならない。顔の左半分と少なくとも顔の右半分の一部分(歪み等の特徴が現れる部分)が写された顔画像であれば、この一部分に含まれる特徴点に基づいて基準3次元モデルを選択することで、顔画像補完処理により顔の右半分に歪み等が現れた正面視の顔画像を生成することができる。
 また逆に、例えば顔の右半分に歪み等の特徴が現れている対象者について、歪みのある顔の右半分と、歪みのない顔の左半分の一部分とが写された顔画像を基に、顔画像補完部11cは、歪みのない顔の左半分を補完して、顔の右半分に歪みがあり且つ左半分に歪みのない正面視の顔画像を生成することができる。
 図8は、本実施の形態に係るサーバ装置1が行う神経障害の有無の推定方法を説明するための模式図である。図8には、神経障害ありと推定され得る対象者の顔画像の一例が示されている。この顔画像は、端末装置3のカメラ36にて撮影された撮影画像、又は、この撮影画像を基に欠落部分を補完した画像である。サーバ装置1の処理部11の神経障害推定部11dは、対象者の顔画像から特徴点の抽出を行う。図8の顔画像では、対象者の顔画像から抽出された口角及び眉尻の特徴点が示されている。
 神経障害推定部11dは、対象者を正中面(図8において一点鎖線で示す中心線)で左右に二分し、対象者の顔の左半分と右半分とについて特徴点の位置関係を比較して、対象者の顔の左右の対称性を判定する。図8において例えば対象者の右口角の位置と左口角の位置との位置関係を比較した場合、右口角の位置が左口角の位置より下がっている。同様に、対象者の右眉尻の位置が、左眉尻の位置より下がっている。神経障害推定部11dは、口角及び眉尻等のように顔の左右に存在する特徴点の座標又は中心線からの距離等の差異を算出し、この差異が所定の閾値を超える場合に神経障害ありと推定することができる。
 また図示は省略するが、神経障害推定部11dは、予め撮影された正常状態での対象者の基準顔画像と、端末装置3のカメラ36が撮影した対象者の顔画像又はこれを補完した顔画像とを比較して、対象者の神経障害の有無を推定する。神経障害推定部11dは、基準情報記憶部12bに記憶された基準顔画像から特徴点を抽出すると共に、端末装置3から取得した顔画像から特徴点を抽出し、両画像の特徴点を比較する。神経障害推定部11dは、両画像において対応する特徴点の位置の差異が所定の閾値を超える場合に神経障害ありと推定することができる。
<表示処理>
 本実施の形態に係る情報処理システムでは、サーバ装置1が対象者に神経障害ありと推定した場合に、端末装置3に情報を表示して対象者への通知を行う。図9は、神経障害の推定結果の通知画面の一例を示す模式図である。なお図9に示す通知画面は、例えば顔画像に基づく推定処理が行われた後、診断テストが実施される前に表示されてもよく、また例えば診断テストの終了後に表示されてもよい。サーバ装置1は適宜のタイミングで通知画面を表示するための画像及びメッセージ等の情報を端末装置3へ送信し、これを受信した端末装置3が図示の通知画面を表示部34に表示する。
 サーバ装置1からの情報に基づいて端末装置3は、図9に示すように、例えば対象者の1週間前の顔画像と推定に用いられた現在の顔画像とを左右に並べて表示する。このときに端末装置3は、カメラ36が撮影した顔画像の欠落部分が補完されている場合、現在の顔画像について実際に撮影された部分と補完した部分とが区別可能なように、現在の顔画像を表示する。区別可能な表示は、例えば色を変えて表示する又は網掛けして表示する等の表示方法が採用され得る。図9に示す例では、補完部分に網掛けして現在の顔画像を表示している。
 また端末装置3は、サーバ装置1による神経障害の推定結果として、例えば「右の口角、眉尻が左より下がっており、神経障害の疑いがあります。病院で精密検査を受けることをお勧めします。」等のメッセージを、2つの顔画像の下方に表示する。また現在の顔画像には、神経障害ありと推定した根拠となる顔の部位(特徴点)がいずれであるかを示す表示がなされる。図9に示す例において端末装置3は、神経障害ありと推定した根拠として右口角及び右眉尻を囲む円の図形を顔画像に重畳して表示している。なお根拠部位の表示方法は、図9に示す円の重畳に限らず、例えば色付け又は網掛け等の表示であってもよく、他の部位とは異なる表示の方法であってよく、これら以外のどのような表示方法であってもよい。
<情報収集処理>
 本実施の形態に係る情報処理システムでは、対象者の自宅等に設置された端末装置3が継続的に対象者の撮影を行っている。端末装置3が撮影した対象者の顔画像に基づいてサーバ装置1が対象者の神経障害の有無を推定し、神経障害なしと推定した際に用いた顔画像をサーバ装置1が記憶しておいてもよい。サーバ装置1は、正常状態(神経障害がない状態)の対象者の顔画像を記憶して収集し、収集した顔画像を以後の推定処理において基準顔画像として用いることができる。
 また更に、端末装置3が測距センサ37による測定を継続的に行い、サーバ装置1が正常状態での対象者の顔画像と共に測距センサ37による測定結果を記憶して収集してもよい。サーバ装置1は、カメラ36による顔画像及び測距センサ37の測定結果(即ち、対象者の顔の表面形状)を収集し、収集した情報に基づいて対象者の顔の3次元モデルを生成することができる。サーバ装置1は、これらの情報収集を継続的に行い、定期的に対象者の顔の3次元モデル生成して、収集した顔画像及び生成した3次元モデルを対象者の基準顔画像及び基準3次元モデルとして基準情報記憶部12bに記憶する。
 サーバ装置1による顔画像及び表面形状の情報の収集は、端末装置3から取得した情報全てを対象とするのではなく、例えば1日に数件程度であってよい。サーバ装置1は、例えば端末装置3にて1日に撮影された複数の顔画像及び表面形状の情報の中から、種々の条件で選別した数件程度の情報を記憶する。選別条件には、例えば対象者の正面視のもの、例えば画像の明るさが所定の閾値を超えるもの、例えば撮影された画像全体に対する顔の占める割合が所定の閾値を超えるもの、例えば笑顔等の所定の表情のもの等の様々な条件が採用され得る。なお選別条件は、どのような条件であってもよい。
 またサーバ装置1による基準3次元モデルの生成は、例えば数ヶ月に1回等の所定の周期で行われてよい。このときにサーバ装置1は、既に記憶されている古い基準顔画像及び基準3次元モデルに対して新しい基準顔画像及び基準3次元モデルを上書きして更新してもよく、古い基準顔画像及び基準3次元モデルを残して新しい基準顔画像及び基準3次元モデルを追加して記憶してもよい。
<まとめ>
 以上の構成の本実施の形態に係る情報処理システムでは、端末装置3のカメラ36(センサ)が撮影(検知)した対象者の顔画像(顔情報)をサーバ装置1が取得し、取得した顔画像を基に対象者の顔の3次元モデル(顔構造情報)を生成し、生成した3次元モデルに基づいて顔画像の欠落部分を補完し、補完した顔画像に基づいて対象者の神経障害の有無を推定する。これにより情報処理システムは、正面視以外の方向から撮影された顔画像を基に対象者の神経障害の有無を精度よく推定することが期待できる。また、対象者とこの対象者の顔を撮影するカメラ等のデバイスとの位置関係が限定されないことにより、住宅内等においてデバイスを設置する場所の制限を緩和することが期待でき、対象者のリアルタイムでの見守り及び異常検出等を行うことが期待できる。
 また本実施の形態に係る情報処理システムでは、予め生成された対象者の基準3次元モデルをサーバ装置1が基準情報記憶部12bに記憶し、端末装置3のカメラ36が撮影した顔画像、基準情報記憶部12bに記憶された基準3次元モデルに基づいて、対象者の3次元モデルを生成する。基準3次元モデルは、対象者の顔を2以上の方向からカメラにて撮影した多視点の顔画像(多視点顔情報)、及び、対象者の顔の表面形状を測距センサで測定することにより再現した形状モデル(3次元顔情報)に基づいて生成される。なおサーバ装置1は、基準3次元モデルを予め生成して記憶しておくのではなく、基準3次元モデルを生成するための多視点の顔画像及び形状モデルを記憶しておき、必要に応じて基準3次元モデルを生成してもよい。これらのより情報処理システムは、基準3次元モデルを精度よく生成し、顔画像の欠落部分を精度よく補完することが期待できる。
 また本実施の形態に係る情報処理システムでは、端末装置3がカメラ36にて撮影した対象者の顔画像及び測距センサ37にて測定した対象者の顔の形状情報をサーバ装置1が記憶部12に記憶して蓄積する。蓄積したこれらの情報に基づいて、サーバ装置1は、基準情報記憶部12bに記憶する基準3次元モデル等を更新することができ、更新した基準3次元モデルを用いることで顔画像の欠落部分を精度よく補完することが期待できる。
 また本実施の形態に係る情報処理システムでは、端末装置3が撮影した対象者の顔画像又はこれを補完した顔画像の右半分と基準情報記憶部12bに記憶された顔画像の右半分との比較結果、及び、端末装置3が撮影した対象者の顔画像又はこれを補完した顔画像の左半分と基準情報記憶部12bに記憶された顔画像の左半分との比較結果に基づいて、対象者の神経障害の有無をサーバ装置1が推定する。例えばサーバ装置1は、補完した顔画像の右半分が基準情報記憶部12bに記憶された顔画像の右半分と比較して下がっている場合、又は、補完した顔画像の左半分が基準情報記憶部12bに記憶された顔画像の左半分と比較して下がっている場合に、対象者に神経障害ありと推定することができる。これにより本実施の形態に係る情報処理システムは、対象者の神経障害の有無を精度よく推定することが期待できる。
 また本実施の形態に係る情報処理システムでは、端末装置3が撮影した対象者の顔画像又はこれを補完した顔画像を基に、対象者の顔の左半分及び右半分の対称性に基づいて、対象者の神経障害の有無を推定する。サーバ装置1は、例えば顔の右半分が左半分と比較して下がっている場合、又は、顔の左半分が右半分と比較して下がっている場合に、対象者に神経障害ありと推定することができる。これにより本実施の形態に係る情報処理システムは、対象者の神経障害の有無を精度よく推定することが期待できる。
 また本実施の形態に係る情報処理システムでは、端末装置3が撮影した顔画像が正面視以外の顔画像である場合に、補完した正面視の顔画像を端末装置3の表示部に表示する。また端末装置3は、補完した顔画像と基準情報記憶部12bに記憶された基準顔画像とを並べて表示する。なお端末装置3は、補完した顔画像と基準顔画像とを、並べて表示するのではなく、重畳して表示してもよい。また端末装置3は、対象者の顔画像と共に、神経障害の有無の推定結果の根拠となる部分がいずれであるかを表示する。これらにより本実施の形態に係る情報処理システムは、神経障害の有無の推定結果等を理解しやすく対象者等に提示することが期待できる。
 また本実施の形態に係る情報処理システムでは、端末装置3のカメラ36にて撮影した対象者の顔画像に基づき対象者に神経障害ありとサーバ装置1が推定した場合に、端末装置3が測距センサ37にて対象者の顔の表面形状を測定し、測定した表面形状に基づいてサーバ装置1が対象者の神経障害の有無の推定を更に行う。なお情報処理システムは、測距センサ37の測定結果に基づく推定を先に行って、カメラ36の撮影画像に基づく推定を後に行ってもよい。また本実施の形態に係る情報処理システムは、これらの推定処理により対象者に神経障害ありと推定した場合、対象者に対する診断テストを行う。これらにより本実施の形態に係る情報処理システムは、対象者の神経障害の有無及び程度等を精度よく判断することが期待できる。
 なお本実施の形態においては、最初の神経障害の有無の推定処理において、対象者の顔情報を取得するためのセンサとしてカメラ36を用いているが、一例であってこれに限るものではなく、センサは例えば測距センサ37であってもよく、これら以外のセンサであってもよい。また本実施の形態においては、2番目の神経障害の有無の推定処理において第2センサとして測距センサ37を用いているが、一例であってこれに限るものではない。第2センサは、例えばマイク、輝度変化を抽出するイベント駆動撮影装置、ミリ波センサ、超音波センサ、又は、サーモグラフィカメラなど等であってもよく、これら以外のセンサであってもよい。第2センサは、複数種類のセンサを備えてもよい。また、第2センサが取得する情報は、顔情報に限るものではなく、腕のゆらぎの変化(身体動揺・振戦)、腕の脱力、発話異常(失語・構音障害)等の対象者の異常を示す情報であってもよい。
 また本実施の形態に係る情報処理システムでは、端末装置3がカメラにて撮影した顔画像に基づいてサーバ装置1が対象者の神経障害の有無を推定する処理を行っているが、これに限るものではなく、端末装置3が神経障害の有無を推定する処理を行ってもよく、この場合に情報処理システムはサーバ装置1を含まなくてよい。
<実施の形態2>
 実施の形態1に係る情報処理システムでは、予め記憶された基準3次元モデル及び基準顔画像を用いて、端末装置3が撮影した対象者の顔画像の欠落部分をサーバ装置1が補完する。これに対して実施の形態2に係る情報処理システムでは、基準3次元モデル及び基準顔画像等の基準となる情報を予め記憶しておくことなく、予め機械学習がなされた学習モデル(いわゆるAI(Artificial Intelligence))を用いることによって、端末装置3が撮影した対象者の顔画像の欠落部分をサーバ装置1が補完する。
 図10は、実施の形態2に係るサーバ装置1が備える学習モデルの構成を説明するための模式図である。実施の形態2に係るサーバ装置1は、記憶部12に基準情報記憶部12bが設けられておらず、これに代えて学習済みの学習モデルに関する情報が記憶部12に記憶されている。学習モデルに関する情報には、例えば学習モデルの構造を規定する情報及び機械学習により決定された内部パラメータの値等の情報が含まれ得る。実施の形態2に係るサーバ装置1は、形状推定モデル51及び補完モデル52の2つの学習モデルを用いて、対象者の顔画像の欠落部分を補完する処理を行う。
 形状推定モデル51は、2次元の顔画像を入力として受け付けて、この顔画像に写された顔の3次元における表面形状を推定し、推定結果を形状情報として出力するように予め機械学習がなされた学習モデルである。形状推定モデル51には、例えば学習済みの顔メッシュの学習モデルが用いられ得る。顔メッシュの学習モデルは、画像から顔のキーポイント(特徴点)を検出する機械学習モデルであり、人間の顔から数百の特徴点を3次元座標で出力することができる。図11は、形状推定モデル51が出力する形状情報の一例を示す模式図である。本図は、顔メッシュの学習モデルが出力した複数の特徴点を3次元仮想空間にプロットしたものであり、人間の顔の形状が再現され、顔の向き等を3次元仮想空間において変化させることが可能である。なお、顔メッシュの学習モデルは既存の技術であるため、機械学習の方法等の詳細の説明は省略する。また形状推定モデル51は、顔メッシュの学習モデル以外の学習モデルが採用されてよい。
 なお本実施の形態において、形状推定モデル51は、もし対象者に神経障害がある場合、顔の歪み等の特徴を示す少なくとも1つの特徴点が含まれた顔画像が入力されることによって、この対象者の顔の歪み等を再現した形状情報を出力することができる。もし対象者に神経障害がある場合であっても、顔の歪み等の特徴を示す特徴点が全く含まれていない顔画像が入力された場合には、形状推定モデル51は、この対象者の顔の歪み等を再現せず、正常状態の顔を再現した形状情報を出力し得る。
 補完モデル52は、2次元の顔画像と、この顔画像から形状推定モデル51が推定した形状情報とを入力として受け付けて、顔画像に写された顔の3次元モデルを生成するように予め機械学習がなされた学習モデルである。補完モデル52が出力する3次元モデルは、入力された形状情報に顔画像が貼り付けられ、且つ、顔画像の欠落部分を補完した3次元モデルである。補完モデル52は、例えばDNN(Deep Neural Network)又はCNN(Convolutional Neural Network)等の学習モデルが採用され得る。補完モデル52は、例えば実施の形態1に係る情報処理システムにて事前処理として行われる3次元モデルの生成と同様の手順(図5参照)で顔画像、形状情報及び3次元モデルを取得し、これらを教師データとして機械学習を行うことで生成され得る。なおこれらの学習モデルの機械学習の処理は、既存の技術であるため、詳細な説明を省略する。
 図12は、実施の形態2に係るサーバ装置1が行う顔画像補完処理の手順を示すフローチャートである。実施の形態2に係るサーバ装置1の処理部11の3次元モデル生成部11bは、端末装置3のカメラ36にて撮影された対象者の顔画像を、予め機械学習がなされた形状推定モデル51へ入力する(ステップS61)。3次元モデル生成部11bは、形状推定モデル51が出力する形状情報を取得する(ステップS62)。
 次いで3次元モデル生成部11bは、対象者の顔画像と、ステップS62にて取得した形状情報とを補完モデル52へ入力する(ステップS63)。3次元モデル生成部11bは、補完モデル52が出力する3次元モデルを取得することで(ステップS64)、対象者の顔の3次元モデルを生成する。処理部11の顔画像補完部11cは、ステップS63にて生成された対象者の顔の3次元モデルから正面視の2次元画像を生成することにより、端末装置3が撮影した顔画像の欠落部分を補完した顔画像を生成し(ステップS65)、顔画像補完処理を終了する。
 また実施の形態2に係る情報処理システムでは、実施の形態1に係る情報処理システムと同様に、端末装置3がカメラ36にて撮影した顔画像及び/又は測距センサ37にて計測した形状情報等を記憶して蓄積しておく。蓄積したこれらの情報は、補完モデル52の再学習に用いることができる。サーバ装置1は、例えば1日に数回の頻度で情報の記憶を行い、例えば1週間に1度の頻度で補完モデル52の再学習を行うことができる。
 また実施の形態2に係るサーバ装置1は、端末装置3のカメラ36が撮影した対象者の顔画像を補完し、補完した顔画像に基づいて神経障害ありと推定した後、例えば所定時間内に端末装置3のカメラ36が撮影した正面視の顔画像に基づいて補完処理を行うことなく神経障害なしと推定した場合、最初の推定結果が誤っていたと判断する。サーバ装置1は、誤っていた最初の推定処理に用いた顔画像、これを補完した顔画像、最初の推定処理に続けて行われた測距センサ37による測定の結果、及び、後の推定処理に用いた顔画像等の情報を、再学習のための情報として記憶する。このように、サーバ装置1が推定結果に誤りがあったと判断した場合の情報を蓄積して補完モデル52の再学習に用いることによって、補完モデル52による顔画像の補完の精度を向上することが期待できる。
 以上の構成の実施の形態2に係る情報処理システムでは、対象者の顔を撮影した顔画像を入力として受け付けて、対象者の3次元モデルを出力するよう機械学習がなされた学習モデル(形状推定モデル51及び補完モデル52を組み合わせた学習モデル)をサーバ装置1が備える。サーバ装置1は、端末装置3のカメラ36が撮影した顔画像を学習モデルへ入力し、学習モデルが出力する3次元モデルを取得することで、対象者の顔画像から3次元モデルを生成する。これにより実施の形態2に係る情報処理システムは、対象者の3次元モデルを精度よく生成し、顔画像の欠落部分を精度よく補完することが期待できる。
 今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本開示の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
 1 サーバ装置
 3 端末装置
 11 処理部
 11a 顔画像取得部
 11b 3次元モデル生成部
 11c 顔画像補完部
 11d 神経障害推定部
 11e 第2推定部
 11f 診断テスト処理部
 11g 通知処理部
 12 記憶部
 12a サーバプログラム
 12b 基準情報記憶部
 13 通信部
 31 処理部
 31a 撮影処理部
 31b 測距処理部
 31c 診断テスト処理部
 32 記憶部
 32a プログラム
 33 通信部
 34 表示部
 35 操作部
 36 カメラ
 37 測距センサ
 51 形状推定モデル
 52 補完モデル
 98,99 記録媒体
 N ネットワーク
 

Claims (22)

  1.  コンピュータに、
     センサが検知した対象者の顔情報を取得し、
     取得した前記顔情報を基に、前記対象者の顔構造情報を生成し、
     生成した前記顔構造情報に基づいて、取得した前記顔情報について欠落した前記対象者の顔情報を補完し、
     補完した前記顔情報に基づいて、当該対象者の神経障害の有無を推定する
     処理を実行させる、コンピュータプログラム。
  2.  予め生成された前記対象者の基準顔構造情報を記憶部から取得し、
     前記センサが検知した前記顔情報、及び、前記記憶部に記憶された前記基準顔構造情報に基づいて、前記対象者の顔構造情報を生成する、
     請求項1に記載のコンピュータプログラム。
  3.  前記基準顔構造情報には、前記対象者の顔の前面に対して2以上の方向からセンサにて取得した多視点顔情報を含む、
     請求項2に記載のコンピュータプログラム。
  4.  前記基準顔構造情報には、前記対象者の顔の3次元形状をセンサにて取得した3次元顔情報を含む、
     請求項2又は請求項3に記載のコンピュータプログラム。
  5.  前記基準顔構造情報には、前記対象者の顔の前面に対して2以上の方向からセンサにて取得した多視点顔情報を基に生成した顔構造情報、及び/又は、前記対象者の顔の3次元形状をセンサにて取得した3次元顔情報を基に生成した顔構造情報を含む、
     請求項2から請求項4までのいずれか1つに記載のコンピュータプログラム。
  6.  取得した顔情報又は当該顔情報を基に生成した顔構造情報を前記基準顔構造情報として前記記憶部に記憶する、
     請求項2から請求項5までのいずれか1つに記載のコンピュータプログラム。
  7.  補完した前記顔情報に基づく前記対象者の顔の右半分と前記基準顔構造情報に基づく顔の右半分との比較結果、及び、補完した前記顔情報に基づく前記対象者の顔の左半分と前記基準顔構造情報に基づく顔の左半分との比較結果に基づいて、当該対象者の神経障害の有無を推定する、
     請求項2から請求項6までのいずれか1つに記載のコンピュータプログラム。
  8.  補完した前記顔情報に基づく顔の右半分が前記基準顔構造情報に基づく顔の右半分と比較して下がっている場合、又は、補完した前記顔情報に基づく顔の左半分が前記基準顔構造情報に基づく顔の左半分と比較して下がっている場合に、前記対象者に神経障害ありと推定する、
     請求項7に記載のコンピュータプログラム。
  9.  対象者の顔情報を入力として受け付けて前記対象者の顔構造情報を出力するよう機械学習がなされた学習モデルに、前記センサが検知した顔情報を入力して前記学習モデルが出力する前記顔構造情報を取得することで、前記対象者の顔構造情報を生成する、
     請求項1から請求項8までのいずれか1つに記載のコンピュータプログラム。
  10.  補完した前記顔情報に基づく前記対象者の顔の右半分及び左半分の対称性に基づいて、当該対象者の神経障害の有無を推定する、
     請求項1から請求項9までのいずれか1つに記載のコンピュータプログラム。
  11.  前記顔の右半分が左半分と比較して下がっている場合、又は、前記顔の左半分が右半分と比較して下がっている場合に、前記対象者に神経障害ありと推定する、
     請求項10に記載のコンピュータプログラム。
  12.  前記センサが検知した顔情報を補完した顔情報に基づいて前記対象者に神経障害ありと推定した後、前記センサが検知した顔情報に基づいて補完せずに前記対象者に神経障害なしと推定した場合、神経障害ありと推定した際の顔情報を記憶部に記憶する、
     請求項1から請求項11までのいずれか1つに記載のコンピュータプログラム。
  13.  前記センサが検知した顔情報が前記対象者の正面視以外の顔情報である場合に、補完した正面視の顔情報を表示部に表示する、
     請求項1から請求項12までのいずれか1つに記載のコンピュータプログラム。
  14.  補完した顔情報と記憶部に予め記憶された前記対象者の顔情報とを並べて又は重畳して前記表示部に表示する、
     請求項13に記載のコンピュータプログラム。
  15.  前記神経障害の有無の推定結果に関与した部分を顔情報と共に前記表示部に表示する、
     請求項13又は請求項14に記載のコンピュータプログラム。
  16.  前記対象者に神経障害が有ると推定した場合に、前記センサとは異なる第2センサにて前記対象者の情報を取得し、
     前記第2センサにて取得した前記情報に基づいて、当該対象者の神経障害の有無を更に推定する、
     請求項1から請求項15までのいずれか1つに記載のコンピュータプログラム。
  17.  前記センサとは異なる第2センサにて前記対象者の情報を取得し、
     前記第2センサにて取得した前記情報に基づいて、当該対象者の神経障害の有無を推定し、
     前記対象者に神経障害が有ると推定した場合に、前記センサにて取得した前記顔情報に基づいて、当該対象者の神経障害の有無を更に推定する、
     請求項1から請求項15までのいずれか1つに記載のコンピュータプログラム。
  18.  前記対象者に神経障害が有ると推定した場合に、前記対象者に対する診断テストを実施する、
     請求項1から請求項17までのいずれか1つに記載のコンピュータプログラム。
  19.  前記センサは、2次元の画像を撮影するカメラである、
     請求項1から請求項18までのいずれか1つに記載のコンピュータプログラム。
  20.  前記センサは、測距センサである、
     請求項1から請求項18までのいずれか1つに記載のコンピュータプログラム。
  21.  情報処理装置が、
     センサが検知した対象者の顔情報を取得し、
     取得した前記顔情報を基に、前記対象者の顔構造情報を生成し、
     生成した前記顔構造情報に基づいて、取得した前記顔情報について欠落した前記対象者の顔情報を補完し、
     補完した前記顔情報に基づいて、当該対象者の神経障害の有無を推定する、
     情報処理方法。
  22.  センサが検知した対象者の顔情報を取得する取得部と、
     取得した前記顔情報を基に、前記対象者の顔構造情報を生成する生成部と、
     生成した前記顔構造情報に基づいて、取得した前記顔情報について欠落した前記対象者の顔情報を補完する補完部と、
     補完した前記顔情報に基づいて、当該対象者の神経障害の有無を推定する推定部と
     を備える、情報処理装置。
     
PCT/JP2023/008702 2022-03-28 2023-03-08 コンピュータプログラム、情報処理方法及び情報処理装置 WO2023189309A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022052275 2022-03-28
JP2022-052275 2022-03-28

Publications (1)

Publication Number Publication Date
WO2023189309A1 true WO2023189309A1 (ja) 2023-10-05

Family

ID=88201449

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/008702 WO2023189309A1 (ja) 2022-03-28 2023-03-08 コンピュータプログラム、情報処理方法及び情報処理装置

Country Status (1)

Country Link
WO (1) WO2023189309A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117372437A (zh) * 2023-12-08 2024-01-09 安徽农业大学 用于面神经麻痹智能化检测与量化方法及其系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209916A (ja) * 2010-03-29 2011-10-20 Secom Co Ltd 顔画像合成装置
JP2013097588A (ja) * 2011-11-01 2013-05-20 Dainippon Printing Co Ltd 三次元ポートレートの作成装置
KR20190135598A (ko) * 2018-05-29 2019-12-09 상명대학교산학협력단 얼굴 대칭성 측정 장치 및 방법
JP2020107038A (ja) * 2018-12-27 2020-07-09 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
CN112768065A (zh) * 2021-01-29 2021-05-07 北京大学口腔医学院 一种基于人工智能的面瘫分级诊断方法、装置
WO2022030592A1 (ja) * 2020-08-05 2022-02-10 パナソニックIpマネジメント株式会社 脳卒中検査システム、脳卒中検査方法、及び、プログラム
WO2022054687A1 (ja) * 2020-09-08 2022-03-17 テルモ株式会社 プログラム、情報処理装置及び情報処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209916A (ja) * 2010-03-29 2011-10-20 Secom Co Ltd 顔画像合成装置
JP2013097588A (ja) * 2011-11-01 2013-05-20 Dainippon Printing Co Ltd 三次元ポートレートの作成装置
KR20190135598A (ko) * 2018-05-29 2019-12-09 상명대학교산학협력단 얼굴 대칭성 측정 장치 및 방법
JP2020107038A (ja) * 2018-12-27 2020-07-09 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
WO2022030592A1 (ja) * 2020-08-05 2022-02-10 パナソニックIpマネジメント株式会社 脳卒中検査システム、脳卒中検査方法、及び、プログラム
WO2022054687A1 (ja) * 2020-09-08 2022-03-17 テルモ株式会社 プログラム、情報処理装置及び情報処理方法
CN112768065A (zh) * 2021-01-29 2021-05-07 北京大学口腔医学院 一种基于人工智能的面瘫分级诊断方法、装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117372437A (zh) * 2023-12-08 2024-01-09 安徽农业大学 用于面神经麻痹智能化检测与量化方法及其系统
CN117372437B (zh) * 2023-12-08 2024-02-23 安徽农业大学 用于面神经麻痹智能化检测与量化方法及其系统

Similar Documents

Publication Publication Date Title
US11961620B2 (en) Method and apparatus for determining health status
US20210174934A1 (en) Remote assessment of emotional status
JP6863563B2 (ja) ストレス評価システム
US20220044821A1 (en) Systems and methods for diagnosing a stroke condition
CN112001122A (zh) 基于端到端生成对抗网络的非接触式生理信号测量方法
WO2023189309A1 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
Boswell et al. Smartphone videos of the sit-to-stand test predict osteoarthritis and health outcomes in a nationwide study
JP2018007792A (ja) 表情認知診断支援装置
Gaber et al. Automated grading of facial paralysis using the Kinect v2: a proof of concept study
Hasan et al. Pain level detection from facial image captured by smartphone
Giese et al. Metrics of the perception of body movement
JP2023553957A (ja) 身体画像に基づいて睡眠分析を決定するシステム及び方法
KR20210141197A (ko) 원격 진료를 위한 증강현실 인터페이스 제공 방법, 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
US20200074240A1 (en) Method and Apparatus for Improving Limited Sensor Estimates Using Rich Sensors
US20220409120A1 (en) Information Processing Method, Computer Program, Information Processing Device, and Information Processing System
Masullo et al. CaloriNet: From silhouettes to calorie estimation in private environments
JP2021033359A (ja) 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
CA3187876A1 (en) System and method for automatic personalized assessment of human body surface conditions
KR102267688B1 (ko) 모발 자가진단 정확성을 향상시킨 어플리케이션 실행 방법
KR20220072484A (ko) 얼굴표정 분석기반 자폐 스펙트럼 장애 평가 방법
TW202143908A (zh) 多參數生理訊號量測方法
CN113326729A (zh) 多模态的课堂专注度检测方法和装置
Nahavandi et al. A low cost anthropometric body scanning system using depth cameras
Wang et al. Facial Landmark based BMI Analysis for Pervasive Health Informatics
WO2023190391A1 (ja) 疾患該当性判定プログラム及び疾患該当性判定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23779336

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2024511608

Country of ref document: JP

Kind code of ref document: A