WO2021182455A1 - 情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システム - Google Patents

情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システム Download PDF

Info

Publication number
WO2021182455A1
WO2021182455A1 PCT/JP2021/009229 JP2021009229W WO2021182455A1 WO 2021182455 A1 WO2021182455 A1 WO 2021182455A1 JP 2021009229 W JP2021009229 W JP 2021009229W WO 2021182455 A1 WO2021182455 A1 WO 2021182455A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
motion
operation information
subject
abnormal state
Prior art date
Application number
PCT/JP2021/009229
Other languages
English (en)
French (fr)
Inventor
康之 本間
前田 直之
Original Assignee
テルモ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テルモ株式会社 filed Critical テルモ株式会社
Priority to CN202180010135.4A priority Critical patent/CN114980814A/zh
Priority to JP2022507209A priority patent/JPWO2021182455A1/ja
Priority to EP21767819.2A priority patent/EP4111984A4/en
Publication of WO2021182455A1 publication Critical patent/WO2021182455A1/ja
Priority to US17/823,710 priority patent/US20220409120A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/04Arrangements of multiple sensors of the same type

Definitions

  • This technology relates to information processing methods, computer programs, information processing devices and information processing systems.
  • Cerebral infarction is a state in which cerebral ischemia is caused by obstruction or stenosis of cerebral blood vessels and necrosis of brain tissue.
  • the causes of cerebral infarction are mainly divided into thrombotic, embolic and hemodynamic, and specifically, atherothrombotic cerebral infarction, cardiogenic cerebral infarction, lacunar infarction and others.
  • Patent Document 1 describes a method for detecting cerebral infarction by measuring the concentration of nick ⁇ 2 glycoprotein I in a body fluid sample.
  • the purpose of the present disclosure is to provide the subject with an information processing method or the like that can determine the presence or absence of an abnormal state that may cause cerebral infarction.
  • the information processing method acquires the motion information detected by the motion detection device that detects the motion of the target person, stores the acquired motion information in a storage unit, and stores the motion information in the stored predetermined period. Based on the information, the reference motion information of the left and right half of the subject is derived, and the derived reference motion information and the motion information of the left and right body of the subject at the time of detection after the predetermined period are derived. Based on the above, the subject is made to execute a process of determining whether or not the subject is in an abnormal state having a possibility of cerebral infarction.
  • the computer program acquires the motion information detected by the motion detection device that detects the motion of the target person, stores the acquired motion information in the storage unit, and stores the motion information in the stored predetermined period. Based on the above, the reference motion information of the left and right half of the subject is derived, and the derived reference motion information and the motion information of the left and right body of the subject at the time of detection after the predetermined period are obtained. Based on the above, the subject is made to execute a process of determining whether or not the subject is in an abnormal state having a possibility of cerebral infarction.
  • the information processing device includes an operation information acquisition unit that acquires operation information detected by an operation detection device that detects an operation of a target person, and a storage that stores the operation information acquired by the operation information acquisition unit.
  • a derivation unit that derives reference operation information for the left and right half of the subject based on the operation information stored in the storage unit for a predetermined period, the reference operation information derived by the derivation unit, and the reference operation information. It is provided with a determination unit for determining whether or not the subject is in an abnormal state that may cause cerebral infarction based on the motion information of the left and right halves of the subject at the time of detection after a predetermined period. ..
  • the information system includes a motion detection device that detects the motion of the target person and an information processing device that acquires motion information from the motion detection device, and the information processing device is the motion detection device.
  • the operation information acquisition unit that acquires the operation information detected by
  • the storage unit that stores the operation information acquired by the operation information acquisition unit, and the operation information stored by the storage unit in a predetermined period, the left of the target person.
  • the derivation unit that derives the reference motion information of the half body and the right half body, the reference motion information derived by the derivation section, and the motion information of the left half body and the right half body of the subject at the time of detection after the predetermined period. Based on this, the subject is provided with a determination unit for determining whether or not the subject is in an abnormal state that may cause cerebral infarction.
  • FIG. 1 is a schematic diagram of the information processing system 100 according to the first embodiment.
  • the information processing system 100 of the present embodiment is a system for determining the possibility of cerebral infarction from the motion information of the subject.
  • the information processing system 100 includes an information processing device 1 and an motion detection sensor 2a provided in the detection device 2.
  • the information processing device 1 and the detection device 2 can transmit and receive information via a network N such as the Internet.
  • the information processing device 1 is further communicated and connected to the terminal device 3 via the network N.
  • the information processing device 1 determines the risk of cerebral infarction or cerebral ischemia symptoms or signs in the subject, that is, the possibility of cerebral infarction, based on the motion information of the subject acquired from the detection device 2.
  • the information processing device 1 provides information according to the determination result via the terminal device 3 or the like.
  • Operation information is a parameter that represents the amount of operation of the target person.
  • the amount of movement is, for example, the amount of movement (movement speed) per unit time of each part such as the limbs and head of the subject, the distance traveled, the shaking, the angular velocity, etc. can get.
  • the amount of motion is not limited to that obtained from an image, and may be data detected by a microwave sensor, a millimeter wave sensor, an ultrasonic sensor, an acceleration sensor, or the like.
  • the detection device 2 is provided, for example, in the subject's residence or the like, and detects the movement of the subject in daily life.
  • the detection device 2 includes a motion detection sensor (motion detection device) 2a, and transmits motion information detected by the motion detection sensor 2a to the information processing device 1. It is preferable that a plurality of motion detection sensors 2a are provided in a plurality of areas such as a living room, a dining room, a kitchen, a washroom, and a bedroom in the subject's residence.
  • the motion detection sensor 2a may be installed at a position where the subject can live without being aware of the sensor.
  • the detection device 2 may include a biometric information detection sensor (biological information detection device) 2b in addition to the motion detection sensor 2a.
  • the biological information detection sensor 2b will be described in detail in another embodiment.
  • the motion detection sensor 2a is, for example, a camera that captures an image in the imaging target area.
  • the motion detection sensor 2a has an image sensor such as a CCD (Charge Coupled Device) image sensor, a lens, and the like, and the light incident through the lens is photoelectrically converted by the image sensor to acquire motion information which is image data. ..
  • the motion detection sensor 2a may be a stereo camera including a plurality of image pickup elements.
  • the motion detection sensor 2a is not limited to the one using the above-mentioned camera, and may detect the position and shape of the target person by using, for example, an ultrasonic sensor, a microwave sensor, a millimeter wave sensor, a laser radar sensor, or the like. ..
  • the motion detection sensor 2a may use the line-of-sight detection sensor to measure the eye movement of the subject and detect the line-of-sight direction, the viewpoint, and the like.
  • the detection device 2 acquires the detection value of the motion detection sensor 2a.
  • the detection device 2 may be configured as a wearable device and may be worn by the subject.
  • the detection device 2 has, for example, a spectacle-shaped shape.
  • the detection device 2 includes a motion sensor 2a that measures acceleration, angular velocity, and geomagnetism on three axes, respectively, and detects the motion of the target person.
  • the detection device 2 may include a myoelectric potential sensor, which is a motion detection sensor 2a, at a position where it comes into contact with the nose, head, or the like of the subject in the worn state, and may detect the facial myoelectric potential of the subject.
  • the detection device 2 is provided as a motion detection sensor 2a with a myoelectric potential sensor at a position where it abuts on the nose of the subject in the worn state, and detects motions such as the line-of-sight direction and blinking by detecting the electro-oculography of the subject. You may.
  • the detection device 2 is not limited to the one having a spectacle-shaped shape, and may have, for example, a band shape and may be worn on the hand, foot, waist, or the like of the subject.
  • the detection device 2 has, for example, a stretchable sheet shape and may be attached to the body of the subject. Further, the detection device 2 may be configured as a cabitus device such as a contact lens type or a mouthpiece type, and may be attached to the body cavity of the subject.
  • a plurality of detection devices 2 may be attached to the target person.
  • the detection device 2 is composed of a combination of a plurality of types of motion detection sensors 2a, and may acquire detection values by the plurality of types of sensors.
  • the camera may detect the information of the entire imaging region including the target person, and the laser radar sensor or the like may detect the operation of the specified target person based on the detected imaging data.
  • the motion detection sensor 2a detects motion information related to the motion that the target person repeatedly performs on a daily basis.
  • the motion state of the left half of the subject and the motion state of the right half of the body are acquired, and the motion state of the subject is compared with the normal motion state of the left body and the right half of the subject.
  • Determine the possibility of cerebral infarction For example, the appearance of symptoms such as a sudden face, numbness in the limbs, difficulty in seeing, and inability to rotate, especially on one side of the body, is likely to be due to the malfunction of a part of the brain. Therefore, it is possible to identify the possibility of the onset or sign of cerebral infarction or cerebral ischemia by detecting the occurrence of a sudden laterality in the movement of the subject.
  • the configuration and detailed processing contents of such an information processing system 100 will be described below.
  • FIG. 2 is a block diagram showing the configuration of the information processing device 1.
  • the information processing device 1 uses a server computer.
  • the information processing device 1 includes a control unit 10, a storage unit 11, and a communication unit 12.
  • the information processing device 1 is described as one server computer for ease of explanation, but the functions or processes may be distributed among a plurality of server computers, and the information processing device 1 is virtually generated by one large computer. It may be one of a plurality of server computers (instances).
  • the control unit 10 is a processor using one or more CPUs (Central Processing Unit), GPU (Graphics Processing Unit), etc., and uses a built-in memory such as ROM (Read Only Memory) or RAM (Random Access Memory). , Control each component to execute processing.
  • CPUs Central Processing Unit
  • GPU Graphics Processing Unit
  • RAM Random Access Memory
  • the communication unit 12 is a communication interface that realizes communication via the network N.
  • the control unit 10 can transmit and receive information to and from the detection device 2, other external devices, and the like via the network N by the communication unit 12.
  • the storage unit 11 includes, for example, a hard disk or a non-volatile memory such as an SSD (Solid State Drive).
  • the storage unit 11 stores programs and data referred to by the control unit 10 including the program 1P.
  • the control unit 10 reads and executes the program 1P to make a general-purpose server computer function as an information processing device peculiar to the present disclosure.
  • the program 1P stored in the storage unit 11 may be recorded on a recording medium so that it can be read by a computer.
  • the storage unit 11 stores the program 1P read from the recording medium 1A by a reading device (not shown). Further, the program 1P may be downloaded from an external computer (not shown) connected to a communication network (not shown) and stored in the storage unit 11.
  • the storage unit 11 may be composed of a plurality of storage devices, or may be an external storage device connected to the information processing device 1.
  • the storage unit 11 stores the target person information DB (Data Base: database) 111, the detected value DB 112, the reference operation information DB 113, and the like.
  • FIG. 3A is an explanatory diagram illustrating the record layout of the target person information DB 111
  • FIG. 3B is an explanatory diagram illustrating the record layout of the detected value DB 112
  • FIG. 3C is an explanatory diagram illustrating the record layout of the reference operation information DB 113.
  • the target person information DB 111 is a database that stores information on the target person who uses the information processing system 100.
  • the target person information DB 111 contains the target person ID of each of the plurality of target persons, the name, age, address of the target person, image data obtained by photographing the face of the target person, a notification destination, and an emergency notification.
  • Information such as the destination is associated and stored.
  • the notification destination includes a notification destination that outputs a notification when an abnormal condition that may cause a cerebral infarction occurs in the subject.
  • the MAC address, e-mail address, etc. of the terminal device 3 owned by the target person are stored in the notification destination.
  • Emergency contacts include emergency contacts that are likely to cause a stroke to the subject.
  • the telephone number of a person other than the target person is stored in the emergency contact information.
  • the detection value DB 112 is a database that stores the detection value, the operation information, and the like detected by the operation detection sensor 2a. As shown in FIG. 3B, information such as the detection date and time, sensor information, detection value, operation information, target person ID, operation pattern, and the like are associated and stored in time series in the detection value DB 112. Each operation information stored in the detection value DB 112 is acquired and stored by the control unit 10 each time the control unit 20 of the detection device 2 acquires the operation information and transmits the acquired operation information to the information processing device 1.
  • the sensor information includes identification information that identifies the motion detection sensor 2a that outputs the detected value, and stores, for example, a unique ID of the sensor.
  • the detected value of the motion detection sensor 2a is stored in the detected value.
  • the operation information string includes a left operation information column and a right operation information column.
  • motion information indicating the motion of the left half body and the right half body of the target person is stored.
  • the left motion information and the right motion information are parameters indicating the amount of motion of the relevant part of the subject, and are data such as the moving speed, moving distance, shaking, and angular velocity of the corresponding part as described above.
  • the relevant part is a part of the human body such as a joint that is a characteristic point for specifying the posture of the subject.
  • the movement amount (movement speed) per unit time of the left hand and the right hand of the target person is stored in the left motion information string and the right motion information string.
  • the target person ID includes identification information for identifying the target person in the operation information, for example, the target person ID is stored.
  • the target person ID is specified by extracting the facial feature amount of the subject from the image taken for detecting the motion information and performing pattern matching with the face feature amount of the target person registered in advance.
  • the subject ID may be specified by using other methods such as machine learning.
  • the movement pattern is a type of movement that the subject can perform on a daily basis, and may include, for example, sleeping, eating, brushing teeth, watching TV, cooking, walking, and the like.
  • the motion pattern is specified, for example, by pattern matching the position, posture, or motion amount of the subject in the room.
  • the operation pattern may be specified by using other methods such as machine learning.
  • the reference operation information DB 113 is a database that stores reference operation information indicating the operation of the target person in the normal state. In determining the possibility of cerebral infarction of the subject, the information processing device 1 acquires the reference motion information obtained by collecting the motion information of the subject in a predetermined period and stores it in the reference motion information DB 113. The information processing device 1 compares the reference operation information with the operation information acquired in real time to determine the presence or absence of an abnormal state. As shown in FIG. 3C, for example, the reference operation information DB 113 stores information such as a target person ID, an operation pattern, a reference operation information, a reference period, and an update date and time in association with each other.
  • the motion pattern includes information for identifying the motion pattern, and stores names indicating motion patterns such as sleeping, eating, brushing teeth, watching TV, cooking, and walking.
  • the reference operation information includes the operation information of the reference state of the target person obtained by analyzing the operation information for a predetermined period.
  • the reference motion information may include left reference motion information indicating the motion of the left half of the body and right reference motion information indicating the motion of the right half of the body.
  • left reference motion information and the right reference motion information for example, by collecting motion information including left motion information and right motion information for the same motion pattern of the target person in a predetermined period, and calculating a range and an average value, respectively.
  • the reference operation information may include a plurality of operation information associated with information regarding the time.
  • the reference period includes a period for collecting operation information for deriving the reference operation information.
  • the reference period is, for example, 7 days.
  • the update date and time includes the latest information on the date and time when the reference operation information was updated.
  • the reference operation information is updated as needed based on the operation information detected in real time.
  • FIG. 4 is a block diagram showing the configuration of the detection device 2.
  • the detection device 2 includes a control unit 20, a storage unit 21, a communication unit 22, and an operation information detection unit 23.
  • the control unit 20 is a processor using one or a plurality of CPUs, GPUs, etc., and uses a built-in memory such as a ROM or RAM to control each component unit to execute processing.
  • the storage unit 21 includes a non-volatile memory such as a flash memory.
  • the storage unit 21 stores information referred to by the control unit 20.
  • the communication unit 22 is a communication interface that realizes communication with the information processing device 1 via the network N.
  • the operation information detection unit 23 acquires a detection signal using the operation detection sensor 2a.
  • the motion information detection unit 23 may include an A / D conversion function and output the measured value obtained from the motion detection sensor 2a to the control unit 20.
  • FIG. 5 is a block diagram showing the configuration of the terminal device 3.
  • the terminal device 3 for example, a smartphone, a tablet terminal, or the like is used.
  • the terminal device 3 may be an information terminal device such as a personal computer.
  • the terminal device 3 includes a control unit 30, a storage unit 31, a communication unit 32, a display unit 33, and an operation unit 34.
  • the control unit 30 includes a processor such as a CPU or GPU and a memory or the like.
  • the control unit 30 may be configured as one piece of hardware (SoC: System On a Chip) in which a processor, a memory, a storage unit 31, and a communication unit 32 are integrated.
  • SoC System On a Chip
  • the control unit 30 controls each component unit to execute processing based on the program stored in the storage unit 31.
  • the storage unit 31 includes a non-volatile memory such as a flash memory.
  • the storage unit 31 stores the program and data referred to by the control unit 30.
  • the communication unit 32 is a communication interface that realizes communication with the information processing device 1 via the network N.
  • the display unit 33 includes a display device such as a liquid crystal panel and an organic EL (Electro Luminescence) display.
  • the display unit 33 displays various information according to the instruction from the control unit 30.
  • the operation unit 34 is an interface that accepts user operations, and includes, for example, a physical button, a mouse, a touch panel device with a built-in display, a speaker, a microphone, and the like.
  • the operation unit 34 receives an operation input from the user and sends a control signal according to the operation content to the control unit 30.
  • FIG. 6 is a flowchart showing an example of a processing procedure for acquiring reference operation information.
  • the process of FIG. 6 is executed by the control unit 10 of the information processing device 1 and the control unit 20 of the detection device 2.
  • the execution timing of the process is, for example, the timing at which the signal is detected by the motion detection sensor 2a.
  • the control unit 20 of the detection device 2 acquires an image of the target person taken from the motion detection sensor 2a in real time or at a predetermined detection interval (for example, every 1 minute) (step S10).
  • the control unit 20 detects the feature points corresponding to the corresponding parts of the target person from the acquired image (step S11). For example, the control unit 20 detects the right hand and the left hand of the target person as feature points.
  • the control unit 20 acquires operation information including right operation information and left operation information based on the detection result of feature points in each image acquired in time series (step S12). Specifically, the control unit 20 acquires time. By comparing the image data acquired in the series, the movement amount of the corresponding part in the right half body and the left half body included in the images at the previous time and the current time is calculated. For example, the detection device 2 compares the coordinates of the left hand and the right hand in the previous frame with the coordinates of the left hand and the right hand in the current frame, respectively, and acquires the movement speed calculated from the movement distance and the detection time as operation information.
  • control unit 20 specifies the operation pattern of the target person and the target person (step S13). For example, the control unit 20 detects each part such as a limb and a head as a feature point in step S11, and from the coordinate value of each detected feature point, the position, posture, and movement (gesture) of the target person in the room. The operation pattern is specified by performing pattern matching. Further, the control unit 20 stores (registers) the target person ID and the target person's face feature amount in advance in association with each other, extracts the face feature amount from step S10, and has a pattern with the stored face feature amount. The target person ID is specified by performing matching. The control unit 20 outputs operation information to the information processing device 1 in association with the specified operation pattern, target person ID, detection date and time, sensor ID, detection value, and the like (step S14).
  • the control unit 10 of the information processing device 1 acquires operation information by the communication unit 12 (step S15).
  • the control unit 10 associates the acquired operation information with the target person ID, the operation pattern, and the like, and stores the acquired operation information in the detection value DB 112 (step S16).
  • the control unit 10 derives reference operation information indicating the normal operation of the target person based on the collected operation information (step S17). Specifically, the control unit 10 refers to the detection value DB 112 and acquires the operation information of the same target person detected within a predetermined period (for example, 7 days) and stored in the detection value DB 112. In this case, since the control unit 10 derives the reference operation information for each operation pattern, it is preferable to extract the operation information including the same operation pattern. For example, when deriving the basic operation information for the operation pattern "meal", the control unit 10 sets the detection date and time including the most recent week from the time of derivation, the same subject ID, and the same operation pattern "meal". Extract the including operation information.
  • the control unit 10 calculates the average value of each of the extracted motion information based on the left motion information and the right motion information, thereby indicating the left reference motion information indicating the reference motion of the left half body and the reference motion of the right half body.
  • the reference operation information including the right reference operation information is derived.
  • control unit 10 compares the derived reference operation information with the previously recorded reference operation information, and determines whether or not to correct the reference operation information (step S18). Specifically, the control unit 10 determines the magnitude relationship between the derived reference operation information and the recorded reference operation information difference value and the preset threshold value, and determines whether or not the difference value is equal to or greater than the threshold value. To judge. When it is determined that the reference operation information is not corrected because the difference value is less than the threshold value (step S18: NO), the control unit 10 skips the correction processing of the reference operation information.
  • step S18 When it is determined that the reference operation information is corrected because the difference value is equal to or greater than the threshold value (step S18: YES), the control unit 10 executes correction to change the recorded reference operation information to the newly derived reference operation information. (Step S19).
  • the control unit 10 may correct the value of the recorded reference state information based on a predetermined rule.
  • the control unit 10 stores the corrected reference operation information, update date and time, and other information in the reference operation information DB 113 (step S20), and ends a series of processes.
  • control unit 10 executes the processing of step S17 or less when the feature amount indicating the operation pattern included in the acquired operation information is equal to or more than a predetermined value based on the analysis result of step S15. It's okay. That is, the control unit 10 may execute the derivation process of the reference operation information when the acquired operation information corresponds to the preset operation pattern.
  • the detection device 2 may substantially include the information processing device 1.
  • the control unit 20 of the detection device 2 may only output the detection value detected by the motion detection sensor 2a, and the control unit 10 of the information processing device 1 may perform the subsequent processing.
  • the control unit 10 of the information processing device 1 and the control unit 20 of the detection device 2 may cooperate with each other to execute a series of processes by performing interprocess communication, for example.
  • FIG. 7 is a flowchart showing an example of an abnormal state determination processing procedure.
  • the process of FIG. 7 is executed by the control unit 10 of the information processing device 1 and the control unit 30 of the terminal device 3.
  • the execution timing of the process is, for example, the timing at which new operation information is stored in the detection value DB 112.
  • the control unit 10 of the information processing device 1 refers to the detection value DB 112 and acquires new operation information acquired and stored from the detection device 2 in real time (step S21).
  • the operation information is associated with a target person ID, an operation pattern, and the like.
  • the control unit 10 acquires reference operation information for comparison with the acquired operation information (step S22).
  • the control unit 10 refers to the reference operation information DB 113 and acquires the reference operation information including the same target person ID and operation pattern as the acquired operation information.
  • the control unit 10 compares the acquired motion information with the reference motion information, and determines whether or not the subject has a possibility of cerebral infarction, that is, whether or not the subject's motion information is in an abnormal state (step S23). ).
  • the control unit 10 analyzes the left motion information in the left half of the body and the right motion information in the right half of the body, and detects an action different from the normal time in only one of the left and right half of the subject. Determines to be an abnormal condition with the possibility of cerebral infarction.
  • the control unit 10 compares the acquired left operation information with the left reference operation information of the reference operation information, and compares the acquired right operation information with the right reference operation information of the reference operation information, and left and right. For each half of the body, it is determined whether or not the difference between the operation information and the reference operation information is equal to or greater than the threshold value.
  • FIG. 8 is an explanatory diagram relating to the determination process of the abnormal state.
  • the time series changes of the reference motion information for example, the moving speeds of the left hand and the right hand
  • the operation information is on the vertical axis and the time is on the horizontal axis.
  • the control unit 10 derives the reference operation information for each of the left and right halves from the operation information collected in the predetermined period, and stores the reference operation information in the reference operation information DB 113.
  • the control unit 10 compares the operation information of each of the left and right halves with the reference operation information, and calculates the difference value from the reference operation information for each of the left and right halves. That is, the control unit 10 calculates the difference between the right reference operation information shown by the solid line in FIG. 8 and the current right operation information shown by the thick line. Similarly, the control unit 10 calculates the difference between the left reference operation information and the current left operation information.
  • the control unit 10 compares the calculated difference value between the left and right halves with a predetermined threshold value, and determines whether or not there is an abnormality in the left and right halves for each of the left and right halves. Specifically, when the difference value is equal to or greater than the threshold value, it is determined that there is an abnormality. For example, the control unit 10 may make a determination by comparing the difference between the instantaneous values at a certain time with the threshold value, or set the integrated value or the average value of the difference at a certain unit time (for example, 5 minutes) as the threshold value. The judgment may be made by comparison.
  • the control unit 10 finally determines whether or not the subject is in an abnormal state that may cause a cerebral infarction, based on the determination results of the left and right hips. Specifically, when the control unit 10 determines that one half of the body has an abnormality and the other half of the body has no abnormality, the control unit 10 determines that the condition is abnormal. When the control unit 10 determines that there is no abnormality in both half bodies, it determines that there is no abnormality. Further, the control unit 10 also determines that there is no abnormal state even when it is determined that there is an abnormality in both half bodies. For example, when there is a difference between both the left and right motion information and the reference motion information, it is determined that the possibility of cerebral infarction is low because it is not an abnormality on only one side.
  • step S23 NO
  • step S24 determines whether or not the abnormal state is a false abnormal state
  • the pseudo-abnormal state is a state in which a predetermined change is temporarily generated in the movement of the left or right half of the body due to a factor other than the cerebral infarction, and unlike the abnormal state, the possibility of cerebral infarction is low.
  • factors of the pseudo-abnormal state include temporary and partial blood flow when sleeping for a long time with either the left half of the body or the right half of the body down, numbness due to nerve compression, and only one side due to exercise. Muscle pain and the like.
  • operation information with a difference between the left and right may be detected from the subject in these false abnormal states.
  • the control unit 10 stores a false abnormal state information DB (not shown) that stores false abnormal state information in which operation information in the false abnormal state is defined in advance.
  • the false abnormal state information DB stores operation information and other conditions that define the false abnormal state indicated in a predetermined operation.
  • the control unit 10 compares the operation information of the false abnormal state information DB with the acquired operation information of the target person, and determines whether or not the abnormal state of the target person is a false abnormal state. For example, when the time when one side of the body is down at bedtime is equal to or longer than a predetermined value, and the difference between the left motion information or the right motion information and the reference motion information is less than the predetermined value. Corresponds to false abnormal state information.
  • the control unit 10 may determine whether or not it is in a false abnormal state by using another machine learning method.
  • the control unit 10 creates in advance a learning model that outputs an identification result of whether or not it is in a false abnormal state when operating information is input, stores it in the storage unit 11, and uses this learning model to store the learning model in a false abnormal state. It may be determined whether or not there is.
  • step S24 When it is determined that the abnormal state is a false abnormal state, that is, the possibility of cerebral infarction is low because the motion information of the subject corresponds to the false abnormal state information (step S24: YES), the control unit 10 processes. Is returned to step S21, and acquisition of operation information is continued.
  • the control unit 10 is the communication unit. 12 outputs notification information for notifying the occurrence of an abnormal state to the terminal device 3 (step S25).
  • the control unit 10 refers to the target person information DB 111 to specify a notification destination when the target person is in an abnormal state, and outputs the notification information to the specified notification destination using, for example, a mail function or the like.
  • the control unit 30 of the terminal device 3 acquires notification information for notifying the occurrence of an abnormal state by the communication unit 32 (step S26). Based on the acquired notification information, the control unit 30 displays a notification screen 330 including information indicating the occurrence of an abnormal state on the display unit 33 (step S27), and ends a series of processes.
  • the control unit 10 may perform a loop process of performing step S21 after the process of step S25.
  • FIG. 9 is a diagram showing an example of the notification screen 330 displayed on the display unit 33.
  • the control unit 30 displays the notification screen information based on the notification information acquired from the information treatment device 1 on the display unit 33.
  • the notification screen 330 includes a notification regarding the operation information determined to be in an abnormal state.
  • the notification screen 330 may further include a notification prompting confirmation of the determination of the operation information determined to be in the abnormal state.
  • the notification screen 330 includes information indicating the detection date and time of the operation information, the detection location, and the like, the operation graph 331 showing the detected operation information, the confirmation button 334 prompting the confirmation of the screen contents, and the like. Is included.
  • the notification screen 330 may further include a message or the like for notifying support information (for example, content for urging a medical institution) to the target person according to the determination result.
  • the operation graph 331 includes a reference value curve 332 showing the reference operation information of the subject, and a detection value curve 333 showing the operation information related to the detected abnormal state.
  • the control unit 10 of the information processing device 1 refers to the reference operation information stored in the reference operation information DB 113 and the operation information stored in the detection value DB 112, and associates the time information with the reference value curve 332 and the detected value.
  • the curve 333 is generated and displayed on the operation graph 331.
  • control unit 10 refers to the detection value DB 112, acquires the detection date / time, the detection location, etc. of the operation information related to the abnormal state, generates text information displaying the acquired detection date / time, the detection location, etc., and generates the notification screen 330. Display above.
  • the control unit 10 may further read the detection value of the motion detection sensor 2a related to the abnormal state from the detection value DB 112, and display the read detection value together with the motion graph 331 on the notification screen 330. By displaying, for example, the detection value acquired from the image data in association with the operation information in addition to the operation information in the abnormal state, the actual operation state of the target person can be recognized in more detail.
  • the target person can recognize the occurrence of an abnormal state on the notification screen 330 displayed on the display unit 33. As a result, it is possible to notify the possibility of cerebral infarction even when the subject is not aware of it, so that it is possible to encourage early examination and the like and assist in the detection of cerebral infarction.
  • the control unit 30 of the terminal device 3 receives the operation of pressing the confirmation button 334, the control unit 30 transmits the operation information to the information processing device 1.
  • the control unit 10 of the information processing device 1 acquires operation information. If the operation information is not acquired for a predetermined period, the control unit 30 may output the notification information to the terminal device 3 again. As a result, the information can be reliably notified to the target person.
  • the difference value is determined for each of the left half body and the right half body, but the present embodiment is not limited to this.
  • the control unit 10 may determine whether or not it is in an abnormal state based on the difference value between the left operation information and the right operation information.
  • the control unit 10 calculates the difference value between the two at each time from the left operation information and the right operation information in a predetermined period, averages the difference values over the period, and serves as the reference operation information on the left.
  • the difference value between the operation information and the right operation information is derived.
  • the control unit 10 acquires the operation information from the detection device 2, the control unit 10 calculates the difference value between the left operation information and the right operation information.
  • the control unit 10 compares the calculated difference value with the difference value indicated by the reference operation information, and calculates the difference value between the two (referred to as “second difference value” for convenience).
  • the control unit 10 compares the calculated second difference value with the threshold value, and if the second difference value is equal to or greater than the threshold value, determines that the state is abnormal. In this way, the control unit 10 compares the left-right difference of the operation information in the reference state (difference value which is the reference operation information) with the left-right difference of the current operation information, and determines whether or not the state is abnormal. You may.
  • step S23 includes the process of step S24, and the control unit 10 may determine whether or not it is in an abnormal state by the process of determining whether or not it is in a false abnormal state.
  • the control unit 10 may determine that the subject is unlikely to have a cerebral infarction, that is, is not in an abnormal state, by determining that the subject is in a pseudo-abnormal state based on the motion information.
  • the determination accuracy can be further improved by determining whether or not each of the operation information derived from the image data obtained by the camera and the operation information derived from the line-of-sight data obtained by the line-of-sight sensor is in an abnormal state.
  • a different threshold value may be defined depending on the detection location of the operation information, or the threshold value may be corrected according to the detection location. For example, even if the operation pattern is the same, the intensity of the operation, the movable range, etc. may change depending on the place where the operation is performed. Therefore, the reference operation is performed by using the threshold value according to the detection place of the operation information. It is preferred that a comparison be made with the information. Further, when the room temperature around the target person is detected by, for example, a temperature sensor provided in the motion detection sensor 2a, the threshold value may be corrected based on the change value of the room temperature in the movement path of the target person.
  • the control unit 10 acquires a temperature change, compares it with the reference operation information using a threshold value derived by using a different correction value according to the acquired temperature change, and determines whether or not there is an abnormal state.
  • FIG. 10 is a flowchart showing an example of a processing procedure related to warning information.
  • the process of FIG. 10 is executed by the control unit 10 of the information processing device 1 and the control unit 30 of the terminal device 3.
  • the following processing is executed in parallel with the processing of FIG.
  • the control unit 10 determines whether or not the abnormal state continues for a predetermined time (step S31).
  • the control unit 10 refers to the detection value DB 112 and specifies the time when the first operation information related to the abnormal state is detected.
  • the control unit 10 determines the magnitude relationship between the elapsed time from the time when the first operation information is detected and a preset threshold value (for example, 20 minutes), and determines whether or not the elapsed time is equal to or greater than the threshold value. judge.
  • control unit 10 When it is determined that the abnormal state does not continue for a predetermined time because the elapsed time is less than the threshold value (step S31: NO), the control unit 10 ends the process. In this case, the control unit 10 may output the information notifying the end of the abnormal state to the terminal device 3 by the communication unit 12.
  • step S31: YES When it is determined that the abnormal state continues for a predetermined time because the elapsed time is equal to or greater than the threshold value (step S31: YES), the control unit 10 notifies the communication unit 12 of the continuation of the abnormal state. Is output to the terminal device 3 (step S32).
  • the output destination of the warning information is the terminal device 3 of the target person as well as the output destination of the notification information.
  • the control unit 30 of the terminal device 3 acquires warning information by the communication unit 32 (step S33). Based on the acquired warning information, the control unit 30 displays the warning information and the warning screen 340 for receiving the emergency call operation for the warning information on the display unit 33 (step S34).
  • FIG. 11 is a diagram showing an example of a warning screen 340 displayed on the display unit 33.
  • the control unit 30 displays the warning screen information based on the warning information acquired from the information treatment device 1 on the display unit 33.
  • the warning screen 340 includes warning information indicating the occurrence and content of the warning state, and further selects a notification unnecessary button 341 that accepts the selection that an emergency call is not required for the warning information and the selection that an emergency call is required. Includes a call request button 342 to accept.
  • An emergency call is to notify a person other than the subject that there is a high possibility of cerebral infarction when the abnormal condition of the subject continues.
  • An emergency call assists a request for assistance to a subject in an emergency by, for example, reporting to the subject's family, fire department, medical institution, or the like.
  • the target person performs a button operation for selecting whether or not to make an emergency call on the warning screen 340 displayed on the display unit 33.
  • the control unit 30 accepts a button operation and executes a process according to the received operation content.
  • the control unit 30 determines whether or not an emergency call is required (step S35). When the control unit 30 determines that an emergency call is not necessary by accepting the selection operation of the notification unnecessary button 341 via the operation unit 34 (step S35: NO), the control unit 30 ends the process. On the other hand, when it is determined that an emergency call is necessary by accepting the selection operation of the report need button 342 via the operation unit 34 (step S35: YES), the control unit 30 needs an emergency call by the communication unit 32. The emergency call information indicating that there is is output to the information processing device 1 (step S36). The control unit 30 may determine that an emergency call is necessary because the selection operation of both the report unnecessary button 341 and the report required button 342 is not accepted and the predetermined time has elapsed.
  • the control unit 10 of the information processing device 1 determines whether or not an emergency call for the warning information is required (step S37). When it is determined that an emergency call is necessary by acquiring the emergency call information from the terminal device 3 (step S37: YES), the control unit 10 externally transmits the emergency information for notifying the abnormal state of the target person by the communication unit 32. Output to (step S38).
  • the control unit 10 may specify an emergency notification destination in an emergency with reference to the target person information DB 111, and may make a report to the emergency notification destination using, for example, a call function.
  • the control unit 10 skips the emergency call process in step S38 and ends a series of processes. ..
  • the information processing device 1 changes the acquisition interval of the operation information according to the state of the target person. For example, in step S24 of FIG. 7, when it is determined that the state is abnormal, the control unit 10 outputs a detection interval change instruction to the detection device 2. For example, by changing the operation information acquisition interval, which is normally set every minute, every 10 seconds after the occurrence of an abnormal state, it is possible to identify the target person's state in more detail. ..
  • a part or all of the processes executed by the control unit 10 of the information processing device 1 are partly or all of the processes executed by the control unit 30 of the terminal device 3. It may be executed by the control unit 20 of the detection device 2.
  • the terminal device 3 may substantially include the information processing device 1 and directly communicate with the detection device 2.
  • the terminal device 3 may be configured to substantially include the information processing device 1 and the detection device 2, and each of the above-mentioned processes may be executed by one terminal device 3 having these functions.
  • the possibility of cerebral infarction can be determined based on the movement information of the subject's daily movements, particularly the movements that are repeatedly performed on a daily basis.
  • the subject can be promptly notified to assist in early detection of cerebral infarction.
  • Whether or not there is an abnormal state can be accurately determined by using the reference operation information and the false abnormal state information according to each target person.
  • the biological information of the subject is acquired, and the presence or absence of the possibility of cerebral infarction of the subject is determined based on the motion information and the biological information.
  • the differences between the second embodiment and the first embodiment will be described. Since the other configurations other than the configurations described later are the same as those of the information processing system 100 of the first embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.
  • the detection device 2 of the second embodiment includes a motion detection sensor 2a and a biological information detection sensor 2b as shown in FIG.
  • the biological information detection sensor 2b is a detection device that detects the biological information of the subject.
  • the detection device 2 transmits the motion information detected by the motion detection sensor 2a and the biometric information detected by the biometric information detection sensor 2b to the information processing device 1.
  • the biological information detection sensor 2b is, for example, an infrared camera that detects the blood flow and surface temperature of the subject.
  • the biological information detection sensor 2b may detect the body pressure of the subject by using a surface pressure sensor provided on a mat such as a bedding or a seat used by the subject.
  • the biological information detection sensor 2b may detect the pulse wave, body temperature, etc. of the subject by using a pulse wave sensor, a temperature sensor, or the like.
  • the detection device 2 may be composed of a combination of a plurality of types of motion detection sensors 2a and a biological information detection sensor 2b.
  • FIG. 12 is a block diagram showing the configuration of the detection device 2 according to the second embodiment.
  • the detection device 2 includes a biological information detection unit 24 in addition to a control unit 20, a storage unit 21, a communication unit 22, and an operation information detection unit 23.
  • the biological information detection unit 24 acquires a detection signal using the biological information detection sensor 2b.
  • the biological information detection unit 24 may include an A / D conversion function and output the measured value obtained from the biological information detection sensor 2b to the control unit 20.
  • the control unit 10 of the information processing device 1 stores the detection value including the operation information and the biological information acquired from the detection device 2 in the detection value DB 112.
  • the information processing device 1 determines the possibility of cerebral infarction of the subject based on the motion information and the biological information.
  • FIG. 13 is a flowchart showing an example of the abnormality state determination processing procedure in the second embodiment. The same step numbers are assigned to the processes common to those in FIG. 7 of the first embodiment, and detailed description thereof will be omitted.
  • the control unit 10 of the information processing device 1 refers to the detection value DB 112 and acquires new operation information and biometric information acquired and stored from the detection device 2 in real time (step S41).
  • the operation information is associated with a target person ID, an operation pattern, and the like.
  • the control unit 10 acquires reference operation information for comparison with the acquired operation information (step S22).
  • the control unit 10 refers to the reference operation information DB 113 and acquires the reference operation information including the same target person ID and operation pattern as the acquired operation information.
  • the control unit 10 compares the acquired motion information with the reference motion information, and determines whether or not the subject has a possibility of cerebral infarction, that is, whether or not the subject's motion information is in an abnormal state (step S23). ). When it is determined that there is no abnormal state (step S23: NO), the control unit 10 returns the process to step S41 and continues to acquire the operation information and the biological information. When it is determined that the abnormal state is (step S23: YES), the control unit 10 determines whether or not the abnormal state is a false abnormal state (step S44).
  • the control unit 10 compares the false abnormal state information regarding the false abnormal state stored in advance with the operation information of the target person, and determines whether or not the abnormal state of the target person is a false abnormal state.
  • the control unit 10 of the second embodiment determines whether or not it is in a pseudo-abnormal state based on the operation information and the biological information. That is, the false abnormal state information is defined including the operation information and the biological information. For example, when the change value of the blood flow rate, the body temperature, the change value of the shape of the left and right half of the body, etc. of the subject are predetermined values, it corresponds to the false abnormal state information.
  • step S44: YES When it is determined that the abnormal state is a false abnormal state because the operation information of the target person corresponds to the false abnormal state information (step S44: YES), the control unit 10 returns the process to step S41 and acquires the operation information. To continue.
  • step S44: NO When it is determined that the abnormal state is not a false abnormal state because the operation information of the target person does not correspond to the false abnormal state information (step S44: NO), the control unit 10 indicates the abnormal state to the terminal device 3 by the communication unit 12. The notification information for notifying the occurrence is output (step S25).
  • the control unit 30 of the terminal device 3 acquires notification information for notifying the occurrence of an abnormal state by the communication unit 32 (step S26). Based on the acquired notification information, the control unit 30 displays a notification screen including information indicating the occurrence of an abnormal state on the display unit 33 (step S27), and ends a series of processes.
  • the control unit 10 may perform a loop process of performing step S21 after the process of step S25.
  • an appropriate determination is made by determining the possibility of cerebral infarction including motion information and biological information. Results can be provided.
  • the detection device 2 of the third embodiment includes a sound sensor that detects the spoken voice of the target person as the motion detection sensor 2a.
  • the motion detection sensor 2a may further include a camera or the like that detects the motion of the subject's face.
  • the information processing device 1 determines the possibility of cerebral infarction based on the operation information which is the voice data acquired from the detection device 2.
  • the reference operation information of the reference operation information DB 113 stores voice data related to a plurality of reference patterns of words.
  • the information processing device 1 determines the possibility of cerebral infarction by comparing the voice data of the subject in the normal state with the voice data detected in real time.
  • the control unit 10 analyzes the voice data detected by the sound sensor and extracts a preset word pattern from the spoken voice.
  • the control unit 10 determines the magnitude relationship between the difference value between the voice data corresponding to the extracted word pattern, the voice data which is the reference operation information, and the preset threshold value, and the difference value is equal to or larger than the threshold value. By determining whether or not it is, it is determined whether or not it is an abnormal state that may cause cerebral infarction.
  • the control unit 10 may further acquire image data showing the speech operation of the subject's face captured by the camera. For example, using a pattern matching method or other known technique, the control unit 10 performs image analysis of motion information, which is acquired image data, and determines whether or not it matches a preset utterance pattern. When it is determined that the utterance pattern matches, the control unit 10 executes the above-mentioned voice data analysis process and determines whether or not it is in an abnormal state.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Physiology (AREA)
  • Neurology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Neurosurgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

情報処理方法は、対象者の動作を検出する動作検出装置が検出した動作情報を取得し、取得した前記動作情報を記憶部に記憶し、記憶した所定期間における前記動作情報に基づき、前記対象者の左半身及び右半身の基準動作情報を導出し、導出した前記基準動作情報と、前記所定期間より後の検出時点における前記対象者の左半身及び右半身の動作情報とに基づき、前記対象者に脳梗塞の可能性がある異常状態であるか否かを判定する処理をコンピュータに実行させる。

Description

情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システム
 本技術は、情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システムに関する。
 脳梗塞は、脳血管が閉塞又は狭窄することにより、脳虚血をきたし、脳組織が壊死した状態である。脳梗塞の原因は、主に血栓性、塞栓性及び血行力学性に分けられ、具体的にはアテローム血栓性脳梗塞、心原性脳梗塞、ラクナ梗塞、その他に分けられる。脳梗塞が発症した場合、閉塞又は狭窄した脳血管の下流の細胞が壊死するため、麻痺、言語障害、失明、めまい、失調、意識障害などの症状を生じる。
 脳梗塞は、時間の経過とともに拡大するため、発見が遅れるほど重篤となりやすい。このため、これらの症状が発生してから早期に脳梗塞を発見することが重要である。特許文献1には、体液試料中のニックβ2グリコプロテインIの濃度を測定して脳梗塞を検出する方法が記載されている。
特開2003-121444号公報
 特許文献1のような方法を用いた診断等を対象者が能動的に利用することで、脳梗塞を発見することが可能である。ところが脳梗塞又は脳虚血の発生を示す症状は、日常生活において突然に現れる場合が多い。また、一過性脳虚血発作などの症状は、一過性であり短時間で消失する。このような場合には、脳梗塞又は脳虚血の症状が現れても対象者に自覚症状が無い、又は症状が見過ごされてしまい、脳梗塞が検出されないケースが起こり得る。
 本開示の目的は、対象者に脳梗塞の可能性がある異常状態の有無を判定することができる情報処理方法等を提供することである。
 本開示の一態様に係る情報処理方法は、対象者の動作を検出する動作検出装置が検出した動作情報を取得し、取得した前記動作情報を記憶部に記憶し、記憶した所定期間における前記動作情報に基づき、前記対象者の左半身及び右半身の基準動作情報を導出し、導出した前記基準動作情報と、前記所定期間より後の検出時点における前記対象者の左半身及び右半身の動作情報とに基づき、前記対象者に脳梗塞の可能性がある異常状態であるか否かを判定する処理をコンピュータに実行させる。
 本開示の一態様に係るコンピュータプログラムは、対象者の動作を検出する動作検出装置が検出した動作情報を取得し、取得した前記動作情報を記憶部に記憶し、記憶した所定期間における前記動作情報に基づき、前記対象者の左半身及び右半身の基準動作情報を導出し、導出した前記基準動作情報と、前記所定期間より後の検出時点における前記対象者の左半身及び右半身の動作情報とに基づき、前記対象者に脳梗塞の可能性がある異常状態であるか否かを判定する処理をコンピュータに実行させる。
 本開示の一態様に係る情報処理装置は、対象者の動作を検出する動作検出装置が検出した動作情報を取得する動作情報取得部と、前記動作情報取得部が取得した動作情報を記憶する記憶部と、前記記憶部が記憶した所定期間における動作情報に基づき、前記対象者の左半身及び右半身の基準動作情報を導出する導出部と、前記導出部が導出した前記基準動作情報と、前記所定期間より後の検出時点における前記対象者の左半身及び右半身の動作情報とに基づき、前記対象者に脳梗塞の可能性がある異常状態であるか否かを判定する判定部とを備える。
 本開示の一態様に係る情報システムは、対象者の動作を検出する動作検出装置と、該動作検出装置から動作情報を取得する情報処理装置とを含み、前記情報処理装置は、前記動作検出装置が検出した動作情報を取得する動作情報取得部と、前記動作情報取得部が取得した動作情報を記憶する記憶部と、前記記憶部が記憶した所定期間における動作情報に基づき、前記対象者の左半身及び右半身の基準動作情報を導出する導出部と、前記導出部が導出した前記基準動作情報と、前記所定期間より後の検出時点における前記対象者の左半身及び右半身の動作情報とに基づき、前記対象者に脳梗塞の可能性がある異常状態であるか否かを判定する判定部とを備える。
 本開示によれば、対象者に脳梗塞の可能性がある異常状態の有無を判定することができる。
第1実施形態における情報処理システムの概要図である。 情報処理装置の構成を示すブロック図である。 対象者情報DBのレコードレイアウトを例示する説明図である。 動作情報DBのレコードレイアウトを例示する説明図である。 基準動作情報DBのレコードレイアウトを例示する説明図である。 検出装置の構成を示すブロック図である。 端末装置の構成を示すブロック図である。 基準動作情報取得の処理手順の一例を示すフローチャートである。 異常状態の判定処理手順の一例を示すフローチャートである。 異常状態の判定処理に関する説明図である。 表示部で表示される通知画面の一例を示す図である。 警告情報に係る処理手順の一例を示すフローチャートである。 表示部で表示される警告画面の一例を示す図である。 第2実施形態における検出装置の構成を示すブロック図である。 第2実施形態における異常状態の判定処理手順の一例を示すフローチャートである。
 本発明をその実施の形態を示す図面を参照して具体的に説明する。
(第1実施形態)
 図1は、第1実施形態における情報処理システム100の概要図である。本実施形態の情報処理システム100は、対象者の動作情報から脳梗塞の可能性を判定するシステムである。情報処理システム100は、情報処理装置1と、検出装置2に備えられる動作検出センサ2aとを含む。情報処理装置1と検出装置2とは、インターネット等のネットワークNを介して情報の送受信が可能である。情報処理装置1はさらに、ネットワークNを介して端末装置3と通信接続される。
 情報処理装置1は、検出装置2から取得した対象者の動作情報に基づき、対象者における脳梗塞又は脳虚血の症状又は予兆等のリスク、すなわち脳梗塞の可能性を判定する。情報処理装置1は端末装置3等を介して判定結果に応じた情報を提供する。
 動作情報は、対象者の動作量を表すパラメータである。動作量は、例えば対象者の手足、頭部等の各部位の単位時間当たりの移動量(移動速度)、移動距離、揺れ、角速度などであり、後述するように、対象者を撮影した画像から得られる。なお、後述するように、動作量は画像から得るものに限定されず、マイクロ波センサ、ミリ波センサ、超音波センサ、加速度センサなどで検出したデータであってもよい。
 検出装置2は、例えば対象者の住居等に設けられ、対象者の日常生活における動作を検出する。検出装置2は、動作検出センサ(動作検出装置)2aを備え、動作検出センサ2aにより検出した動作情報を情報処理装置1へ送信する。動作検出センサ2aは、例えば、対象者の住居内のリビング、ダイニング、キッチン、洗面所、寝室等の複数領域において複数個設けられることが好ましい。動作検出センサ2aは、対象者がセンサを意識することなく生活できる位置に設置されるとよい。検出装置2は、動作検出センサ2aに加え、生体情報検出センサ(生体情報検出装置)2bを備えていてもよい。生体情報検出センサ2bについては、他の実施形態で詳述する。
 動作検出センサ2aは、例えば撮像対象領域内の画像を撮影するカメラである。動作検出センサ2aは、CCD(Charge Coupled Device)イメージセンサ等の撮像素子及びレンズ等を有し、レンズを介して入射した光を撮像素子にて光電変換して画像データである動作情報を取得する。動作検出センサ2aは、複数の撮像素子からなるステレオカメラであってもよい。動作検出センサ2aが撮影した画像データを解析することによって、画像データに含まれる対象者の動作を二次元又は三次元で認識することが可能となる。動作検出センサ2aは、上述のカメラを用いるものに限定されず、例えば超音波センサ、マイクロ波センサ、ミリ波センサ、レーザレーダセンサ等を用いて対象者の位置及び形状等を検出してもよい。動作検出センサ2aは、視線検出センサを用いて、対象者の眼球運動を測定し、視線方向及び視点等を検出してもよい。検出装置2は、動作検出センサ2aの検出値を取得する。
 上記では、検出装置2が対象者の住居に設置される構成を説明したが、本実施形態は限定されるものではない。例えば、検出装置2は、ウェアラブルデバイスとして構成され、対象者に装着されてもよい。検出装置2は、例えば眼鏡型の形状を有する。検出装置2は、動作検出センサ2aとして加速度、角速度及び地磁気をそれぞれ3軸で測定するモーションセンサを備え、対象者の動作を検出する。検出装置2は、装着状態において対象者の鼻や頭部等に当接する位置に、動作検出センサ2aである筋電位センサを備え、対象者の顔面筋電位を検出してもよい。検出装置2は、動作検出センサ2aとして、装着状態において対象者の鼻に当接する位置等に筋電位センサを備え、対象者の眼電位を検出することにより視線方向及び瞬き等の動作を検出してもよい。検出装置2は、眼鏡型の形状を有するものに限定されず、例えばバンド形状を有し、対象者の手、足、腰等に装着されてもよい。検出装置2は、例えば伸縮性を備えるシート形状を有し、対象者の身体に貼り付けられてもよい。また検出装置2は、例えばコンタクトレンズ型、マウスピース型等のキャビタスデバイスとして構成され、対象者の体腔に装着されてもよい。
 検出装置2は、対象者に複数個装着されてもよい。検出装置2は、複数種類の動作検出センサ2aの組み合わせにより構成され、複数種類のセンサによる検出値を取得してもよい。例えば、カメラにより対象者を含む撮像領域全体の情報を検出し、検出した撮像データに基づき特定した対象者に対して、レーザレーダセンサ等により動作を検出してもよい。
 本情報処理システム100では、動作検出センサ2aにより、特に対象者が日常的に繰り返し行う動作に関する動作情報を検出する。検出した動作情報を解析して、対象者の左半身の動作状態及び右半身の動作状態を取得し、対象者の左半身及び右半身における通常時の動作状態と比較することで、対象者の脳梗塞の可能性を判定する。例えば、特に身体の片側における急な顔、手足のしびれ、目が見えにくくなる、呂律が回らなくなるといった症状の出現は、脳の一部が機能しなくなることに起因する可能性が高い。従って、対象者の動作における急な左右差の発生を検出することにより、脳梗塞又は脳虚血の発症又は予兆の可能性を識別することが可能である。このような情報処理システム100の構成及び詳細な処理内容について以下に説明する。
 図2は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、サーバコンピュータを用いる。情報処理装置1は、制御部10、記憶部11及び通信部12を備える。情報処理装置1は説明を容易にするために1台のサーバコンピュータとして説明するが、複数のサーバコンピュータで機能又は処理を分散させてもよいし、1台の大型コンピュータに仮想的に生成される複数のサーバコンピュータ(インスタンス)の内の1つであってもよい。
 制御部10は、一又は複数のCPU(Central Processing Unit )、GPU(Graphics Processing Unit)等を用いたプロセッサであり、内蔵するROM(Read Only Memory)又はRAM(Random Access Memory)等のメモリを用い、各構成部を制御して処理を実行する。
 通信部12は、ネットワークNを介した通信を実現する通信インタフェースである。制御部10は通信部12により、ネットワークNを介した検出装置2、他の外部装置等との間の情報の送受信が可能である。
 記憶部11は、例えばハードディスク又はSSD(Solid State Drive )等の不揮発性メモリを含む。記憶部11には、プログラム1Pを含む制御部10が参照するプログラム及びデータが記憶されている。制御部10は、プログラム1Pを読み出して実行することによって、汎用的なサーバコンピュータを本開示特有の情報処理装置として機能させる。記憶部11に記憶されるプログラム1Pは、記録媒体にコンピュータ読み取り可能に記録されている態様であってもよい。記憶部11は、図示しない読出装置によって記録媒体1Aから読み出されたプログラム1Pを記憶する。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラム1Pをダウンロードし、記憶部11に記憶させたものであってもよい。なお記憶部11は、複数の記憶装置により構成されていてもよく、情報処理装置1に接続された外部記憶装置であってもよい。
 また、記憶部11には、対象者情報DB(Data Base :データベース)111、検出値DB112、基準動作情報DB113等が記憶されている。図3Aは対象者情報DB111のレコードレイアウトを例示する説明図、図3Bは検出値DB112のレコードレイアウトを例示する説明図、図3Cは基準動作情報DB113のレコードレイアウトを例示する説明図である。
 対象者情報DB111は、本情報処理システム100を利用する対象者の情報を格納するデータベースである。例えば、対象者情報DB111には、図3Aに示すように、複数の対象者それぞれの対象者ID、対象者の氏名、年齢、住所、対象者の顔を撮影した画像データ、通知先、緊急通知先等の情報が関連付けられて格納されている。通知先には、対象者に脳梗塞の可能性がある異常状態が発生した場合に通知を出力する通知先が含まれる。通知先には、例えば対象者の所有する端末装置3のMACアドレス、メールアドレス等が格納されている。緊急連絡先には、対象者に脳梗塞の可能性が高い緊急時における通知先が含まれる。緊急連絡先には、例えば対象者以外の人の電話番号等が格納されている。
 検出値DB112は、動作検出センサ2aにより検出された検出値及び動作情報等を格納するデータベースである。図3Bに示すように、検出値DB112には、例えば検出日時、センサ情報、検出値、動作情報、対象者ID、動作パターン等の情報が関連付けられて時系列的に格納されている。検出値DB112に記憶される各動作情報は、検出装置2の制御部20が動作情報を取得し、取得した動作情報を情報処理装置1へ送信する都度、制御部10によって取得し記憶される。
 センサ情報には、検出値を出力した動作検出センサ2aを識別する識別情報が含まれ、例えばセンサの固有IDが格納されている。検出値には、動作検出センサ2aの検出値が格納されている。
 動作情報列には、左動作情報列及び右動作情報列が含まれている。左動作情報列及び右動作情報列には、対象者の左半身及び右半身それぞれにおける動作を示す動作情報が格納されている。左動作情報及び右動作情報は、対象者の該当部位の動作量を示すパラメータであり、上述の如く、該当部位の移動速度、移動距離、揺れ、角速度等のデータである。該当部位とは、対象者の姿勢を特定するための特徴点となる関節などの人体の部位である。本実施の形態では一例として、左動作情報列及び右動作情報列には、対象者の左手及び右手の単位時間当たりの移動量(移動速度)が格納される。
 対象者IDには、動作情報の対象者を識別する識別情報が含まれ、例えば対象者IDが格納されている。対象者IDは、動作情報検出のために撮影した画像から被写体の顔特徴量を抽出し、予め登録されている対象者の顔特徴量とのパターンマッチングを行うことで特定される。対象者IDは、その他機械学習等の手法を用いて特定されてもよい。
 動作パターンは、対象者が日常行い得る動作の種類であり、例えば、就寝、食事、歯磨き、テレビ鑑賞、料理、歩行等が含まれ得る。動作パターンは、例えば室内における対象者の位置、姿勢、あるいは動作量のパターンマッチングを行うことで特定される。動作パターンは、その他機械学習等の手法を用いて特定されてもよい。
 基準動作情報DB113は、対象者の通常状態における動作を示す基準動作情報を格納するデータベースである。情報処理装置1は、対象者の脳梗塞の可能性を判定するにあたり、所定期間における該対象者の動作情報を収集して得られる基準動作情報を取得し、基準動作情報DB113に記憶する。情報処理装置1は、基準動作情報とリアルタイムで取得される動作情報とを比較して、異常状態の有無を判定する。基準動作情報DB113には、例えば、図3Cに示すように、対象者ID、動作パターン、基準動作情報、基準期間、更新日時等の情報が関連付けられて格納されている。
 動作パターンには、動作パターンを識別する情報が含まれ、例えば、就寝、食事、歯磨き、テレビ鑑賞、料理、歩行等の動作パターンを示す名称が格納されている。
 基準動作情報には、所定期間の動作情報を解析して得られる対象者の基準状態の動作情報が含まれる。基準動作情報は、左半身の動作を示す左基準動作情報と、右半身の動作を示す右基準動作情報とを含んでよい。左基準動作情報及び右基準動作情報はそれぞれ、例えば、所定期間において、対象者の同一の動作パターンに対する左動作情報及び右動作情報を含む動作情報を収集し、範囲、平均値を算出することにより取得される。基準動作情報は、時刻に関する情報が関連付けられた複数の動作情報を含むものであってよい。
 基準期間には、基準動作情報を導出するための動作情報を収集する期間が含まれる。基準期間は、例えば7日間である。更新日時には、基準動作情報を更新した日時の最新情報が含まれる。本実施形態においては、基準動作情報は、リアルタイムで検出される動作情報に基づき随時更新される。対象者の直近の動作状態に基づき生成される基準動作情報を用いることで、例えば一時的な怪我、あるいは加齢による変化等を含む個々の対象者の状態に応じた判定が可能となる。なお、対象者情報DB111、検出値DB112及び基準動作情報DB113の記憶内容は図3A~図3Cに示す例に限定されない。
 図4は、検出装置2の構成を示すブロック図である。検出装置2は、制御部20、記憶部21、通信部22及び動作情報検出部23を備える。
 制御部20は、一又は複数のCPU、GPU等を用いたプロセッサであり、内蔵するROM又はRAM等のメモリを用い、各構成部を制御して処理を実行する。記憶部21には、例えばフラッシュメモリ等の不揮発性メモリを含む。記憶部21には、制御部20が参照する情報が記憶される。通信部22は、ネットワークNを介した情報処理装置1との通信を実現する通信インタフェースである。
 動作情報検出部23は、動作検出センサ2aを用いて検出信号を取得する。動作情報検出部23は、A/D変換機能を含んで、動作検出センサ2aから得られる測定値を制御部20へ出力してもよい。
 図5は、端末装置3の構成を示すブロック図である。端末装置3は、例えばスマートフォン、タブレット端末等を用いる。端末装置3は、パーソナルコンピュータ等の情報端末装置であってもよい。端末装置3は、制御部30、記憶部31、通信部32、表示部33及び操作部34を備える。
 制御部30は、CPU又はGPU等のプロセッサと、メモリ等を含む。制御部30は、プロセッサ、メモリ、記憶部31、及び通信部32を集積した1つのハードウェア(SoC:System On a Chip)として構成されていてもよい。制御部30は、記憶部31に記憶されているプログラムに基づき、各構成部を制御して処理を実行する。
 記憶部31は、例えばフラッシュメモリ等の不揮発性メモリを含む。記憶部31は、制御部30が参照するプログラム及びデータを記憶する。通信部32は、ネットワークNを介した情報処理装置1との通信を実現する通信インタフェースである。
 表示部33は、液晶パネル、有機EL(Electro Luminescence)ディスプレイ等のディスプレイ装置を含む。表示部33は、制御部30からの指示に従って各種の情報を表示する。操作部34は、ユーザの操作を受け付けるインタフェースであり、例えば物理ボタン、マウス、ディスプレイ内蔵のタッチパネルデバイス、スピーカ及びマイクロフォン等を含む。操作部34は、ユーザからの操作入力を受け付け、操作内容に応じた制御信号を制御部30へ送出する。
 図6は、基準動作情報取得の処理手順の一例を示すフローチャートである。図6の処理は、情報処理装置1の制御部10及び検出装置2の制御部20にて実行される。処理の実行タイミングは、例えば動作検出センサ2aにより信号が検出されるタイミングである。
 検出装置2の制御部20は、リアルタイムで、もしくは所定の検出間隔(例えば1分毎)で動作検出センサ2aから対象者を撮影した画像を取得する(ステップS10)。制御部20は、取得した画像から、対象者の該当部位に対応する特徴点を検出する(ステップS11)。例えば制御部20は、対象者の右手及び左手を特徴点として検出する。
 制御部20は、時系列で取得した各画像における特徴点の検出結果に基づき、右動作情報及び左動作情報を含む動作情報を取得する(ステップS12)具体的には、制御部20は、時系列に取得した画像データを比較して、前時刻及び現時刻の画像に含まれる右半身及び左半身における該当部位の動作量を算出する。例えば、検出装置2は、前フレームにおける左手及び右手の座標と、現フレームにおける左手及び右手の座標とをそれぞれ比較して、移動距離及び検出時刻から算出される移動速度を動作情報として取得する。
 また、制御部20は、対象者の動作パターン、及び対象者を特定する(ステップS13)。例えば制御部20は、ステップS11で手足、頭部等の各部位を特徴点として検出しておき、検出した各特徴点の座標値から、室内における対象者の位置、姿勢、動き(ジェスチャ)のパターンマッチングを行うことで動作パターンを特定する。また、制御部20は、予め対象者IDと対象者の顔特徴量を関連付けて記憶(登録)しておき、ステップS10から顔特徴量を抽出して、記憶されている顔特徴量とのパターンマッチングを行うことで対象者IDを特定する。制御部20は、特定した動作パターン、対象者ID、検出日時、センサID、検出値等と関連付けて動作情報を情報処理装置1へ出力する(ステップS14)。
 情報処理装置1の制御部10は、通信部12により動作情報を取得する(ステップS15)。制御部10は、取得した動作情報に、対象者ID、動作パターン等を関連付けて検出値DB112に記憶する(ステップS16)。
 制御部10は、収集した動作情報に基づき、対象者の通常時の動作を示す基準動作情報を導出する(ステップS17)。具体的には、制御部10は、検出値DB112を参照して、所定期間(例えば7日間)内に検出され、検出値DB112に記憶された同一対象者の動作情報を取得する。この場合において、制御部10は、動作パターン毎に基準動作情報を導出するため、同一の動作パターンを含む動作情報を抽出するとよい。例えば、動作パターン「食事」に対する基本動作情報を導出する場合、制御部10は、導出時点から直近の1週間を含む検出日時、同一の対象者ID、及び同一の動作パターンである「食事」を含む動作情報を抽出する。制御部10は、抽出した動作情報の左動作情報及び右動作情報に基づき、それぞれの平均値を算出することにより、左半身の基準動作を示す左基準動作情報と、右半身の基準動作を示す右基準動作情報とを含む基準動作情報を導出する。
 さらに制御部10は、導出した基準動作情報と、予め記録済みの基準動作情報とを比較して、基準動作情報を補正するか否かを判定する(ステップS18)。具体的には制御部10は、導出した基準動作情報及び記録済みの基準動作情報の差分値と、予め設定されている閾値との大小関係を判定し、差分値が閾値以上であるか否かを判定する。差分値が閾値未満であることにより基準動作情報を補正しないと判定した場合(ステップS18:NO)、制御部10は、基準動作情報の補正処理をスキップする。
 差分値が閾値以上であることにより基準動作情報を補正すると判定した場合(ステップS18:YES)、制御部10は、記録済みの基準動作情報を新たに導出した基準動作情報に変更する補正を実行する(ステップS19)。制御部10は、所定のルールに基づき記録済みの基準状態情報の値を補正してもよい。制御部10は、補正後の基準動作情報、更新日時等の情報を基準動作情報DB113に記憶し(ステップS20)、一連の処理を終了する。
 上述の処理において、制御部10は、ステップS15の解析結果により、取得した動作情報に含まれる動作パターンを示す特徴量が所定値以上であるときに、ステップS17以下の処理を実行するものであってよい。すなわち、制御部10は、取得した動作情報が予め設定される動作パターンに該当する場合に、基準動作情報の導出処理を実行するものであってよい。
 なお、上述の処理において、一連の処理を情報処理装置1の制御部10と、検出装置2の制御部20とが分担して実行する例を説明したが、これら制御部10及び制御部20の分担は一例であり、図6の例に限定されるものではない。すなわち、検出装置2が、実質的に情報処理装置1を含むものであってもよい。または、検出装置2の制御部20は、動作検出センサ2aが検出した検出値を出力するのみであり、情報処理装置1の制御部10は、以降の処理を行うものであってもよい。または、情報処理装置1の制御部10と、検出装置2の制御部20とは、例えばプロセス間通信を行うことにより、協働して一連の処理を実行するものであってもよい。
 上述のように取得した基準動作情報を用いて、情報処理装置1は対象者の動作情報から脳梗塞の可能性があるか否かを判定する。図7は、異常状態の判定処理手順の一例を示すフローチャートである。図7の処理は、情報処理装置1の制御部10及び端末装置3の制御部30にて実行される。処理の実行タイミングは、例えば新たな動作情報が検出値DB112に記憶されたタイミングである。
 情報処理装置1の制御部10は、検出値DB112を参照し、検出装置2より取得し記憶した新たな動作情報をリアルタイムで取得する(ステップS21)。動作情報には、対象者ID、動作パターン等が関連付けられている。制御部10は、取得した動作情報との比較を行う基準動作情報を取得する(ステップS22)。制御部10は、基準動作情報DB113を参照して、取得した動作情報と同一の対象者ID及び動作パターンを含む基準動作情報を取得する。
 制御部10は、取得した動作情報と基準動作情報とを比較し、対象者に脳梗塞の可能性があるか否か、すなわち対象者の動作情報が異常状態であるかを判定する(ステップS23)。制御部10は、左半身における左動作情報と右半身における右動作情報とを解析することにより、対象者の左半身又は右半身のいずれか一方にのみ通常時とは異なる動作を検出した場合には、脳梗塞の可能性がある異常状態であると判定する。
 具体的には、制御部10は、取得した左動作情報と基準動作情報の左基準動作情報とを比較すると共に、取得した右動作情報と基準動作情報の右基準動作情報とを比較し、左右半身それぞれで、動作情報と基準動作情報との差分が閾値以上であるか否かを判定する。図8は、異常状態の判定処理に関する説明図である。図8では、上側に左半身及び右半身それぞれの基準動作情報(例えば左手及び右手の移動速度)の時系列変化を、下側に現在の左半身及び右半身それぞれの動作情報を加えた時系列変化を概念的に図示している。図8中の各グラフは、動作情報を縦軸とし、時間を横軸とする。
 上述の如く、制御部10は所定期間において収集した動作情報から左右半身それぞれの基準動作情報を導出し、基準動作情報DB113に記憶している。制御部10は、検出装置2から動作情報を取得した場合に、左右半身それぞれの動作情報を基準動作情報と比較し、左右半身それぞれで基準動作情報との差分値を算出する。すなわち、制御部10は、図8において実線で示す右基準動作情報と、太線で示す現在の右動作情報との差分を計算する。同様に、制御部10は、左基準動作情報と現在の左動作情報との差分を計算する。
 制御部10は、算出した左右半身それぞれの差分値を所定の閾値と比較し、左半身及び右半身に異常があるか否かを、左半身及び右半身ごとに判定する。具体的には、差分値が閾値以上である場合に異常があると判定する。なお、例えば制御部10は、ある時刻の瞬時値の差分を閾値と比較して判定を行うようにしてもよく、又はある単位時間(例えば5分間)の差分の積分値や平均値を閾値と比較して判定を行うようにしてもよい。制御部10は、左半身及び右半身それぞれの判定結果に基づき、最終的に対象者が脳梗塞の可能性がある異常状態であるか否かを判定する。具体的には、制御部10は、一方の半身に異常があり、かつ、他方の半身に異常がないと判定した場合に、異常状態であると判定する。制御部10は、両半身に異常がないと判定した場合に、異常状態でないと判定する。また制御部10は、両半身に異常があると判定した場合にも異常状態でないと判定する。例えば、左右における両方の動作情報と基準動作情報に差異が発生しているときは、片側のみにおける異常ではないため、脳梗塞の可能性は低いと判定される。
 図7に戻り説明を続ける。異常状態でないと判定した場合(ステップS23:NO)、制御部10は、処理をステップS21に戻し動作情報の取得を継続する。異常状態であると判定した場合(ステップS23:YES)、制御部10は、当該異常状態が偽異常状態であるか否かを判定する(ステップS24)。
 ここで偽異常状態とは、脳梗塞以外の要因により一時的に左半身又は右半身の動作に所定の変化が発生している状態であり、異常状態とは異なり脳梗塞の可能性が低い状態をいう。偽異常状態の要因の例としては、例えば左半身又は右半身のいずれか一方を下にして長時間就寝した場合の一時的かつ部分的な血流及び神経圧迫によるしびれ、運動等による片側のみの筋肉痛などが挙げられる。これら偽異常状態にある対象者からは、異常状態と同様に左右差のある動作情報が検出されることがある。
 制御部10は、予め偽異常状態における動作情報を定義した偽異常状態情報を格納する偽異常状態情報DB(図示せず)を記憶している。偽異常状態情報DBには、所定の動作において示される偽異常状態を定義する動作情報やその他条件が保存されている。制御部10は、偽異常状態情報DBの動作情報と、取得した対象者の動作情報とを比較して、対象者の異常状態が偽異常状態であるか否かを判定する。例えば、就寝時において身体の片側が下であった時間が所定値以上であり、かつ左動作情報又は右動作情報と基準動作情報との差分値の左右差が所定値未満である場合には、偽異常状態情報に該当する。なお制御部10は、その他機械学習の手法を用いて偽異常状態であるか否かを判定してもよい。制御部10は、動作情報を入力した場合に偽異常状態であるか否かの識別結果を出力する学習モデルを予め作成して記憶部11に記憶しておき、この学習モデルにより偽異常状態であるか否かを判定してもよい。
 対象者の動作情報が偽異常状態情報に該当することにより、異常状態が偽異常状態である、すなわち脳梗塞の可能性が低いと判定した場合(ステップS24:YES)、制御部10は、処理をステップS21に戻し動作情報の取得を継続する。
 対象者の動作情報が偽異常状態情報に該当しないことにより、異常状態が偽異常状態でない、すなわち脳梗塞の可能性が高いと判定した場合(ステップS24:NO)、制御部10は、通信部12により端末装置3へ異常状態の発生を通知する通知情報を出力する(ステップS25)。制御部10は、対象者情報DB111を参照して対象者が異常状態にある場合の通知先を特定し、例えばメール機能等を用いて特定した通知先へ通知情報を出力する。
 端末装置3の制御部30は、通信部32により異常状態の発生を通知する通知情報を取得する(ステップS26)。制御部30は、取得した通知情報に基づいて、異常状態の発生を示す情報を含む通知画面330を表示部33に表示し(ステップS27)、一連の処理を終了する。なお制御部10は、ステップS25の処理の後にステップS21を行うループ処理を行ってもよい。
 図9は、表示部33で表示される通知画面330の一例を示す図である。制御部30は、情報処置装置1から取得した通知情報に基づく通知画面情報を表示部33に表示する。通知画面330には、異常状態であると判定した動作情報に関する通知が含まれている。通知画面330にはさらに、異常状態であると判定した動作情報について、その判定に対する確認を促す通知が含まれてよい。図9に示す例では、通知画面330には、動作情報の検出日時、検出場所等を示す情報が含まれ、さらに検出した動作情報を示す動作グラフ331、画面内容の確認を促す確認ボタン334等が含まれる。通知画面330には更に、判定結果に応じた対象者への支援情報(例えば医療機関への受診を促す内容)を通知するメッセージ等が含まれてよい。
 図9に示す例では、通知画面330には、動作情報を縦軸とし、時間を横軸とする動作グラフ331にて異常が検出された半身の動作情報(例えば右手の移動速度)の計時変化が示されている。動作グラフ331には、対象者の基準動作情報を示す基準値曲線332と、検出された異常状態に係る動作情報を示す検出値曲線333とが含まれている。情報処理装置1の制御部10は、基準動作情報DB113に保存される基準動作情報と、検出値DB112に保存される動作情報とを参照し、時間情報を対応付けた基準値曲線332及び検出値曲線333を生成し動作グラフ331上に表示する。また、制御部10は検出値DB112を参照し、異常状態に係る動作情報の検出日時、検出場所等を取得し、取得した検出日時、検出場所等を表示するテキスト情報を生成し、通知画面330上に表示する。制御部10は、検出値DB112から異常状態に係る動作検出センサ2aの検出値をさらに読み出し、読み出した検出値を動作グラフ331とともに通知画面330上に表示してもよい。異常状態における動作情報に加え、動作情報に関連付けて、例えば画像データで取得される検出値を表示することにより、実際の対象者の動作の様子をより詳細に認識することができる。
 対象者は、表示部33に表示される通知画面330にて異常状態の発生を認識することができる。これにより対象者自身が自覚していない場合であっても脳梗塞の可能性を通知することができるため、早期の検査受診等を促し、脳梗塞の発見を補助することができる。対象者は、通知画面を確認後、確認ボタン334をクリックする。端末装置3の制御部30は、確認ボタン334の押下操作を受け付けた場合、操作情報を情報処理装置1へ送信する。情報処理装置1の制御部10は、操作情報を取得する。操作情報が所定期間取得されない場合には、制御部30は再度通知情報を端末装置3へ出力してもよい。これにより、対象者へ確実に情報を通知することができる。
 なお、上記では左半身及び右半身それぞれについて差分値の判定を行うようにしたが、本実施の形態はこれに限定されるものではない。具体的には、制御部10は、左動作情報及び右動作情報の差分値に基づいて異常状態であるか否かを判定してもよい。
 この場合、制御部10は、所定期間の左動作情報及び右動作情報から各時刻における両者の差分値を算出し、当該期間に亘る差分値の平均を取るなどして、基準動作情報となる左動作情報及び右動作情報の差分値を導出する。制御部10は、検出装置2から動作情報を取得した場合、左動作情報及び右動作情報の差分値を算出する。制御部10は、算出した差分値を基準動作情報が示す差分値と比較し、両者の差分値(便宜上、「第2差分値」と呼ぶ)を算出する。
 制御部10は、算出した第2差分値を閾値と比較し、第2差分値が閾値以上である場合、異常状態であると判定する。このように、制御部10は、基準状態の動作情報の左右差(基準動作情報である差分値)と、現在の動作情報の左右差とを比較して異常状態であるか否かを判定してもよい。
 なお、上記では異常状態の判定処理と偽異常状態の判定処理とが異なる処理にて実行される例を説明したが、これらの判定処理は一つの処理として実行されるものであってもよい。すなわち、ステップS23はステップS24の処理を含むものであり、制御部10は、偽異常状態であるか否かの判定処理により異常状態であるか否かを判定するものであってよい。例えば制御部10は、動作情報に基づき対象者が偽異常状態であると判定することにより、対象者に脳梗塞の可能性が低い、すなわち異常状態ではないと判定するものであってよい。
 また、上述の異常状態の判定において、複数の動作検出センサ2aにより複数種類の動作情報が検出される場合には、情報処理装置1は、当該複数種類の動作情報それぞれについて、異常状態であるか否かを判定するものであってよい。例えば、カメラによる画像データから導出される動作情報と、視線センサによる視線データから導出される動作情報とのそれぞれについて異常状態か否かを判定することで、より判定精度を向上させることができる。
 また、上述の異常状態の判定において用いられる閾値は、動作情報の検出場所により異なる閾値が定義され、あるいは検出場所に応じて閾値が補正されるものであってよい。例えば、同一の動作パターンであっても、動作の行われる場所に応じて、動作の強度、可動範囲等が変化する可能性があるため、動作情報の検出場所に応じた閾値を用いて基準動作情報との比較が行われることが好ましい。また、例えば動作検出センサ2aに設けられた温度センサ等により、対象者周辺の室温が検出される場合には、対象者の移動経路における室温の変化値に基づき閾値が補正されてもよい。対象者周辺において所定値以上の温度変化が検出された場合には、同じ動作パターンであっても動作内容に変化が生じる可能性がある。制御部10は、温度変化を取得し、取得した温度変化に応じて異なる補正値を用いて導出した閾値を用いて基準動作情報との比較を行い、異常状態の有無を判定する。
 情報処理装置1は、異常状態が継続する場合にはさらなる通知を出力する。図10は、警告情報に係る処理手順の一例を示すフローチャートである。図10の処理は、情報処理装置1の制御部10及び端末装置3の制御部30にて実行される。図7のステップS24にて対象者が異常状態であると判定された場合、図7の処理に並行して以下の処理が実行される。
 制御部10は、異常状態が所定時間に亘って継続しているか否かを判定する(ステップS31)。制御部10は、検出値DB112を参照して、異常状態に係る最初の動作情報が検出された時間を特定する。制御部10は、最初の動作情報が検出された時間からの経過時間と、予め設定されている閾値(例えば20分)との大小関係を判定し、経過時間が閾値以上であるか否かを判定する。
 経過時間が閾値未満であることにより異常状態が所定時間に亘って継続していないと判定した場合(ステップS31:NO)、制御部10は処理を終了する。この場合において、制御部10は、通信部12により異常状態の終了を通知する情報を端末装置3へ出力してもよい。
 経過時間が閾値以上であることにより異常状態が所定時間に亘って継続していると判定した場合(ステップS31:YES)、制御部10は、通信部12により異常状態の継続を通知する警告情報を端末装置3へ出力する(ステップS32)。警告情報の出力先は、通知情報の出力先と同様、対象者の端末装置3である。
 端末装置3の制御部30は、通信部32により警告情報を取得する(ステップS33)。制御部30は、取得した警告情報に基づいて、警告情報及び警告情報に対する緊急通報操作を受け付ける警告画面340を表示部33に表示する(ステップS34)。
 図11は、表示部33で表示される警告画面340の一例を示す図である。制御部30は、情報処置装置1から取得した警告情報に基づく警告画面情報を表示部33に表示する。警告画面340には、警告状態の発生及び内容を示す警告情報が含まれ、更に警告情報に対する緊急通報が不要であるとの選択を受け付ける通報不要ボタン341及び緊急通報が必要であるとの選択を受け付ける通報必要ボタン342が含まれる。緊急通報とは、対象者の異常状態が継続している場合に、脳梗塞の可能性が高いことを対象者以外に通報するものである。緊急通報は、例えば対象者の家族、消防署、医療機関等へ通報することで、緊急状態にある対象者への支援の要請を補助するものである。対象者は、表示部33に表示される警告画面340にて、緊急通報の有無を選択するボタン操作を行う。制御部30はボタン操作を受け付け、受け付けた操作内容に応じた処理を実行する。
 図10に戻り説明を続ける。制御部30は、緊急通報が必要であるか否かを判定する(ステップS35)。制御部30は、操作部34を介し通報不要ボタン341の選択操作を受け付けたことにより緊急通報が必要でないと判定した場合(ステップS35:NO)、処理を終了する。一方、操作部34を介し通報必要ボタン342の選択操作を受け付けたことにより緊急通報が必要であると判定した場合(ステップS35:YES)、制御部30は、通信部32により緊急通報が必要であることを示す緊急通報情報を情報処理装置1へ出力する(ステップS36)。制御部30は、通報不要ボタン341及び通報必要ボタン342の両方の選択操作が受け付けられず所定時間が経過したことにより、緊急通報が必要であると判定してもよい。
 情報処理装置1の制御部10は、警告情報に対する緊急通報が必要であるか否かを判定する(ステップS37)。端末装置3から緊急通報情報を取得したことにより緊急通報が必要であると判定した場合(ステップS37:YES)、制御部10は、通信部32により対象者の異常状態を通知する緊急情報を外部へ出力する(ステップS38)。制御部10は、対象者情報DB111を参照して緊急時における緊急通知先を特定し、例えば通話機能を用いて緊急通知先へ通報を行うとよい。端末装置3から緊急通報情報を取得しておらず緊急通報が必要でないと判定した場合(ステップS37:NO)、制御部10は、ステップS38の緊急通報処理をスキップし、一連の処理を終了する。
 上述の処理において、情報処理装置1は、対象者の状態に応じて動作情報の取得間隔を変更することが好ましい。例えば図7のステップS24において、異常状態であると判定した場合、制御部10は検出装置2へ検出間隔の変更指示を出力する。例えば、通常時は1分毎に設定されている動作情報の取得間隔を、異常状態の発生以降は10秒毎に変更することで、より対象者の状態を詳細に識別することが可能となる。
 なお本実施形態において、上述の図7及び図10の各フローチャートにて説明した処理において、情報処理装置1の制御部10により実行される処理の一部又は全部は、端末装置3の制御部30で実行されてもよく、あるいは、検出装置2の制御部20で実行されてもよい。
 本実施形態において、端末装置3は、実質的に情報処理装置1を含み、直接検出装置2との間で通信を行うものであってもよい。あるいは、端末装置3は、実質的に情報処理装置1及び検出装置2を含むよう構成され、これらの機能をそなえる1つの端末装置3により上述の各処理が実行されてもよい。
 本実施形態によれば、対象者の日常的な動作、特に日常的に繰り返し行われる動作に関する動作情報に基づき、脳梗塞の可能性が判定できる。脳梗塞の可能性がある異常状態が検出された場合には、対象者に速やかに通知することで、脳梗塞の早期発見を補助することができる。異常状態で有るか否かは、個々の対象者に応じた基準動作情報、偽異常状態情報を用いることにより精度良く判定することができる。
(第2実施形態)
 第2実施形態では、対象者の生体情報を取得し、動作情報及び生体情報に基づき対象者の脳梗塞の可能性の有無を判定する。以下では、第2実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の情報処理システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
 第2実施形態の検出装置2は、図1に示す如く動作検出センサ2a及び生体情報検出センサ2bを備えている。生体情報検出センサ2bは、対象者の生体情報を検出する検出装置である。検出装置2は、動作検出センサ2aにより検出した動作情報及び生体情報検出センサ2bにより検出した生体情報を、情報処理装置1へ送信する。
 生体情報検出センサ2bは、例えば対象者の血流や表面温度を検出する赤外線カメラである。生体情報検出センサ2bは、対象者の使用する寝具や座席等のマットに設けられる面圧センサを用いて、対象者の体圧を検出してもよい。検出装置2がウェアラブルデバイスである場合には、生体情報検出センサ2bは、脈波センサ、温度センサ等を用いて、対象者の脈波、体温等を検出してもよい。なお検出装置2は、複数種類の動作検出センサ2a及び生体情報検出センサ2bの組み合わせにより構成されてもよい。
 図12は、第2実施形態における検出装置2の構成を示すブロック図である。検出装置2は、制御部20、記憶部21、通信部22、動作情報検出部23に加え生体情報検出部24を備える。生体情報検出部24は、生体情報検出センサ2bを用いて検出信号を取得する。生体情報検出部24は、A/D変換機能を含んで、生体情報検出センサ2bから得られる測定値を制御部20へ出力してもよい。
 第2実施形態では、情報処理装置1の制御部10は、検出装置2から取得した動作情報及び生体情報を含む検出値を検出値DB112へ記憶している。情報処理装置1は、動作情報及び生体情報に基づき、対象者の脳梗塞の可能性を判定する。図13は、第2実施形態における異常状態の判定処理手順の一例を示すフローチャートである。第1実施形態の図7と共通する処理については同一のステップ番号を付してその詳細な説明を省略する。
 情報処理装置1の制御部10は、検出値DB112を参照し、検出装置2より取得し記憶した新たな動作情報及び生体情報をリアルタイムで取得する(ステップS41)。動作情報には、対象者ID、動作パターン等が関連付けられている。制御部10は、取得した動作情報との比較を行う基準動作情報を取得する(ステップS22)。制御部10は、基準動作情報DB113を参照して、取得した動作情報と同一の対象者ID及び動作パターンを含む基準動作情報を取得する。
 制御部10は、取得した動作情報と基準動作情報とを比較し、対象者に脳梗塞の可能性があるか否か、すなわち対象者の動作情報が異常状態であるかを判定する(ステップS23)。異常状態でないと判定した場合(ステップS23:NO)、制御部10は、処理をステップS41に戻し動作情報及び生体情報の取得を継続する。異常状態であると判定した場合(ステップS23:YES)、制御部10は、該異常状態が偽異常状態であるか否かを判定する(ステップS44)。
 制御部10は、予め記憶する偽異常状態に関する偽異常状態情報と、対象者の動作情報とを比較して、対象者の異常状態が偽異常状態であるか否かを判定する。第2実施形態の制御部10は、動作情報及び生体情報に基づき、偽異常状態であるか否かを判定する。すなわち、偽異常状態情報は、動作情報及び生体情報を含んで定義されている。例えば、対象者の血流量の変化値、体温、左右の半身における形状の変化値等が所定値である場合は偽異常状態情報に該当する。
 対象者の動作情報が偽異常状態情報に該当することにより、異常状態が偽異常状態であると判定した場合(ステップS44:YES)、制御部10は、処理をステップS41に戻し動作情報の取得を継続する。対象者の動作情報が偽異常状態情報に該当しないことにより、異常状態が偽異常状態でないと判定した場合(ステップS44:NO)、制御部10は、通信部12により端末装置3へ異常状態の発生を通知する通知情報を出力する(ステップS25)。
 端末装置3の制御部30は、通信部32により異常状態の発生を通知する通知情報を取得する(ステップS26)。制御部30は、取得した通知情報に基づいて、異常状態の発生を示す情報を含む通知画面を表示部33に表示し(ステップS27)、一連の処理を終了する。なお制御部10は、ステップS25の処理の後にステップS21を行うループ処理を行ってもよい。
 本実施形態によれば、例えば動作情報のみでは異常状態又は偽異常状態のいずれか判定困難な場合についても、動作情報及び生体情報を含んで脳梗塞の可能性を判定することにより、適切な判定結果を提供することができる。
(第3実施形態)
 第3実施形態では、情報処理を音声データである動作情報に特化して実現する。以下では、第3実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の情報処理システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
 第3実施形態の検出装置2は、動作検出センサ2aとして対象者の発話音声を検出する音センサを備える。動作検出センサ2aはさらに対象者の顔の動作を検出するカメラ等を備えていてもよい。
 情報処理装置1は、検出装置2から取得した音声データである動作情報に基づき脳梗塞の可能性を判定する。第3実施形態では、基準動作情報DB113の基準動作情報には、基準となる複数パターンの単語に係る音声データが格納される。情報処理装置1は、通常時における対象者の音声データと、リアルタイムで検出された音声データとを比較して、脳梗塞の可能性を判定する。
 制御部10は、音センサが検出した音声データの解析を実行し、発話音声から予め設定される単語パターンを抽出する。制御部10は、抽出した単語パターンに相当する音声データと、基準動作情報である音声データとの差分値と、予め設定されている閾値との大小関係を判定し、差分値が閾値以上であるか否かを判定することにより、脳梗塞の可能性がある異常状態であるか否かの判定を行う。
 制御部10はさらに、カメラにより撮像された対象者の顔の発話動作を示す画像データを取得してもよい。例えばパターンマッチング手法やその他の公知技術を用いて、制御部10は取得した画像データである動作情報の画像解析を行い、予め設定される発話パターンと一致するか否かを判定する。発話パターンと一致すると判定した場合に、制御部10は上述の音声データの解析処理を実行し、異常状態であるか否かの判定を行う。
 本実施形態によれば、例えば身体における動作の左右差からは判定困難な場合についても、日常的に発生する多くの音声情報に基づき、脳梗塞の可能性を判定することができる。
 今回開示された実施の形態は全ての点で例示であって、制限的なものではない。本発明の範囲は、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内での全ての変更が含まれる。
 1 情報処理装置
 2 検出装置
 2a 動作検出センサ
 2b 生体情報検出センサ
 3 端末装置
 10,20,30 制御部
 11,21,31 記憶部
 111 対象者DB
 112 検査値DB
 113 基準動作情報DB
 1P プログラム
 

Claims (12)

  1.  対象者の動作を検出する動作検出装置が検出した動作情報を取得し、
     取得した前記動作情報を記憶部に記憶し、
     記憶した所定期間における前記動作情報に基づき、前記対象者の左半身及び右半身の基準動作情報を導出し、
     導出した前記基準動作情報と、前記所定期間より後の検出時点における前記対象者の左半身及び右半身の動作情報とに基づき、前記対象者に脳梗塞の可能性がある異常状態であるか否かを判定する
     処理をコンピュータに実行させる情報処理方法。
  2.  前記異常状態であると判定した場合、通知を出力する
     処理をコンピュータに実行させる請求項1に記載の情報処理方法。
  3.  前記異常状態が所定時間に亘って継続しているか否かを判定する
     処理をコンピュータに実行させる請求項1又は請求項2に記載の情報処理方法。
  4.  前記異常状態であると判定した場合、前記動作情報に基づき、脳梗塞以外の要因で前記対象者の左半身又は右半身に所定の変化が生じている偽異常状態であるか否かを判定する
     処理をコンピュータに実行させる請求項1から請求項3のいずれか1項に記載の情報処理方法。
  5.  前記対象者の生体情報を検出する生体情報検出装置が検出した生体情報を取得し、
     前記異常状態であると判定した場合、前記生体情報に基づき、脳梗塞以外の要因で前記対象者の左半身又は右半身に所定の変化が生じている偽異常状態であるか否かを判定する
     処理をコンピュータに実行させる請求項1から請求項3のいずれか1項に記載の情報処理方法。
  6.  前記動作情報は、前記対象者の左半身の動作を検出した第1動作情報及び前記対象者の右半身の動作を検出した第2動作情報を含み、
     前記基準動作情報の第1動作情報及び第2動作情報の差分値と、前記検出時点の第1動作情報及び第2動作情報の差分値とを比較して、前記異常状態であるか否かを判定する
     処理をコンピュータに実行させる請求項1から請求項5のいずれか1項に記載の情報処理方法。
  7.  前記動作情報は、前記対象者の左半身の動作を検出した第1動作情報及び前記対象者の右半身の動作を検出した第2動作情報を含み、
     前記基準動作情報の第1動作情報及び前記検出時点の第1動作情報と、前記基準動作情報の第2動作情報及び前記検出時点の第2動作情報とをそれぞれ比較して、前記異常状態であるか否かを判定する
     処理をコンピュータに実行させる請求項1から請求項6のいずれか1項に記載の情報処理方法。
  8.  前記動作情報の検出場所に応じて、異なる閾値を用いて前記基準動作情報と前記検出時点の動作情報とを比較する
     処理をコンピュータに実行させる請求項1から請求項7のいずれか1項に記載の情報処理方法。
  9.  前記動作検出装置は複数種類の検出装置を含み、前記対象者における複数の動作情報を取得する
     請求項1から請求項8のいずれか1項に記載の情報処理方法。
  10.  対象者の動作を検出する動作検出装置が検出した動作情報を取得し、
     取得した前記動作情報を記憶部に記憶し、
     記憶した所定期間における前記動作情報に基づき、前記対象者の左半身及び右半身の基準動作情報を導出し、
     導出した前記基準動作情報と、前記所定期間より後の検出時点における前記対象者の左半身及び右半身の動作情報とに基づき、前記対象者に脳梗塞の可能性がある異常状態であるか否かを判定する
     処理をコンピュータに実行させるコンピュータプログラム。
  11.  対象者の動作を検出する動作検出装置が検出した動作情報を取得する動作情報取得部と、
     前記動作情報取得部が取得した動作情報を記憶する記憶部と、
     前記記憶部が記憶した所定期間における動作情報に基づき、前記対象者の左半身及び右半身の基準動作情報を導出する導出部と、
     前記導出部が導出した前記基準動作情報と、前記所定期間より後の検出時点における前記対象者の左半身及び右半身の動作情報とに基づき、前記対象者に脳梗塞の可能性がある異常状態であるか否かを判定する判定部と
     を備える情報処理装置。
  12.  対象者の動作を検出する動作検出装置と、該動作検出装置から動作情報を取得する情報処理装置とを含み、
     前記情報処理装置は、
     前記動作検出装置が検出した動作情報を取得する動作情報取得部と、
     前記動作情報取得部が取得した動作情報を記憶する記憶部と、
     前記記憶部が記憶した所定期間における動作情報に基づき、前記対象者の左半身及び右半身の基準動作情報を導出する導出部と、
     前記導出部が導出した前記基準動作情報と、前記所定期間より後の検出時点における前記対象者の左半身及び右半身の動作情報とに基づき、前記対象者に脳梗塞の可能性がある異常状態であるか否かを判定する判定部と
     を備える情報処理システム。
     
PCT/JP2021/009229 2020-03-10 2021-03-09 情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システム WO2021182455A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180010135.4A CN114980814A (zh) 2020-03-10 2021-03-09 信息处理方法、计算机程序、信息处理装置及信息处理系统
JP2022507209A JPWO2021182455A1 (ja) 2020-03-10 2021-03-09
EP21767819.2A EP4111984A4 (en) 2020-03-10 2021-03-09 INFORMATION PROCESSING METHOD, COMPUTER PROGRAM, INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING SYSTEM
US17/823,710 US20220409120A1 (en) 2020-03-10 2022-08-31 Information Processing Method, Computer Program, Information Processing Device, and Information Processing System

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020041076 2020-03-10
JP2020-041076 2020-03-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/823,710 Continuation US20220409120A1 (en) 2020-03-10 2022-08-31 Information Processing Method, Computer Program, Information Processing Device, and Information Processing System

Publications (1)

Publication Number Publication Date
WO2021182455A1 true WO2021182455A1 (ja) 2021-09-16

Family

ID=77671699

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/009229 WO2021182455A1 (ja) 2020-03-10 2021-03-09 情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システム

Country Status (5)

Country Link
US (1) US20220409120A1 (ja)
EP (1) EP4111984A4 (ja)
JP (1) JPWO2021182455A1 (ja)
CN (1) CN114980814A (ja)
WO (1) WO2021182455A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023048287A1 (ja) * 2021-09-27 2023-03-30 テルモ株式会社 情報処理システム、プログラム及び情報処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348893A (ja) * 2004-06-09 2005-12-22 Taiji Nishimura 脳梗塞の予知方法
KR20150032956A (ko) * 2013-09-23 2015-04-01 이양수 뇌졸중 감지 장치 및 방법
JP2018171443A (ja) * 2017-03-31 2018-11-08 コリア リサーチ インスティトゥート オブ スタンダーズ アンド サイエンス 脳卒中モニタリングシステム
JP2019535069A (ja) * 2016-09-19 2019-12-05 エヌ・ティ・ティ イノベーション インスティチュート インクNTT Innovation Institute, Inc. 脳卒中検出及び予防システム及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4441907A1 (de) * 1993-12-16 1995-06-22 Hewlett Packard Co Patienten-Notfallreaktionssystem
US20150164377A1 (en) * 2013-03-13 2015-06-18 Vaidhi Nathan System and method of body motion analytics recognition and alerting
US20150018723A1 (en) * 2013-07-09 2015-01-15 Industry-Academic Cooperation Foundation, Kyungpook National University Apparatus for early detection of paralysis based on motion sensing
EP3402405B1 (en) * 2016-01-12 2023-04-12 Yale University System for diagnosis and notification regarding the onset of a stroke
US11642071B2 (en) * 2016-08-02 2023-05-09 New York University Methods and kits for assessing neurological function and localizing neurological lesions
US11389109B2 (en) * 2018-04-14 2022-07-19 Y. Michael Lee System and method for monitoring and treating head, spine and body health and wellness

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348893A (ja) * 2004-06-09 2005-12-22 Taiji Nishimura 脳梗塞の予知方法
KR20150032956A (ko) * 2013-09-23 2015-04-01 이양수 뇌졸중 감지 장치 및 방법
JP2019535069A (ja) * 2016-09-19 2019-12-05 エヌ・ティ・ティ イノベーション インスティチュート インクNTT Innovation Institute, Inc. 脳卒中検出及び予防システム及び方法
JP2018171443A (ja) * 2017-03-31 2018-11-08 コリア リサーチ インスティトゥート オブ スタンダーズ アンド サイエンス 脳卒中モニタリングシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4111984A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023048287A1 (ja) * 2021-09-27 2023-03-30 テルモ株式会社 情報処理システム、プログラム及び情報処理方法

Also Published As

Publication number Publication date
EP4111984A4 (en) 2023-08-09
CN114980814A (zh) 2022-08-30
US20220409120A1 (en) 2022-12-29
EP4111984A1 (en) 2023-01-04
JPWO2021182455A1 (ja) 2021-09-16

Similar Documents

Publication Publication Date Title
US20210183516A1 (en) Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy
JP6268193B2 (ja) 脈波測定装置、携帯機器、医療機器システム、及び生体情報コミュニケーションシステム
CN109215804B (zh) 基于虚拟现实技术与生理参数检测的精神类疾病辅助诊断系统
Lamonaca et al. Health parameters monitoring by smartphone for quality of life improvement
JP6073919B2 (ja) ユーザの圧受容器反射をモニタリングする方法及び装置
US9747902B2 (en) Method and system for assisting patients
US20240091623A1 (en) System and method for client-side physiological condition estimations based on a video of an individual
CN111225612A (zh) 基于机器学习的神经障碍识别和监测系统
KR102338297B1 (ko) 사용자 상태를 판단하기 위한 시스템의 제어 방법, 장치 및 프로그램
CN109997178B (zh) 用于提醒紧急服务的计算机系统
KR20200056660A (ko) 얼굴 내 미세움직임 기반 통증 모니터링 방법 및 시스템
WO2021182455A1 (ja) 情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システム
EP3160328B1 (en) Device, system and computer program for detecting a health condition of a subject
US20240065599A1 (en) Cognitive function estimation device, cognitive function estimation method, and storage medium
US20210202078A1 (en) Patient-Observer Monitoring
JP7209954B2 (ja) 眼振解析システム
JP5511503B2 (ja) 生体情報計測処理装置及び生体情報計測処理方法
Logan et al. From individual features to full faces: Combining aspects of face information
WO2020161947A1 (ja) 身体健康状態映像分析装置、方法並びにシステム
JP2019180831A (ja) 眼球運動特徴量算出システム、眼球運動特徴量算出方法及び眼球運動特徴量算出プログラム
WO2023189313A1 (ja) プログラム、情報処理装置、および情報処理方法
CN115770013B (zh) 辅助弱势人群的眼动测试方法、装置、设备及介质
WO2023157596A1 (ja) 情報処理方法、情報処理装置、プログラム、及び、情報処理システム
JP2022141984A (ja) 血圧監視装置、血圧監視方法、および血圧監視プログラム
JP7419904B2 (ja) 生体モニタ装置、生体モニタ方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21767819

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022507209

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2021767819

Country of ref document: EP

Effective date: 20220930

NENP Non-entry into the national phase

Ref country code: DE