WO2016199748A1 - 動作検出システム、動作検出装置、動作検出方法、および動作検出プログラム - Google Patents

動作検出システム、動作検出装置、動作検出方法、および動作検出プログラム Download PDF

Info

Publication number
WO2016199748A1
WO2016199748A1 PCT/JP2016/066855 JP2016066855W WO2016199748A1 WO 2016199748 A1 WO2016199748 A1 WO 2016199748A1 JP 2016066855 W JP2016066855 W JP 2016066855W WO 2016199748 A1 WO2016199748 A1 WO 2016199748A1
Authority
WO
WIPO (PCT)
Prior art keywords
output
motion
selection unit
unit
detected
Prior art date
Application number
PCT/JP2016/066855
Other languages
English (en)
French (fr)
Inventor
堀田 伸一
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to US15/580,146 priority Critical patent/US20180140230A1/en
Priority to JP2017523641A priority patent/JP6222405B2/ja
Priority to EP16807455.7A priority patent/EP3309747A4/en
Priority to CN201680033037.1A priority patent/CN107710281A/zh
Publication of WO2016199748A1 publication Critical patent/WO2016199748A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1115Monitoring leaving of a patient support, e.g. a bed or a wheelchair
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/05Parts, details or accessories of beds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/22Status alarms responsive to presence or absence of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Definitions

  • the present disclosure relates to a motion detection system, a motion detection device, a motion detection method, and a motion detection program that can determine a motion of a person.
  • This technology is applied to, for example, an operation detection system for watching an operation of a cared person who needs care for an elderly person or a patient.
  • the motion detection system detects that the cared person has performed a dangerous motion (such as getting up or getting out of bed) accompanied by a fall or the like, and notifies the carer of this. As a result, the caregiver can rush to the cared person and prevent the cared person from falling over.
  • Patent Document 1 discloses a motion detection device before getting out of bed that “prevents detection of the motion of the patient before getting out when there is a person near the patient”. Disclosure. Japanese Patent Laid-Open No. 2001-327549 (Patent Document 2) discloses a dynamic detection system that “detects a series of movements from a sleeping position of a cared person to the start of walking according to dynamics”.
  • the motion detection system may detect multiple types of motion in a short time. When the caregiver is notified each time the care receiver's motion is detected, the burden on the caregiver increases. Therefore, a motion detection system that can reduce the burden on the caregiver resulting from this is desired.
  • the motion detection apparatus before leaving floor disclosed in Patent Document 1 is a case where contact with a patient's hand or the like is detected, and when the distance output by the distance sensor is within a predetermined range, The previous operation is not notified. That is, the motion detection apparatus before leaving the floor only determines whether to notify that the patient has left the floor, and does not detect a plurality of types of motion.
  • the dynamic detection system disclosed in Patent Document 2 detects a series of dynamics from a caregiver's sleeping posture to a long sitting position, an end sitting position, a standing position, and a start of walking step by step for each movement.
  • the dynamic detection system detects the continuity of dynamics when the next dynamic is detected again after a predetermined time has elapsed since the detection of each dynamic. In other words, the dynamic detection system only determines whether or not the dynamic is continued, and a case of detecting a plurality of types of dynamics within a certain time is not assumed.
  • An object of the present invention is to provide an operation detection system capable of reducing the burden.
  • An object in another aspect is to provide an operation detection device that can reduce a burden on a caregiver that may occur when a plurality of types of notification target operations are detected in a short time.
  • Still another object of the present invention is to provide an operation detection method capable of reducing the burden on a caregiver that may occur when a plurality of types of notification target operations are detected within a short period of time.
  • Still another object of the present invention is to provide an operation detection program capable of reducing a burden on a caregiver that may occur when a plurality of types of notification target operations are detected in a short time.
  • the motion detection system includes an acquisition unit for acquiring motion data indicating a person's motion, a detection unit for detecting a predetermined motion of the person using the motion data, and a predetermined time Selection for selecting an operation to be output from among the motions of the output candidates so that the motion types of the motion output candidates are smaller than the motion types when the motions of the motion candidates of multiple types are detected by the detection unit And an output unit for outputting the operation to be output selected by the selection unit.
  • the operations of the plurality of types of output candidates include a group of operations that can occur during a period from when the person is sleeping on the bed until the person leaves the bed.
  • the operations of the plurality of types of output candidates are a series of operations that can occur in time-series order.
  • the selection unit selects the operation detected last among the output candidate operations as the operation to be output.
  • the selection unit selects the operation detected first among the output candidate operations as the operation to be output.
  • a priority is associated in advance with each operation to be detected by the detection unit.
  • the selection unit selects the operation with the highest priority among the operations of the output candidates as the operation to be output.
  • the series of operation groups includes a first operation, a second operation, and a third operation.
  • the first operation and the second operation are operations that can occur before the third operation.
  • the selection unit changes the predetermined time depending on whether the operation detected before the third operation is the first operation or the second operation.
  • the output unit outputs the operation to be output by a plurality of different output means.
  • the selection unit selects the operation of the output candidate at a predetermined time different for each of the plurality of output means.
  • the output unit includes, as a plurality of output units, a first output unit for notifying a person's caregiver of an operation to be output and a second output unit for storing the output target operation in a memory.
  • the selection unit selects the operation of the output candidate for each first predetermined time for the first output means, and performs the operation of the output candidate for each second predetermined time shorter than the first predetermined time for the second output means. select.
  • the output unit notifies, as a plurality of output means, a first output means for notifying the caregiver of the person of the operation to be output and an operation of the operation detection system to notify the operation of the output target.
  • Second output means The selection unit selects the operation of the output candidate for each first predetermined time for the first output means, and performs the operation of the output candidate for each second predetermined time shorter than the first predetermined time for the second output means. select.
  • the motion detection device includes an acquisition unit for acquiring motion data indicating a person's motion, a detection unit for detecting a predetermined motion of the person using the motion data, and a predetermined time
  • an output target operation is selected from among the output candidate operations so that the types of output candidate operations are less than the plurality of types.
  • the motion detection method includes a step of acquiring motion data indicating a motion of a person, a step of detecting a predetermined motion of the person using the motion data, and a plurality of types of outputs during a predetermined time.
  • the motion detection program includes a step of acquiring motion data indicating the motion of the person in the computer, a step of detecting a predetermined motion of the person using the motion data, and a plurality of times during a predetermined time. Selecting an output target operation from among the output candidate operations so that the types of output candidate operations are less than a plurality of types when the types of output candidate operations are detected in the step of detecting; The step of outputting the operation of the output target selected in the step of selecting is executed.
  • 14 is a flowchart showing a specific example 1-4 of the selection process.
  • 10 is a flowchart showing a specific example 1-5 of the selection process.
  • It is a block diagram which shows the main hardware constitutions of the operation
  • It is a block diagram which shows the hardware constitutions and functional structure of the operation
  • It is a flowchart which shows the specific example 2 of a selection process. It is a figure which shows the content of the operation
  • It is a flowchart which shows the specific example 3 of a selection process.
  • FIG. 1 is a diagram illustrating an example of the configuration of the motion detection system 300.
  • the motion detection system 300 is used, for example, to watch over the care receiver 10 who is a person to be monitored.
  • the motion detection system 300 includes a camera 50, a motion detection device 100, and a mobile terminal 200.
  • the camera 50 and the motion detection apparatus 100 are connected to each other via a network.
  • the motion detection apparatus 100 and the mobile terminal 200 are connected to each other via a network.
  • the camera 50 is installed, for example, in a nursing facility, a medical facility, a home, or the like.
  • FIG. 1 shows a state where the camera 50 is photographing the care receiver 10 and the bed 20 from the ceiling.
  • the camera 50 may be attached to the ceiling or to the side wall.
  • the motion detection device 100 determines the motion of the care receiver 10 based on time-series images (video) obtained from the camera 50.
  • the movement of the cared person 10 that can be detected by the movement detecting device 100 includes the rising of the cared person 10, falling from the bed 20, and the like.
  • the motion detection device 100 is a motion candidate that informs the caregiver 11 of the detected motion (hereinafter also referred to as “notification candidate”).
  • the motion detection device 100 detects a notification target from the notification candidate operations so that the types of notification notification operations are reduced when a plurality of types of notification candidate operations are detected in a short time (for example, several seconds). Select the action. That is, the motion detection apparatus 100 selects a part of the notification candidate motion as a notification target.
  • the motion detection device 100 transmits information indicating the type of motion of the selected notification target to the mobile terminal 200 for the caregiver 11.
  • the mobile terminal 200 When the mobile terminal 200 receives information indicating the type of motion to be notified from the motion detection device 100, the mobile terminal 200 notifies the caregiver 11 that the motion to be notified has been detected. As an example of the notification method, the mobile terminal 200 displays information indicating the type of operation as a message, or utters the type of operation by voice. Thereby, the care giver 11 can grasp the care receiver 10's getting up or falling, and can quickly rush to the care receiver 10.
  • the motion detection apparatus 100 selects a notification target operation from the notification candidate operations, and notifies the caregiver 11 of the notification target operation. Thereby, the frequency
  • FIG. 1 illustrates an example in which the motion detection system 300 includes one camera 50, the motion detection system 300 may include a plurality of cameras 50.
  • FIG. 1 illustrates an example in which the motion detection system 300 includes one motion detection device 100. However, the motion detection system 300 may include a plurality of motion detection devices 100. Furthermore, although the camera 50 and the motion detection device 100 are configured as separate devices in FIG. 1, the camera 50 and the motion detection device 100 may be configured integrally. Further, FIG. 1 shows an example in which the motion detection system 300 includes a plurality of mobile terminals 200, but the motion detection system 300 may be configured by a single mobile terminal 200.
  • FIG. 2 is a block diagram showing a hardware configuration and a functional configuration of operation detection system 300 according to the first embodiment.
  • the motion detection system 300 includes an acquisition unit 52, a motion detection device 100, and an output unit 170.
  • the motion detection device 100 includes a CPU (Central Processing Unit) 102 and a storage device 120 as a hardware configuration.
  • the CPU 102 includes a detection unit 150 and a selection unit 160 as functional configurations.
  • movement set 122, the selection part 160, and the output part 170 are demonstrated in order.
  • the acquisition unit 52 acquires operation data indicating the operation of the care recipient.
  • the acquisition unit 52 is, for example, the camera 50 in FIG.
  • the acquisition unit 52 as the camera 50 acquires an image obtained by photographing a person to be monitored as operation data.
  • the image may be a still image or a moving image.
  • the acquisition unit 52 sequentially outputs the acquired images to the detection unit 150.
  • the acquisition unit 52 is not limited to the camera 50 as long as it is a device that can acquire the amount of movement of the care recipient.
  • the acquisition unit 52 may be a pressure-sensitive mat placed under a bed, a distance image sensor in a TOF (Time Of Flight) format, or the like.
  • the pressure sensitive mat outputs a pressure value as operation data.
  • the distance image sensor outputs a distance image as operation data.
  • the acquisition part 52 does not need to be comprised with one sensor, and may be comprised with several sensors.
  • the detection unit 150 analyzes the image obtained from the acquisition unit 52 and detects a specific operation of the caregiver.
  • the operations that can be detected by the detection unit 150 include a group of operations that can occur during the period from when the care recipient is sleeping on the bed until the user leaves the bed.
  • the caregiver can more reliably prevent the caregiver from falling by detecting the operation group at the time of getting up that is likely to lead to the caregiver falling.
  • the operation group includes, for example, bed rest, waking up, sitting on the edge, getting out of bed, and falling.
  • the bed is a state where the care recipient is lying in the bed.
  • Waking up refers to an action in which a cared person gets up on a bed.
  • the end sitting means a state where the cared person is sitting on the bed or a state where the cared person's body rests on the edge of the bed.
  • Getting out of bed means a state where the care recipient is away from the bed.
  • Falling refers to a state in which the care recipient falls from the bed and lies on the floor.
  • the detection unit 150 uses the motion data to calculate an evaluation value indicating the degree of movement of the cared person, and identifies the motion area where the cared person's movement occurs in the image.
  • the detection unit 150 detects the motion “bedbed”.
  • the detection unit 150 detects the motion “wake up”.
  • the detection unit 150 detects the motion “sitting”.
  • the detection unit 150 detects the motion “getting out”.
  • the detection unit 150 detects the motion “falling”.
  • the bed area in the image may be set in advance manually or may be automatically detected by an image processing technique such as template matching.
  • the operation that can be detected by the detection unit 150 has been described as an example of bed rest, wake-up, sitting on the edge, getting out of bed, and falling, but the operation that can be detected is not limited thereto.
  • the detectable motion may include other motions such as falling.
  • FIG. 3 is a diagram illustrating the contents of the operation set 122 according to the first embodiment.
  • a series of operation groups that occur in order of time series are defined as notification candidate operations that can be detected by the detection unit 150 (see FIG. 2). That is, in the operation set 122, the generation order of operations is defined. In the example of FIG. 3, in the operation set 122, the generation order of bedridden, wake-up, end-sitting, falling, and leaving the bed is defined.
  • the action group “bed bed ⁇ wake up ⁇ sit down ⁇ get out of bed” can occur.
  • the cared person falls once after moving his / her body to the end of the bed, so that the motion group “bed bed ⁇ end seat ⁇ falling” may occur.
  • the cared person may reestablish his / her posture even if he / she falls from the bed. In this case, the motion group “bed bed ⁇ sit down ⁇ get out of bed” may occur.
  • Such a group of operations that can occur is defined in the operation set 122 in advance.
  • the selection unit 160 selects a notification target operation from the notification candidate operations detected by the detection unit 150. Preferably, the selection unit 160 selects one operation as the notification target operation from the notification candidate operations. At this time, the selection unit 160 changes the method for selecting the operation to be notified according to the correspondence between the detected operation and the operation defined in the operation set 122. Details of the selection processing by the selection unit 160 will be described later.
  • the output unit 170 (see FIG. 2) will be described with reference to FIG. FIG. 4 is a diagram illustrating an output method of the detected operation.
  • the output unit 170 is, for example, a mobile terminal 200 for a caregiver.
  • the mobile terminal 200 displays a message 230 indicating the type of operation detected and emits a warning sound.
  • the portable terminal 200 displays these operations in different display modes when there are a plurality of notification target operations.
  • the display mode is changed depending on the display size. For example, as shown in the specific example (B) of FIG. 4, it is assumed that a wake-up and a get-off are detected as the operation to be notified.
  • the output unit 170 makes the display size of the message 230 indicating getting out larger than the display size of the message 232 showing getting up.
  • the mobile terminal 200 emits an operation to be notified by voice.
  • the mobile terminal 200 may notify the caregiver of the operation to be notified by vibration (vibration).
  • the output unit 170 is not limited to the mobile terminal 200.
  • the output unit 170 may also include a server for storing the operation to be notified.
  • the output result stored in the server is used, for example, for grasping the situation when the cared person falls or falls.
  • FIG. 5 is a flowchart showing a specific example 1-1 of the selection process.
  • FIG. 6 is a flowchart illustrating a specific example 1-2 of the selection process.
  • FIG. 7 is a flowchart illustrating a specific example 1-3 of the selection process.
  • FIG. 8 is a diagram showing the contents of the priority table 126.
  • FIG. 9 is a flowchart illustrating a specific example 1-4 of the selection process.
  • FIG. 10 is a flowchart illustrating a specific example 1-5 of the selection process.
  • 5 to 7, 9, and 10 are realized by the CPU 102 (see FIG. 2) functioning as the selection unit 160 executing a program. Alternatively, part or all of the processing may be executed by a circuit element or other hardware.
  • the selection unit 160 selects the operation detected last among the notification candidate operations detected during a predetermined time as the operation to be notified.
  • the predetermined time refers to a time for waiting to determine a notification candidate. That is, the selection unit 160 measures a predetermined time after the operation of the first notification candidate is detected, and sets the operation detected within the predetermined time as the notification candidate operation.
  • the predetermined time is also referred to as “standby time”.
  • the motion detection device 100 can notify only the latest operation in a series of operations by setting the last detected operation among notification candidates detected during the standby time as a notification target. As a result, the caregiver can accurately grasp the condition of the care recipient.
  • step S100 the selection unit 160 determines whether or not an operation A that is a notification candidate is detected. If it is determined that operation A has been detected (YES in step S100), selection unit 160 switches control to step S110. If not (NO in step S100), selection unit 160 executes step S100 again.
  • step S110 the selection unit 160 refers to the operation set 122 (see FIG. 3) and determines whether there is an operation associated with the operation A.
  • control unit 160 switches control to step S120. If not (NO in step S110), selection unit 160 switches control to step S132.
  • step S120 the selection unit 160 determines whether or not the operation B associated with the operation A is detected. If it is determined that operation B is detected (YES in step S120), selection unit 160 switches control to step S142. Otherwise (NO in step S120), selection unit 160 switches control to step S130.
  • step S130 the selection unit 160 determines whether or not a predetermined time has elapsed since the operation A was detected. If selection unit 160 determines that the predetermined time has elapsed (YES in step S130), it switches control to step S132. Otherwise (NO in step S130), selection unit 160 returns control to step S120.
  • step S132 the selection unit 160 selects the operation A as the notification target operation.
  • step S142 the selection unit 160 selects the operation B as the notification target operation.
  • the motion set 122 defines the motion group “Sagittarius ⁇ Get out of bed”.
  • the operation “end seat” is the operation A
  • the operation “getting bed” is the operation B.
  • the selection unit 160 selects the operation “getting off”.
  • the output unit 170 notifies the caregiver of getting out of the care recipient.
  • the output unit 170 generates an alarm sound, activates a vibration function, or displays the message “Mr. A has left the floor” on the screen.
  • the selection unit 160 selects the operation “Aza satara”.
  • the output unit 170 notifies the caregiver of the sitting position of the care receiver.
  • the output unit 170 generates an alarm sound, activates a vibration function, or displays the message “Mr. A has risen” on the screen as the mobile terminal 200.
  • the detected notification candidate operations are two types of time-series operation groups.
  • the detected notification candidate operations are three or more types of time-series operation groups.
  • step S120 the selection unit 160 determines whether or not the operation B associated with the operation A is detected. If it is determined that operation B is detected (YES in step S120), selection unit 160 switches control to step S140. Otherwise (NO in step S120), selection unit 160 switches control to step S130.
  • step S140 the selection unit 160 refers to the operation set 122 (see FIG. 3) and determines whether there is an operation associated with the operation B.
  • control unit 160 switches control to step S144. Otherwise (NO in step S140), selection unit 160 switches control to step S142.
  • step S144 the selection unit 160 replaces the operation A with the operation B.
  • step S146 the selection unit 160 replaces the operation B with the operation C.
  • step S148 the selection unit 160 resets the time count. Thereby, the predetermined time shown in step S130 is reset.
  • the operation set 122 defines an operation group “getting up ⁇ seating a seat ⁇ getting out of bed”.
  • the operation “wake up” is the operation A
  • the operation “Sagittarius” is the operation B
  • the operation “leaving” is the operation C.
  • step S144 the selection unit 160 replaces the operation A with the operation “Attached”.
  • step S146 the selection unit 160 replaces the operation B with the operation “getting out bed”. After that, when “Getting out” of the operation B is detected within a predetermined time after the operation “Sagittarius” is detected, the selection unit 160 selects the operation “Getting out” as the operation to be notified (see step S142). . When the “bed-out” of the operation B is not detected within the predetermined time, the selection unit 160 selects the operation “Attached” of the operation A as the operation to be notified (see step S132).
  • the selection unit 160 selects an operation detected first among notification candidates detected during a predetermined time as an operation to be notified.
  • the time until the caregiver is notified is shortened by notifying the first detected notification candidate.
  • the caregiver can immediately rush to the care recipient.
  • the number of notifications to the caregiver is reduced, and the burden on the caregiver is reduced.
  • step S100 shown in FIG. 7 is as described in FIG. 5, and therefore, description thereof will not be repeated.
  • step S110 the selection unit 160 refers to the operation set 122 and determines whether there is an operation associated with the operation A.
  • control is switched to step S113. If not (NO in step S110), selection unit 160 switches control to step S132.
  • step S113 the selection unit 160 waits for a predetermined time. Thereby, the selection process by the selection unit 160 is suspended for a predetermined time. Even if the operation of the notification candidate is detected during the predetermined time, the selection unit 160 ignores the operation.
  • step S132 the selection unit 160 selects the operation A as the notification target operation.
  • the selection process shown in FIG. 7 will be described with a more specific example. In one aspect, it is assumed that the motion “sitting” is detected. In addition, it is assumed that the action associated with the action “sitting” is not defined in the action set 122. In this case, the operation “end seat” is the operation A. The selection unit 160 selects the operation “sitting” as the operation to be notified (see step S132).
  • the operation “getting out” is associated with the operation “Sagittarius” in the operation set 122.
  • the operation “end seat” is the operation A
  • the operation “getting bed” is the operation B.
  • the selection unit 160 waits for a predetermined time in step S113 (see step S113), and then selects the operation “sitting” as the notification target operation in step S132 (see step S132).
  • the output unit 170 outputs, for example, the “sitting” of the selected operation A as the mobile terminal 200.
  • the mobile terminal 200 generates an alarm sound, activates a vibration function, or displays the message “Mr. A has woken up” on the screen.
  • Specific Example 1-4 With reference to FIG. 8 and FIG. 9, a specific example 1-4 of the selection process by the selection unit 160 will be described.
  • a priority is associated with each operation to be detected in advance.
  • the correspondence relationship between the operation type and the priority is defined in the priority table 126.
  • priority “1” is associated with the operation “bedbed”.
  • the priority “2” is associated with the operation “wake-up”.
  • the priority “3” is associated with the operation “Sagittarius”.
  • the operation “falling” is associated with the priority “5”.
  • the priority “4” is associated with the operation “getting out”.
  • the selection unit 160 selects the operation with the highest priority among the notification candidate operations as the operation to be notified. By notifying the operation with high priority, the motion detection device 100 can preferentially notify the operation of the care recipient who needs care. In addition, the number of notifications to the caregiver is reduced, and the burden on the caregiver is reduced.
  • step S111 shown in FIG. 9 the selection process in specific example 1-4 will be described in more detail. Since processes other than step S111 shown in FIG. 9 are as described in FIG. 5, the description of these processes will not be repeated.
  • step S111 the selection unit 160 determines whether or not the priority of the operation A is higher than the priority of the operation B. If the selection unit 160 determines that the priority of the operation A is higher than the priority of the operation B (YES in step S111), the selection unit 160 switches the control to step S132. Otherwise (NO in step S111), selection unit 160 switches control to step S120.
  • the motion set 122 defines the motion group “Sagittarius ⁇ Get out of bed”.
  • the operation “end seat” is the operation A
  • the operation “getting bed” is the operation B.
  • the priority of the operation “Sagittarius” (operation A) is “3”
  • the priority of the operation “get-off” (operation B) is “4”. Since the priority of the operation B is higher than the priority of the operation A, the selection unit 160 switches the control from step S111 to step S120.
  • the selection unit 160 selects “end seat” of operation A (see step S132).
  • the selection unit 160 selects the “bed-out” of the operation B (see step S142).
  • FIG. 10 shows a selection process when there are a plurality of candidates as actions that can occur next to a certain action. Note that the processing of steps S100 and S110 shown in FIG. 10 is as described in FIG. 5, and therefore, description thereof will not be repeated.
  • step S110 the operation A is associated with both the operation B and the operation C.
  • the selection unit 160 switches control from step S110 to step S120.
  • step S120 the selection unit 160 determines whether or not the operation B is detected. If it is determined that operation B is detected (YES in step S120), selection unit 160 switches control to step S142. Otherwise (NO in step S120), selection unit 160 switches control to step S125.
  • step S125 the selection unit 160 determines whether or not the operation C is detected. If it is determined that operation C is detected (YES in step S125), selection unit 160 switches control to step S152. Otherwise (NO in step S125), selection unit 160 switches control to step S130.
  • step S130 the selection unit 160 determines whether or not a predetermined time has elapsed since the operation A was detected. If selection unit 160 determines that the predetermined time has elapsed (YES in step S130), it switches control to step S132. Otherwise (NO in step S130), selection unit 160 returns control to step S120.
  • step S132 the selection unit 160 selects the operation A as the notification target operation.
  • step S142 the selection unit 160 selects the operation B as the notification target operation.
  • step S152 the selection unit 160 selects the operation C as the notification target operation.
  • the operation group 122 defines the operation group “End seat ⁇ getting bed” and the operation group “End seat ⁇ falling”.
  • the operation “sitting” is the operation A
  • the operation “getting off” is the operation B
  • the operation “falling” is the operation C.
  • the selection unit 160 selects “ “End” is selected (see step S132). When “leaving” of the operation B is detected within the predetermined time, the selecting unit 160 selects the operation “getting out” as the operation to be notified (see step S142). When the “falling” of the operation C is detected within the predetermined time, the selection unit 160 selects the operation “falling” as the operation to be notified (see step S152).
  • the output unit 170 When the operation “getting out” is selected by the selection unit 160, the output unit 170 (see FIG. 2) notifies the caregiver of getting out of the care recipient. As an example, the output unit 170 generates an alarm sound, activates a vibration function, or displays the message “Mr. A has left the floor” as the mobile terminal 200 (see FIG. 1).
  • the output unit 170 When the operation “falling” is selected by the selection unit 160, the output unit 170 notifies the caregiver of the cared person's fall. As an example, the output unit 170 generates an alarm sound, activates a vibration function, or displays the message “Mr. A has fallen from the bed. Check the situation” on the screen as the mobile terminal 200. To do.
  • the output unit 170 informs the carer of the end seat of the cared person.
  • the output unit 170 generates an alarm sound, activates a vibration function, or displays the message “Mr. A has risen” on the screen as the mobile terminal 200.
  • FIG. 11 is a block diagram illustrating a main hardware configuration of the motion detection system 300.
  • the motion detection system 300 includes a motion detection device 100 and a mobile terminal 200.
  • the motion detection apparatus 100 and the mobile terminal 200 are connected to each other via a network.
  • the hardware configuration of the motion detection apparatus 100 and the hardware configuration of the mobile terminal 200 will be described in order.
  • the motion detection apparatus 100 includes a ROM (Read Only Memory) 101, a CPU 102, a RAM (Random Access Memory) 103, a network I / F (interface) 104, and a camera I / F 105. And storage device 120.
  • ROM Read Only Memory
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • network I / F interface
  • camera I / F 105 camera I / F 105.
  • storage device 120 storage device 120.
  • ROM 101 stores an operating system, an operation detection program 128 according to the present embodiment, and the like.
  • the CPU 102 controls the operation of the operation detection apparatus 100 by executing various programs such as an operating system and an operation detection program 128.
  • the RAM 103 functions as a working memory and temporarily stores various data necessary for executing the operation detection program 128.
  • the network I / F 104 is connected to a communication device such as an antenna or a NIC (Network Interface Card).
  • the motion detection apparatus 100 transmits / receives data to / from other communication terminals via the communication device.
  • Other communication terminals include, for example, the mobile terminal 200, a server, other terminals, and the like.
  • the motion detection apparatus 100 may be configured to download the motion detection program 128 from a server via a network.
  • the camera I / F 105 is an interface for connecting the camera 50 and the motion detection apparatus 100 by wire or wirelessly.
  • the motion detection apparatus 100 acquires an image from the camera 50 via the camera I / F 105.
  • the camera 50 includes, for example, a network camera or other imaging device capable of photographing a subject.
  • the camera 50 may be configured integrally with the motion detection device 100, or may be configured separately from the motion detection device 100 as illustrated in FIG.
  • the storage device 120 is a storage medium such as a hard disk or an external storage device.
  • the storage device 120 stores an operation set 122, a priority table 126, an operation detection program 128 according to the present embodiment, and the like.
  • the motion detection program 128 may be provided as a part of an arbitrary program, not as a single program. In this case, processing according to the present embodiment is realized in cooperation with an arbitrary program. Even such a program that does not include some modules does not depart from the spirit of the motion detection apparatus 100 according to the present embodiment. Furthermore, part or all of the functions provided by operation detection program 128 according to the present embodiment may be realized by dedicated hardware. Furthermore, part or all of the functions provided by the motion detection program 128 may be realized in cooperation between the motion detection device 100 and the mobile terminal 200. Furthermore, the motion detection apparatus 100 may be configured in a form such as a so-called cloud service in which at least one server realizes processing according to the present embodiment.
  • the mobile terminal 200 is, for example, a smartphone, a tablet terminal, or another terminal that can be carried by a caregiver. As illustrated in FIG. 11, the mobile terminal 200 includes a ROM 201, a CPU 202, a RAM 203, a network I / F 204, a display 205, and a storage device 220.
  • the ROM 201 stores an operating system, a control program executed by the mobile terminal 200, and the like.
  • the CPU 202 controls the operation of the mobile terminal 200 by executing various programs such as an operating system and a control program for the mobile terminal 200.
  • the RAM 203 functions as a working memory and temporarily stores various data necessary for program execution.
  • the network I / F 204 is connected to a communication device such as an antenna or a NIC (Network Interface Card).
  • the portable terminal 200 transmits / receives data to / from other communication terminals via the communication device.
  • Other communication terminals include, for example, the motion detection device 100 and other terminals.
  • the display 205 is, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, or other display devices.
  • the display 205 may be configured as a touch panel.
  • the display 205 displays that the operation has been detected when the operation to be notified of the care recipient is detected.
  • the storage device 220 includes a storage medium such as eMMC (Embedded MultiMediaCard).
  • the eMMC includes a NAND flash memory and a control circuit.
  • Storage device 220 stores a program and the like for realizing various processes according to the present embodiment.
  • the motion detection system 300 selects a notification target operation from among the notification candidate operations when a series of motion groups that may occur in chronological order is detected as a notification candidate operation during a predetermined time. To do. Thereby, it is prevented that the detected operation
  • the waiting time for detecting a notification candidate (ie, “waiting time”) is constant.
  • the motion detection system 300 according to the second embodiment changes the waiting time according to the detected motion of the notification candidate.
  • FIG. 12 is a block diagram showing a hardware configuration and a functional configuration of operation detection system 300 according to the second embodiment.
  • the motion detection system 300 includes an acquisition unit 52, a motion detection device 100, and an output unit 170.
  • the motion detection apparatus 100 includes a CPU 102 and a storage device 120 as a hardware configuration.
  • the CPU 102 includes a detection unit 150, a holding unit 155, and a selection unit 160A as functional configurations.
  • the holding unit 155 and the selection unit 160A will be described in order. Since other configurations are as described above, description thereof will not be repeated.
  • the holding unit 155 holds the operation of the notification candidate detected by the detecting unit 150 as history information for a certain period.
  • the history information may be stored in the cache memory of the CPU 102 or may be stored in the storage device 120.
  • the holding unit 155 may hold only one notification candidate as history information, or may hold notification candidates for the past several times as history information.
  • the selection unit 160A sets a waiting time for detecting the notification candidate according to the operation detected in advance of the operation (hereinafter, also referred to as “pre-operation”). change. Details of the selection unit 160A will be described later.
  • FIG. 13 is a flowchart showing a specific example 2 of the selection process.
  • FIG. 14 is a diagram illustrating the contents of the operation set 122 in the second embodiment. Since processes other than steps S160 and S162 shown in FIG. 13 are as described in FIG. 10, their description will not be repeated.
  • step S160 the selection unit 160A acquires the operation (that is, the pre-operation) detected immediately before the operation A from the holding unit 155 (see FIG. 12).
  • step S162 the selection unit 160A changes the standby time for detecting a notification candidate in accordance with the acquired prior action.
  • the standby time is associated in advance with each of the operation groups to be detected.
  • a motion group “bed bed ⁇ wake-up ⁇ edge sitting ⁇ leaving”, a motion group “bed bed ⁇ edge seat ⁇ leaving”, and a motion group “bed bed ⁇ edge sitting ⁇ falling” are defined.
  • the selection unit 160A determines whether the preliminary motion detected before the motion “Aza satara” is the motion “bedbed” or the motion “wake up”. To change.
  • the selection unit 160A refers to the operation set 122, and acquires an operation group that includes the operation “Sagittarius” and whose pre-operation is “Kashiwadori”. That is, the selection unit 160A obtains the operation group “bed bed ⁇ end seat ⁇ leave bed” and the operation group “bed bed ⁇ end seat ⁇ falling”.
  • the waiting time “1 second” is associated with “edge sitting ⁇ leaving” in the operation group “floor ⁇ edge sitting ⁇ leaving”.
  • a standby time “1 second” is associated with “end seat ⁇ fall” in the motion group “bed bed ⁇ end seat ⁇ fall”. Therefore, the selection unit 160A changes the standby time to “1 second”. If different waiting times are associated with “Aza-> fall” and “Aza-> Get out”, the selection unit 160A updates the current waiting time with a shorter waiting time.
  • the motion detection system 300 detects a motion group associated with the standby time “ ⁇ 1 second”, the motion detection system 300 does not notify the motion detected earlier in the motion group.
  • operation detection system 300 changes the standby time for detecting notification candidates in accordance with the operation detected in advance. Thereby, the motion detection system 300 can immediately notify a highly urgent operation such as a fall.
  • the standby time for detecting the notification candidate is constant regardless of the output means of the operation to be notified.
  • the waiting time is different for each output unit.
  • FIG. 15 is a block diagram showing a hardware configuration and a functional configuration of operation detection system 300 according to the third embodiment.
  • the motion detection system 300 includes an acquisition unit 52, a motion detection device 100, and an output unit 170.
  • the motion detection apparatus 100 includes a CPU 102 and a storage device 120 as a hardware configuration.
  • the CPU 102 includes a detection unit 150, a holding unit 155, and a selection unit 160B as functional configurations.
  • the selection unit 160B and the output unit 170 will be described. Since other configurations are as described above, description thereof will not be repeated.
  • the output unit 170 includes a plurality of output means for outputting the operation to be notified by different methods.
  • the output unit 170 includes an output unit 170A and an output unit 170B.
  • the selection unit 160B selects the operation of the notification candidate with a different standby time for each output unit. That is, the selection unit 160B performs a process for selecting the operation to be notified for each output unit.
  • the output unit 170A is the mobile terminal 200 for notifying the caregiver of the operation to be notified.
  • the output unit 170B is a server (not shown) for storing a notification target operation in a built-in memory.
  • the selecting unit 160B selects the notification candidate operation for each first predetermined time for the output unit 170A, and selects the notification candidate operation for each second predetermined time shorter than the first predetermined time for the output unit 170B. To do.
  • the output unit 170A is the portable terminal 200 for notifying the caregiver of the operation to be notified.
  • the portable terminal 200 is a terminal that is prepared for a caregiver who runs to the care receiver.
  • the output unit 170B is a portable terminal (not shown) for notifying the administrator of the operation detection system 300 of the operation to be notified.
  • the said portable terminal is a terminal prepared for the administrator who cannot run to the care receiver.
  • the output unit 170B may be a fixed terminal arranged in a central monitoring center that manages each care facility.
  • the selecting unit 160B selects the notification candidate operation for each first predetermined time for the output unit 170A, and selects the notification candidate operation for each second predetermined time shorter than the first predetermined time for the output unit 170B. To do.
  • FIG. 16 is a flowchart showing a specific example 3 of the selection process.
  • step S100 the selection unit 160B determines whether or not the operation A defined in the operation set 122 (see FIG. 3) is detected. If it is determined that operation A is detected (YES in step S100), selection unit 160B switches control to step S110. Otherwise (NO in step S100), selection unit 160B performs the process of step S100 again.
  • step S110 the selection unit 160B refers to the operation set 122 and determines whether there is an operation associated with the operation A. If it is determined that there is an operation associated with operation A (YES in step S110), selection unit 160B switches control to steps S120A and S120B. Otherwise (NO in step S110), selection unit 160B switches control to step S195.
  • step S120A the selection unit 160B determines whether or not the operation B associated with the operation A is detected.
  • control unit 160B switches control to step S191. Otherwise (NO in step S120A), selection unit 160B switches control to step S130A.
  • step S120B the selection unit 160B determines whether or not the operation B associated with the operation A is detected.
  • control unit 160B switches control to step S194. Otherwise (NO in step S120B), selection unit 160B switches control to step S130B.
  • step S130A the selection unit 160B determines whether or not a predetermined time Tp (standby time) has elapsed since the operation A was detected.
  • the predetermined time Tp is, for example, 10 seconds.
  • step S130B the selection unit 160B determines whether or not a predetermined time Tq has elapsed since the operation A was detected.
  • the predetermined time Tq is different from the predetermined time Tp.
  • the predetermined time Tq is, for example, 0.1 seconds.
  • step S191 the selection unit 160B causes the output unit 170A to output the operation B.
  • step S192 the selection unit 160B causes the output unit 170A to output the operation A.
  • step S193 the selection unit 160B causes the output unit 170B to output the operation A.
  • step S194 the selection unit 160B causes the output unit 170B to output the operation B.
  • step S195 the selection unit 160B causes the output means 170A and 170B to output the operation A.
  • the operation set 122 defines an operation “end seat”, and no “end seat” is associated with any operation.
  • the selection unit 160B selects the operation “end seat” and outputs the operation “end seat” to each of the output unit 170A and the output unit 170B (see step S195).
  • the motion set 122 defines the motion group “End seat ⁇ getting out of bed”.
  • the operation “end seat” is the operation A
  • the operation “getting bed” is the operation B.
  • the selection unit 160B selects “getting out” of the operation B and causes the output unit 170A to output the operation “getting out” (see step S191). ).
  • the selection unit 160B selects the “end seat” of the operation A and causes the output unit 170A to output the operation “end seat” (See step S192).
  • the selection unit 160B selects the “leaving” of the operation B and causes the output unit 170B to output the operation “getting out” (see step S194). ).
  • the selection unit 160B selects the “end seat” of the operation A and causes the output unit 170B to output the operation “end seat” ( (See step S193).
  • the output unit 170A When outputting the operation “getting out”, the output unit 170A generates an alarm sound, activates the vibration function, or displays the message “Mr. A has left the floor” on the screen as the mobile terminal 200. .
  • the mobile terminal 200 When the output means 170A outputs the operation “Sagittarius”, the mobile terminal 200 generates an alarm sound, activates the vibration function, or displays the message “Mr. A has risen” on the screen. To do.
  • the output unit 170B When outputting the operation “getting out”, the output unit 170B displays a message “Mr. A has left the floor” on the screen as a server (not shown).
  • the output means 170B When the output means 170B outputs the operation “Sagittarius”, the message “Mr. A has woken up” is displayed on the screen as a server.
  • the output unit 170B as a server, associates the type of operation to be notified with the time when the operation is detected, and then writes the correspondence relationship in the history information.
  • motion detection system 300 determines notification candidates with different standby times for each output unit, and executes a process for selecting a notification target operation for each output unit. Since the standby time can be set according to the purpose of use of the output means, an operation selection result suitable for each output means can be output.
  • the waiting time for detecting the operation of the notification candidate is different for each output means.
  • the waiting time is different for each care recipient to be monitored.
  • the waiting time is preset for each care recipient in accordance with the health status and physical ability of the care recipient.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Physiology (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Nursing (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Alarm Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

短時間の間に複数種類の報知対象の動作が検出された場合に生じ得る介護者の負担を軽減することができる動作検出システムを提供する。動作検出システム(300)は、人物の動作を示す動作データを取得するための取得部(52)と、動作データを用いて、人物の所定動作を検出するための検出部(150)と、所定時間の間に複数種類の出力候補の動作が検出部(150)によって検出された場合に、出力候補の動作の種類が複数種類よりも少なくなるように、出力候補の動作の中から出力対象の動作を選択するための選択部(160)と、選択部(160)によって選択された出力対象の動作を出力するための出力部(170)とを備える。

Description

動作検出システム、動作検出装置、動作検出方法、および動作検出プログラム
 本開示は、人物の動作を判別することが可能な動作検出システム、動作検出装置、動作検出方法、および動作検出プログラムに関する。
 画像から人物の動作を判別するための技術がある。この技術は、たとえば、高齢者や患者等の介護を要する被介護者の動作を見守る動作検出システムに応用されている。当該動作検出システムは、被介護者が転倒等を伴う危険な動作(たとえば、起床や離床等)を行なったことを検出し、そのことを介護者に報知する。これにより、介護者は、被介護者の元に駆け付けることができ、被介護者の転倒等を未然に防ぐことができる。
 このような動作検出システムに関し、特開2009-5963号公報(特許文献1)は、「患者のそばに人がいる場合の当該患者の離床前動作の検出を防止する」離床前動作検出装置を開示している。特開2001-327549号公報(特許文献2)は、「被介護者の就寝姿勢から歩行開始までの一連の動作を動態別に検出する」動態検出システムを開示している。
特開2009-5963号公報 特開2001-327549号公報
 動作検出システムは、短時間の間に複数種類の動作を検出することがある。被介護者の動作が検出される度にそのことが介護者に報知されると、介護者の負担が増える。したがって、このことに起因する介護者の負担を軽減することが可能な動作検出システムが望まれている。
 特許文献1に開示される離床前動作検出装置は、患者の手などの接触を検知した場合であって、距離センサによって出力される距離が予め定められた範囲内であるときに、患者の離床前動作を報知しない。すなわち、当該離床前動作検出装置は、患者が離床したことを報知するか否かを判断するのみであり、複数種類の動作を検出するものではない。
 特許文献2に開示される動態検出システムは、被介護者の就寝姿勢から、長座位、端座位、立位、歩行開始までの一連の動態を各動態別に段階的に検出する。当該動態検出システムは、各動態を検出してから一定時間が経過した後に次の動態を再度検出した場合に、動態の連続を検出する。すなわち、当該動態検出システムは、動態が継続しているか否かを判断するのみであり、一定時間内に複数種類の動態を検出するケースは、想定されていない。
 本開示は上述のような問題点を解決するためになされたものであって、ある局面における目的は、短時間の間に複数種類の報知対象の動作が検出された場合に生じ得る介護者の負担を軽減することが可能な動作検出システムを提供することである。他の局面における目的は、短時間の間に複数種類の報知対象の動作が検出された場合に生じ得る介護者の負担を軽減することが可能な動作検出装置を提供することである。さらに他の局面における目的は、短時間の間に複数種類の報知対象の動作が検出された場合に生じ得る介護者の負担を軽減することが可能な動作検出方法を提供することである。さらに他の局面における目的は、短時間の間に複数種類の報知対象の動作が検出された場合に生じ得る介護者の負担を軽減することが可能な動作検出プログラムを提供することである。
 ある局面に従うと、動作検出システムは、人物の動作を示す動作データを取得するための取得部と、動作データを用いて、人物の所定動作を検出するための検出部と、所定時間の間に複数種類の出力候補の動作が検出部によって検出された場合に、出力候補の動作の種類が複数種類よりも少なくなるように、出力候補の動作の中から出力対象の動作を選択するための選択部と、選択部によって選択された出力対象の動作を出力するための出力部とを備える。
 好ましくは、複数種類の出力候補の動作は、人物がベッドで寝ている状態から当該ベッドを離れるまでの間に生じ得る動作群を含む。
 好ましくは、複数種類の出力候補の動作は、時系列の順に生じ得る一連の動作群である。
 好ましくは、選択部は、出力候補の動作のうちの最後に検出された動作を出力対象の動作として選択する。
 好ましくは、選択部は、出力候補の動作のうちの最初に検出された動作を出力対象の動作として選択する。
 好ましくは、検出部による検出対象の動作の各々には、優先度が予め対応付けられている。選択部は、出力候補の動作のうちの優先度が最も高い動作を出力対象の動作として選択する。
 好ましくは、一連の動作群は、第1動作と、第2動作と、第3動作とを含む。第1動作および第2動作は、第3動作の前に生じ得る動作である。選択部は、第3動作が検出された場合に、当該第3動作の前に検出された動作が第1動作であるか第2動作であるかに応じて、所定時間を変更する。
 好ましくは、出力部は、出力対象の動作を互いに異なる複数の出力手段で出力する。選択部は、複数の出力手段ごとに異なる所定時間で出力候補の動作を選択する。
 好ましくは、出力部は、複数の出力手段として、人物の介護者に向けて出力対象の動作を報知するための第1出力手段と、出力対象の動作をメモリに格納するための第2出力手段とを含む。選択部は、第1出力手段については、第1所定時間ごとに出力候補の動作を選択し、第2出力手段については、第1所定時間よりも短い第2所定時間ごとに出力候補の動作を選択する。
 好ましくは、出力部は、複数の出力手段として、人物の介護者に向けて出力対象の動作を報知するための第1出力手段と、動作検出システムの管理者に向けて出力対象の動作を報知するための第2出力手段とを含む。選択部は、第1出力手段については、第1所定時間ごとに出力候補の動作を選択し、第2出力手段については、第1所定時間よりも短い第2所定時間ごとに出力候補の動作を選択する。
 他の局面に従うと、動作検出装置は、人物の動作を示す動作データを取得するための取得部と、動作データを用いて、人物の所定動作を検出するための検出部と、所定時間の間に複数種類の出力候補の動作が検出部によって検出された場合に、出力候補の動作の種類が複数種類よりも少なくなるように、出力候補の動作の中から出力対象の動作を選択するための選択部と、選択部によって選択された出力対象の動作を出力するための出力部とを備える。
 さらに他の局面に従うと、動作検出方法は、人物の動作を示す動作データを取得するステップと、動作データを用いて、人物の所定動作を検出するステップと、所定時間の間に複数種類の出力候補の動作が検出するステップで検出された場合に、出力候補の動作の種類が複数種類よりも少なくなるように、出力候補の動作の中から出力対象の動作を選択するステップと、選択するステップで選択された出力対象の動作を出力するステップとを備える。
 さらに他の局面に従うと、動作検出プログラムは、コンピュータに、人物の動作を示す動作データを取得するステップと、動作データを用いて、人物の所定動作を検出するステップと、所定時間の間に複数種類の出力候補の動作が検出するステップで検出された場合に、出力候補の動作の種類が複数種類よりも少なくなるように、出力候補の動作の中から出力対象の動作を選択するステップと、選択するステップで選択された出力対象の動作を出力するステップと実行させる。
 ある局面において、短時間の間に複数種類の報知対象の動作が検出された場合に生じ得る介護者の負担を軽減することができる。
 本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。
第1の実施の形態に従う動作検出システムの構成の一例を示す図である。 第1の実施の形態に従う動作検出システムのハードウェア構成と機能構成とを示すブロック図である。 第1の実施の形態における動作セットの内容を示す図である。 検出された動作の出力方法を示す図である。 選択処理の具体例1-1を示すフローチャートである。 選択処理の具体例1-2を示すフローチャートである。 選択処理の具体例1-3を示すフローチャートである。 優先度テーブルの内容を示す図である。 選択処理の具体例1-4を示すフローチャートである。 選択処理の具体例1-5を示すフローチャートである。 第1の実施の形態に従う動作検出システムの主要なハードウェア構成を示すブロック図である。 第2の実施の形態に従う動作検出システムのハードウェア構成と機能構成とを示すブロック図である。 選択処理の具体例2を示すフローチャートである。 第2の実施の形態における動作セットの内容を示す図である。 第3の実施の形態に従う動作検出システムのハードウェア構成と機能構成とを示すブロック図である。 選択処理の具体例3を示すフローチャートである。
 以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。なお、以下で説明される各実施の形態および各変形例は、適宜選択的に組み合わされてもよい。
 <第1の実施の形態>
 [動作検出システム300の装置構成]
 図1を参照して、動作検出システム300の装置構成について説明する。図1は、動作検出システム300の構成の一例を示す図である。
 動作検出システム300は、たとえば、監視対象の人物である被介護者10を見守るために用いられる。図1に示されるように、動作検出システム300は、カメラ50と、動作検出装置100と、携帯端末200とを含む。カメラ50および動作検出装置100は、ネットワークを介して互いに接続されている。動作検出装置100および携帯端末200は、ネットワークを介して互いに接続されている。
 カメラ50は、たとえば、介護施設、医療施設、宅内等に設置される。図1には、カメラ50が被介護者10およびベッド20を天井から撮影している様子が示されている。カメラ50は、天井に取り付けられてもよいし、側壁に取り付けられてもよい。
 動作検出装置100は、カメラ50から得られた時系列の画像(映像)に基づいて被介護者10の動作を判別する。一例として、動作検出装置100が検出可能な被介護者10の動作は、被介護者10の起床やベッド20からの転落等を含む。
 動作検出装置100は、検出した動作を介護者11に報知する動作の候補(以下、「報知候補」ともいう。)とする。動作検出装置100は、短時間(たとえば、数秒)の間に複数種類の報知候補の動作を検出した場合に、報知する動作の種類がより少なくなるように、報知候補の動作の中から報知対象の動作を選択する。すなわち、動作検出装置100は、報知候補の動作の一部を報知対象として選択する。動作検出装置100は、選択された報知対象の動作の種類を示す情報を介護者11用の携帯端末200に送信する。
 携帯端末200は、報知対象の動作の種類を示す情報を動作検出装置100から受信すると、報知対象の動作が検出されたことを介護者11に報知する。報知方法の一例として、携帯端末200は、動作の種類を示す情報をメッセージとして表示したり、動作の種類を音声で発したりする。これにより、介護者11は、被介護者10の起床や転倒等を把握でき、被介護者10の元に素早く駆け付けることができる。
 以上のようにして、動作検出装置100は、報知候補の動作の中から報知対象の動作を選択し、報知対象の動作を介護者11に報知する。これにより、介護者11への報知回数が減り、介護者11の負担が軽減される。また、被介護者10の必要最小限の動作が介護者11に報知されるので、介護者11は、被介護者10の状態を容易に把握できる。
 なお、図1には、動作検出システム300が1つのカメラ50を備えている例が示されているが、動作検出システム300は、複数のカメラ50を備えてもよい。また、図1には、動作検出システム300が1つの動作検出装置100を備えている例が示されているが、動作検出システム300は、複数の動作検出装置100を備えてもよい。さらに、図1には、カメラ50と動作検出装置100とが別個の装置として構成されているが、カメラ50と動作検出装置100とは一体的に構成されてもよい。さらに、図1には、動作検出システム300が複数の携帯端末200を備えている例が示されているが、動作検出システム300は、1つの携帯端末200で構成されてもよい。
 [動作検出システム300の処理]
 図2を参照して、第1の実施の形態に従う動作検出システム300の動作検出処理について説明する。図2は、第1の実施の形態に従う動作検出システム300のハードウェア構成と機能構成とを示すブロック図である。図2に示されるように、動作検出システム300は、取得部52と、動作検出装置100と、出力部170とを備える。動作検出装置100は、ハードウェア構成として、CPU(Central Processing Unit)102と、記憶装置120とを含む。CPU102は、機能構成として、検出部150と、選択部160とを有する。以下では、取得部52、検出部150、動作セット122、選択部160、出力部170について順に説明する。
  (取得部52)
 取得部52は、被介護者の動作を示す動作データを取得する。取得部52は、たとえば、図1のカメラ50である。カメラ50としての取得部52は、監視対象の人物を撮影して得られる画像を動作データとして取得する。画像は、静止画像であってもよいし、動画像であってもよい。取得部52は、取得した画像を検出部150に順次出力する。
 なお、取得部52は、被介護者の動作量を取得することが可能な装置であれば、カメラ50に限定されない。たとえば、取得部52は、ベッドの下に配置された感圧マット、TOF(Time Of Flight)形式の距離画像センサ等であってもよい。感圧マットは、圧力値を動作データとして出力する。距離画像センサは、距離画像を動作データとして出力する。また、取得部52は、1つのセンサで構成される必要はなく、複数のセンサで構成されてもよい。
  (検出部150)
 検出部150は、取得部52から得られた画像を解析して、介護者の特定の動作を検出する。検出部150が検出可能な動作は、被介護者がベッドで寝ている状態からベッドを離れるまでの間に生じ得る動作群を含む。このように、被介護者の転倒につながりやすい起床時の動作群が検出されることで、介護者は、被介護者の転倒をより確実に防ぐことができる。
 当該動作群は、たとえば、臥床、起床、端坐、離床、および転落等を含む。臥床とは、被介護者がベッドで横たわっている状態のことをいう。起床とは、被介護者がベッド上で起き上がる動作のことをいう。端坐とは、被介護者がベッドで腰かけている状態、または被介護者の体がベッドの縁にかかっている状態のことをいう。離床とは、被介護者がベッドから離れている状態のことをいう。転落とは、被介護者がベッドから落ちて床に横たわっている状態のことをいう。
 一例として、検出部150は、動作データを用いて、被介護者の動きの度合いを示す評価値を算出するとともに、被介護者の動きが生じている動作領域を画像内において特定する。当該評価値が予め定められた値よりも小さく、かつ、動作領域が画像内のベッド領域に含まれる場合、検出部150は、動作「臥床」を検出する。当該評価値が所定閾値よりも大きく、かつ、動作領域が画像内のベッド領域に含まれる場合、検出部150は、動作「起床」を検出する。動作領域が画像内のベッド境界と重なっているときに、検出部150は、動作「端坐」を検出する。当該評価値が所定閾値よりも大きく、かつ、動作領域が画像内のベッド領域に含まれない場合、検出部150は、動作「離床」を検出する。当該評価値が所定閾値よりも大きく、かつ、動作領域がベッド境界からベッド外に移動する場合、検出部150は、動作「転落」を検出する。画像内のベッド領域は、手動で予め設定されてもよいし、テンプレートマッチング等の画像処理技術で自動で検出されてもよい。
 なお、上述では、検出部150はが検出可能な動作として、臥床、起床、端坐、離床、および転落を例に挙げたが、検出可能な動作は、これらに限定されない。たとえば、検出可能な動作は、転倒等のその他の動作を含んでもよい。
  (動作セット122)
 図3を参照して、動作セット122について説明する。図3は、第1の実施の形態における動作セット122の内容を示す図である。
 動作セット122には、検出部150(図2参照)によって検出され得る報知候補の動作として、時系列の順に生じる一連の動作群が規定されている。すなわち、動作セット122には、動作の発生順序が規定されている。図3の例では、動作セット122において、臥床、起床、端坐、転落、および離床の発生順序が規定されている。
 以下では、動作の発生順序を矢印「→」で示す。たとえば、臥床、起床、端坐、離床の順に動作が生じる場合、これらの動作群を「臥床→起床→端坐→離床」と示す。
 一例として、被介護者が目覚めてからベッドを離れるまでの間には、動作群「臥床→起床→端坐→離床」が生じ得る。被介護者がベッドから転落する際には、被介護者は、ベッド端に一度体を移動させた後に転落するため、動作群「臥床→端坐→転倒」が生じ得る。また、被介護者は、ベッドから転落しそうになっても体勢を立て直すことがある。この場合、動作群「臥床→端坐→離床」が生じ得る。このような生じ得る動作群が動作セット122に予め規定されている。
 なお、各動作の対応関係は、図3の例に限定されない。たとえば、離床後に生じ得る転倒(すなわち、離床→転倒)が動作セット122にさらに規定されてもよい。
  (選択部160)
 再び図2を参照して、選択部160は、検出部150によって検出された報知候補の動作の中から報知対象の動作を選択する。好ましくは、選択部160は、報知候補の動作の中から1つの動作を報知対象の動作として選択する。このとき、選択部160は、検出された動作と、動作セット122に規定される動作の対応関係に応じて、報知対象の動作の選択方法を変える。選択部160による選択処理の詳細については後述する。
  (出力部170)
 図4を参照して、出力部170(図2参照)について説明する。図4は、検出された動作の出力方法を示す図である。出力部170は、たとえば、介護者用の携帯端末200である。
 図4の具体例(A)に示されるように、携帯端末200は、検出された動作の種類を示すメッセージ230を表示するとともに警告音を発する。
 他の例として、携帯端末200は、報知対象の動作が複数ある場合に、異なる表示態様でこれらの動作を表示する。一例として、表示態様は、表示サイズによって変えられる。たとえば、図4の具体例(B)に示されるように、報知対象の動作として起床および離床が検出されたとする。離床が起床よりも重要である場合には、出力部170は、離床を示すメッセージ230の表示サイズを、起床を示すメッセージ232の表示サイズよりも大きくする。
 さらに他の例として、図4の具体例(C)に示されるように、携帯端末200は、報知対象の動作を音声で発する。あるいは、携帯端末200は、報知対象の動作を振動(バイブレーション)によって介護者に報知してもよい。
 なお、図4の具体例(A)~(C)に示される出力方法は、適宜組み合わされてもよいし、単独で用いられてもよい。また、出力部170は、携帯端末200に限定されない。たとえば、出力部170は、報知対象の動作を記憶するためのサーバーも含み得る。サーバーに記憶された出力結果は、たとえば、被介護者が転倒、転落した際の状況を把握するために用いられる。
 [具体例]
 図5~図9を参照して、選択部160(図2参照)による選択処理の詳細について説明する。図5は、選択処理の具体例1-1を示すフローチャートである。図6は、選択処理の具体例1-2を示すフローチャートである。図7は、選択処理の具体例1-3を示すフローチャートである。図8は、優先度テーブル126の内容を示す図である。図9は、選択処理の具体例1-4を示すフローチャートである。図10は、選択処理の具体例1-5を示すフローチャートである。
 図5~図7,図9,図10の処理は、選択部160として機能するCPU102(図2参照)がプログラムを実行することにより実現される。あるいは、処理の一部または全部が、回路素子その他のハードウェアによって実行されてもよい。
  (具体例1-1)
 図5を参照して、選択部160による選択処理の具体例1-1について説明する。具体例1-1においては、選択部160は、所定時間の間に検出された報知候補の動作のうち最後に検出された動作を報知対象の動作として選択する。所定時間とは、報知候補を決定するために待機する時間のことをいう。すなわち、選択部160は、1つ目の報知候補の動作が検出されてから所定時間を計測し、当該所定時間内に検出された動作を報知候補の動作とする。以下では、当該所定時間のことを「待機時間」ともいう。動作検出装置100は、待機時間の間に検出された報知候補の内の最後に検出された動作を報知対象とすることにより、一連の動作における最新の動作のみを報知することができる。その結果、介護者は、被介護者の状態を正確に把握できる。
 より具体的な処理として、ステップS100において、選択部160は、報知候補である動作Aが検出されたか否かを判断する。選択部160は、動作Aが検出されたと判断した場合(ステップS100においてYES)、制御をステップS110に切り替える。そうでない場合には(ステップS100においてNO)、選択部160は、ステップS100の処理を再び実行する。
 ステップS110において、選択部160は、動作セット122(図3参照)を参照して、動作Aに対応付けられている動作があるか否かを判断する。選択部160は、動作Aに対応付けられている動作があると判断した場合(ステップS110においてYES)、制御をステップS120に切り替える。そうでない場合には(ステップS110においてNO)、選択部160は、制御をステップS132に切り替える。
 ステップS120において、選択部160は、動作Aに対応付けられている動作Bが検出されたか否かを判断する。選択部160は、動作Bが検出されたと判断した場合(ステップS120においてYES)、制御をステップS142に切り替える。そうでない場合には(ステップS120においてNO)、選択部160は、制御をステップS130に切り替える。
 ステップS130において、選択部160は、動作Aが検出されてから所定時間が経過したか否かを判断する。選択部160は、所定時間が経過したと判断した場合(ステップS130においてYES)、制御をステップS132に切り替える。そうでない場合には(ステップS130においてNO)、選択部160は、制御をステップS120に戻す。
 ステップS132において、選択部160は、報知対象の動作として動作Aを選択する。ステップS142において、選択部160は、報知対象の動作として動作Bを選択する。
 さらに具体的な例を挙げて、図5に示される選択処理について説明する。たとえば、動作セット122に、動作群「端坐→離床」が規定されているとする。この場合、動作「端坐」が動作Aとなり、動作「離床」が動作Bとなる。
 動作「端坐」が検出されてから所定時間内に動作「離床」が検出された場合、選択部160は、動作「離床」を選択する。この場合、出力部170(図2参照)は、被介護者の離床を介護者に報知する。一例として、出力部170は、携帯端末200(図1参照)として、アラーム音を発したり、バイブレーション機能を作動したり、メッセージ「Aさんが離床しました。」を画面上に表示したりする。
 動作「端坐」が検出されてから所定時間内に動作「離床」が検出されなかった場合、選択部160は、動作「端坐」を選択する。この場合、出力部170は、被介護者の端坐を介護者に報知する。一例として、出力部170は、携帯端末200として、アラーム音を発したり、バイブレーション機能を作動したり、メッセージ「Aさんが起き上がりました。」を画面上に表示したりする。
  (具体例1-2)
 上述の具体例1-1においては、検出される報知候補の動作は、2種類の時系列の動作群であった。これに対して、具体例1-2においては、検出される報知候補の動作は、3種類以上の時系列の動作群である。
 以下では、図6を参照して、具体例1-2に従う選択処理について説明する。なお、図6に示されるステップS120,S140,S146,S148以外の処理については図5で説明した通りであるので、それらの説明は繰り返さない。
 ステップS120において、選択部160は、動作Aに対応付けられている動作Bが検出されたか否かを判断する。選択部160は、動作Bが検出されたと判断した場合(ステップS120においてYES)、制御をステップS140に切り替える。そうでない場合には(ステップS120においてNO)、選択部160は、制御をステップS130に切り替える。
 ステップS140において、選択部160は、動作セット122(図3参照)を参照して、動作Bに対応付けられている動作があるか否かを判断する。選択部160は、動作Bに対応付けられている動作があると判断した場合(ステップS140においてYES)、制御をステップS144に切り替える。そうでない場合には(ステップS140においてNO)、選択部160は、制御をステップS142に切り替える。
 ステップS144において、選択部160は、動作Aを動作Bで置き換える。ステップS146において、選択部160は、動作Bを動作Cで置き換える。ステップS148において、選択部160は、時間カウントをリセットする。これにより、ステップS130に示される所定時間がリセットされる。
 さらに具体的な例を挙げて、図6に示される選択処理について説明する。たとえば、動作セット122に動作群「起床→端坐→離床」が規定されているとする。動作「起床」が検出された場合、初期状態では、動作「起床」が動作Aとなり、動作「端坐」が動作Bとなり、動作「離床」が動作Cとなる。
 動作「起床」が検出されてから所定時間内に動作「端坐」が検出された場合には、ステップS144において、選択部160は、動作Aを動作「端坐」で置き換える。ステップS146において、選択部160は、動作Bを動作「離床」で置き換える。その後、動作「端坐」が検出されてから所定時間内に動作Bの「離床」が検出された場合、選択部160は、動作「離床」を報知対象の動作として選択する(ステップS142参照)。動作Bの「離床」が所定時間内に検出されなかった場合、選択部160は、動作Aの動作「端坐」を報知対象の動作として選択する(ステップS132参照)。
  (具体例1-3)
 図7を参照して、選択部160による選択処理の具体例1-3について説明する。具体例1-3においては、選択部160は、所定時間の間に検出された報知候補のうちの最初に検出された動作を報知対象の動作として選択する。最初に検出された報知候補が報知されることで、介護者に報知されるまでの時間が短縮される。その結果、介護者は、被介護者の元にすぐに駆け付けることができる。また、介護者への報知回数が減り、介護者の負担が軽減される。
 なお、図7に示されるステップS100の処理については図5で説明した通りであるので、その説明は繰り返さない。
 ステップS110において、選択部160は、動作セット122を参照して、動作Aに対応付けられている動作があるか否かを判断する。選択部160は、動作Aに対応付けられている動作があると判断した場合(ステップS110においてYES)、制御をステップS113に切り替える。そうでない場合には(ステップS110においてNO)、選択部160は、制御をステップS132に切り替える。
 ステップS113において、選択部160は、所定時間待機する。これにより、選択部160による選択処理が所定時間保留される。選択部160は、当該所定時間の間に報知候補の動作が検出されたとしても、当該動作を無視する。
 ステップS132において、選択部160は、報知対象の動作として動作Aを選択する。
 さらに具体的な例を挙げて、図7に示される選択処理について説明する。ある局面において、動作「端坐」が検出されたとする。また、動作「端坐」に対応付けられている動作が動作セット122において規定されていないとする。この場合、動作「端坐」が動作Aとなる。選択部160は、報知対象の動作として、動作「端坐」を選択する(ステップS132参照)。
 他の局面において、動作セット122において動作「端坐」には動作「離床」が対応付けられているとする。この場合、動作「端坐」が動作Aとなり、動作「離床」が動作Bとなる。選択部160は、ステップS113で所定時間待機した後(ステップS113参照)、ステップS132で報知対象の動作として動作「端坐」を選択する(ステップS132参照)。
 出力部170は、たとえば、携帯端末200として、選択された動作Aの「端坐」を出力する。出力方法の一例として、携帯端末200は、アラーム音を発したり、バイブレーション機能を作動したり、メッセージ「Aさんが起き上がりました。」を画面上に表示したりする。
  (具体例1-4)
 図8および図9を参照して、選択部160による選択処理の具体例1-4について説明する。具体例1-4においては、検出対象の動作の各々に優先度が予め対応付けられている。図8に示されるように、動作の種類と優先度との対応関係は、優先度テーブル126に規定されている。
 報知の必要性が高い動作ほど高い優先度が対応付けられる。図8の例では、動作「臥床」には、優先度「1」が対応付けられている。動作「起床」には、優先度「2」が対応付けられている。動作「端坐」には、優先度「3」が対応付けられている。動作「転落」には、優先度「5」が対応付けられている。動作「離床」には、優先度「4」が対応付けられている。
 選択部160は、報知候補の動作のうちの優先度が最も高い動作を報知対象の動作として選択する。優先度が高い動作が報知されることで、動作検出装置100は、介護が必要な被介護者の動作を優先的に報知することができる。また、介護者への報知回数が減り、介護者の負担が軽減される。
 図9を参照して、具体例1-4における選択処理についてさらに詳細に説明する。なお、図9に示されるステップS111以外の処理については図5で説明した通りであるので、それらの処理の説明は繰り返さない。
 ステップS111において、選択部160は、動作Aの優先度が動作Bの優先度よりも高いか否かを判断する。選択部160は、動作Aの優先度が動作Bの優先度よりも高いと判断した場合(ステップS111においてYES)、制御をステップS132に切り替える。そうでない場合には(ステップS111においてNO)、選択部160は、制御をステップS120に切り替える。
 さらに具体的な例を挙げて、図9に示される選択処理について説明する。たとえば、動作セット122に、動作群「端坐→離床」が規定されているとする。この場合、動作「端坐」が動作Aとなり、動作「離床」が動作Bとなる。図8の例では、動作「端坐」(動作A)の優先度は「3」であり、動作「離床」(動作B)の優先度は「4」である。動作Bの優先度が動作Aの優先度よりも高いため、選択部160は、ステップS111からステップS120に制御を切り替える。
 動作Bの「離床」が所定時間内に検出されなかった場合(ステップS120,S130参照)、選択部160は、動作Aの「端坐」を選択する(ステップS132参照)。動作Bの「離床」が所定時間内に検出された場合(ステップS120,S130参照)、選択部160は、動作Bの「離床」を選択する(ステップS142参照)。
  (具体例1-5)
 図10を参照して、選択部160による選択処理の具体例1-5について説明する。図10には、ある動作の次に生じ得る動作として複数の候補が存在する場合における選択処理が示されている。なお、図10に示されるステップS100,S110の処理については図5で説明した通りであるので、それらの説明は繰り返さない。
 動作セット122(図3参照)において、動作Aには、動作Bおよび動作Cの両方が対応付けられているとする。この場合、選択部160は、ステップS110からステップS120に制御を切り替える。
 ステップS120において、選択部160は、動作Bが検出されたか否かを判断する。選択部160は、動作Bが検出されたと判断した場合(ステップS120においてYES)、制御をステップS142に切り替える。そうでない場合には(ステップS120においてNO)、選択部160は、制御をステップS125に切り替える。
 ステップS125において、選択部160は、動作Cが検出されたか否かを判断する。選択部160は、動作Cが検出されたと判断した場合(ステップS125においてYES)、制御をステップS152に切り替える。そうでない場合には(ステップS125においてNO)、選択部160は、制御をステップS130に切り替える。
 ステップS130において、選択部160は、動作Aが検出されてから所定時間が経過したか否かを判断する。選択部160は、所定時間が経過したと判断した場合(ステップS130においてYES)、制御をステップS132に切り替える。そうでない場合には(ステップS130においてNO)、選択部160は、制御をステップS120に戻す。
 ステップS132において、選択部160は、報知対象の動作として動作Aを選択する。ステップS142において、選択部160は、報知対象の動作として動作Bを選択する。ステップS152において、選択部160は、報知対象の動作として動作Cを選択する。
 さらに具体的な例を挙げて、図10に示される選択処理について説明する。たとえば、動作セット122に、動作群「端坐→離床」および動作群「端坐→転落」が規定されているとする。この場合、動作「端坐」が動作Aとなり、動作「離床」が動作Bとなり、動作「転落」が動作Cとなる。
 動作Aの「端坐」が検出されてから所定時間内に動作Bの「離床」および動作Cの「転落」が検出されなかった場合、選択部160は、報知対象の動作として動作Aの「端坐」を選択する(ステップS132参照)。当該所定時間内に動作Bの「離床」が検出された場合、選択部160は、報知対象の動作として動作「離床」を選択する(ステップS142参照)。当該所定時間内に動作Cの「転落」が検出された場合、選択部160は、報知対象の動作として動作「転落」を選択する(ステップS152参照)。
 動作「離床」が選択部160によって選択された場合、出力部170(図2参照)は、被介護者の離床を介護者に報知する。一例として、出力部170は、携帯端末200(図1参照)として、アラーム音を発したり、バイブレーション機能を作動したり、メッセージ「Aさんが離床しました。」を表示したりする。
 動作「転落」が選択部160によって選択された場合、出力部170は、被介護者の転落を介護者に報知する。一例として、出力部170は、携帯端末200として、アラーム音を発したり、バイブレーション機能を作動したり、メッセージ「Aさんがベッドから落ちました。状況を確認して下さい。」を画面上に表示したりする。
 動作「端坐」が選択部160によって選択された場合、出力部170は、被介護者の端坐を介護者に報知する。一例として、出力部170は、携帯端末200として、アラーム音を発したり、バイブレーション機能を作動したり、メッセージ「Aさんが起き上がりました。」を画面上に表示したりする。
 [動作検出システム300のハードウェア構成]
 図11を参照して、動作検出システム300のハードウェア構成の一例について説明する。図11は、動作検出システム300の主要なハードウェア構成を示すブロック図である。図11に示されるように、動作検出システム300は、動作検出装置100と、携帯端末200とを含む。動作検出装置100および携帯端末200は、ネットワークを介して互いに接続されている。以下では、動作検出装置100のハードウェア構成と、携帯端末200のハードウェア構成とについて順に説明する。
  (動作検出装置100のハードウェア構成)
 図11に示されるように、動作検出装置100は、ROM(Read Only Memory)101と、CPU102と、RAM(Random Access Memory)103と、ネットワークI/F(インタフェース)104と、カメラI/F105と、記憶装置120とを含む。
 ROM101は、オペレーティングシステム、本実施の形態に従う動作検出プログラム128等を格納する。CPU102は、オペレーティングシステムや動作検出プログラム128等の各種プログラムを実行することで、動作検出装置100の動作を制御する。RAM103は、ワーキングメモリとして機能し、動作検出プログラム128の実行に必要な各種データを一時的に格納する。
 ネットワークI/F104には、アンテナやNIC(Network Interface Card)等の通信機器が接続される。動作検出装置100は、当該通信機器を介して、他の通信端末との間でデータを送受信する。他の通信端末は、たとえば、携帯端末200、サーバー、その他の端末等を含む。動作検出装置100は、ネットワークを介して動作検出プログラム128をサーバーからダウンロードできるように構成されてもよい。
 カメラI/F105は、カメラ50と動作検出装置100とを有線または無線で接続するためのインタフェースである。動作検出装置100は、カメラI/F105を介してカメラ50から画像を取得する。カメラ50は、たとえば、ネットワークカメラまたは被写体を撮影することが可能なその他の撮像装置を含む。カメラ50は、動作検出装置100と一体的に構成されてもよいし、図11に示されるように、動作検出装置100と別個に構成されてもよい。
 記憶装置120は、たとえば、ハードディスクや外付けの記憶装置等の記憶媒体である。一例として、記憶装置120は、動作セット122、優先度テーブル126、本実施の形態に従う動作検出プログラム128等を格納する。
 なお、動作検出プログラム128は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、任意のプログラムと協働して本実施の形態に従う処理が実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従う動作検出装置100の趣旨を逸脱するものではない。さらに、本実施の形態に従う動作検出プログラム128によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、動作検出装置100と携帯端末200とが協働して、動作検出プログラム128によって提供される機能の一部または全部が実現されてもよい。さらに、少なくとも1つのサーバーが本実施の形態に従う処理を実現する、所謂クラウドサービスのような形態で動作検出装置100が構成されてもよい。
  (携帯端末200のハードウェア構成)
 引き続き図11を参照して、携帯端末200のハードウェア構成について説明する。携帯端末200は、たとえば、スマートフォン、タブレット端末、介護者が携帯することが可能なその他の端末である。図11に示されるように、携帯端末200は、ROM201と、CPU202と、RAM203と、ネットワークI/F204と、ディスプレイ205と、記憶装置220とを含む。
 ROM201は、オペレーティングシステム、携帯端末200で実行される制御プログラム等を格納する。CPU202は、オペレーティングシステムや携帯端末200の制御プログラム等の各種プログラムを実行することで、携帯端末200の動作を制御する。RAM203は、ワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。
 ネットワークI/F204には、アンテナやNIC(Network Interface Card)等の通信機器が接続される。携帯端末200は、当該通信機器を介して、他の通信端末との間でデータを送受信する。他の通信端末は、たとえば、動作検出装置100、その他の端末等を含む。
 ディスプレイ205は、たとえば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、またはその他の表示機器等である。ディスプレイ205は、タッチパネルとして構成されてもよい。ディスプレイ205は、被介護者の報知対象の動作が検出された場合に、当該動作が検出されたこと表示する。
 記憶装置220は、たとえば、eMMC(Embedded MultiMediaCard)等の記憶媒体を含む。eMMCは、NANDフラッシュメモリと、制御回路とを含む。記憶装置220は、本実施の形態に従う各種の処理を実現するためのプログラム等を格納する。
 [小括]
 以上のように、動作検出システム300は、時系列の順に生じ得る一連の動作群を所定時間の間に報知候補の動作として検出した場合に、報知候補の動作の中から報知対象の動作を選択する。これにより、検出された動作が逐次報知されることが防止され、介護者への報知回数が減る。報知回数が減ることで報知内容が簡潔になるため、介護者は、報知内容を容易に把握できるようになる。さらに、介護者は、不要な報知や緊急性の低い報知に対応する必要がなくなるため、介護者の負担が軽減される。
 <第2の実施の形態>
 [概要]
 第1の実施の形態においては、報知候補を検出するために待機する時間(すなわち、「待機時間」)は一定であった。これに対して、第2の実施の形態に従う動作検出システム300は、検出される報知候補の動作に応じて、当該待機時間を変える。
 [動作検出システム300の処理]
 図12を参照して、第2の実施の形態に従う動作検出システム300の動作検出処理について説明する。図12は、第2の実施の形態に従う動作検出システム300のハードウェア構成と機能構成とを示すブロック図である。図12に示されるように、動作検出システム300は、取得部52と、動作検出装置100と、出力部170とを備える。動作検出装置100は、ハードウェア構成として、CPU102と、記憶装置120とを含む。CPU102は、機能構成として、検出部150と、保持部155と、選択部160Aとを有する。以下では、保持部155および選択部160Aについて順に説明する。その他の構成については上述の通りであるので、それらの構成については説明を繰り返さない。
 保持部155は、検出部150によって検出された報知候補の動作を履歴情報として一定期間保持する。当該履歴情報は、CPU102のキャッシュメモリに保持されてもよいし、記憶装置120に保持されてもよい。また、保持部155は、1つの報知候補のみを履歴情報として保持してもよいし、過去数回分の報知候補を履歴情報として保持してもよい。
 選択部160Aは、報知候補の動作が検出された場合に、当該動作の事前に検出された動作(以下、「事前動作」ともいう。)に応じて、報知候補を検出するための待機時間を変更する。選択部160Aの詳細については後述する。
 [具体例2]
 図13および図14を参照して、図12に示される選択部160Aの選択処理についてさらに詳細に説明する。図13は、選択処理の具体例2を示すフローチャートである。図14は、第2の実施の形態における動作セット122の内容を示す図である。なお、図13に示されるステップS160,S162以外の処理については図10で説明した通りであるので、それらの説明は繰り返さない。
 ステップS160において、選択部160Aは、保持部155(図12参照)から動作Aの直前に検出された動作(すなわち、事前動作)を取得する。
 ステップS162において、選択部160Aは、取得した事前動作に応じて、報知候補を検出するための待機時間を変更する。待機時間は、検出対象の動作群の各々に予め対応付けられている。
 図14を参照して、図13に示される選択処理についてさらに詳細に説明する。たとえば、動作セット122には、動作群「臥床→起床→端坐→離床」と、動作群「臥床→端坐→離床」と、動作群「臥床→端坐→転落」とが規定されているとする。
 すなわち、動作「端坐」の前には、動作「臥床」または動作「起床」が生じ得る。選択部160Aは、動作「端坐」が検出された場合に、動作「端坐」の前に検出された事前動作が動作「臥床」であるか動作「起床」であるか応じて、待機時間を変更する。
 たとえば、動作「端坐」の直前に動作「臥床」が検出されていたとする。選択部160Aは、動作セット122を参照して、動作「端坐」を含み、かつ事前動作が「臥床」である動作群を取得する。すなわち、選択部160Aは、動作群「臥床→端坐→離床」と、動作群「臥床→端坐→転落」とを取得する。
 図14の例においては、動作群「臥床→端坐→離床」の「端坐→離床」には、待機時間「1秒」が対応付けられている。また、動作群「臥床→端坐→転落」の「端坐→転落」には、待機時間「1秒」が対応付けられている。そのため、選択部160Aは、待機時間を「1秒」に変更する。仮に、「端坐→転落」および「端坐→離床」に異なる待機時間が対応付けられている場合には、選択部160Aは、より短い待機時間で現在の待機時間を更新する。
 なお、動作検出システム300は、待機時間「-1秒」が対応付けられている動作群を検出した場合、当該動作群のうちの先に検出された動作については報知しない。
 [小括]
 以上のようにして、本実施の形態に従う動作検出システム300は、事前に検出された動作に応じて、報知候補を検出するための待機時間を変更する。これにより、動作検出システム300は、転落等の緊急性の高い動作を即座に報知することが可能になる。
 <第3の実施の形態>
 [概要]
 第1の実施の形態においては、報知候補を検出するための待機時間は、報知対象の動作の出力手段によらず一定であった。これに対して、第3の実施の形態においては、当該待機時間は、出力手段ごとに異なる。
 [動作検出システム300の処理]
 図15を参照して、第3の実施の形態に従う動作検出システム300の動作検出処理について説明する。図15は、第3の実施の形態に従う動作検出システム300のハードウェア構成と機能構成とを示すブロック図である。図15に示されるように、動作検出システム300は、取得部52と、動作検出装置100と、出力部170とを備える。動作検出装置100は、ハードウェア構成として、CPU102と、記憶装置120とを含む。CPU102は、機能構成として、検出部150と、保持部155と、選択部160Bとを有する。以下では、選択部160Bおよび出力部170について説明する。その他の構成については上述した通りであるので、それらの構成については説明を繰り返さない。
 出力部170は、報知対象の動作を異なる方法で出力するために複数の出力手段を含む。たとえば、出力部170は、出力手段170Aと、出力手段170Bとを含む。選択部160Bは、出力手段ごとに異なる待機時間で報知候補の動作を選択する。すなわち、選択部160Bは、出力手段のそれぞれについて報知対象の動作の選択処理を行なう。
 ある局面において、出力手段170Aは、介護者に向けて報知対象の動作を報知するための携帯端末200である。出力手段170Bは、報知対象の動作を内蔵のメモリに格納するためのサーバー(図示しない)である。選択部160Bは、出力手段170Aについては、第1所定時間ごとに報知候補の動作を選択し、出力手段170Bについては、第1所定時間よりも短い第2所定時間ごとに報知候補の動作を選択する。
 他の局面において、出力手段170Aは、介護者に向けて報知対象の動作を報知するための携帯端末200である。当該携帯端末200は、被介護者の元に駆け付ける介護者の用に準備される端末である。出力手段170Bは、動作検出システム300の管理者に向けて報知対象の動作を報知するための携帯端末(図示しない)である。当該携帯端末は、被介護者の元に駆け付けない管理者の用に準備される端末である。あるいは、出力手段170Bは、各介護施設を管理する中央監視センター等に配置される固定端末であってもよい。選択部160Bは、出力手段170Aについては、第1所定時間ごとに報知候補の動作を選択し、出力手段170Bについては、第1所定時間よりも短い第2所定時間ごとに報知候補の動作を選択する。
 [具体例3]
 図16を参照して、図15に示される選択部160Bの選択処理についてさらに詳細に説明する。図16は、選択処理の具体例3を示すフローチャートである。
 ステップS100において、選択部160Bは、動作セット122(図3参照)に規定されている動作Aが検出されたか否かを判断する。選択部160Bは、動作Aが検出されたと判断した場合(ステップS100においてYES)、制御をステップS110に切り替える。そうでない場合には(ステップS100においてNO)、選択部160Bは、ステップS100の処理を再び実行する。
 ステップS110において、選択部160Bは、動作セット122を参照して、動作Aに対応付けられている動作があるか否かを判断する。選択部160Bは、動作Aに対応付けられている動作があると判断した場合(ステップS110においてYES)、制御をステップS120A,S120Bに切り替える。そうでない場合には(ステップS110においてNO)、選択部160Bは、制御をステップS195に切り替える。
 ステップS120A,S120B以降の処理は、並列に実行される。ステップS120Aにおいて、選択部160Bは、動作Aに対応付けられている動作Bが検出されたか否かを判断する。選択部160Bは、動作Bが検出されたと判断した場合(ステップS120AにおいてYES)、制御をステップS191に切り替える。そうでない場合には(ステップS120AにおいてNO)、選択部160Bは、制御をステップS130Aに切り替える。
 ステップS120Bにおいて、選択部160Bは、動作Aに対応付けられている動作Bが検出されたか否かを判断する。選択部160Bは、動作Bが検出されたと判断した場合(ステップS120BにおいてYES)、制御をステップS194に切り替える。そうでない場合には(ステップS120BにおいてNO)、選択部160Bは、制御をステップS130Bに切り替える。
 ステップS130Aにおいて、選択部160Bは、動作Aが検出されてから所定時間Tp(待機時間)が経過したか否かを判断する。所定時間Tpは、たとえば、10秒である。選択部160Bは、所定時間Tpが経過したと判断した場合(ステップS130AにおいてYES)、制御をステップS192に切り替える。そうでない場合には(ステップS130AにおいてNO)、選択部160Bは、制御をステップS120Aに戻す。
 ステップS130Bにおいて、選択部160Bは、動作Aが検出されてから所定時間Tqが経過したか否かを判断する。所定時間Tqは、所定時間Tpと異なる。所定時間Tqは、たとえば、0.1秒である。選択部160Bは、所定時間Tqが経過したと判断した場合(ステップS130BにおいてYES)、制御をステップS193に切り替える。そうでない場合には(ステップS130BにおいてNO)、選択部160Bは、制御をステップS120Bに戻す。
 ステップS191において、選択部160Bは、出力手段170Aに動作Bを出力させる。ステップS192において、選択部160Bは、出力手段170Aに動作Aを出力させる。ステップS193において、選択部160Bは、出力手段170Bに動作Aを出力させる。ステップS194において、選択部160Bは、出力手段170Bに動作Bを出力させる。ステップS195において、選択部160Bは、出力手段170A,170Bに動作Aを出力させる。
 さらに具体的な例を挙げて、図16に示される選択処理について説明する。ある局面において、動作セット122には、動作「端坐」が規定されており、当該「端坐」にはいずれの動作も対応付けられていないものとする。この場合、選択部160Bは、動作「端坐」を選択するとともに、出力手段170Aおよび出力手段170Bのそれぞれに動作「端坐」を出力させる(ステップS195参照)。
 他の局面において、動作セット122には、動作群「端坐→離床」が規定されているとする。この場合、動作「端坐」が動作Aとなり、動作「離床」が動作Bとなる。所定時間Tp内に動作Bの「離床」が検出された場合には、選択部160Bは、動作Bの「離床」を選択するとともに、出力手段170Aに動作「離床」を出力させる(ステップS191参照)。所定時間Tp内に動作Bの「離床」が検出されなかった場合には、選択部160Bは、動作Aの「端坐」を選択するとともに、出力手段170Aに動作「端坐」を出力させる(ステップS192参照)。
 所定時間Tq内に動作Bの「離床」が検出された場合には、選択部160Bは、動作Bの「離床」を選択するとともに、出力手段170Bに動作「離床」を出力させる(ステップS194参照)。所定時間Tq内に動作Bの「離床」が検出されなかった場合には、選択部160Bは、動作Aの「端坐」を選択するとともに、出力手段170Bに動作「端坐」を出力させる(ステップS193参照)。
 出力手段170Aは、動作「離床」を出力する場合、携帯端末200として、アラーム音を発したり、バイブレーション機能を作動したり、メッセージ「Aさんが離床しました。」を画面上に表示したりする。
 出力手段170Aは、動作「端坐」を出力する場合、携帯端末200として、アラーム音を発したり、バイブレーション機能を作動したり、メッセージ「Aさんが起き上がりました。」を画面上に表示したりする。
 出力手段170Bは、動作「離床」を出力する場合、サーバー(図示しない)として、メッセージ「Aさんが離床しました。」を画面上に表示する。
 出力手段170Bは、動作「端坐」を出力する場合、サーバーとして、メッセージ「Aさんが起き上がりました。」を画面上に表示する。あるいは、出力手段170Bは、サーバーとして、報知対象の動作の種類と当該動作が検出された時間とを対応付けた上で、当該対応関係を履歴情報に書き込む。
 [小括]
 以上のようにして、本実施の形態に従う動作検出システム300は、出力手段ごとに異なる待機時間で報知候補を決定し、出力手段のそれぞれについて報知対象の動作の選択処理を実行する。出力手段の利用目的に合わせて待機時間が設定され得るため、出力手段ごとに適した動作選択結果が出力され得る。
 <第4の実施の形態>
 第3の実施の形態においては、報知候補の動作を検出する待機時間が出力手段ごとに異なっていた。これに対して、第4の実施の形態においては、待機時間は、監視する被介護者ごとに異なる。当該待機時間は、被介護者の健康状態や身体能力に合わせて被介護者ごとに予め設定される。これにより、動作検出システム300は、被介護者の健康状態や身体能力(たとえば、動作スピード等)に影響されずに、被介護者の動作を正確に検出することができる。
 今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
 10 被介護者、11 介護者、20 ベッド、50 カメラ、52 取得部、100 動作検出装置、101,201 ROM、102,202 CPU、103,203 RAM、104,204 ネットワークI/F、105 カメラI/F、120,220 記憶装置、122 動作セット、126 優先度テーブル、128 動作検出プログラム、150 検出部、155 保持部、160,160A,160B 選択部、170 出力部、170A,170B 出力手段、200 携帯端末、205 ディスプレイ、230,232 メッセージ、300 動作検出システム。

Claims (13)

  1.  人物の動作を示す動作データを取得するための取得部と、
     前記動作データを用いて、前記人物の所定動作を検出するための検出部と、
     所定時間の間に複数種類の出力候補の動作が前記検出部によって検出された場合に、前記出力候補の動作の種類が前記複数種類よりも少なくなるように、前記出力候補の動作の中から出力対象の動作を選択するための選択部と、
     前記選択部によって選択された前記出力対象の動作を出力するための出力部とを備える、動作検出システム。
  2.  前記複数種類の出力候補の動作は、前記人物がベッドで寝ている状態から当該ベッドを離れるまでの間に生じ得る動作群を含む、請求項1に記載の動作検出システム。
  3.  前記複数種類の出力候補の動作は、時系列の順に生じ得る一連の動作群である、請求項1または2に記載の動作検出システム。
  4.  前記選択部は、前記出力候補の動作のうちの最後に検出された動作を前記出力対象の動作として選択する、請求項3に記載の動作検出システム。
  5.  前記選択部は、前記出力候補の動作のうちの最初に検出された動作を前記出力対象の動作として選択する、請求項3に記載の動作検出システム。
  6.  前記検出部による検出対象の動作の各々には、優先度が予め対応付けられており、
     前記選択部は、前記出力候補の動作のうちの前記優先度が最も高い動作を前記出力対象の動作として選択する、請求項3に記載の動作検出システム。
  7.  前記一連の動作群は、第1動作と、第2動作と、第3動作とを含み、
     前記第1動作および前記第2動作は、前記第3動作の前に生じ得る動作であり、
     前記選択部は、前記第3動作が検出された場合に、当該第3動作の前に検出された動作が前記第1動作であるか前記第2動作であるかに応じて、前記所定時間を変更する、請求項3~6のいずれか1項に記載の動作検出システム。
  8.  前記出力部は、前記出力対象の動作を互いに異なる複数の出力手段で出力し、
     前記選択部は、前記複数の出力手段ごとに異なる前記所定時間で前記出力候補の動作を選択する、請求項3~7のいずれか1項に記載の動作検出システム。
  9.  前記出力部は、前記複数の出力手段として、
      前記人物の介護者に向けて前記出力対象の動作を報知するための第1出力手段と、
      前記出力対象の動作をメモリに格納するための第2出力手段とを含み、
     前記選択部は、
      前記第1出力手段については、第1所定時間ごとに前記出力候補の動作を選択し、
      前記第2出力手段については、前記第1所定時間よりも短い第2所定時間ごとに前記出力候補の動作を選択する、請求項8に記載の動作検出システム。
  10.  前記出力部は、前記複数の出力手段として、
      前記人物の介護者に向けて前記出力対象の動作を報知するための第1出力手段と、
      前記動作検出システムの管理者に向けて前記出力対象の動作を報知するための第2出力手段とを含み、
     前記選択部は、
      前記第1出力手段については、第1所定時間ごとに前記出力候補の動作を選択し、
      前記第2出力手段については、前記第1所定時間よりも短い第2所定時間ごとに前記出力候補の動作を選択する、請求項8に記載の動作検出システム。
  11.  人物の動作を示す動作データを取得するための取得部と、
     前記動作データを用いて、前記人物の所定動作を検出するための検出部と、
     所定時間の間に複数種類の出力候補の動作が前記検出部によって検出された場合に、前記出力候補の動作の種類が前記複数種類よりも少なくなるように、前記出力候補の動作の中から出力対象の動作を選択するための選択部と、
     前記選択部によって選択された前記出力対象の動作を出力するための出力部とを備える、動作検出装置。
  12.  人物の動作を示す動作データを取得するステップと、
     前記動作データを用いて、前記人物の所定動作を検出するステップと、
     所定時間の間に複数種類の出力候補の動作が前記検出するステップで検出された場合に、前記出力候補の動作の種類が前記複数種類よりも少なくなるように、前記出力候補の動作の中から出力対象の動作を選択するステップと、
     前記選択するステップで選択された前記出力対象の動作を出力するステップとを備える、動作検出方法。
  13.  動作検出プログラムであって、
     前記動作検出プログラムは、コンピュータに、
      人物の動作を示す動作データを取得するステップと、
      前記動作データを用いて、前記人物の所定動作を検出するステップと、
      所定時間の間に複数種類の出力候補の動作が前記検出するステップで検出された場合に、前記出力候補の動作の種類が前記複数種類よりも少なくなるように、前記出力候補の動作の中から出力対象の動作を選択するステップと、
      前記選択するステップで選択された前記出力対象の動作を出力するステップと実行させる、動作検出プログラム。
PCT/JP2016/066855 2015-06-11 2016-06-07 動作検出システム、動作検出装置、動作検出方法、および動作検出プログラム WO2016199748A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/580,146 US20180140230A1 (en) 2015-06-11 2016-06-07 Motion detection system, motion detection device, motion detection method, and motion detection program
JP2017523641A JP6222405B2 (ja) 2015-06-11 2016-06-07 動作検出システム、動作検出装置、動作検出方法、および動作検出プログラム
EP16807455.7A EP3309747A4 (en) 2015-06-11 2016-06-07 Motion detection system, motion detection device, motion detection method, and motion detection program
CN201680033037.1A CN107710281A (zh) 2015-06-11 2016-06-07 动作检测系统、动作检测装置、动作检测方法以及动作检测程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015118048 2015-06-11
JP2015-118048 2015-06-11

Publications (1)

Publication Number Publication Date
WO2016199748A1 true WO2016199748A1 (ja) 2016-12-15

Family

ID=57504467

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/066855 WO2016199748A1 (ja) 2015-06-11 2016-06-07 動作検出システム、動作検出装置、動作検出方法、および動作検出プログラム

Country Status (5)

Country Link
US (1) US20180140230A1 (ja)
EP (1) EP3309747A4 (ja)
JP (1) JP6222405B2 (ja)
CN (1) CN107710281A (ja)
WO (1) WO2016199748A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109508698B (zh) * 2018-12-19 2023-01-10 中山大学 一种基于二叉树的人体行为识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307257A (ja) * 2000-04-20 2001-11-02 Matsushita Electric Works Ltd 介護支援システムにおける報知方法とその方法を用いた介護支援システム及びコンピュータ読み取り可能な記録媒体
WO2012043020A1 (ja) * 2010-09-29 2012-04-05 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
SE0203483D0 (sv) * 2002-11-21 2002-11-21 Wespot Ab Method and device for fall detection
US7612666B2 (en) * 2004-07-27 2009-11-03 Wael Badawy Video based monitoring system
US20070132597A1 (en) * 2005-12-09 2007-06-14 Valence Broadband, Inc. Methods and systems for monitoring patient support exiting and initiating response
WO2008139399A2 (en) * 2007-05-15 2008-11-20 Philips Intellectual Property & Standards Gmbh Method of determining motion-related features and method of performing motion classification
JP6182917B2 (ja) * 2013-03-15 2017-08-23 ノーリツプレシジョン株式会社 監視装置
CN103517042B (zh) * 2013-10-17 2016-06-29 吉林大学 一种养老院老人危险行为监测方法
CN103577810A (zh) * 2013-11-13 2014-02-12 汕头大学 智能看护方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307257A (ja) * 2000-04-20 2001-11-02 Matsushita Electric Works Ltd 介護支援システムにおける報知方法とその方法を用いた介護支援システム及びコンピュータ読み取り可能な記録媒体
WO2012043020A1 (ja) * 2010-09-29 2012-04-05 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3309747A4 *

Also Published As

Publication number Publication date
CN107710281A (zh) 2018-02-16
JPWO2016199748A1 (ja) 2017-11-30
JP6222405B2 (ja) 2017-11-01
EP3309747A1 (en) 2018-04-18
US20180140230A1 (en) 2018-05-24
EP3309747A4 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
WO2017061371A1 (ja) 行動検知システム、行動検知装置、行動検知方法、および行動検知プログラム
WO2016186160A1 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP4333603B2 (ja) 転倒管理サーバ、プログラム、及び履物
JP6266855B1 (ja) 就寝状態検出システム、就寝状態検出装置および就寝状態検出用プログラム
JP2017168105A (ja) 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
JP6273944B2 (ja) 状態検知方法、装置、およびプログラム
JP7120238B2 (ja) 発報制御システム、検知ユニット、ケアサポートシステムおよび発報制御方法
KR20190086112A (ko) 환자의 상태 정보와 용변량에 따라 실시간 진단 기능을 갖는 스마트 케어 시스템
JP6222405B2 (ja) 動作検出システム、動作検出装置、動作検出方法、および動作検出プログラム
CN110648500A (zh) 摔倒远程处理方法、装置、机器人、存储介质及处理系统
JP2005185650A (ja) 機器利用状況判定方法及び機器利用状況判定装置
JP5517285B2 (ja) 起床監視装置
US11504280B2 (en) Incontinence care system and method therefor
US20210327244A1 (en) Assistance control method and assistance system
US10129956B2 (en) Presence based illumination and analytics system
JP2008104652A (ja) 被介護者不在検知装置
JP6198308B2 (ja) 患者見守りシステム
JP5862141B2 (ja) 通報装置及び通報装置の制御方法
JP2020052808A (ja) 見守り装置、見守りシステム、見守りプログラム、および見守り方法
JP5454925B2 (ja) ナースコールシステム
JP2023000589A (ja) 情報処理システム、情報処理装置、制御方法、および制御プログラム
JP2008188104A (ja) パルスオキシメーターを使用した遠隔ケアシステム、その方法およびプログラム
JP2023050019A (ja) 異常判定システム
JP6172416B1 (ja) ナースコールシステム
JP2023051150A (ja) ナースコールシステム、および状態判断システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16807455

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017523641

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15580146

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE