WO2016194402A1 - 画像解析装置、画像解析方法、及び、画像解析プログラム - Google Patents
画像解析装置、画像解析方法、及び、画像解析プログラム Download PDFInfo
- Publication number
- WO2016194402A1 WO2016194402A1 PCT/JP2016/053349 JP2016053349W WO2016194402A1 WO 2016194402 A1 WO2016194402 A1 WO 2016194402A1 JP 2016053349 W JP2016053349 W JP 2016053349W WO 2016194402 A1 WO2016194402 A1 WO 2016194402A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- bed
- person
- watched
- foreground area
- captured image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/04—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
Definitions
- the present invention relates to an image analysis apparatus, an image analysis method, and an image analysis program.
- Patent Document 1 proposes a patient recognition device that detects a patient's getting out of bed by photographing a patient on a bed with a camera and processing an image obtained thereby. Specifically, this patient recognition apparatus binarizes a color imaged image captured by a camera with a target color such as black and other colors and extracts the connected component extracted with a straight color in the binarized image. Label (Area).
- the patient recognition apparatus recognizes the presence of the human body by determining whether the area corresponds to a part of the human body based on the size and shape of the labeled area. Thereby, the patient recognition apparatus can notify that the patient's getting out of bed continues for a predetermined time or longer when the state in which the human body is not recognized continues for a predetermined time.
- the patient recognition apparatus recognizes the presence of a human body based on whether or not the area extracted by the labeling process corresponds to a part of the human body. Therefore, if there is a person other than the person to be watched in the shooting range of the camera, even if the person to be watched gets out of bed, recognition of the presence of the human body is continued based on the area where the person other than the person to be watched is shown. As a result, there is a possibility that it is impossible to detect the person leaving the watching target.
- the patient recognition apparatus there is a possibility that a person other than the person being watched over is mistaken for the person being watched over, and the time during which the person being watched is getting out of bed cannot be accurately measured. For this reason, the patient recognition apparatus has a problem in that, although the person being watched is getting out of bed for a certain period of time, an alarm regarding getting out of the person being watched may not be executed.
- the present invention has been made in consideration of such a point, and an object of the present invention is to provide a technology that can execute a warning regarding getting out of the person being watched over with high accuracy.
- the present invention adopts the following configuration in order to solve the above-described problems.
- an image analysis apparatus is a captured image captured by an imaging apparatus installed to watch an action of a person being watched over in a bed, and the depth of each pixel in the captured image is determined.
- An image acquisition unit that acquires a captured image including depth data to indicate, and a foreground of the acquired captured image by calculating a difference between the acquired captured image and a background image set as a background of the captured image
- a foreground extraction unit that extracts an area, and a depth of each pixel included in the extracted foreground area by referring to the depth of the foreground area that appears on the bed in real space by a predetermined distance or more from the bed
- a floor detection unit that detects that the floor has been detected and a depth of each pixel included in the extracted foreground area with respect to a captured image that is acquired after detecting that the person to be watched has left
- a bed detection unit that detects that the person being watched has fallen on the bed, and an elapsed time after detecting the person to be watched is fixed before detecting the bed of the person to be watched.
- a notification unit that performs notification for notifying that the person to be watched is getting out of bed for a certain time or more.
- the captured image captured by the capturing device installed to watch the behavior of the person being watched over in the bed is acquired, and the acquired captured image and the background image set as the background of the captured image The difference is calculated. As a result, the foreground region is extracted from the acquired captured image.
- the captured image includes depth data indicating the depth of each pixel.
- the depth of each pixel expresses the depth of the subject shown in each pixel. Therefore, according to the depth data, it is possible to specify the position in the real space of the subject that appears in the photographed image without depending on the installation position and the photographing direction of the photographing apparatus.
- the foreground area is extracted from the background image at the place where the change has occurred. Therefore, when the watching target person performs some action, a foreground region corresponding to the watching target person is extracted at a location where the watching target person has moved due to the action. Therefore, according to the configuration, by referring to the depth of each pixel included in the extracted foreground region, it is possible to specify the positional relationship in real space between the extracted foreground region and the bed. Based on the relationship, the behavior of the person being watched over can be analyzed.
- the foreground area appears on the bed when the watching target gets up, and the foreground area appearing in such a place is assumed to move away from the bed.
- a person other than the watching target person does not perform such an operation even if the person exists in the shooting range of the shooting apparatus. That is, it is assumed that the foreground area corresponding to a person other than the person being watched over only occurs around the bed and does not occur on the bed.
- the image analysis apparatus refers to the depth of each pixel included in the extracted foreground region, so that the foreground region that appears on the bed in real space is a position that is a predetermined distance or more away from the bed. It is determined whether or not it has been moved to.
- the image analysis apparatus detects that the person to be watched has left the bed when it is determined that the foreground region that has appeared on the bed has moved to a position that is a predetermined distance or more away from the bed.
- the above problem does not occur, and it is possible to appropriately detect the person leaving the person to be watched. Therefore, according to the said structure, the measurement of the elapsed time after detecting the said monitoring subject's bed leaving can be started correctly.
- the image analysis apparatus refers to the depth of each pixel included in the extracted foreground region with respect to the captured image acquired after detecting the person to watch over, in real space, It is determined whether or not the foreground area that appears outside the bed has moved onto the bed.
- the image analysis apparatus detects that the person to be watched has gone to bed when it is determined that the foreground area that has appeared outside the bed has moved onto the bed.
- the above problem does not occur, and the watching target person is appropriately placed in the bed. Can be detected. Therefore, according to the said structure, the measurement of the elapsed time after detecting the said monitoring subject's bed leaving can be stopped correctly.
- the watching subject gets out of the certain time or more. Notification is made to notify that the That is, in the above-described configuration, in a situation in which it is possible to appropriately detect the person to be watched and to get out of bed, it is related to the person to get out of the person to be watched based on the elapsed time after detecting the person to leave the person to be watched. An alarm is executed. Therefore, according to the above configuration, it is possible to prevent erroneous detection related to leaving of the watching target person due to the presence of a person other than the watching target person, thereby accurately executing the alarm related to leaving of the watching target person. can do.
- the person to be watched over is a person to be watched over, such as an inpatient, a resident in a facility, a care recipient, and the like.
- a notification destination and a notification method related to getting out of bed of the person being watched over can be appropriately selected according to the embodiment.
- the notification may be made to the watcher.
- a watcher is a person who watches over the behavior of the person being watched over.
- the watcher is, for example, a nurse, a facility staff, a caregiver, or the like.
- the bed detection unit when the foreground area that appears outside the bed moves into a predetermined area provided on the bed side, It may be determined that the foreground area that has appeared outside the bed has moved onto the bed, and it may be detected that the person to be watched has gone to the bed.
- the foreground area that appears outside the bed is assumed to move to the side of the bed.
- a person other than the person to be watched does not perform an end sitting position on the bed of the person to be watched even though the person enters the photographing range of the photographing device.
- the image analysis apparatus detects the watching person's bed when the foreground area that appears outside the bed moves into a predetermined area provided on the side of the bed. That is, the image analysis apparatus according to the configuration detects the watching target person's bed based on the end sitting position of the watching target person on the bed.
- the watching subject's bed is detected based on the operation
- the bed detection unit further includes a case where the foreground region that appears outside the bed moves into a predetermined region provided on the bed side.
- a head area where the head of the person being watched is captured and a shoulder area where the shoulder is captured may be estimated.
- the estimated center of gravity of the head region is located outside the bed with respect to the center of gravity of the shoulder region, the foreground region that appears outside the bed moves onto the bed. It may be determined that the person to be watched has gone to the bed.
- a person other than the person being watched over such as a caregiver, may perform work such as preparing a futon on the bed near the side of the bed.
- the body (especially the upper body) of a person other than the person being watched over can be positioned above the bed surface, so depending on the setting of the predetermined area, the foreground area corresponding to a person other than the person being watched over May move from outside the bed into the predetermined area.
- the person other than the person to be watched is facing the inside of the bed.
- the watching target person who performs the end sitting position faces the outside of the bed. That is, since a person other than the person being watched over who works in the vicinity of the bed faces toward the inside of the bed, the center of gravity of the head of the person is located inside the bed rather than the center of gravity of the shoulder.
- the center of gravity of the head of the watching target is positioned outside the bed rather than the center of gravity of the shoulder.
- the image analysis apparatus further includes the head of the person being watched over in the foreground area.
- a head region to be photographed and a shoulder region to which a shoulder portion is photographed are estimated.
- the image analysis apparatus determines the positional relationship between the estimated center of gravity of the head region and the center of gravity of the shoulder region, and the center of gravity of the head region is positioned outside the bed from the center of gravity of the shoulder region.
- the configuration it is possible to prevent erroneous detection of the watching person's bedtime caused by a person other than the watching person who works toward the inside of the bed in the vicinity of the bed. Can do. Therefore, according to the said structure, the detection accuracy of a watching target person's bed can be raised, and, thereby, the warning regarding a monitoring target person's getting out of bed can be performed accurately.
- the bed detection unit when the foreground region that appears outside the bed moves to a position lower than a predetermined height directly above the bed surface, It may be determined that the foreground area that has appeared outside the bed has moved onto the bed, and it may be detected that the person to be watched has gone to the bed.
- the image analysis apparatus detects the bed of the person being watched over. In other words, the image analysis apparatus according to the configuration detects the watching target person's bed based on the watching person sleeping on the bed.
- the bed of the watching target person is detected based on the sleeping behavior that is assumed not to be performed by a person other than the watching target person. For this reason, it is possible to improve the detection accuracy of the person to be watched to go to bed, and thereby it is possible to accurately execute a warning regarding getting out of the person being watched over.
- an information processing system that realizes each of the above-described configurations, an information processing method, or a program may be used. It may be a storage medium that can be read by a computer, other devices, machines, or the like in which such a program is recorded.
- the computer-readable recording medium is a medium that stores information such as programs by electrical, magnetic, optical, mechanical, or chemical action.
- the information processing system may be realized by one or a plurality of information processing devices.
- a computer is a captured image that is captured by a capturing device installed to monitor the behavior of the person being watched over in the bed, and each pixel in the captured image Acquiring a captured image including depth data indicating the depth of the captured image, and calculating a difference between the acquired captured image and a background image set as a background of the captured image.
- an image analysis program is a captured image captured by a computer installed in a computer so as to monitor the behavior of the person being watched over in the bed, The step of acquiring a captured image including depth data indicating the depth of each pixel, and calculating the difference between the acquired captured image and a background image set as a background of the captured image.
- the watch A step of detecting that an elephant has left the bed, and a depth of each pixel included in the extracted foreground region with respect to a captured image acquired after detecting that the person to be watched has left the bed To determine whether or not the foreground area that has appeared outside the bed has moved onto the bed in real space, and has determined that the foreground area that has appeared outside the bed has moved onto the bed.
- the step of detecting that the person to be watched has gone to the bed, and the time elapsed since the bed leaving of the person to be watched is detected before detecting the bed of the person to be watched are fixed.
- FIG. 1 schematically illustrates an example of a scene to which the present invention is applied.
- FIG. 2 illustrates a hardware configuration of the image analysis apparatus according to the embodiment.
- FIG. 3 illustrates the relationship between the depth acquired by the camera according to the embodiment and the subject.
- FIG. 4 illustrates a functional configuration of the image analysis apparatus according to the embodiment.
- FIG. 5 exemplifies a processing procedure relating to watching of a person to be watched by the image analysis apparatus according to the embodiment.
- FIG. 6 illustrates a captured image acquired by the camera according to the embodiment.
- FIG. 7 illustrates the coordinate relationship in the captured image according to the embodiment.
- FIG. 8 illustrates the positional relationship between an arbitrary point (pixel) of the captured image and the camera in the real space according to the embodiment.
- FIG. 9 exemplifies a three-dimensional distribution of the subject within the shooting range specified based on the depth data included in the shot image.
- FIG. 10 illustrates a three-dimensional distribution of the foreground region extracted from the captured image.
- FIG. 11A schematically illustrates an operation when the watching target person gets out of the bed.
- FIG. 11B schematically illustrates an operation when the watching target person gets out of the bed.
- FIG. 12A schematically illustrates the foreground region extracted when the watching target person gets out of the bed.
- FIG. 12B schematically illustrates the foreground region extracted when the watching target person gets out of the bed.
- FIG. 13A schematically illustrates an operation when the watching target person goes to bed.
- FIG. 13B schematically illustrates an operation (edge sitting position) when the watching target person goes to bed.
- FIG. 13C schematically illustrates an operation (sleeping) when the watching target person goes to bed.
- FIG. 14A schematically illustrates the foreground region extracted when the watching target person goes to bed.
- FIG. 14B schematically illustrates the foreground region extracted when the watching target person goes to bed.
- FIG. 14C schematically illustrates the foreground region extracted when the watching target person goes to bed.
- FIG. 15A schematically illustrates a scene where a person other than the watching target person is working toward the bed.
- FIG. 15B schematically illustrates a scene in which the person being watched over is sitting in the end sitting position on the bed.
- this embodiment will be described with reference to the drawings.
- this embodiment described below is only an illustration of the present invention in all respects. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. That is, in implementing the present invention, a specific configuration according to the embodiment may be adopted as appropriate.
- data appearing in the present embodiment is described in a natural language, more specifically, it is specified by a pseudo language, a command, a parameter, a machine language, or the like that can be recognized by a computer.
- FIG. 1 schematically illustrates a scene where the image analysis apparatus 1 according to the present embodiment is used.
- the image analysis apparatus 1 according to the present embodiment is an information processing apparatus that detects a person to be watched by photographing the person to be watched by the camera 2 and analyzing the captured image 3 obtained thereby. Therefore, the image analysis apparatus 1 according to the present embodiment can be widely used in a scene where the watching target person is watched.
- a camera 2 is installed in order to watch the behavior of the person being watched on in the bed, and the image analysis apparatus 1 photographs the person to be watched by this camera 2.
- the camera 2 corresponds to the “photographing device” of the present invention.
- the person to be watched over is a person to be watched over, for example, an inpatient, a facility resident, or a care recipient.
- the camera 2 is configured to be able to acquire the depth corresponding to each pixel in the captured image 3.
- the camera 2 includes a depth sensor (a depth sensor 21 described later) that measures the depth of the subject so that the depth of each pixel can be acquired. Therefore, the captured image 3 captured by the camera 2 includes depth data indicating the depth obtained for each pixel, as illustrated in FIG. 6 described later. The depth of each pixel indicated by this depth data expresses the depth of the subject in each pixel. Therefore, according to this depth data, it is possible to specify the position of the subject in the captured image 3 in the real space without depending on the installation position and shooting direction of the camera 2.
- the captured image 3 only needs to include data indicating the depth of the subject within the shooting range (view angle). For example, data (for example, depth) in which the depth of the subject within the shooting range is two-dimensionally distributed. Map).
- the captured image 3 may include an RGB image together with the depth data. Further, the captured image 3 may be a moving image or one or a plurality of still images.
- the image analysis apparatus 1 acquires such a captured image 3 from the camera 2. Then, the image analysis apparatus 1 calculates the difference between the acquired captured image 3 and a background image (background image 4 to be described later) set as the background of the captured image 3, so that the foreground area in the captured image 3 is calculated. To extract. That is, the image analysis apparatus 1 extracts the foreground region of the captured image 3 based on a so-called background difference method.
- a background image background image 4 to be described later
- This foreground area is extracted from the background image at the place where the change has occurred. Therefore, when the watching target person performs some action, a foreground region corresponding to the watching target person is extracted at a location where the watching target person has moved due to the action. For example, as illustrated in FIG. 1, when the watching target person gets up on the bed, the foreground area appears in a predetermined height range on the bed surface. That is, a foreground area appears in a place according to the behavior of the person being watched over. Therefore, it is possible to analyze the behavior of the person being watched over based on the positional relationship between the extracted foreground area and the bed in real space.
- the foreground area appears on the bed when the watching target gets up, and the foreground area that appears in such a place moves away from the bed. Is done.
- a person other than the person being watched over hereinafter also referred to as “third party”
- the foreground area corresponding to a third party only occurs around the bed and does not occur on the bed.
- the image analysis apparatus 1 refers to the depth of each pixel included in the foreground area extracted from the captured image 3, so that the foreground area that appears on the bed in the real space is removed from the bed. It is determined whether or not it has moved to a position separated by a predetermined distance or more.
- the image analysis apparatus 1 determines that the foreground area that has appeared on the bed has moved to a position that is a predetermined distance or more away from the bed, the image analysis apparatus 1 detects that the person being watched has left the bed. .
- the foreground area corresponding to the third party is watched over and is erroneously recognized as the foreground area corresponding to the target person.
- the foreground area is extracted at a place outside the bed when the watching target person leaving the bed returns to the vicinity of the bed.
- the foreground region is extracted in the vicinity of the frame of the shot image 3 when the watching target person enters the shooting range of the camera 2 again.
- the watching target person goes to bed, it is assumed that the foreground area that appears in such a place moves on the bed.
- the third person does not go to bed of the watching target person. That is, it is assumed that the foreground area corresponding to a third party only moves around the bed and does not move on the bed.
- the image analysis apparatus 1 refers to the depth of each pixel included in the extracted foreground region with respect to the captured image 3 acquired after detecting the person to watch over, and the real space
- the image analysis apparatus 1 according to the present embodiment detects that the person to be watched has gone to bed. Therefore, according to the present embodiment, even if a third party enters the shooting range of the camera 2 after the person to be watched leaves the bed, the foreground corresponding to the person to be watched is watched over the foreground area corresponding to the third person.
- the bed of the person being watched over can be properly detected without misrecognizing it as a region. Therefore, according to the present embodiment, it is possible to accurately stop the measurement of the elapsed time after detecting the person to watch over getting out of bed.
- the image analysis apparatus 1 which concerns on this embodiment is the said monitoring object, when the elapsed time after detecting a monitoring subject's bed leaving exceeds a fixed time, before detecting a watching subject's bedtime.
- a notification is sent to inform the person that the person has left the floor for a certain period of time. That is, according to the present embodiment, in a situation in which the watching target person's getting out and getting up can be appropriately detected, the watching target person's getting out based on the elapsed time after detecting the watching target person's getting out of bed. Alarms regarding getting out of bed can be executed.
- the present embodiment it is possible to prevent erroneous detection related to leaving the watching target person due to the presence of a third party in the shooting range of the camera 2, and thereby, an alarm related to leaving the watching target person. Can be executed with high accuracy.
- the image analysis apparatus 1 continuously acquires the captured image 3 and extracts a foreground area for each of the continuously acquired captured images 3. First, the image analysis apparatus 1 executes a process for detecting whether or not the person being watched over is out of bed based on the continuously acquired captured images 3. The process of detecting the detection of getting out of the person being watched over is repeated until the person getting out of the person being watched over is detected.
- the image analysis device 1 stops the process of detecting and determining the bed leaving, and starts the process of detecting and determining the bed of the person to be watched.
- the image analysis apparatus 1 executes the detection determination process of the watching target person's bed based on the captured image 3 acquired after detecting the monitoring person's getting out of bed. This process of detecting the bed of the person being watched over is repeated until the bed of the person being watched is detected.
- the image analysis apparatus 1 which concerns on this embodiment is the said monitoring target person, when the elapsed time after a monitoring target person leaves a floor exceeds a fixed time, before detecting a monitoring target person's bedtime.
- a notification process is performed to notify that the user has left the floor for a certain period of time.
- the watching target person when the watching target person is absent for a certain period of time or longer in the space (bed) where the watching is performed, the monitoring target person is watching that the watching target person is absent for a certain period of time or more. It is possible to inform the watcher who performs Therefore, according to the image analysis apparatus 1 according to the present embodiment, it is possible to prevent the person being watched from leaving the bed for a long time from the bed, and to appropriately watch over the person being watched over. Can do.
- the camera 2 is arranged so as to take a picture of the person being watched from the footboard side of the bed.
- the installation position of the camera 2 does not have to be limited to such an example, and may be arranged in any place as long as the action of the person being watched over can be photographed.
- the location of the image analysis device 1 can be determined as appropriate according to the embodiment as long as the captured image 3 can be acquired from the camera 2.
- the image analysis apparatus 1 may be disposed so as to be close to the camera 2 as illustrated in FIG.
- the image analysis apparatus 1 may be connected to the camera 2 via a network, or may be disposed at a place completely different from the camera 2.
- FIG. 2 illustrates the hardware configuration of the image analysis apparatus 1 according to the present embodiment.
- the image analysis apparatus 1 stores a control unit 11 including a CPU, a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, a program 5 executed by the control unit 11, and the like.
- Unit 12 a touch panel display 13 for displaying and inputting images, a speaker 14 for outputting sound, an external interface 15 for connecting to an external device, a communication interface 16 for communicating via a network, and This is a computer to which a drive 17 for reading a program stored in the storage medium 6 is electrically connected.
- the communication interface and the external interface are described as “communication I / F” and “external I / F”, respectively.
- the components can be omitted, replaced, and added as appropriate according to the embodiment.
- the control unit 11 may include a plurality of processors.
- the touch panel display 13 may be replaced with an input device and a display device that are separately connected independently.
- the speaker 14 may be omitted.
- the speaker 14 may be connected to the image analysis device 1 as an external device instead of as an internal device of the image analysis device 1.
- the image analysis apparatus 1 may incorporate a camera 2.
- the image analysis device 1 may include a plurality of external interfaces 15 and may be connected to a plurality of external devices.
- the camera 2 is connected to the image analysis apparatus 1 via the external interface 15 and is installed for photographing the person to be watched over.
- the camera 2 according to the present embodiment includes a depth sensor 21 for measuring the depth of the subject.
- the type and measurement method of the depth sensor 21 may be appropriately selected according to the embodiment.
- the depth sensor 21 may be a sensor of TOF (TimeFOf Flight) method or the like.
- the configuration of the camera 2 is not limited to such an example as long as the depth of the subject can be acquired, and can be appropriately selected according to the embodiment.
- the camera 2 may be a stereo camera. Since the stereo camera shoots the subject within the shooting range from a plurality of different directions, the depth of the subject can be recorded.
- the camera 2 may be replaced with the depth sensor 21 alone.
- the depth sensor 21 may be an infrared depth sensor that measures the depth based on infrared irradiation so that the depth can be acquired without being affected by the brightness of the shooting location.
- relatively inexpensive imaging devices including such an infrared depth sensor include Kinect from Microsoft, Xtion from ASUS, and Structure® Sensor from Occipital.
- FIG. 3 shows an example of a distance that can be handled as the depth according to the present embodiment.
- the depth represents the depth of the subject.
- the depth of the subject may be expressed by, for example, a straight line distance A between the camera 2 and the object, or a perpendicular distance B from the horizontal axis with respect to the subject of the camera 2. It may be expressed as
- the depth according to the present embodiment may be the distance A or the distance B.
- the distance B is treated as the depth.
- the distance A and the distance B can be converted into each other by using, for example, the three-square theorem. Therefore, the following description using the distance B can be applied to the distance A as it is.
- the image analysis apparatus 1 according to the present embodiment can specify the position of the subject in the real space.
- This camera 2 is installed so that the area around the bed can be photographed in order to observe the behavior of the person being watched over in the bed.
- the camera 2 is arranged so as to photograph the person to be watched from the footboard side of the bed.
- the camera 2 is configured to be able to measure the depth of the subject in this way. Therefore, in the present embodiment, the position of the subject in the real space can be specified without depending on the installation location and shooting direction of the camera 2. Therefore, the installation location and shooting direction of the camera 2 can be set relatively freely.
- the storage unit 12 stores the program 5.
- This program 5 is a program for causing the image analysis apparatus 1 to execute a processing procedure related to watching of the person to be watched, which will be described later, and corresponds to the “image analysis program” of the present invention.
- the program 5 may be recorded on the storage medium 6.
- the storage medium 6 stores information such as a program by an electrical, magnetic, optical, mechanical, or chemical action so that information such as a program recorded by a computer or other device or machine can be read. It is a medium to do.
- the storage medium 6 corresponds to the “storage medium” of the present invention.
- 2 illustrates a disk-type storage medium such as a CD (Compact Disk) or a DVD (Digital Versatile Disk) as an example of the storage medium 6.
- the type of the storage medium 6 is not limited to the disk type and may be other than the disk type. Examples of the storage medium other than the disk type include a semiconductor memory such as a flash memory.
- an image analysis apparatus 1 may be, for example, an apparatus designed exclusively for a service to be provided, or a general-purpose apparatus such as a PC (Personal Computer) or a tablet terminal. Furthermore, the image analysis apparatus 1 may be implemented by one or a plurality of computers.
- FIG. 4 illustrates a functional configuration of the image analysis apparatus 1 according to the present embodiment.
- the control unit 11 of the image analysis device 1 expands the program 5 stored in the storage unit 12 in the RAM.
- the control part 11 interprets and runs the program 5 expand
- the image analysis apparatus 1 functions as a computer including the image acquisition unit 111, the foreground extraction unit 112, the bed leaving detection unit 113, the bed detection unit 114, and the notification unit 115.
- the image acquisition unit 111 acquires a captured image 3 captured by the camera 2. Since the camera 2 includes the depth sensor 21, the acquired captured image 3 includes depth data indicating the depth of each pixel in the captured image 3.
- the foreground extraction unit 112 extracts the foreground region of the acquired captured image 3 by calculating the difference between the acquired captured image 3 and the background image 4 set as the background of the captured image 3. That is, the foreground extraction unit 112 extracts a foreground region that is a region changed from the background in the captured image 3 based on a so-called background subtraction method.
- the foreground area is extracted from the background image 4 at the place where the change has occurred. Therefore, when the watching target person performs some action, a foreground region corresponding to the watching target person is extracted at a location where the watching target person has moved due to the action. Therefore, the bed leaving detection unit 113 refers to the depth of each pixel included in the extracted foreground area, so that the foreground area that appears on the bed moves to a position that is a predetermined distance or more away from the bed in real space. Determine whether or not. Then, when it is determined that the foreground area that has appeared on the bed has moved to a position that is a predetermined distance or more away from the bed, the bed leaving detection unit 113 detects that the person being watched has left the bed.
- the bed detection unit 114 refers to the depth of each pixel included in the extracted foreground region with respect to the captured image 3 acquired after detecting that the person being watched has left the bed, thereby detecting the real space. In the above, it is determined whether or not the foreground area that has appeared outside the bed has moved onto the bed. Then, when it is determined that the foreground area that has appeared outside the bed has moved onto the bed, the bed detection unit 114 detects that the person to be watched has gone to bed.
- the notification unit 115 then leaves the watching target person for more than a certain time when the elapsed time after detecting the watching person's bed leaving exceeds a certain time before detecting the watching person's bed. To notify you that That is, the notification unit 115 executes an alarm notifying that the person being watched has left the floor for a certain time or more when it is determined that the person being watched has left the floor for a certain time or more.
- FIG. 5 illustrates a processing procedure related to watching of the person being watched by the image analysis apparatus 1.
- the processing procedure relating to watching of the watching target person described below corresponds to the “image analysis method” of the present invention.
- the processing procedure related to watching of the watching target person described below is only an example, and each processing may be changed as much as possible. Further, in the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.
- the control unit 11 first performs a determination process for detecting the person to watch over from the bed by the processes of steps S101 to S104. The processes in steps S101 to S104 are repeated until the watching target person's bed is detected.
- the control unit 11 performs a determination process for detecting the person to be watched by steps S105 to S109, and after the watchee person has left the floor. Determine the elapsed time.
- the control unit 11 ends the processing according to this operation example.
- step S110 the watching target person leaves the floor for a certain time or more. Notification is made to inform the user.
- step S110 the watching target person leaves the floor for a certain time or more. Notification is made to inform the user.
- Step S101 In step S ⁇ b> 101, the control unit 11 functions as the image acquisition unit 111 and acquires the captured image 3 captured by the camera 2. And if the picked-up image 3 is acquired, the control part 11 will advance a process to following step S102.
- the camera 2 includes the depth sensor 21. Therefore, the captured image 3 acquired in this step S101 includes depth data indicating the depth of each pixel.
- the control unit 11 acquires the captured image 3 illustrated in FIG. 6 as the captured image 3 including the depth data.
- FIG. 6 shows an example of the captured image 3 including depth data.
- the captured image 3 illustrated in FIG. 6 is an image in which the gray value of each pixel is determined according to the depth of each pixel.
- a black pixel is closer to the camera 2.
- a white pixel is farther from the camera 2.
- This captured image 3 may be referred to as a depth image.
- the control unit 11 can specify the position of each pixel in the real space. That is, the control unit 11 can specify the position in the three-dimensional space (real space) of the subject captured in each pixel from the coordinates (two-dimensional information) and the depth of each pixel in the captured image 3. .
- FIG. 7 illustrates the coordinate relationship in the captured image 3.
- FIG. 8 illustrates the positional relationship between an arbitrary pixel (point s) of the captured image 3 and the camera 2 in the real space. 7 corresponds to a direction perpendicular to the paper surface of FIG. That is, the length of the captured image 3 shown in FIG. 8 corresponds to the length in the vertical direction (H pixels) illustrated in FIG. Further, the length in the horizontal direction (W pixels) illustrated in FIG. 7 corresponds to the length in the vertical direction of the photographed image 3 that does not appear in FIG.
- the coordinates of an arbitrary pixel (point s) of the captured image 3 are (x s , y s ), the horizontal angle of view of the camera 2 is V x , and the vertical image. Assume that the corner is V y . Further, it is assumed that the number of pixels in the horizontal direction of the captured image 3 is W, the number of pixels in the vertical direction is H, and the coordinates of the center point (pixel) of the captured image 3 are (0, 0).
- the control unit 11 can acquire information indicating the angle of view (V x , V y ) of the camera 2 from the camera 2.
- the method for acquiring information indicating the angle of view (V x , V y ) of the camera 2 is not limited to such an example, and the control unit 11 is information indicating the angle of view (V x , V y ) of the camera 2. May be acquired based on user input, or may be acquired as a preset setting value.
- the control unit 11 can acquire the coordinates (x s , y s ) of the point s and the number of pixels (W ⁇ H) of the captured image 3 from the captured image 3.
- the control unit 11 can acquire the depth Ds of the point s by referring to the depth data included in the captured image 3.
- the control unit 11 can specify the position of each pixel (point s) in the real space by using these pieces of information. For example, the control unit 11 performs vector S (S x , S y , S z) from the camera 2 to the point s in the camera coordinate system illustrated in FIG. , 1) can be calculated. Thereby, the position of the point s in the two-dimensional coordinate system in the captured image 3 and the position of the point s in the camera coordinate system can be mutually converted.
- the vector S is a vector of a three-dimensional coordinate system centered on the camera 2.
- the camera 2 may be tilted with respect to the horizontal direction. That is, the camera coordinate system may be tilted from the world coordinate system in the three-dimensional space (real space). Therefore, the control unit 11 applies the projective transformation using the roll angle, pitch angle ( ⁇ in FIG. 8), and yaw angle of the camera 2 to the vector S, so that the vector S of the camera coordinate system is converted to the world coordinate system. And the position of the point s in the world coordinate system may be calculated.
- the captured image 3 may be a moving image or one or a plurality of still images. Further, the control unit 11 may acquire such a captured image 3 in synchronization with the video signal of the camera 2. Then, the control unit 11 may immediately execute processing from steps S102 to S104 to be described later on the captured image 3 acquired in synchronization with the camera 2.
- the image analysis apparatus 1 can detect in real time the person being watched over who is present in the shooting range of the camera 2 by continuously executing such an operation continuously. In the following, an example in which the person being watched over is detected from the captured images 3 continuously acquired in this manner will be described.
- Step S102 Returning to FIG. 5, in the next step S ⁇ b> 102, the control unit 11 functions as the foreground extraction unit 112, and the difference between the captured image 3 acquired in step S ⁇ b> 101 and the background image 4 set as the background of the captured image 3. Is calculated to extract the foreground region of the captured image 3.
- the background image 4 is data used to extract a foreground region in the captured image 3 based on the background difference method.
- the control unit 11 can create the background image 4 by using the captured image 3 acquired at an arbitrary timing, for example, when watching of the watching target person is started.
- the method of creating the background image 4 from the captured image 3 may be appropriately selected according to the embodiment.
- the control unit 11 may set the captured image 3 for one frame obtained by the camera 2 as the background image 4 as it is.
- the control unit 11 may create the background image 4 by calculating the average of the captured images 3 for several frames obtained by the camera 2. Thereby, the background image 4 including the depth data indicating the depth of each pixel can be generated.
- step S102 the control unit 11 extracts a foreground region in the captured image 3 acquired in step S101 by calculating a difference between the background image 4 thus created and the captured image 3 acquired in step S101. To do.
- the control unit 11 can extract the foreground region in the captured image 3 as illustrated in FIGS. 9 and 10.
- FIG. 9 illustrates a three-dimensional distribution of each pixel (subject) within the shooting range specified based on the depth data included in the shot image 3.
- FIG. 10 illustrates a three-dimensional distribution of the foreground region extracted from the captured image 3 among the subjects illustrated in FIG.
- the position of each pixel of the captured image 3 in the three-dimensional space (real space) can be specified based on the depth data. Therefore, the control unit 11 plots each pixel in the three-dimensional space according to the position and the depth in the photographed image 3, so that the three-dimensional distribution exemplified in FIG. 9 from the photographed image 3 exemplified in FIG. Can be created.
- the background image 4 also includes depth data, similar to the captured image 3. Therefore, the control unit 11 can also specify the three-dimensional distribution of each pixel as exemplified in FIG.
- control unit 11 compares the depths of the corresponding pixels of the captured image 3 and the background image 4. Then, the control unit 11 extracts pixels having different depths as the foreground region between the captured image 3 and the background image 4. Thereby, the control unit 11 can extract the foreground region as exemplified in FIG.
- the control unit 11 advances the processing to the next step S103.
- Step S103 Returning to FIG. 5, in the next step S ⁇ b> 103, the control unit 11 functions as the bed leaving detection unit 113 and executes a determination process for detecting the bed leaving of the person being watched over. That is, the control unit 11 refers to the depth of each pixel included in the foreground area extracted in step S102, so that the foreground area that appears on the bed in the real space is at a position more than the predetermined distance from the bed. It is determined whether or not it has moved.
- step S103 when it can be determined that the foreground area that has appeared on the bed has moved to a position that is a predetermined distance or more away from the bed, the control unit 11 detects that the person being watched is left, The process proceeds to the next step S104. On the other hand, if such a determination cannot be made, the control unit 11 advances the processing to the next step S104 without detecting the person to watch over.
- FIG. 11A schematically illustrates a scene where the person to be watched gets up from the bed when getting out of bed.
- FIG. 11B schematically illustrates a scene in which the person to be watched moves to a position separated from the bed by a predetermined distance HA or more.
- FIG. 12A schematically illustrates the position of the foreground region extracted during the scene of FIG. 11A.
- FIG. 12B schematically illustrates the position of the foreground area extracted in the scene of FIG. 11B.
- the direction connecting the headboard and footboard of the bed is referred to as “front-rear direction”, and the direction connecting the bed side portions (side frames) is referred to as “left-right direction”.
- the vertical direction is referred to as “vertical direction”.
- the person being watched over moves his body on the bed to get up from the bed.
- the watching target person performs an action of raising the upper body on the bed.
- the person to be watched stands up at the bed side and moves away from the bed as illustrated in FIG. 11B.
- step S101 photographing that captures such a series of actions of the person to be watched.
- An image group of the image 3 is acquired.
- step S102 the foreground area corresponding to the watching target person is extracted above the bed surface SU as illustrated in FIG. 12A in the first captured image 3 included in the image group.
- the last photographed image 3 included in this image group as illustrated in FIG. 12B, as the watching target person leaves the bed, the foreground region corresponding to the watching target person also moves away from the bed. Will be extracted.
- the control unit 11 detects the person leaving the watching target as follows. That is, the control unit 11 first captures the foreground area that appears on the bed. Specifically, in step S102, as illustrated in FIG. 12A, when the foreground area is extracted above the bed surface SU, the control unit 11 detects that the person being watched is getting out of bed in this step S103. However, this foreground area is the target of tracking.
- the range of the bed surface SU may be set in advance on the system, or may be set as appropriate by the user. As a result, the control unit 11 can track the foreground region in which the same target (watching target person) appears in the image group of the captured image 3 repeatedly acquired in step S101 thereafter.
- the control unit 11 calculates the distance between the foreground area being tracked and the bed, and determines whether the calculated distance is equal to or greater than the predetermined distance HA.
- the distance between the foreground area and the bed can be appropriately calculated by a known method. If the distance between the foreground area being tracked and the bed is not equal to or greater than the predetermined distance HA, the control unit 11 does not detect the person being watched, and continues to track the foreground area. On the other hand, when the distance between the foreground area being tracked and the bed is equal to or greater than the predetermined distance HA, the control unit 11 moves the foreground area appearing on the bed to a position away from the bed by the predetermined distance HA or more. Detecting that the person being watched is getting out of bed.
- the control unit 11 may set the tracking target only for the foreground region that appears at a predetermined height or more from the bed surface SU.
- the predetermined height may be set in advance on the system or may be set as appropriate by the user.
- the value of the predetermined height may be appropriately set based on the height of the foreground area that can be generated on the bed when the watching target person gets out of bed.
- control unit 11 may treat the position of an arbitrary point included in the foreground area as the position of the foreground area.
- the control unit 11 may treat the position of the center of gravity of the foreground area calculated by the following equation 4 as the position of the foreground area. The same applies to the position of the foreground area in other scenes.
- w indicates the horizontal length of an arbitrary pixel (point s) in the real space.
- h indicates the length in the vertical direction of an arbitrary pixel (point s) in the real space.
- w and h can be calculated by the following formulas 5 and 6, respectively.
- M is the area average of the vector S of the pixels (point s) included in the foreground region F. That is, M indicates an average position in the real space of the foreground area. Therefore, the position indicated by M can be handled as the position of the center of gravity of the foreground area.
- control unit 11 may provide a capturing area within a predetermined range above the bed surface SU, and only the foreground area appearing in the capturing area may be a tracking target.
- the lengths in the front-rear direction, the left-right direction, and the up-down direction of the capture area may be set in advance on the system, or may be set as appropriate by the user.
- this capturing area is appropriately set so that the foreground area that can be generated on the bed when the watching target person gets out of bed is appropriately captured.
- the value of the predetermined distance HA serving as a reference for detecting the person leaving the watching target may be set in advance on the system or may be set as appropriate by the user.
- FIG. 12B illustrates a scene where the person to be watched can leave the bed on both sides in the left-right direction of the bed.
- the direction in which the person being watched over is detected is not limited to such an example, and may be appropriately selected according to the embodiment.
- the direction in which the watching target person can leave the floor may be limited to one direction instead of the two directions illustrated in FIG. 12B.
- the control unit 11 may detect the getting-off of the person being watched over based on the distance in the front-rear direction between the foreground region and the bed.
- the foreground area extracted in step S102 may correspond to an object other than a person (for example, a curtain or the like). Therefore, in order to exclude the foreground area corresponding to such an object other than a person from the target of the processing in step S103, the control unit 11 is an area where the foreground area extracted in step S102 is an area where a person such as a person to be watched is captured. You may perform the process which determines whether it exists. For example, such a determination process can be performed as follows.
- the control unit 11 may determine whether or not the shape of the foreground area extracted in step S102 corresponds to a person such as a watching target person by image processing such as pattern matching. Then, as a result of pattern matching, the control unit 11 may exclude the foreground region that does not correspond to the shape of the person from the processing target of step S103 and may set the foreground region corresponding to the shape of the person as the processing target of step S103.
- the control unit 11 may determine whether or not the area of the foreground region is included in a predetermined area range. This predetermined area range is set so as to cover a possible value as the area of the foreground area in which the person being watched over is captured. Then, the control unit 11 may exclude the foreground region having an area not included in the predetermined area range from the processing target in step S103 and may set the foreground region having an area included in the predetermined area range as the processing target in step S103.
- the area of the foreground region may be given by the number of pixels included in the foreground region.
- the depth of the subject appearing in the captured image 3 is acquired with respect to the surface of the subject, the area of the surface portion of the subject corresponding to each pixel of the captured image 3 does not always match between the pixels.
- the control unit 11 may calculate the area of the extracted foreground region in the real space using the depth of each pixel in step S103 in order to exclude the influence of the subject's perspective.
- the area of the foreground area in the real space can be calculated as follows, for example. That is, the control unit 11 first determines the length of the arbitrary point s (one pixel) illustrated in FIGS. 7 and 8 in the real space in the real space based on the following relational expressions 5 and 6. Each of w and / or length h in the vertical direction is calculated.
- control unit 11 calculates the area of one pixel in the real space at the depth Ds by the square of w calculated in this way, the square of h, or the product of w and h. And the control part 11 calculates the area in the real space of a foreground area
- the area of the foreground region can be obtained after removing the influence of the perspective of the subject. The same applies to the area of the foreground area in other scenes.
- control unit 11 may use the average of the areas for several frames.
- the control unit 11 determines the corresponding region. You may exclude from a process target.
- the present embodiment it is possible to detect the bed of the person being watched over by the above processing.
- the method for detecting the bed leaving the person being watched over may not be limited to such an example, and may be appropriately changed according to the embodiment.
- Step S104 the control unit 11 determines whether or not bed watching of the person being watched over has been detected in step S ⁇ b> 103. When it is not detected in step S103 that the person being watched has left the bed, the control unit 11 returns the process to step S101. That is, the control unit 11 repeats the determination process (steps S101 to S104) for detecting the watching target person's getting out of bed until the watching target person's getting out of bed is detected.
- step S105 when it is detected in step S103 that the person being watched has left the bed, the control unit 11 proceeds to the next step S105.
- the control unit 11 also describes the determination process for detecting the watched person's bed and the elapsed time since the watched person left the floor (hereinafter referred to as the "elapsed bed time").
- the control unit 11 may activate a timer and measure the elapsed bed leaving time using this timer.
- the control part 11 may hold
- Step S105 and Step S106 In the next step S105, the control unit 11 functions as the image acquisition unit 111, and acquires the captured image 3 from the camera 2 as in step S101. And after acquiring the picked-up image 3, in step S106, the control part 11 functions as the foreground extraction part 112, and calculates the difference of the picked-up image 3 and the background image 4 similarly to said step S102, The foreground area of the captured image 3 is extracted.
- the processing in steps S105 to S109 corresponds to the determination processing for detecting the person being watched to go to bed and the processing for determining whether or not the elapsed bed leaving time has exceeded a certain time.
- the processing in steps S105 to S109 is executed until the person to watch over is detected or the elapsed bed time exceeds a certain time.
- the processing of step S105 and step S106 is repeatedly executed in the same manner as in step S101 and step S102 until detection of the person being watched over is detected or the elapsed bed leaving time exceeds a certain time. That is, the photographed image 3 is continuously acquired in step S105 until the person to watch over is detected or the elapsed time exceeds the predetermined time, and the foreground of the photographed image 3 continuously acquired in step S106. Regions are extracted.
- Step S107 the control unit 11 functions as the bed detection unit 114, and executes a determination process for detecting the watching person's bed for the captured image 3 acquired after detecting the watching person's getting out of bed. To do. That is, the control unit 11 refers to the depth of each pixel included in the foreground area extracted in step S106 to determine whether or not the foreground area that has appeared outside the bed has moved onto the bed in real space. judge.
- step S107 If it is determined in step S107 that the foreground area that has appeared outside the bed has moved onto the bed, the control unit 11 detects the person being watched and goes to the next step S108. Proceed with the process. On the other hand, if such a determination cannot be made, the control unit 11 advances the processing to the next step S108 without detecting the watched person's bed.
- FIG. 13A schematically illustrates a scene where the watching target person who has left the bed has returned to the vicinity of the bed.
- FIG. 13B schematically illustrates a scene where the person being watched over is sitting in the end sitting position.
- FIG. 13C schematically illustrates a scene where the watching target person goes to bed on the bed.
- 14A to 14C schematically illustrate the positions of the foreground areas extracted in the respective scenes of FIGS. 13A to 13C.
- the person to be watched moves in a direction approaching the bed from a position away from the bed. Then, the person being watched over performs an end sitting position on the side of the bed as illustrated in FIG. 13B, and goes to bed on the bed as illustrated in FIG. 13C. Alternatively, the person being watched over sleeps on the bed as illustrated in FIG. 13C, omitting the end sitting position illustrated in FIG. 13B.
- step S105 which is repeatedly executed until bedtime of the person to be watched is detected, as a result, the person to be watched goes to sleep after sleeping in the end sitting position or without sleeping in the end sitting position.
- An image group of the captured image 3 obtained by capturing a series of operations can be acquired.
- step S106 the foreground region corresponding to the watching target person is extracted outside the bed in the first captured image 3 included in the image group, as illustrated in FIG. 14A. This foreground area moves around the bed and eventually approaches the vicinity of the bed.
- step S106 in the captured image 3 acquired while the person being watched is in the end sitting position, as illustrated in FIG. 14B, the foreground region corresponding to the person being watched is extracted at the bed side. Is done.
- step S106 in the captured image 3 acquired when the watching target person goes to bed, the foreground area corresponding to the watching target person is relatively low immediately above the bed surface SU as illustrated in FIG. 14C. Extracted by position.
- the bed of the person being watched over is detected based on the two states of the end sitting position and the sleeping position. That is, when the foreground area that appears outside the bed moves to a predetermined area DB provided on the bed side or moves to a position lower than a predetermined height HC directly above the bed surface SU, the control unit 11 Detecting the bed of the person being watched over.
- the control unit 11 can detect the bed of the person being watched over as follows. That is, the control unit 11 first captures the foreground area that appears outside the bed. Specifically, in step S106, as illustrated in FIG. 14A, when a foreground region is extracted outside the bed, the control unit 11 does not detect the watching person's bed in this step S107. This foreground area is the target of tracking. As a result, the control unit 11 can track the foreground area in which the same target (watching target person) appears in the image group of the captured image 3 repeatedly acquired in step S105 thereafter.
- control unit 11 determines whether or not the foreground area being tracked has moved into a predetermined area DB provided on the bed side.
- This predetermined area DB is appropriately set to a location where the foreground area is extracted when the person to be watched performs the end sitting position on the bed side.
- the control unit 11 determines that the foreground area that has appeared outside the bed has moved onto the bed, and the person being watched over is placed on the bed. Detect.
- control unit 11 may limit the foreground region to be processed based on the shape and / or area of the foreground region. Furthermore, the area for capturing the foreground area that appears outside the bed may be an area outside the bed, and may be appropriately set according to the embodiment.
- the determination as to whether or not the tracking area has moved into the predetermined area DB may be made based on the center of gravity of the foreground area as illustrated in FIG. 14B.
- the center of gravity of the foreground region can be calculated by the above equation 4.
- the predetermined area DB is appropriately set so as to include a range in which the center of gravity of the foreground area extracted when the watching target person performs the end sitting position on the bed side can exist.
- the determination as to whether or not the tracked area has moved into the predetermined area DB may be performed based on the entire foreground area, or may be performed based on a part of the foreground area. .
- the predetermined area DB is appropriately set according to the reference of the foreground area to be determined.
- the predetermined area DB is set on each bed side portion in the left-right direction.
- the setting of the predetermined region DB may be omitted in any one of the bed side portions. That is, the control unit 11 may set the predetermined region DB only on one of the bed side portions.
- two predetermined regions DB are provided apart from each other in the left-right direction.
- the setting method of the predetermined region DB may not be limited to such an example, and by connecting the two predetermined regions DB in the left-right direction, one predetermined region DB extending in the left-right direction is set. May be.
- such a predetermined area DB may be set in advance on the system or may be set as appropriate by the user.
- the control unit 11 determines that the foreground area that has appeared outside the bed has moved onto the bed when the foreground area that has appeared outside the bed has remained within the predetermined area DB for a certain period of time. You may detect the bed of the person being watched over. This can prevent erroneous detection of the person being watched over when the object passes through the bed side.
- the threshold value (predetermined time) that serves as a reference for detecting the person to watch over may be set in advance on the system, or may be set as appropriate by the user.
- the control unit 11 can detect the bed of the person being watched over as follows. That is, first, similarly to the above, when the foreground area is extracted outside the bed in step S106, as illustrated in FIG. 14A, the control unit 11 performs this step S107.
- the foreground area is the target of tracking.
- the control unit 11 can track the foreground area in which the same target (watching target person) appears in the image group of the captured image 3 repeatedly acquired in step S105 thereafter.
- control unit 11 determines whether or not the foreground area being tracked has moved to a position lower than a predetermined height HC directly above the bed surface SU.
- the value of the predetermined height HC is appropriately set so as to be higher than the height of the foreground region extracted when the watching target person goes to bed on the bed surface SU.
- the control unit 11 determines that the foreground area that has appeared outside the bed has moved onto the bed. And detect the bed of the person being watched over.
- control unit 11 may limit the foreground area to be processed based on the shape and / or area of the foreground area. Furthermore, the area for capturing the foreground area that appears outside the bed may be an area outside the bed, and may be appropriately set according to the embodiment.
- the determination as to whether or not the tracked area has moved to a position lower than the predetermined height HC directly above the bed surface SU may be made based on the center of gravity of the foreground area, as described above. The determination may be performed based on the entire foreground area, or may be performed based on a part of the foreground area.
- the predetermined height HC is appropriately set according to the reference of the foreground area to be determined. The predetermined height HC may be set in advance on the system, or may be set as appropriate by the user.
- control unit 11 can detect the bed of the person being watched over by the two determination processes.
- the method for detecting the person to be watched is not limited to such an example, and may be appropriately changed according to the embodiment.
- the control unit 11 may omit either of the two determination processes.
- the control unit 11 may detect the person being watched over by performing a process other than the above two determination processes.
- Step S108 the control unit 11 determines whether or not it has been detected in step S ⁇ b> 107 that the watching target person has gone to bed. If it is not detected in step S107 that the person being watched over is found, the control unit 11 proceeds to the next step S109.
- the control unit 11 ends the process according to this operation example.
- the control unit 11 may specify a bed leaving time from detection of the watching target person's bed leaving until the watching target person's bed is detected, and record the bed leaving time in the storage unit 12 or the like.
- a method for specifying the bed leaving time may be appropriately selected according to the embodiment. For example, when the elapsed bed leaving time is measured by a timer, the control unit 11 can specify the bed leaving time by stopping the counting of the timer at this time and referring to the timer.
- the control unit 11 calculates the difference between the time when the watching target person's getting out of bed is detected and the time of this process.
- the bed leaving time can be specified.
- control unit 11 may start the process again from step S101. That is, the control unit 11 may continue watching the watching target person by starting from the determination process of detecting the watching person leaving the bed.
- Step S109 the control unit 11 determines whether or not the elapsed bed leaving time after detection of the person being watched over in step S103 has exceeded a certain time. As a result of the determination, when the elapsed bed leaving time does not exceed the predetermined time, the control unit 11 returns the process to step S105. That is, the process of detecting whether the person being watched over is detected or until the elapsed time of leaving the bed exceeds a certain period of time, and the process of determining whether the elapsed time from the person being watched over has exceeded a certain period of time. repeat.
- step S110 an alarm is provided that informs that the person being watched over has left the floor for a certain period of time. That is, the threshold value (fixed time) that serves as a reference for this branching defines the elapsed bed leaving time at which the alarm is performed.
- This threshold value predetermined time may be set in advance on the system, or may be set as appropriate by the user.
- the elapsed time of getting out of bed at this point can be specified as appropriate.
- the control unit 11 can specify the bed leaving detection time at this time by referring to the timer at this time. Further, for example, when the time when the watching target person's getting out of bed is detected is held, the control unit 11 calculates the difference between the time when the watching target person's getting out of bed is detected and the time of this process. Thus, the bed leaving detection time at this point can be specified.
- step S109 may be executed at an arbitrary timing.
- the process in step S109 may be executed separately from the processes in steps S105 to S108.
- the control unit 11 performs the process in step S105. To return.
- Step S110 In the next step S110, the control unit 11 functions as the notification unit 115, and performs a notification for notifying that the person to be watched is getting out of bed for a predetermined time or more. That is, if the control unit 11 determines that the elapsed bed leaving time has exceeded a predetermined time in step S109 before detecting the bed of the watching target person in step S107, the monitoring target person is absent for a predetermined time or more. Execute an alarm to let you know.
- the control unit 11 may notify the third party other than the watching target person, in particular, the watching person watching the behavior of the watching target person.
- the watcher is, for example, a nurse, a facility staff, a caregiver, or the like.
- the control part 11 may perform the said notification to watching over person itself.
- the image analysis apparatus 1 when used in a facility such as a hospital, the image analysis apparatus 1 can be connected to equipment such as a nurse call system via the external interface 15.
- the control unit 11 may perform notification for notifying that the person to be watched is getting out of bed for a certain time or more in cooperation with the nurse call system or the like. That is, the control unit 11 may control the nurse call system via the external interface 15. And the control part 11 may perform the call by the said nurse call system as a notification for notifying that the watching target person has left the floor for a certain time or more. Accordingly, it is possible to appropriately notify a nurse or the like who watches over the person being watched over from the bed for a certain time or longer.
- control unit 11 may perform notification for notifying that the person to be watched is getting out of bed for a certain time or more by displaying the screen on the touch panel display 13.
- control unit 11 outputs a predetermined sound from the speaker 14 connected to the image analysis apparatus 1, so that a notification for notifying that the person to be watched is getting out of bed for a certain time or more is given. Good.
- control unit 11 may perform notification for notifying that the person to be watched is getting out of bed for a certain time or longer using e-mail, short message service, push notification, or the like.
- the e-mail address, telephone number, and the like of the user terminal that is the notification destination may be registered in advance in the storage unit 12.
- the control part 11 may perform the notification for notifying that the person to watch over has left the floor more than a fixed time using this pre-registered e-mail address, telephone number, etc.
- the control unit 11 terminates the processing according to this operation example after performing such notification.
- the monitoring target person is not detected. That is, the watching target person has not returned to the bed while leaving the bed. Therefore, in this case, the control unit 11 may repeat the processes of steps S105 to S110 until the watching target person's bed is detected. At this time, the control unit 11 may reset the elapsed bed elapsed time measured in the processing so far in order to newly measure the elapsed bed leaving time.
- the image analysis apparatus 1 first executes the determination process for detecting the person to watch over from the bed by the processes of steps S101 to S104. Next, after detecting the person being watched over, the image analysis apparatus 1 executes a determination process for detecting the person being watched for bed and a process for determining whether or not the elapsed time has exceeded a certain time. . If the elapsed bed leaving time exceeds a certain time before detecting the person being watched, the image analysis apparatus 1 has left the person being watched for a certain time or more by the process of step S110. Notification is made to inform the user.
- the image analysis apparatus 1 is based on the change in the foreground area extracted in the above-described step S103 in accordance with the series of actions of the person being watched as exemplified in FIGS. 11A and 11B.
- the person is getting out of bed. Therefore, according to the present embodiment, even when a third party exists in the shooting range of the camera 2, the foreground area corresponding to the third party is watched over and erroneously recognized as the foreground area corresponding to the target person. In addition, it is possible to properly detect the person being watched from getting out of bed.
- the image analysis apparatus 1 in step S107 described above, based on the change in the foreground area extracted in accordance with the series of actions of the person being watched as illustrated in FIGS. 13A to 13C. Detecting the person's bed. Therefore, according to the present embodiment, even if a third person enters the shooting range of the camera 2 after the watching target person leaves the bed, the foreground corresponding to the third person watching the foreground area corresponding to the third person is monitored. The bed of the person being watched over can be properly detected without misrecognizing it as a region.
- the present embodiment it is possible to prevent the detection target person from getting out of bed and getting up erroneously due to the presence of a third party in the shooting range of the camera 2, and Each can be detected appropriately. Therefore, according to the present embodiment, it is possible to execute a warning regarding getting out of the person being watched over with high accuracy.
- step S107 the control unit 11 detects the bed of the watching target person based on a change in the foreground area when the watching target person sits on the bed or goes to sleep. Even if a third party other than the person being watched over enters the shooting range of the camera 2, it is assumed that the third person does not sit or sleep on the bed. Therefore, according to the present embodiment, the bed of the watching target person is detected based on an operation that is assumed not to be performed by a person other than the watching target person. Therefore, according to the present embodiment, it is possible to improve the detection accuracy of the person to be watched to go to bed, and thereby, it is possible to accurately execute an alarm regarding getting out of the person being watched over.
- step S107 the control unit 11 sets a predetermined area DB on the bed side. And the control part 11 is based on that the foreground area
- This detection method may cause the following problems.
- a third party such as a caregiver may perform work such as bed-making near the bed side.
- the third party's body may be located above the bed surface SU, so that the foreground area corresponding to the third party may be located in the predetermined area DB depending on the setting range of the predetermined area DB.
- FIG. 15A schematically illustrates a scene in which a third party is working toward the bed.
- FIG. 15B schematically illustrates a scene in which the person being watched over is sitting in the end sitting position on the bed.
- the predetermined area DB when the predetermined area DB is arranged more outside the bed, in addition to the foreground area extracted when the person being watched over is in the end sitting position, The foreground area extracted when performing work in the vicinity of the bed side portion can enter the predetermined area DB. Therefore, when the range of the predetermined area DB is set in this way, there is a possibility that a third party other than the person being watched over will be mistakenly detected as a bed-getting action of the person being watched over.
- FIG. 15A it is generally assumed that a third party who performs such a bed making operation is facing the inside of the bed. Therefore, the center of gravity of the third person's head is located inside the bed rather than the center of gravity of the shoulder.
- FIG. 15B it is assumed that the person to be watched who performs the end sitting position on the bed side is generally facing the outside of the bed. Therefore, the center of gravity of the head of the person being watched over is located inside the bed with respect to the center of gravity of the shoulder.
- the control unit 11 when the foreground area being tracked is moved into the predetermined area DB in step S107, the control unit 11 further includes a head area in which the head appears in the tracked foreground area.
- the shoulder region where the shoulder portion appears may be estimated. Such region estimation can be performed by known image processing such as pattern matching, for example.
- the control unit 11 may determine the positional relationship between the estimated center of gravity of the head region and the center of gravity of the shoulder region.
- the center of gravity of the head region and the center of gravity of the shoulder region can be calculated by the calculation of Equation 4 above.
- the control unit 11 detects that the person to be watched has gone to bed.
- the control unit 11 continues the process without detecting the watching subject's bed.
- the control unit 11 may cancel the tracking of the foreground area.
- the modified example it is possible to prevent erroneous detection of the watching person's bedtime due to a person other than the watching person who works toward the inside of the bed in the vicinity of the bed. it can. Therefore, according to the modified example, it is possible to improve the detection accuracy of the person being watched to go to bed, and thereby, it is possible to accurately execute an alarm regarding getting out of the person being watched over.
- the image analysis apparatus 1 may detect an action other than getting out of bed and getting up, such as getting up on a bed.
- the image analysis apparatus 1 can detect the behavior of the watching target person based on the positional relationship between the foreground region corresponding to the watching target person and the bed (for example, the bed surface SU). For example, the image analysis apparatus 1 may detect the rising of the person to be watched on the bed when the foreground area appears at a position higher than a predetermined height immediately above the bed surface SU. Thereby, various actions in the bed of the person being watched over can be detected, and watching of the person being watched over by the image analysis apparatus 1 can be enhanced.
- the image analysis apparatus 1 when the image analysis apparatus 1 starts the process of detecting the behavior of the watching target person, for example, when no action of the watching target person is detected for several hours or more, the monitoring target person has an abnormality. It may have occurred. Therefore, the image analysis apparatus 1 may perform a notification for notifying an operation such as rising of the person being watched over for a predetermined time or longer.
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Alarm Systems (AREA)
- Emergency Alarm Devices (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
見守り対象者の離床に関する警報を精度よく実行可能にする技術を提供する。本発明の一側面に係る画像解析装置は、各画素の深度を示す深度データを含む撮影画像を取得する画像取得部と、撮影画像の前景領域を抽出する前景抽出部と、前景領域に含まれる各画素の深度を参照し、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したことに基づいて、見守り対象者の離床を検知する離床検知部と、見守り対象者の離床を検知した後に、ベッド外に現れた前景領域がベッド上に移動したことに基づいて、見守り対象者の就床を検知する就床検知部と、見守り対象者の就床を検知する前に、見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、見守り対象者が一定時間以上離床していることを知らせるための通知を行う通知部と、を備える。
Description
本発明は、画像解析装置、画像解析方法、及び、画像解析プログラムに関する。
近年、入院患者、施設入居者、要介護者等の見守り対象者の徘徊による事故が年々増加する傾向にある。このような事故を防止するため、室内に設置したカメラで見守り対象者を撮影し、撮影した画像を解析することで見守り対象者の離床を検知し、見守り対象者の離床が一定時間以上継続する場合に、警報を行う見守りシステムが開発されている。
例えば、特許文献1では、カメラによりベッド上の患者を撮影し、それにより得られた画像を画像処理することで患者の離床を検知する患者認識装置が提案されている。具体的には、この患者認識装置は、カメラにより撮像したカラー撮像映像を黒色等の着目色とそれ以外の色とで2値化し、2値化した画像において直目色で抽出された連結成分(エリア)をラベリングする。
そして、当該患者認識装置は、ラベリングしたエリアの大きさ及び形状に基づいて、当該エリアが人体の一部に該当するか否かを判定することで、人体の存在を認識する。これによって、当該患者認識装置は、人体の存在を認識しない状態が所定時間継続した場合に、患者の離床が所定時間以上継続していることを報知することができる。
しかしながら、上記患者認識装置では、ラベリング処理により抽出されたエリアが人体の一部に該当するか否かの判定に基づいて、人体の存在を認識している。そのため、カメラの撮影範囲に見守り対象者以外の人物が存在する場合に、見守り対象者がベッドから離床しても、当該見守り対象者以外の人物が写るエリアに基づいて人体の存在の認識を継続してしまい、見守り対象者の離床を検知することができない可能性があった。
また、見守り対象者がベッドから離床した後にカメラの撮影範囲に見守り対象者以外の人物が進入した場合に、当該見守り対象者以外の人物が写るエリアに基づいて人体の存在を認識してしまい、見守り対象者が離床した時間の計測を停止してしまう可能性があった。
したがって、上記患者認識装置では、見守り対象者以外の人物を見守り対象者と誤り、見守り対象者がベッドから離床している時間を正確に計測できない可能性があった。そのため、上記患者認識装置では、見守り対象者が一定時間以上離床しているにも関わらず、見守り対象者の離床に関する警報が実行されない場合があるという問題点があった。
本発明は、一側面では、このような点を考慮してなされたものであり、見守り対象者の離床に関する警報を精度よく実行可能にする技術を提供することを目的とする。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係る画像解析装置は、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得する画像取得部と、取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出する前景抽出部と、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知する離床検知部と、前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知する就床検知部と、前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行う通知部と、を備える。
上記構成によれば、見守り対象者のベッドにおける行動を見守るために設置された撮影装置により撮影された撮影画像が取得され、取得された撮影画像と当該撮影画像の背景に設定された背景画像との差分が算出される。これによって、取得された撮影画像において前景領域が抽出される。
ここで、上記構成では、撮影画像は、各画素の深度を示す深度データを含んでいる。各画素の深度は、各画素に写る被写体の深さを表現する。そのため、この深度データによれば、撮影装置の設置位置及び撮影方向に依存することなく、撮影画像に写る被写体の実空間上の位置を特定することができる。
また、前景領域は、背景画像から変化の生じた場所で抽出される。そのため、見守り対象者が何らかの行動を行った場合には、当該行動に起因して見守り対象者が移動した場所に、当該見守り対象者に対応する前景領域が抽出される。したがって、当該構成によれば、抽出された前景領域に含まれる各画素の深度を参照することで、抽出された前景領域とベッドとの実空間上の位置関係を特定することができ、この位置関係に基づいて見守り対象者の行動を解析することができる。
具体的に、見守り対象者がベッドから離床する場合には、見守り対象者の起き上がり等に際して前景領域がベッド上に現れ、そのような場所に現れた前景領域がベッドから離れる方向に移動すると想定される。これに対して、見守り対象者以外の人物は、撮影装置の撮影範囲に存在しても、このような動作を行うことはないと想定される。すなわち、見守り対象者以外の人物に対応する前景領域は、ベッド周囲で発生するに過ぎず、ベッド上で発生することはないと想定される。
そこで、上記構成に係る画像解析装置は、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したか否かを判定する。そして、上記構成に係る画像解析装置は、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したと判定した場合に、見守り対象者がベッドから離床したことを検知する。これによって、撮影装置の撮影範囲に見守り対象者以外の人物が存在する場合であっても、上記のような問題が生じることはなく、見守り対象者の離床を適切に検知することができる。そのため、上記構成によれば、当該見守り対象者の離床を検知してからの経過時間の計測を正確に開始することができる。
また、見守り対象者がベッドに就床する場合には、ベッドから離れた見守り対象者が再びベッド周囲に戻ってくるのに際して、撮影画像のフレーム近傍等のベッド外の場所に前景領域が現れ、そのような場所に現れた前景領域がベッド上に移動すると想定される。これに対して、見守り対象者以外の人物は、このような動作を行うことはないと想定される。すなわち、見守り対象者以外の人物が撮影装置の撮影範囲に進入しても、当該見守り対象者以外の人物に対応する前景領域は、ベッド周囲を移動するに過ぎず、ベッド上には移動しないものと想定される。
そこで、上記構成に係る画像解析装置は、見守り対象者の離床を検知した後に取得された撮影画像について、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域がベッド上に移動したか否かを判定する。そして、上記構成に係る画像解析装置は、ベッド外に現れた前景領域がベッド上に移動したと判定した場合に、見守り対象者がベッドに就床したことを検知する。これによって、見守り対象者がベッドから離床した後に撮影装置の撮影範囲に見守り対象者以外の人物が進入しても、上記のような問題が生じることはなく、見守り対象者の就床を適切に検知することができる。そのため、上記構成によれば、当該見守り対象者の離床を検知してからの経過時間の計測を正確に停止することができる。
そして、上記構成では、見守り対象者の就床を検知する前に、見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知が行われる。すなわち、上記構成では、見守り対象者の離床と就床とを適切に検知可能な状況下で、当該見守り対象者の離床を検知してからの経過時間に基づいて、当該見守り対象者の離床に関する警報が実行される。したがって、上記構成によれば、見守り対象者以外の人物が存在することに起因する見守り対象者の離床に関する誤検知を防止することができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができる。
なお、見守り対象者は、見守りの対象となる人物であり、例えば、入院患者、施設入居者、要介護者等である。また、見守り対象者の離床に関する通知の通知先及び通知方法は、実施の形態に応じて適宜選択することができる。例えば、当該通知は、見守り者に対して行われてもよい。見守り者は、見守り対象者の行動を見守る者である。見守り対象者が、入院患者、施設入居者、要介護者等である場合は、見守り者は、例えば、看護師、施設職員、介護者等である。
また、上記一側面に係る画像解析装置の別の形態として、前記就床検知部は、前記ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知してもよい。
離床した見守り対象者がベッドに戻り、ベッド上で端座位を行った場合には、ベッド外に現れた前景領域は、ベッド側部に移動するものと想定される。また、一般的には、見守り対象者以外の人物は、撮影装置の撮影範囲に進入することはあっても、見守り対象者のベッド上で端座位を行うことはないものと想定される。
そこで、当該構成に係る画像解析装置は、ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、見守り対象者の就床を検知する。すなわち、当該構成に係る画像解析装置は、見守り対象者がベッド上で端座位を行ったことに基づいて、見守り対象者の就床を検知する。
したがって、当該構成によれば、見守り対象者以外の人物が行わないと想定される端座位の動作に基づいて見守り対象者の就床が検知される。そのため、当該見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。
また、上記一側面に係る画像解析装置の別の形態として、前記就床検知部は、前記ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、更に、前記前景領域内において、前記見守り対象者の頭部が写る頭部領域と肩部が写る肩部領域とを推定してもよい。そして、前記就床検知部は、推定した当該頭部領域の重心が当該肩部領域の重心よりも前記ベッドの外側に位置するときに、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知してもよい。
例えば、介護者等の見守り対象者以外の人物が、ベッド上の布団を整える等の作業をベッド側部の近傍で行う場合がある。このような場合、見守り対象者以外の人物の身体(特に、上半身)がベッド面の上方に位置し得るため、上記所定の領域の設定によっては、当該見守り対象者以外の人物に対応する前景領域が当該所定の領域内にベッド外から移動する可能性がある。
ただし、この場合、見守り対象者以外の人物はベッドの内側の方を向いている。これに対して、端座位を行う見守り対象者は、ベッドの外側の方を向いている。すなわち、ベッド近傍で作業を行う見守り対象者以外の人物はベッドの内側の方を向いているため、この人物の頭部の重心は肩部の重心よりもベッドの内側に位置する。一方、ベッド上で端座位を行う見守り対象者は、ベッドの外側の方を向いているため、見守り対象者の頭部の重心は肩部の重心よりもベッドの外側に位置する。
そこで、当該構成に係る画像解析装置は、ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、更に、前景領域内において、見守り対象者の頭部が写る頭部領域と肩部が写る肩部領域とを推測する。そして、当該構成に係る画像解析装置は、推定した頭部領域の重心と肩部領域の重心との位置関係を判定し、頭部領域の重心が肩部領域の重心よりもベッドの外側に位置するときに、見守り対象者がベッドに就床したことを検知する。
したがって、当該構成によれば、ベッド近傍においてベッドの内側の方を向いて作業を行う見守り対象者以外の人物に起因して、見守り対象者の就床を誤検知してしまうことを防止することができる。そのため、当該構成によれば、見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。
また、上記一側面に係る画像解析装置の別の形態として、前記就床検知部は、前記ベッド外に現れた前景領域が、ベッド面直上の所定の高さよりも低い位置に移動した場合に、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知してもよい。
離床した見守り対象者が再びベッド上で就寝した場合には、ベッド外に現れた前景領域は、ベッド面の直上で、かつ、所定の高さよりも低い位置に移動するものと想定される。また、一般的には、見守り対象者以外の人物は、撮影装置の撮影範囲に進入することはあっても、見守り対象者のベッドで就寝することはないと想定される。
そこで、当該構成に係る画像解析装置は、ベッド外に現れた前景領域がベッド面直上の所定の高さよりも低い位置に移動した場合に、当該見守り対象者の就床を検知する。すなわち、当該構成に係る画像解析装置は、見守り対象者がベッド上で就寝したことに基づいて、当該見守り対象者の就床を検知する。
したがって、当該構成によれば、見守り対象者以外の人物が行わないと想定される就寝行動に基づいて見守り対象者の就床が検知される。そのため、当該見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。
なお、上記各形態に係る画像解析装置の別の形態として、以上の各構成を実現する情報処理システムであってもよいし、情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記録したコンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、情報処理システムは、1又は複数の情報処理装置によって実現されてもよい。
例えば、本発明の一側面に係る画像解析方法は、コンピュータが、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知するステップと、前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知するステップと、前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行うステップと、を実行する情報処理方法である。
また、例えば、本発明の一側面に係る画像解析プログラムは、コンピュータに、見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知するステップと、前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知するステップと、前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行うステップと、を実行させるためのプログラムである。
本発明によれば、見守り対象者の離床に関する警報を精度よく実行することができる。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメタ、マシン語等で指定される。
§1 適用場面
まず、図1を用いて、本発明が適用される場面について説明する。図1は、本実施形態に係る画像解析装置1が用いられる場面を模式的に例示する。本実施形態に係る画像解析装置1は、カメラ2によって見守り対象者を撮影し、それにより得られた撮影画像3を画像解析することで、見守り対象者の行動を検知する情報処理装置である。そのため、本実施形態に係る画像解析装置1は、見守り対象者の見守りを行う場面で広く利用可能である。
まず、図1を用いて、本発明が適用される場面について説明する。図1は、本実施形態に係る画像解析装置1が用いられる場面を模式的に例示する。本実施形態に係る画像解析装置1は、カメラ2によって見守り対象者を撮影し、それにより得られた撮影画像3を画像解析することで、見守り対象者の行動を検知する情報処理装置である。そのため、本実施形態に係る画像解析装置1は、見守り対象者の見守りを行う場面で広く利用可能である。
具体的には、図1で例示されるように、見守り対象者のベッドにおける行動を見守るためにカメラ2が設置されており、画像解析装置1は、このカメラ2によって見守り対象者を撮影する。カメラ2は、本発明の「撮影装置」に相当する。また、見守り対象者は、見守りの対象となる人物であり、例えば、入院患者、施設入居者、要介護者である。
カメラ2は、撮影画像3内の各画素に対応する深度を取得可能に構成される。本実施形態では、カメラ2は、各画素の深度を取得可能なように、被写体の深度を測定する深度センサ(後述する深度センサ21)を含んでいる。そのため、カメラ2により撮影される撮影画像3は、後述する図6に例示されるように、画素毎に得られる深度を示す深度データを含んでいる。この深度データの示す各画素の深度は、各画素に写る被写体の深さを表現する。そのため、この深度データによれば、カメラ2の設置位置及び撮影方向に依存することなく、撮影画像3に写る被写体の実空間上の位置を特定することができる。
なお、この撮影画像3は、撮影範囲(画角)内の被写体の深度を示すデータを含んでいればよく、例えば、撮影範囲内の被写体の深度が二次元状に分布したデータ(例えば、深度マップ)であってもよい。また、撮影画像3は、深度データとともに、RGB画像を含んでもよい。更に、撮影画像3は、動画像であってもよいし、1又は複数枚の静止画像であってもよい。
本実施形態では、画像解析装置1は、このような撮影画像3をカメラ2から取得する。そして、画像解析装置1は、取得された撮影画像3と当該撮影画像3の背景に設定された背景画像(後述する背景画像4)との差分を算出することにより、撮影画像3内において前景領域を抽出する。すなわち、画像解析装置1は、いわゆる背景差分法に基づいて、撮影画像3の前景領域を抽出する。
この前景領域は、背景画像から変化の生じた場所で抽出される。そのため、見守り対象者が何らかの行動を行った場合には、当該行動に起因して見守り対象者が移動した場所に、当該見守り対象者に対応する前景領域が抽出される。例えば、図1に例示されるように、見守り対象者がベッド上で起き上がった場合には、ベッド面上の所定の高さの範囲に前景領域が現れる。すなわち、見守り対象者の行動に応じた場所に前景領域が現れる。そのため、抽出された前景領域とベッドとの実空間上の位置関係に基づいて、見守り対象者の行動を解析することができる。
具体的には、見守り対象者がベッドから離床する場合には、見守り対象者の起き上がり等に際して前景領域がベッド上に現れ、そのような場所に現れた前景領域がベッドから離れる方向に移動すると想定される。これに対して、見守り対象者以外の人物(以下、「第三者」とも記載する)は、カメラ2の撮影範囲に存在しても、このような動作を行うことはないと想定される。すなわち、一般的には、第三者に対応する前景領域は、ベッド周囲で発生するに過ぎず、ベッド上で発生することはないと想定される。
そこで、本実施形態に係る画像解析装置1は、撮影画像3から抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したか否かを判定する。そして、本実施形態に係る画像解析装置1は、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したと判定した場合に、見守り対象者がベッドから離床したことを検知する。したがって、本実施形態によれば、カメラ2の撮影範囲に第三者が存在する場合であっても、この第三者に対応する前景領域を見守り対象者に対応する前景領域と誤認識することなく、見守り対象者の離床を適切に検知することができる。そのため、本実施形態によれば、見守り対象者の離床を検知してからの経過時間の計測を正確に開始することができる。
また、見守り対象者がベッドに就床する場合には、ベッドから離床した見守り対象者がベッド近傍に戻るのに際して、ベッド外の場所で前景領域が抽出されると想定される。例えば、見守り対象者が離床に伴いカメラ2の撮影範囲から退出した場合には、見守り対象者が再びカメラ2の撮影範囲に進入するのに際して、撮影画像3のフレーム近傍で前景領域が抽出される。そして、見守り対象者がベッドに就床するのに際して、そのような場所に現れた前景領域はベッド上に移動すると想定される。これに対して、第三者は、カメラ2の撮影範囲に進入しても、見守り対象者のベッドに就床することはないと想定される。すなわち、第三者に対応する前景領域は、ベッド周囲を移動するに過ぎず、ベッド上には移動しないものと想定される。
そこで、本実施形態に係る画像解析装置1は、見守り対象者の離床を検知した後に取得された撮影画像3について、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域がベッド上に移動したか否かを判定する。そして、本実施形態に係る画像解析装置1は、ベッド外に現れた前景領域がベッド上に移動したと判定した場合に、見守り対象者がベッドに就床したことを検知する。したがって、本実施形態によれば、見守り対象者がベッドから離床した後にカメラ2の撮影範囲に第三者が進入しても、この第三者に対応する前景領域を見守り対象者に対応する前景領域と誤認識することなく、見守り対象者の就床を適切に検知することができる。そのため、本実施形態によれば、見守り対象者の離床を検知してからの経過時間の計測を正確に停止することができる。
そして、本実施形態に係る画像解析装置1は、見守り対象者の就床を検知する前に、見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行う。すなわち、本実施形態によれば、見守り対象者の離床と就床とを適切に検知可能な状況下で、当該見守り対象者の離床を検知してからの経過時間に基づく、当該見守り対象者の離床に関する警報を実行することができる。したがって、本実施形態によれば、カメラ2の撮影範囲に第三者が存在することに起因する見守り対象者の離床に関する誤検知を防止することができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができる。
つまり、本実施形態では、画像解析装置1は、撮影画像3を継続的に取得し、継続的に取得される撮影画像3それぞれについて前景領域を抽出する。画像解析装置1は、この継続的に取得される撮影画像3に基づいて、まずは、見守り対象者の離床の検知判定の処理を実行する。この見守り対象者の離床の検知判定の処理は、見守り対象者の離床を検知するまで繰り返される。
そして、見守り対象者の離床を検知した後、画像解析装置1は、当該離床の検知判定の処理を停止し、見守り対象者の就床の検知判定の処理を開始する。すなわち、画像解析装置1は、見守り対象者の離床を検知した後に取得された撮影画像3に基づいて、見守り対象者の就床の検知判定の処理を実行する。この見守り対象者の就床の検知判定の処理は、見守り対象者の就床を検知するまで繰り返される。
また、この見守り対象者の就床の検知判定の処理を繰り返している間に、見守り対象者が離床してからの経過時間が一定時間を超えたか否かの判定処理が実行される。そして、本実施形態に係る画像解析装置1は、見守り対象者の就床を検知する前に、見守り対象者が離床してからの経過時間が一定時間を超えた場合に、上記見守り対象者が一定時間以上離床していることを知らせるための通知処理を実行する。
これによって、本実施形態によれば、見守りを行う空間(ベッド)に見守り対象者が一定時間以上不在である場合に、見守り対象者が一定時間以上不在であることを、当該見守り対象者の見守りを行う見守り者等に知らせることができる。したがって、本実施形態に係る画像解析装置1によれば、見守り対象者がベッドから長時間離床している状態を放置するのを防止することができ、当該見守り対象者の見守りを適切に行うことができる。
なお、図1では、カメラ2は、ベッドのフットボード側から見守り対象者を撮影するように配置されている。しかしながら、カメラ2の設置位置は、このような例に限定されなくてもよく、見守り対象者のベッドにおける行動を撮影可能であれば、いかなる場所に配置されてもよい。
また、画像解析装置1の配置場所は、カメラ2から撮影画像3を取得可能であれば、実施の形態に応じて適宜決定可能である。例えば、画像解析装置1は、図1に例示されるように、カメラ2に近接するように配置されてもよい。また、画像解析装置1は、ネットワークを介してカメラ2と接続してもよく、当該カメラ2とは全く異なる場所に配置されてもよい。
§2 構成例
<ハードウェア構成>
次に、図2を用いて、画像解析装置1のハードウェア構成を説明する。図2は、本実施形態に係る画像解析装置1のハードウェア構成を例示する。画像解析装置1は、図2に例示されるように、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む制御部11、制御部11で実行するプログラム5等を記憶する記憶部12、画像の表示と入力を行うためのタッチパネルディスプレイ13、音声を出力するためのスピーカ14、外部装置と接続するための外部インタフェース15、ネットワークを介して通信を行うための通信インタフェース16、及び記憶媒体6に記憶されたプログラムを読み込むためのドライブ17が電気的に接続されたコンピュータである。図2では、通信インタフェース及び外部インタフェースは、それぞれ、「通信I/F」及び「外部I/F」と記載されている。
<ハードウェア構成>
次に、図2を用いて、画像解析装置1のハードウェア構成を説明する。図2は、本実施形態に係る画像解析装置1のハードウェア構成を例示する。画像解析装置1は、図2に例示されるように、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)等を含む制御部11、制御部11で実行するプログラム5等を記憶する記憶部12、画像の表示と入力を行うためのタッチパネルディスプレイ13、音声を出力するためのスピーカ14、外部装置と接続するための外部インタフェース15、ネットワークを介して通信を行うための通信インタフェース16、及び記憶媒体6に記憶されたプログラムを読み込むためのドライブ17が電気的に接続されたコンピュータである。図2では、通信インタフェース及び外部インタフェースは、それぞれ、「通信I/F」及び「外部I/F」と記載されている。
なお、画像解析装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換、及び追加が可能である。例えば、制御部11は、複数のプロセッサを含んでもよい。また、例えば、タッチパネルディスプレイ13は、それぞれ別個独立に接続される入力装置及び表示装置に置き換えられてもよい。また、例えば、スピーカ14は省略されてもよい。また、例えば、スピーカ14は、画像解析装置1の内部装置としてではなく、外部装置として画像解析装置1に接続されてもよい。また、画像解析装置1はカメラ2を内蔵してもよい。更に、画像解析装置1は、複数の外部インタフェース15を備えてもよく、複数の外部装置と接続してもよい。
本実施形態では、カメラ2は、外部インタフェース15を介して画像解析装置1に接続しており、見守り対象者を撮影するために設置されている。本実施形態に係るカメラ2は、被写体の深度を測定するための深度センサ21を備えている。この深度センサ21の種類及び測定方法は、実施の形態に応じて適宜選択されてよい。例えば、深度センサ21として、TOF(Time Of Flight)方式等のセンサを挙げることができる。
ただし、カメラ2の構成は、被写体の深度を取得可能であれば、このような例に限定されなくてもよく、実施の形態に応じて適宜選択可能である。例えば、カメラ2は、ステレオカメラであってもよい。ステレオカメラは、撮影範囲内の被写体を複数の異なる方向から撮影するため、当該被写体の深度を記録することができる。また、カメラ2は、深度センサ21単体に置き換わってもよい。
なお、見守り対象者を撮影する場所は暗い可能性がある。そこで、撮影場所の明るさに影響されずに深度を取得可能なように、深度センサ21は、赤外線の照射に基づいて深度を測定する赤外線深度センサであってもよい。このような赤外線深度センサを含む比較的安価な撮影装置として、例えば、マイクロソフト社のKinect、ASUS社のXtion、Occipital社のStructure Sensorを挙げることができる。
ここで、図3を用いて、本実施形態に係る深度センサ21によって測定される深度を詳細に説明する。図3は、本実施形態に係る深度として扱うことが可能な距離の一例を示す。当該深度は、被写体の深さを表現する。図3で例示されるように、被写体の深さは、例えば、カメラ2と対象物との直線の距離Aで表現されてもよいし、カメラ2の被写体に対する水平軸から下ろした垂線の距離Bで表現されてもよい。
すなわち、本実施形態に係る深度は、距離Aであってもよいし、距離Bであってもよい。本実施形態では、距離Bを深度として扱うことにする。ただし、距離Aと距離Bとは、例えば、三平方の定理等を用いることで、互いに変換可能である。そのため、距離Bを用いた以降の説明は、そのまま、距離Aに適用することが可能である。このような深度を利用することで、本実施形態に係る画像解析装置1は、実空間上における被写体の位置を特定することができる。
このカメラ2は、見守り対象者のベッドにおける行動を見守るために、ベッド周辺の領域を撮影可能なように設置される。例えば、上記のとおり、図1では、カメラ2は、ベッドのフットボード側から見守り対象者を撮影するように配置されている。ただし、本実施形態では、カメラ2は、このように被写体の深度を測定可能に構成される。そのため、本実施形態では、カメラ2の設置場所及び撮影方向に依存することなく、被写体の実空間上の位置を特定することができる。したがって、カメラ2の設置場所及び撮影方向は、比較的に自由に設定することができる。
また、本実施形態では、記憶部12は、プログラム5を格納する。このプログラム5は、画像解析装置1に後述する見守り対象者の見守りに関する処理手順を実行させるためのプログラムであり、本発明の「画像解析プログラム」に相当する。このプログラム5は記憶媒体6に記録されていてもよい。
記憶媒体6は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。記憶媒体6は、本発明の「記憶媒体」に相当する。なお、図2は、記憶媒体6の一例として、CD(Compact Disk)、DVD(Digital Versatile Disk)等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体6の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。
なお、このような画像解析装置1は、例えば、提供されるサービス専用に設計された装置であってもよいし、PC(Personal Computer)、タブレット端末等の汎用の装置であってもよい。更に、画像解析装置1は、1又は複数のコンピュータにより実装されてもよい。
<機能構成例>
次に、図4を用いて、画像解析装置1の機能構成を説明する。図4は、本実施形態に係る画像解析装置1の機能構成を例示する。本実施形態では、画像解析装置1の制御部11は、記憶部12に記憶されたプログラム5をRAMに展開する。そして、制御部11は、RAMに展開されたプログラム5をCPUにより解釈及び実行して、各構成要素を制御する。これにより、画像解析装置1は、画像取得部111、前景抽出部112、離床検知部113、就床検知部114及び通知部115を備えるコンピュータとして機能する。
次に、図4を用いて、画像解析装置1の機能構成を説明する。図4は、本実施形態に係る画像解析装置1の機能構成を例示する。本実施形態では、画像解析装置1の制御部11は、記憶部12に記憶されたプログラム5をRAMに展開する。そして、制御部11は、RAMに展開されたプログラム5をCPUにより解釈及び実行して、各構成要素を制御する。これにより、画像解析装置1は、画像取得部111、前景抽出部112、離床検知部113、就床検知部114及び通知部115を備えるコンピュータとして機能する。
画像取得部111は、カメラ2によって撮影された撮影画像3を取得する。カメラ2には深度センサ21が含まれているため、取得される撮影画像3には、当該撮影画像3内の各画素の深度を示す深度データが含まれる。前景抽出部112は、取得された撮影画像3と当該撮影画像3の背景に設定された背景画像4との差分を算出することにより、取得された撮影画像3の前景領域を抽出する。すなわち、前景抽出部112は、いわゆる背景差分法に基づいて、背景から変化した領域である前景領域を撮影画像3において抽出する。
上記のとおり、前景領域は、背景画像4から変化の生じた場所で抽出される。そのため、見守り対象者が何らかの行動を行った場合には、当該行動に起因して見守り対象者が移動した場所に、当該見守り対象者に対応する前景領域が抽出される。そこで、離床検知部113は、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定する。そして、離床検知部113は、当該ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したと判定した場合に、見守り対象者がベッドから離床したことを検知する。
また、就床検知部114は、見守り対象者がベッドから離床したことを検知した後に取得された撮影画像3について、抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域がベッド上に移動したか否かを判定する。そして、就床検知部114は、当該ベッド外に現れた前景領域がベッド上に移動したと判定した場合に、見守り対象者がベッドに就床したことを検知する。
そして、通知部115は、見守り対象者の就床を検知する前に、見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。すなわち、通知部115は、見守り対象者の離床が一定時間以上継続していると認定される場合に、見守り対象者が一定時間以上離床していることを知らせる警報を実行する。
なお、本実施形態では、これらの機能がいずれも汎用のCPUによって実現される例を説明している。しかしながら、これらの機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、画像解析装置1の機能構成に関して、実施形態に応じて、適宜、機能の省略、置換、及び追加が行われてもよい。各機能に関しては後述する動作例で詳細に説明する。
§3 動作例
次に、図5を用いて、画像解析装置1の動作例を説明する。図5は、画像解析装置1による見守り対象者の見守りに関する処理手順を例示する。なお、以下で説明する見守り対象者の見守りに関する処理手順は、本発明の「画像解析方法」に相当する。ただし、以下で説明する見守り対象者の見守りに関する処理手順は一例に過ぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換及び追加が可能である。
次に、図5を用いて、画像解析装置1の動作例を説明する。図5は、画像解析装置1による見守り対象者の見守りに関する処理手順を例示する。なお、以下で説明する見守り対象者の見守りに関する処理手順は、本発明の「画像解析方法」に相当する。ただし、以下で説明する見守り対象者の見守りに関する処理手順は一例に過ぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換及び追加が可能である。
(概要)
本実施形態では、制御部11は、まず、ステップS101~S104の処理によって、見守り対象者の離床を検知する判定処理を実行する。ステップS101~S104の処理は、見守り対象者の離床を検知するまで繰り返される。見守り対象者の離床を検知すると、制御部11は、次に、ステップS105~S109の処理によって、見守り対象者の就床を検知する判定処理を実行しつつ、見守り対象者が離床してからの経過時間を判定する。そして、見守り対象者が離床してからの経過時間が一定時間を超える前に、見守り対象者の就床を検知した場合には、制御部11は、本動作例に係る処理を終了する。一方、見守り対象者の就床を検知する前に、見守り対象者が離床してからの経過時間が一定時間を超えた場合には、ステップS110において、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。以下、各処理について、詳細に説明する。
本実施形態では、制御部11は、まず、ステップS101~S104の処理によって、見守り対象者の離床を検知する判定処理を実行する。ステップS101~S104の処理は、見守り対象者の離床を検知するまで繰り返される。見守り対象者の離床を検知すると、制御部11は、次に、ステップS105~S109の処理によって、見守り対象者の就床を検知する判定処理を実行しつつ、見守り対象者が離床してからの経過時間を判定する。そして、見守り対象者が離床してからの経過時間が一定時間を超える前に、見守り対象者の就床を検知した場合には、制御部11は、本動作例に係る処理を終了する。一方、見守り対象者の就床を検知する前に、見守り対象者が離床してからの経過時間が一定時間を超えた場合には、ステップS110において、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。以下、各処理について、詳細に説明する。
(ステップS101)
ステップS101では、制御部11は、画像取得部111として機能し、カメラ2により撮影された撮影画像3を取得する。そして、撮影画像3を取得すると、制御部11は、次のステップS102に処理を進める。
ステップS101では、制御部11は、画像取得部111として機能し、カメラ2により撮影された撮影画像3を取得する。そして、撮影画像3を取得すると、制御部11は、次のステップS102に処理を進める。
上記のとおり、本実施形態では、カメラ2は、深度センサ21を備えている。そのため、本ステップS101において取得される撮影画像3には、各画素の深度を示す深度データが含まれている。制御部11は、この深度データを含む撮影画像3として、例えば、図6で例示される撮影画像3を取得する。
図6は、深度データを含む撮影画像3の一例を示す。図6で例示される撮影画像3は、各画素の濃淡値が当該各画素の深度に応じて定められた画像である。黒色の画素ほど、カメラ2に近いことを示す。一方、白色の画素ほど、カメラ2から遠いことを示す。この撮影画像3は、深度画像と称されてもよい。制御部11は、この深度データに基づいて、各画素の写る対象の実空間での位置を特定することができる。すなわち、制御部11は、撮影画像3内の各画素の座標(二次元情報)と深度とから、当該各画素内に写る被写体の三次元空間(実空間)での位置を特定することができる。以下、図7及び図8を用いて、制御部11が各画素の実空間上での位置を特定する計算例を示す。
図7は、撮影画像3内の座標関係を例示する。また、図8は、撮影画像3の任意の画素(点s)とカメラ2との実空間内での位置関係を例示する。なお、図7の左右方向は、図8の紙面に垂直な方向に対応する。すなわち、図8で表れている撮影画像3の長さは、図7で例示される縦方向の長さ(Hピクセル)に対応する。また、図7で例示される横方向の長さ(Wピクセル)は、図8で表れていない撮影画像3の紙面垂直方向の長さに対応する。
図7で例示されるように、撮影画像3の任意の画素(点s)の座標が(xs,ys)であるとし、カメラ2の横方向の画角がVx、縦方向の画角がVyであるとする。また、撮影画像3の横方向のピクセル数がWであるとし、縦方向のピクセル数がHであるとし、撮影画像3の中心点(画素)の座標が(0,0)であるとする。
制御部11は、カメラ2の画角(Vx、Vy)を示す情報をカメラ2から取得することができる。ただし、カメラ2の画角(Vx、Vy)を示す情報を取得する方法はこのような例に限られず、制御部11は、カメラ2の画角(Vx、Vy)を示す情報を、ユーザ入力に基づき取得してもよいし、予め設定されている設定値として取得してもよい。また、制御部11は、撮影画像3から、点sの座標(xs,ys)及び撮影画像3のピクセル数(W×H)を取得することができる。更に、制御部11は、撮影画像3に含まれる深度データを参照することによって、点sの深度Dsを取得することができる。
制御部11は、これらの情報を利用することで、当該各画素(点s)の実空間上の位置を特定することができる。例えば、制御部11は、以下の数1~3で示される関係式に基づいて、図8に例示されるカメラ座標系におけるカメラ2から点sまでのベクトルS(Sx,Sy,Sz,1)の各値を算出することができる。これにより、撮影画像3内の二次元座標系における点sの位置とカメラ座標系における点sの位置とは相互に変換可能になる。
ただし、上記ベクトルSは、カメラ2を中心とした三次元座標系のベクトルである。このカメラ2は、図8に例示されるように、水平方向に対して傾いている場合がある。すなわち、カメラ座標系は、三次元空間(実空間)のワールド座標系から傾いている場合がある。そのため、制御部11は、カメラ2のロール角、ピッチ角(図8のα)及びヨー角を用いた射影変換を上記ベクトルSに適用することによって、上記カメラ座標系のベクトルSをワールド座標系のベクトルに変換し、ワールド座標系における点sの位置を算出してもよい。
なお、撮影画像3は、動画像であってもよいし、1又は複数枚の静止画像であってもよい。また、制御部11は、このような撮影画像3を、カメラ2のビデオ信号に同期して取得してもよい。そして、制御部11は、カメラ2と同期して取得した撮影画像3に対して、後述するステップS102~S104までの処理を即座に実行してもよい。画像解析装置1は、このような動作を絶え間なく継続的に実行することにより、カメラ2の撮影範囲に存在する見守り対象者の離床をリアルタイムに検知することができる。以下では、このように継続的に取得される撮影画像3により見守り対象者の離床を検知する例を説明する。
(ステップS102)
図5に戻り、次のステップS102では、制御部11は、前景抽出部112として機能し、ステップS101で取得された撮影画像3と当該撮影画像3の背景に設定された背景画像4との差分を算出することにより、当該撮影画像3の前景領域を抽出する。背景画像4は、背景差分法に基づいて撮影画像3において前景領域を抽出するために利用されるデータである。制御部11は、例えば、当該見守り対象者の見守りを開始したとき等任意のタイミングに取得される撮影画像3によって、この背景画像4を作成することができる。
図5に戻り、次のステップS102では、制御部11は、前景抽出部112として機能し、ステップS101で取得された撮影画像3と当該撮影画像3の背景に設定された背景画像4との差分を算出することにより、当該撮影画像3の前景領域を抽出する。背景画像4は、背景差分法に基づいて撮影画像3において前景領域を抽出するために利用されるデータである。制御部11は、例えば、当該見守り対象者の見守りを開始したとき等任意のタイミングに取得される撮影画像3によって、この背景画像4を作成することができる。
なお、撮影画像3により背景画像4を作成する方法は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、カメラ2により得られる1フレーム分の撮影画像3をそのまま背景画像4に設定してもよい。また、例えば、制御部11は、カメラ2により得られる数フレーム分の撮影画像3の平均を算出することで、背景画像4を作成してもよい。これによって、各画素の深度を示す深度データを含む背景画像4を生成することができる。
本ステップS102では、制御部11は、このように作成される背景画像4とステップS101で取得した撮影画像3との差分を算出することにより、ステップS101で取得した撮影画像3において前景領域を抽出する。例えば、制御部11は、図9及び図10で例示されるように、撮影画像3において前景領域を抽出することができる。
図9は、撮影画像3に含まれる深度データに基づいて特定される撮影範囲内の各画素(被写体)の三次元分布を例示する。図10は、図9で例示した被写体のうち撮影画像3から抽出される前景領域の三次元分布を例示する。上記のとおり、深度データに基づいて、撮影画像3の各画素の三次元空間(実空間)上の位置を特定することができる。そのため、制御部11は、撮影画像3内の位置と深度とにより各画素を三次元空間内でプロットすることで、図6で例示される撮影画像3から、図9で例示される三次元分布を作成することができる。また、背景画像4も、撮影画像3と同様に、深度データを含んでいる。そのため、制御部11は、背景画像4についても、図9で例示されるような各画素の三次元分布を特定することができる。
そこで、制御部11は、撮影画像3及び背景画像4の対応する画素の深度を比較する。そして、制御部11は、撮影画像3と背景画像4とで深度の相違する画素を前景領域として抽出する。これによって、制御部11は、図10で例示されるような前景領域を抽出することができる。ステップS101で取得した撮影画像3において前景領域を抽出すると、制御部11は、次のステップS103に処理を進める。
(ステップS103)
図5に戻り、次のステップS103では、制御部11は、離床検知部113として機能し、見守り対象者の離床を検知する判定処理を実行する。すなわち、制御部11は、ステップS102で抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したか否かを判定する。
図5に戻り、次のステップS103では、制御部11は、離床検知部113として機能し、見守り対象者の離床を検知する判定処理を実行する。すなわち、制御部11は、ステップS102で抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したか否かを判定する。
そして、本ステップS103において、ベッド上に現れた前景領域がベッドから所定距離以上離れた位置に移動したと判定できた場合には、制御部11は、見守り対象者の離床を検知した上で、次のステップS104に処理を進める。一方、そのような判定ができなかった場合には、制御部11は、見守り対象者の離床を検知することなく、次のステップS104に処理を進める。
ここで、図11A、図11B、図12A及び図12Bを用いて、本ステップS103において、見守り対象者の離床を検知する判定処理を具体的に説明する。図11Aは、見守り対象者が離床する際にベッドから起き上がった場面を模式的に例示する。図11Bは、見守り対象者がベッドから所定距離HA以上離れた位置に移動した場面を模式的に例示する。図12Aは、図11Aの場面の際に抽出される前景領域の位置を模式的に例示する。また、図12Bは、図11Bの場面の際に抽出される前景領域の位置を模式的に例示する。なお、以下では、説明の便宜のため、ベッドのヘッドボードとフットボードとを結ぶ方向を「前後方向」と称し、ベッド側部(サイドフレーム)間を結ぶ方向を「左右方向」と称し、ベッドの鉛直方向を「上下方向」と称する。
ベッドから離床する際には、まず、見守り対象者は、ベッドから立ち上がるため、ベッド上で身体を動かす。例えば、図11Aに例示されるように、見守り対象者は、上半身を起こす動作をベッド上で行う。そして、見守り対象者は、ベッド側部において立ち上がり、図11Bに例示されるようにベッドから離れる方向に移動する。
そのため、見守り対象者の離床を検知するまで繰り返されるステップS101~S104の一連の処理において、繰り返し実行される上記ステップS101では、結果的に、このような見守り対象者の一連の動作を撮影した撮影画像3の画像群が取得される。そして、上記ステップS102では、この画像群に含まれる最初の方の撮影画像3において、図12Aに例示されるように、見守り対象者に対応する前景領域がベッド面SUの上方で抽出される。一方、この画像群に含まれる最後の方の撮影画像3では、図12Bに例示されるように、見守り対象者がベッドから離れるに従って、この見守り対象者に対応する前景領域もベッドから離れた位置で抽出されるようになる。
そこで、本実施形態では、制御部11は、次のようにして、見守り対象者の離床を検知する。すなわち、制御部11は、まず、ベッド上に現れる前景領域を捕捉する。具体的には、ステップS102において、図12Aに例示されるように、ベッド面SUの上方で前景領域が抽出された場合に、制御部11は、本ステップS103において、見守り対象者の離床を検知しないが、この前景領域をトラッキングの対象とする。ベッド面SUの範囲は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。これによって、制御部11は、これ以降のステップS101で繰り返し取得される撮影画像3の画像群において、同一の対象(見守り対象者)の写る前景領域を追跡することができる。
そして、制御部11は、トラッキングしている前景領域とベッドとの間の距離を算出し、算出した距離が所定距離HA以上であるか否かを判定する。前景領域とベッドとの間の距離は公知の方法により適宜算出可能である。トラッキングしている前景領域とベッドとの間の距離が所定距離HA以上ではない場合には、制御部11は、見守り対象者の離床を検知せず、その前景領域のトラッキングを継続する。一方、トラッキングしている前景領域とベッドとの間の距離が所定距離HA以上である場合には、制御部11は、ベッド上に現れた前景領域がベッドから所定距離HA以上離れた位置に移動したと判定し、見守り対象者の離床を検知する。
なお、見守り対象者がベッド上で起き上がった場合には、ベッド面SUから所定の高さ以上の位置で前景領域が抽出され得る。そのため、制御部11は、ベッド面SUから所定の高さ以上に現れた前景領域に限りトラッキングの対象としてもよい。この所定の高さは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。この所定の高さの値は、見守り対象者が離床する際にベッド上で発生し得る前景領域の高さに基づいて適宜設定されてよい。
この場合、制御部11は、前景領域に含まれる任意の点の位置を前景領域の位置として取り扱ってもよい。例えば、制御部11は、以下の数4の式で算出される前景領域の重心の位置を前景領域の位置として取り扱ってもよい。以下、その他の場面における前景領域の位置についても同様である。
また、制御部11は、ベッド面SUの上方に所定範囲の捕捉領域を設け、この捕捉領域に現れた前景領域に限りトラッキングの対象としてもよい。この場合、この捕捉領域の前後方向、左右方向及び上下方向それぞれの長さは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。上記と同様に、この捕捉領域は、見守り対象者が離床する際にベッド上で発生し得る前景領域を適切に捕捉可能に適宜設定される。
また、見守り対象者の離床を検知する基準となる所定距離HAの値は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。更に、図12Bは、ベッドの左右方向の両側に見守り対象者が離床可能な場面を例示している。しかしながら、見守り対象者の離床を検知する方向は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてもよい。例えば、見守り対象者が離床可能な方向は、図12Bで例示されるような二方向ではなく、一方向に限られてもよい。また、例えば、制御部11は、前景領域とベッドとの前後方向の距離に基づいて、見守り対象者の離床を検知してもよい。
また、ステップS102で抽出される前景領域は、人物以外の物体(例えば、カーテン等)に対応する可能性がある。そこで、このような人物以外の物体に対応する前景領域をステップS103の処理の対象から排除すべく、制御部11は、ステップS102で抽出された前景領域が見守り対象者等の人物の写る領域であるか否かを判定する処理を行ってもよい。例えば、このような判定処理は次のように行うことができる。
すなわち、ステップS102で抽出された前景領域が見守り対象者等の人物の写る領域である場合、この前景領域の形状は、その人物の形状に対応する。そのため、制御部11は、パターンマッチング等の画像処理によって、ステップS102で抽出された前景領域の形状が見守り対象者等の人物に対応するか否かを判定してもよい。そして、パターンマッチングの結果、制御部11は、人物の形状に対応しない前景領域をステップS103の処理対象から除外し、人物の形状に対応する前景領域をステップS103の処理対象としてもよい。
また、ステップS102で抽出された前景領域が見守り対象者等の人物の写る領域である場合、この前景領域の面積は、その人物の大きさに対応する。そのため、制御部11は、前景領域の面積が所定の面積範囲に含まれるか否かを判定してもよい。この所定の面積範囲は、見守り対象者の写る前景領域の面積として取り得る値をカバーするように設定される。そして、制御部11は、所定の面積範囲に含まれない面積の前景領域をステップS103の処理対象から除外し、所定の面積範囲に含まれる面積の前景領域をステップS103の処理対象としてもよい。
このとき、前景領域の面積は、前景領域に含まれる画素数により与えられてもよい。ただし、カメラ2から被写体が遠ざかるほど、撮影画像3内の被写体の像は小さくなり、カメラ2に被写体が近づくほど、撮影画像3内の被写体の像は大きくなる。撮影画像3内に写る被写体の深度は被写体の表面に対して取得されるが、その撮影画像3の各画素に対応する被写体の表面部分の面積は各画素間で一致するとは限らない。
そこで、制御部11は、被写体の遠近による影響を除外するために、本ステップS103において、各画素の深度を利用して、抽出した前景領域の実空間における面積を算出してもよい。前景領域の実空間における面積は、例えば、次のようにして算出することができる。すなわち、制御部11は、まず、以下の数5及び数6の関係式に基づいて、図7及び図8に例示される任意の点s(1画素)の実空間内における横方向の長さw及び/又は縦方向の長さhをそれぞれ算出する。
続いて、制御部11は、このように算出されるwの2乗、hの2乗、又はwとhとの積によって、深度Dsにおける1画素の実空間内での面積を算出する。そして、制御部11は、前景領域に含まれる各画素の実空間内での面積の総和を求めることで、前景領域の実空間における面積を算出する。これにより、被写体の遠近の影響を除外した上で、前景領域の面積を求めることができる。以下、その他の場面における前景領域の面積についても同様である。
なお、このような面積は、深度データのノイズ、見守り対象者以外の物体の動き、等によって、大きく変化してしまう場合がある。これに対応するため、制御部11は、数フレーム分の面積の平均を利用してもよい。また、制御部11は、処理対象のフレームにおける該当領域の面積と当該処理対象のフレームよりも過去の数フレームにおける当該該当領域の面積の平均との差が所定範囲を超える場合、当該該当領域を処理対象から除外してもよい。
本実施形態では、以上の処理によって、見守り対象者の離床を検知することができる。ただし、見守り対象者の離床を検知する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜変更されてよい。
(ステップS104)
図5に戻り、次のステップS104では、制御部11は、ステップS103において見守り対象者のベッドからの離床を検知したか否かを判定する。ステップS103において見守り対象者のベッドからの離床を検知しなかった場合には、制御部11は、ステップS101に処理を戻す。すなわち、制御部11は、見守り対象者の離床を検知するまで、見守り対象者の離床を検知する判定処理(ステップS101~S104)を繰り返す。
図5に戻り、次のステップS104では、制御部11は、ステップS103において見守り対象者のベッドからの離床を検知したか否かを判定する。ステップS103において見守り対象者のベッドからの離床を検知しなかった場合には、制御部11は、ステップS101に処理を戻す。すなわち、制御部11は、見守り対象者の離床を検知するまで、見守り対象者の離床を検知する判定処理(ステップS101~S104)を繰り返す。
一方、ステップS103において見守り対象者のベッドからの離床を検知した場合には、制御部11は、次のステップS105に処理を進める。すなわち、見守り対象者の離床を検知すると、制御部11は、見守り対象者の就床を検知する判定処理及び見守り対象者の離床してからの経過時間(以下、「離床経過時間」とも記載する)が一定時間を超えたか否かを判定する処理の実行を開始する。このとき、制御部11は、後述するステップS109の処理において離床経過時間を特定するため、タイマを起動し、離床経過時間をこのタイマにより計測してもよい。また、制御部11は、見守り対象者の離床を検知した時刻を保持してもよい。
(ステップS105及びステップS106)
次のステップS105では、制御部11は、画像取得部111として機能し、上記ステップS101と同様に、カメラ2より撮影画像3を取得する。そして、撮影画像3を取得した後、ステップS106では、制御部11は、前景抽出部112として機能し、上記ステップS102と同様に、撮影画像3と背景画像4との差分を算出することで、当該撮影画像3の前景領域を抽出する。
次のステップS105では、制御部11は、画像取得部111として機能し、上記ステップS101と同様に、カメラ2より撮影画像3を取得する。そして、撮影画像3を取得した後、ステップS106では、制御部11は、前景抽出部112として機能し、上記ステップS102と同様に、撮影画像3と背景画像4との差分を算出することで、当該撮影画像3の前景領域を抽出する。
上記のとおり、ステップS105~S109の処理は、見守り対象者の就床を検知する判定処理及び離床経過時間が一定時間を超えたか否かを判定する処理に対応する。このステップS105~S109の処理は、見守り対象者の就床を検知する又は離床経過時間が一定時間を超えるまで実行される。そのため、見守り対象者の就床を検知する又は離床経過時間が一定時間を超えるまで、上記ステップS101及びステップS102と同様に、本ステップS105及びステップS106の処理は繰り返し実行される。すなわち、見守り対象者の就床を検知する又は離床経過時間が一定時間を超えるまで、ステップS105により撮影画像3が継続的に取得され、ステップS106により、継続的に取得される撮影画像3の前景領域が抽出される。
(ステップS107)
次のステップS107では、制御部11は、就床検知部114として機能し、見守り対象者の離床を検知した後に取得された撮影画像3について、見守り対象者の就床を検知する判定処理を実行する。すなわち、制御部11は、ステップS106により抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域がベッド上に移動したか否かを判定する。
次のステップS107では、制御部11は、就床検知部114として機能し、見守り対象者の離床を検知した後に取得された撮影画像3について、見守り対象者の就床を検知する判定処理を実行する。すなわち、制御部11は、ステップS106により抽出された前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域がベッド上に移動したか否かを判定する。
そして、本ステップS107において、ベッド外に現れた前景領域がベッド上に移動したと判定できた場合には、制御部11は、見守り対象者の就床を検知した上で、次のステップS108に処理を進める。一方、そのような判定ができなかった場合には、制御部11は、見守り対象者の就床を検知することなく、次のステップS108に処理を進める。
ここで、図13A~図13C及び図14A~図14Cを用いて、本ステップS107において、見守り対象者の就床を検知する判定処理を具体的に説明する。図13Aは、ベッドから離床した見守り対象者がベッド付近に戻ってきた場面を模式的に例示する。図13Bは、見守り対象者が就床する際に端座位を行っている場面を模式的に例示する。図13Cは、見守り対象者がベッド上で就寝した場面を模式的に例示する。図14A~図14Cはそれぞれ、図13A~図13Cそれぞれの場面の際に抽出される前景領域の位置を模式的に例示する。
ベッドに就床する際には、まず、見守り対象者は、図13Aに例示されるように、ベッドから離れた位置からベッドに近付く方向に移動する。そして、見守り対象者は、図13Bに例示されるようにベッド側部において端座位を行い、図13Cに例示されるようにベッド上で就寝する。又は、見守り対象者は、図13Bに例示される端座位を省略して、図13Cに例示されるようにベッド上で就寝する。
そのため、見守り対象者の就床を検知するまでには、繰り返し実行される上記ステップS105では、結果的に、見守り対象者が端座位を行った上で就寝する又は端座位を行うことなく就寝する一連の動作を撮影した撮影画像3の画像群が取得され得る。そして、上記ステップS106では、この画像群に含まれる最初の方の撮影画像3において、図14Aに例示されるように、見守り対象者に対応する前景領域がベッド外で抽出される。この前景領域は、ベッド周辺を移動し、最終的にはベッド近傍に近付く。
その後、見守り対象者が端座位を行った場合には、その見守り対象者に対応する前景領域はベッド側部で一時的に停止する。すなわち、上記ステップS106では、見守り対象者が端座位を行っている間に取得された撮影画像3において、図14Bに例示されるように、見守り対象者に対応する前景領域がベッド側部で抽出される。
一方、見守り対象者が、端座位を行うことなく、ベッド上で就寝した場合には、ベッド近傍に近付いた前景領域は、そのままベッド上に移動する。すなわち、上記ステップS106では、見守り対象者が就寝したときに取得された撮影画像3において、図14Cに例示されるように、見守り対象者に対応する前景領域がベッド面SU直上の比較的に低い位置で抽出される。
そこで、本実施形態では、この端座位及び就寝姿勢の2つの状態に基づいて、見守り対象者の就床を検知する。すなわち、制御部11は、ベッド外に現れた前景領域がベッド側部に設けられた所定の領域DBに移動するか又はベッド面SU直上の所定の高さHCよりも低い位置に移動した場合に、見守り対象者の就床を検知する。
(1)端座位に基づく就床検知
第一に、端座位に基づいて就床を検知する方法を説明する。上記のとおり、端座位に基づいて就床を検知するまでには、図14Aに例示されるようにベッド外に前景領域が現れる。そして、そのベッド外に現れた前景領域が、図14Bに例示されるようにベッド側部に移動する。
第一に、端座位に基づいて就床を検知する方法を説明する。上記のとおり、端座位に基づいて就床を検知するまでには、図14Aに例示されるようにベッド外に前景領域が現れる。そして、そのベッド外に現れた前景領域が、図14Bに例示されるようにベッド側部に移動する。
そのため、制御部11は、次のようにして、見守り対象者の就床を検知することができる。すなわち、制御部11は、まず、ベッド外に現れる前景領域を捕捉する。具体的には、ステップS106において、図14Aに例示されるように、ベッド外に前景領域が抽出された場合に、制御部11は、本ステップS107において、見守り対象者の就床を検知しないが、この前景領域をトラッキングの対象とする。これによって、制御部11は、これ以降のステップS105で繰り返し取得される撮影画像3の画像群において、同一の対象(見守り対象者)の写る前景領域を追跡することができる。
そして、制御部11は、トラッキングしている前景領域がベッド側部に設けられた所定の領域DB内に移動したか否かを判定する。この所定の領域DBは、見守り対象者がベッド側部で端座位を行ったときに前景領域が抽出される場所に適宜設定される。
この判定の結果、トラッキングしている前景領域が所定の領域DB内に移動していない場合には、制御部11は、見守り対象者の就床を検知せず、その前景領域のトラッキングを継続する。一方、トラッキングしている前景領域が所定の領域DB内に移動した場合には、制御部11は、ベッド外に現れた前景領域がベッド上に移動したと判定し、見守り対象者の就床を検知する。
なお、上記ステップS103と同様に、制御部11は、前景領域の形状及び/又は面積に基づいて、処理対象とする前景領域を限定してもよい。更に、ベッド外に現れた前景領域を捕捉する領域は、ベッド外の領域であればよく、実施形態に応じて適宜設定されてよい。
また、トラッキングしている領域が所定の領域DB内に移動したか否かの判定は、図14Bに例示されるように前景領域の重心に基づいて行われてもよい。この前景領域の重心は、上記数4によって、算出可能である。この場合、所定の領域DBは、見守り対象者がベッド側部で端座位を行った時に抽出される前景領域の重心が存在し得る範囲を含むように適宜設定される。なお、トラッキングしている領域が所定の領域DB内に移動したか否かの判定は、前景領域の全体に基づいて行われてもよいし、前景領域の一部に基づいて行われてもよい。所定の領域DBは、判定の対象とする前景領域の基準に応じて適宜設定される。
また、図14Bでは、所定の領域DBは、左右方向の各ベッド側部に設定されている。しかしながら、いずれか一方のベッド側部で、所定の領域DBの設定が省略されてもよい。すなわち、制御部11は、所定の領域DBは、いずれか一方のベッド側部にのみ設定されてもよい。更に、図14Bでは、2つの所定の領域DBが左右方向に離間して設けられている。しかしながら、所定の領域DBの設定方法はこのような例に限定されなくてもよく、この2つの所定の領域DBを左右方向で連結することで、左右方向に延びる1つの所定の領域DBが設定されてもよい。加えて、このような所定の領域DBは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。
また、見守り対象者がベッド側部で端座位を行っている間は、その見守り対象者に対応する前景領域はベッド側部で継続的に抽出される。そのため、制御部11は、ベッド外に現れた前景領域が一定時間以上継続して所定の領域DB内に留まっている場合に、ベッド外に現れた前景領域がベッド上に移動したと判定し、見守り対象者の就床を検知してもよい。これによって、何らかの物体がベッド側部を通過したような場合に、見守り対象者の就床を誤検知してしまうのを防止することができる。なお、見守り対象者の就床を検知する基準となる閾値(一定時間)は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。
(2)就寝姿勢に基づく就床検知
第二に、就寝姿勢に基づいて就床を検知する方法を説明する。上記のとおり、就寝姿勢に基づいて就床を検知するまでには、図14Aに例示されるようにベッド外に前景領域が現れる。そして、そのベッド外に現れた前景領域が、図14Cに例示されるように、ベッド面SU直上の比較的に低い位置に移動する。
第二に、就寝姿勢に基づいて就床を検知する方法を説明する。上記のとおり、就寝姿勢に基づいて就床を検知するまでには、図14Aに例示されるようにベッド外に前景領域が現れる。そして、そのベッド外に現れた前景領域が、図14Cに例示されるように、ベッド面SU直上の比較的に低い位置に移動する。
そのため、制御部11は、次のようにして、見守り対象者の就床を検知することができる。すなわち、制御部11は、まず、上記と同様に、ステップS106において、図14Aに例示されるように、ベッド外に前景領域が抽出された場合に、制御部11は、本ステップS107において、この前景領域をトラッキングの対象とする。これによって、制御部11は、これ以降のステップS105で繰り返し取得される撮影画像3の画像群において、同一の対象(見守り対象者)の写る前景領域を追跡することができる。
そして、制御部11は、トラッキングしている前景領域がベッド面SU直上の所定の高さHCよりも低い位置に移動したか否かを判定する。この所定の高さHCの値は、見守り対象者がベッド面SU上で就寝したときに抽出される前景領域の高さよりも高くなるように適宜設定される。
この判定の結果、トラッキングしている前景領域がベッド面SU直上の所定の高さHCよりも低い位置に移動していない場合には、制御部11は、見守り対象者の就床を検知せず、その前景領域のトラッキングを継続する。一方、トラッキングしている前景領域がベッド面SU直上の所定の高さHCよりも低い位置に移動した場合には、制御部11は、ベッド外に現れた前景領域がベッド上に移動したと判定し、見守り対象者の就床を検知する。
なお、上記と同様に、制御部11は、前景領域の形状及び/又は面積に基づいて、処理対象とする前景領域を限定してもよい。更に、ベッド外に現れた前景領域を捕捉する領域は、ベッド外の領域であればよく、実施形態に応じて適宜設定されてよい。
また、トラッキングしている領域がベッド面SU直上の所定の高さHCよりも低い位置に移動したか否かの判定は、上記と同様に、前景領域の重心に基づいて行われてもよいし、前景領域の全体に基づいて行われてもよいし、前景領域の一部に基づいて行われてもよい。所定の高さHCは、判定の対象とする前景領域の基準に応じて適宜設定される。この所定の高さHCは、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。
(3)その他
本実施形態では、制御部11は、上記2つの判定処理によって、見守り対象者の就床を検知することができる。ただし、見守り対象者の就床を検知する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜変更されてよい。例えば、制御部11は、上記2つの判定処理のうちいずれかを省略してもよい。また、例えば、制御部11は、上記2つの判定処理以外の処理によって、見守り対象者の就床を検知してもよい。
本実施形態では、制御部11は、上記2つの判定処理によって、見守り対象者の就床を検知することができる。ただし、見守り対象者の就床を検知する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜変更されてよい。例えば、制御部11は、上記2つの判定処理のうちいずれかを省略してもよい。また、例えば、制御部11は、上記2つの判定処理以外の処理によって、見守り対象者の就床を検知してもよい。
(ステップS108)
図5に戻り、次のステップS108では、制御部11は、ステップS107において見守り対象者がベッドに就床したことを検知したか否かを判定する。ステップS107において見守り対象者の就床を検知しなかった場合には、制御部11は、次のステップS109に処理を進める。
図5に戻り、次のステップS108では、制御部11は、ステップS107において見守り対象者がベッドに就床したことを検知したか否かを判定する。ステップS107において見守り対象者の就床を検知しなかった場合には、制御部11は、次のステップS109に処理を進める。
一方、ステップS107において見守り対象者の就床を検知した場合には、制御部11は、本動作例に係る処理を終了する。このとき、制御部11は、見守り対象者の離床を検知してから見守り対象者の就床を検知するまでの離床時間を特定し、この離床時間を記憶部12等に記録してもよい。離床時間を特定する方法は、実施の形態に応じて適宜選択されてよい。例えば、離床経過時間をタイマにより計測している場合には、制御部11は、この時点でタイマのカウントを停止し、当該タイマを参照することで、この離床時間を特定することができる。また、例えば、見守り対象者の離床を検知した時刻を保持している場合には、制御部11は、見守り対象者の離床を検知した時刻とこの処理の時点の時刻との差分を算出することで、離床時間を特定することができる。
なお、この場合には、見守り対象者はベッドに就床している。そのため、見守り対象者が再び離床するのに備えて、制御部11は、再びステップS101から処理を開始してもよい。すなわち、制御部11は、見守り対象者の離床を検知する判定処理から開始することで、見守り対象者の見守りを継続してもよい。
(ステップS109)
次のステップS109では、制御部11は、上記ステップS103により見守り対象者の離床を検知してからの離床経過時間が一定時間を超えたか否かを判定する。この判定の結果、離床経過時間が一定時間を超えていない場合には、制御部11は、ステップS105に処理を戻す。すなわち、見守り対象者の就床を検知する又は離床経過時間が一定時間を超えるまで、見守り対象者の就床を検知する判定処理及び離床経過時間が一定時間を超えたか否かを判定する処理を繰り返す。
次のステップS109では、制御部11は、上記ステップS103により見守り対象者の離床を検知してからの離床経過時間が一定時間を超えたか否かを判定する。この判定の結果、離床経過時間が一定時間を超えていない場合には、制御部11は、ステップS105に処理を戻す。すなわち、見守り対象者の就床を検知する又は離床経過時間が一定時間を超えるまで、見守り対象者の就床を検知する判定処理及び離床経過時間が一定時間を超えたか否かを判定する処理を繰り返す。
一方、離床経過時間が一定時間を超えている場合には、制御部11は、次のステップS110に処理を進める。ここで、後述するステップS110では、見守り対象者が一定時間以上離床していることを知らせる警報が行われる。すなわち、この分岐の基準となる閾値(一定時間)は、当該警報を行う離床経過時間を規定する。この閾値(一定時間)は、システム上で予め設定されてもよいし、ユーザによって適宜設定されてもよい。
なお、この時点における離床経過時間は適宜特定することができる。例えば、離床経過時間をタイマにより計測している場合には、制御部11は、この時点でタイマを参照することで、この時点における離床検知時間を特定することができる。また、例えば、見守り対象者の離床を検知した時刻を保持している場合には、制御部11は、見守り対象者の離床を検知した時刻とこの処理の時点の時刻との差分を算出することで、この時点における離床検知時間を特定することができる。
また、本ステップS109の処理は、任意のタイミングで実行されてもよい。例えば、本ステップS109の処理は、ステップS105~S108の処理とは別に、実行されてもよい。本ステップS109の処理が上記ステップS108の処理よりも前に実行される場合、上記ステップS108において見守り対象者の就床が検知されていないと判定されたときには、制御部11は、ステップS105に処理を戻す。
(ステップS110)
次のステップS110では、制御部11は、通知部115として機能し、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。すなわち、制御部11は、上記ステップS107において見守り対象者の就床を検知する前に、上記ステップS109において離床経過時間が一定時間を超えたと判定した場合に、見守り対象者が一定時間以上不在であることを知らせる警報を実行する。
次のステップS110では、制御部11は、通知部115として機能し、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。すなわち、制御部11は、上記ステップS107において見守り対象者の就床を検知する前に、上記ステップS109において離床経過時間が一定時間を超えたと判定した場合に、見守り対象者が一定時間以上不在であることを知らせる警報を実行する。
なお、通知先及び通知方法は、実施の形態に応じて適宜選択することができる。制御部11は、例えば、見守り対象者以外の第三者、特に、見守り対象者の行動を見守る見守り者に当該通知を行ってもよい。見守り対象者が、入院患者、施設入居者、要介護者等である場合、見守り者は、例えば、看護師、施設職員、介護者等である。また、制御部11は、見守り対象者自身に当該通知を行ってもよい。
例えば、本実施形態に係る画像解析装置1が病院等の施設で利用される場合、当該画像解析装置1は、外部インタフェース15を介して、ナースコールシステム等の設備と接続することができる。この場合、制御部11は、当該ナースコールシステム等の設備と連携して、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。すなわち、制御部11は、外部インタフェース15を介して、当該ナースコールシステムを制御してもよい。そして、制御部11は、見守り対象者が一定時間以上離床していることを知らせるための通知として、当該ナースコールシステムによる呼び出しを行ってもよい。これによって、見守り対象者が一定時間以上ベッドから離れていることを当該見守り対象者の見守りを行う看護師等に適切に知らせることができる。
また、例えば、制御部11は、タッチパネルディスプレイ13による画面表示によって、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。また、例えば、制御部11は、画像解析装置1に接続されるスピーカ14から所定の音声を出力することにより、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。このタッチパネルディスプレイ13及びスピーカ14をそれぞれ見守り者の居室に設置することで、見守り対象者が一定時間以上ベッドから離れていることを当該見守り者に適切に知らせることができる。
また、例えば、制御部11は、電子メール、ショートメッセージサービス、プッシュ通知等を利用して、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。このような通知を行う場合には、通知先となるユーザ端末の電子メールアドレス、電話番号等は記憶部12に予め登録されていてもよい。そして、制御部11は、この予め登録されている電子メールアドレス、電話番号等を利用して、見守り対象者が一定時間以上離床していることを知らせるための通知を行ってもよい。
本実施形態では、制御部11は、このような通知を行った後に、本動作例に係る処理が終了する。ただし、このように処理を終了した場合には、上記ステップS108で見守り対象者の就床を検知して処理を終了した場合とは異なり、見守り対象者の就床が検知されていない。すなわち、見守り対象者は離床したままベッドに戻っていない。そのため、この場合には、制御部11は、見守り対象者の就床を検知するまで、ステップS105~S110の処理を繰り返してもよい。このとき、制御部11は、離床経過時間を新たに計測し始めるため、これまでの処理で計測した離床経過時間をリセットしてもよい。
(作用・効果)
以上のように、本実施形態に係る画像解析装置1は、まず、ステップS101~S104の処理によって、見守り対象者の離床を検知する判定処理を実行する。次に、見守り対象者の離床を検知した後には、画像解析装置1は、見守り対象者の就床を検知する判定処理及び離床経過時間が一定時間を超えたか否かを判定する処理を実行する。そして、見守り対象者の就床を検知する前に、離床経過時間が一定時間を超えた場合には、画像解析装置1は、ステップS110の処理によって、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。
以上のように、本実施形態に係る画像解析装置1は、まず、ステップS101~S104の処理によって、見守り対象者の離床を検知する判定処理を実行する。次に、見守り対象者の離床を検知した後には、画像解析装置1は、見守り対象者の就床を検知する判定処理及び離床経過時間が一定時間を超えたか否かを判定する処理を実行する。そして、見守り対象者の就床を検知する前に、離床経過時間が一定時間を超えた場合には、画像解析装置1は、ステップS110の処理によって、見守り対象者が一定時間以上離床していることを知らせるための通知を行う。
ここで、本実施形態に係る画像解析装置1は、上記ステップS103において、図11A及び図11Bに例示される見守り対象者の一連の動作に伴い抽出される前景領域の変動に基づいて、見守り対象者の離床を検知している。そのため、本実施形態によれば、カメラ2の撮影範囲に第三者が存在する場合であっても、この第三者に対応する前景領域を見守り対象者に対応する前景領域と誤認識することなく、見守り対象者の離床を適切に検知することができる。
同様に、本実施形態に係る画像解析装置1は、上記ステップS107において、図13A~図13Cに例示される見守り対象者の一連の動作に伴い抽出される前景領域の変動に基づいて、見守り対象者の就床を検知している。そのため、本実施形態によれば、見守り対象者がベッドから離床した後にカメラ2の撮影範囲に第三者が進入しても、この第三者に対応する前景領域を見守り対象者に対応する前景領域と誤認識することなく、見守り対象者の就床を適切に検知することができる。
したがって、本実施形態によれば、カメラ2の撮影範囲に第三者が存在することに起因する見守り対象者の離床及び就床の誤検知を防止し、当該見守り対象者の離床及び就床をそれぞれ適切に検知することができる。そのため、本実施形態によれば、見守り対象者の離床に関する警報を精度よく実行することができる。
特に、本実施形態では、制御部11は、上記ステップS107において、見守り対象者がベッド上で端座位又は就寝する際の前景領域の変動に基づいて、当該見守り対象者の就床を検知する。見守り対象者以外の第三者は、カメラ2の撮影範囲に進入することはあっても、ベッド上で端座位又は就寝することはないと想定される。したがって、本実施形態によれば、見守り対象者以外の人物が行わないと想定される動作に基づいて見守り対象者の就床が検知される。そのため、本実施形態によれば、見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
例えば、上記実施形態では、ステップS107において、制御部11は、ベッド側部に所定の領域DBを設定する。そして、制御部11は、見守り対象者がベッド側部で端座位を行う際の一連の動作に伴い変動する前景領域が当該所定の領域DB内に進入することに基づいて、当該見守り対象者の就床を検知している。この検知方法では、次のような問題が生じる可能性がある。
すなわち、介護者等の第三者が、例えば、ベッドメイキング等の作業をベッド側部の近傍で行う場合がある。このような場合、この第三者の身体がベッド面SUの上方に位置し得るため、所定の領域DBの設定範囲によっては、第三者に対応する前景領域がこの所定の領域DB内にベッド外から移動する可能性がある。すなわち、見守り対象者以外の第三者の上記動作を見守り対象者の就床の動作と誤検知してしまう可能性がある。
ここで、図15A及び図15Bを用いて、ベッド側部の近傍で第三者が作業を行う場面と見守り対象者が端座位を行う場面とを比較する。図15Aは、第三者がベッドに向かって作業を行っている場面を模式的に例示する。また、図15Bは、見守り対象者がベッド上で端座位を行っている場面を模式的に例示する。
図15A及び図15Bに例示されるように、所定の領域DBをよりベッドの外側に配置した場合には、見守り対象者が端座位を行う際に抽出される前景領域の他、第三者がベッド側部近傍で作業を行う際に抽出される前景領域が所定の領域DB内に進入し得る。そのため、このように所定の領域DBの範囲を設定した場合には、見守り対象者以外の第三者の動作を見守り対象者の就床の動作と誤検知してしまう可能性がある。
しかしながら、図15Aで例示されるように、このようなベッドメイキング等の作業を行う第三者は、一般的には、ベッドの内側を向いていると想定される。そのため、この第三者の頭部の重心は肩部の重心よりもベッドの内側に位置する。一方、図15Bで例示されるように、ベッド側部で端座位を行う見守り対象者は、一般的には、ベッドの外側を向いていると想定される。そのため、この見守り対象者の頭部の重心は肩部の重心よりもベッドの内側に位置する。
そこで、制御部11は、上記ステップS107において、トラッキングしている前景領域が所定の領域DB内に移動した場合に、更に、このトラッキングしている前景領域内において、頭部の写る頭部領域と肩部の写る肩部領域とを推測してもよい。このような領域推定は、例えば、パターンマッチング等の公知の画像処理によって行うことができる。
そして、制御部11は、推定した頭部領域の重心と肩部領域の重心との位置関係を判定してもよい。頭部領域の重心及び肩部領域の重心は、上記数4の計算によって、算出することができる。当該判定の結果、制御部11は、頭部領域の重心が肩部領域の重心よりもベッドの外側に位置する場合に、見守り対象者がベッドに就床したことを検知する。一方、頭部領域の重心が肩部領域の重心よりもベッドの内側に位置する場合、制御部11は、見守り対象者の就床を検知せずに、処理を継続する。この頭部領域の重心が肩部領域の重心よりもベッドの内側に位置する状態が一定時間以上継続する場合には、トラッキングしている前景領域は見守り対象者以外の第三者に対応する可能性があるため、制御部11は、この前景領域のトラッキングを解消してもよい。
当該変形例によれば、ベッド近傍においてベッドの内側の方を向いて作業を行う見守り対象者以外の人物に起因して、見守り対象者の就床を誤検知してしまうことを防止することができる。そのため、当該変形例によれば、見守り対象者の就床の検知精度を高めることができ、これによって、見守り対象者の離床に関する警報を精度よく実行することができるようになる。
また、上記実施形態に係る画像解析装置1は、例えば、ベッド上での起き上がり等、見守り対象者の離床及び就床以外の行動を検知してもよい。画像解析装置1は、見守り対象者に対応する前景領域とベッド(例えば、ベッド面SU)との位置関係に基づいて、見守り対象者の行動を検知することができる。例えば、画像解析装置1は、ベッド面SU直上で所定の高さよりも高い位置に前景領域が現れた場合に、見守り対象者のベッド上での起き上がりを検知してもよい。これによって、見守り対象者のベッドにおける種々の行動を検知することができ、画像解析装置1による見守り対象者の見守りを充実させることができる。また、この場合、画像解析装置1が、見守り対象者の行動の検知処理を開始してから、例えば、数時間以上、見守り対象者のいずれの行動も検知しないとき、当該見守り対象者に異常が発生している可能性がある。そのため、画像解析装置1は、所定時間以上の間、見守り対象者の起き上がり等の動作が検知されない場合、そのことを知らせるための通知を行ってもよい。
1…画像解析装置、
2…カメラ、21…深度センサ、
3…撮影画像、4…背景画像、
5…プログラム、6…記憶媒体、
11…制御部、12…記憶部、13…タッチパネルディスプレイ、
14…スピーカ、15…外部インタフェース、16…通信インタフェース、
17…ドライブ、
111…画像取得部、112…前景抽出部、113…離床検知部、
114…就床検知部、115…通知部
2…カメラ、21…深度センサ、
3…撮影画像、4…背景画像、
5…プログラム、6…記憶媒体、
11…制御部、12…記憶部、13…タッチパネルディスプレイ、
14…スピーカ、15…外部インタフェース、16…通信インタフェース、
17…ドライブ、
111…画像取得部、112…前景抽出部、113…離床検知部、
114…就床検知部、115…通知部
Claims (6)
- 見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得する画像取得部と、
取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出する前景抽出部と、
抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知する離床検知部と、
前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知する就床検知部と、
前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行う通知部と、
を備える、
画像解析装置。 - 前記就床検知部は、前記ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知する、
請求項1に記載の画像解析装置。 - 前記就床検知部は、前記ベッド外に現れた前景領域がベッド側部に設けられた所定の領域内に移動した場合に、更に、前記前景領域内において、前記見守り対象者の頭部が写る頭部領域と肩部が写る肩部領域とを推定し、推定した当該頭部領域の重心が当該肩部領域の重心よりも前記ベッドの外側に位置するときに、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知する、
請求項2に記載の画像解析装置。 - 前記就床検知部は、前記ベッド外に現れた前景領域が、ベッド面直上の所定の高さよりも低い位置に移動した場合に、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定し、前記見守り対象者が前記ベッドに就床したことを検知する、
請求項1から3のいずれか1項に記載の画像解析装置。 - コンピュータが、
見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、
取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、
抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知するステップと、
前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知するステップと、
前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行うステップと、
を実行する画像解析方法。 - コンピュータに、
見守り対象者のベッドにおける行動を見守るために設置された撮影装置によって撮影された撮影画像であって、当該撮影画像内の各画素の深度を示す深度データを含む撮影画像を取得するステップと、
取得された前記撮影画像と前記撮影画像の背景に設定された背景画像との差分を算出することにより、取得された前記撮影画像の前景領域を抽出するステップと、
抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したか否かを判定し、前記ベッド上に現れた前景領域が前記ベッドから所定距離以上離れた位置に移動したと判定した場合に、前記見守り対象者が前記ベッドから離床したことを検知するステップと、
前記見守り対象者が前記ベッドから離床したことを検知した後に取得された撮影画像について、抽出された前記前景領域に含まれる各画素の深度を参照することで、実空間上で、ベッド外に現れた前景領域が前記ベッド上に移動したか否かを判定し、前記ベッド外に現れた前景領域が前記ベッド上に移動したと判定した場合に、前記見守り対象者が前記ベッドに就床したことを検知するステップと、
前記見守り対象者の就床を検知する前に、前記見守り対象者の離床を検知してからの経過時間が一定時間を超えた場合に、当該見守り対象者が一定時間以上離床していることを知らせるための通知を行うステップと、
を実行させるための画像解析プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017521708A JP6780641B2 (ja) | 2015-05-29 | 2016-02-04 | 画像解析装置、画像解析方法、及び、画像解析プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015-110260 | 2015-05-29 | ||
JP2015110260 | 2015-05-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016194402A1 true WO2016194402A1 (ja) | 2016-12-08 |
Family
ID=57441018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/053349 WO2016194402A1 (ja) | 2015-05-29 | 2016-02-04 | 画像解析装置、画像解析方法、及び、画像解析プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6780641B2 (ja) |
WO (1) | WO2016194402A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018180802A (ja) * | 2017-04-10 | 2018-11-15 | 大和ハウス工業株式会社 | 食生活推定システム |
JP2019144997A (ja) * | 2018-02-23 | 2019-08-29 | エイアイビューライフ株式会社 | 情報処理装置 |
JP2019220735A (ja) * | 2018-06-15 | 2019-12-26 | エイアイビューライフ株式会社 | 情報処理装置 |
JP2020077015A (ja) * | 2018-11-05 | 2020-05-21 | 株式会社オートニクス | 患者情報管理装置 |
CN112885053A (zh) * | 2020-12-31 | 2021-06-01 | 苏州佩秋信息科技有限公司 | 分散型居家监护系统的工作方法 |
JPWO2021199311A1 (ja) * | 2020-03-31 | 2021-10-07 | ||
JP7533954B2 (ja) | 2021-10-26 | 2024-08-14 | Necプラットフォームズ株式会社 | 情報処理システム、情報処理装置、情報処理方法、及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001307257A (ja) * | 2000-04-20 | 2001-11-02 | Matsushita Electric Works Ltd | 介護支援システムにおける報知方法とその方法を用いた介護支援システム及びコンピュータ読み取り可能な記録媒体 |
JP2002230533A (ja) * | 2001-01-31 | 2002-08-16 | Matsushita Electric Works Ltd | 画像処理装置 |
JP2014184059A (ja) * | 2013-03-25 | 2014-10-02 | Fujitsu Ltd | 報知プログラム、報知方法および報知装置 |
JP2014236896A (ja) * | 2013-06-10 | 2014-12-18 | Nkワークス株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
-
2016
- 2016-02-04 WO PCT/JP2016/053349 patent/WO2016194402A1/ja active Application Filing
- 2016-02-04 JP JP2017521708A patent/JP6780641B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001307257A (ja) * | 2000-04-20 | 2001-11-02 | Matsushita Electric Works Ltd | 介護支援システムにおける報知方法とその方法を用いた介護支援システム及びコンピュータ読み取り可能な記録媒体 |
JP2002230533A (ja) * | 2001-01-31 | 2002-08-16 | Matsushita Electric Works Ltd | 画像処理装置 |
JP2014184059A (ja) * | 2013-03-25 | 2014-10-02 | Fujitsu Ltd | 報知プログラム、報知方法および報知装置 |
JP2014236896A (ja) * | 2013-06-10 | 2014-12-18 | Nkワークス株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018180802A (ja) * | 2017-04-10 | 2018-11-15 | 大和ハウス工業株式会社 | 食生活推定システム |
JP2019144997A (ja) * | 2018-02-23 | 2019-08-29 | エイアイビューライフ株式会社 | 情報処理装置 |
WO2019163561A1 (ja) * | 2018-02-23 | 2019-08-29 | エイアイビューライフ株式会社 | 情報処理装置 |
JP7033305B2 (ja) | 2018-02-23 | 2022-03-10 | エイアイビューライフ株式会社 | 情報処理装置 |
JP2019220735A (ja) * | 2018-06-15 | 2019-12-26 | エイアイビューライフ株式会社 | 情報処理装置 |
JP7232497B2 (ja) | 2018-06-15 | 2023-03-03 | エイアイビューライフ株式会社 | 情報処理装置 |
JP2020077015A (ja) * | 2018-11-05 | 2020-05-21 | 株式会社オートニクス | 患者情報管理装置 |
JPWO2021199311A1 (ja) * | 2020-03-31 | 2021-10-07 | ||
WO2021199311A1 (ja) * | 2020-03-31 | 2021-10-07 | 日本電気株式会社 | 監視装置、監視方法、および記録媒体 |
US12046128B2 (en) | 2020-03-31 | 2024-07-23 | Nec Corporation | Monitoring device, monitoring method, and recording medium |
CN112885053A (zh) * | 2020-12-31 | 2021-06-01 | 苏州佩秋信息科技有限公司 | 分散型居家监护系统的工作方法 |
JP7533954B2 (ja) | 2021-10-26 | 2024-08-14 | Necプラットフォームズ株式会社 | 情報処理システム、情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2016194402A1 (ja) | 2018-03-22 |
JP6780641B2 (ja) | 2020-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016194402A1 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム | |
JP6115335B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP6500785B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP6167563B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP6432592B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
WO2016151966A1 (ja) | 乳幼児監視装置、乳幼児監視方法、及び、乳幼児監視プログラム | |
JP6171415B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP6504156B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP6489117B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
WO2015133195A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP6638723B2 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム | |
JP6645503B2 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム | |
JP2011053005A (ja) | 監視システム | |
JP6607253B2 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム | |
WO2018235628A1 (ja) | 見守り支援システム及びその制御方法、及びプログラム | |
JP2014021619A (ja) | 患者認識装置 | |
JP6737262B2 (ja) | 異常状態検知装置、異常状態検知方法、及び、異常状態検知プログラム | |
JP5870230B1 (ja) | 見守り装置、見守り方法および見守りプログラム | |
JP6565468B2 (ja) | 呼吸検知装置、呼吸検知方法、及び呼吸検知プログラム | |
JP6606912B2 (ja) | 浴室異常検知装置、浴室異常検知方法、及び浴室異常検知プログラム | |
WO2016181672A1 (ja) | 画像解析装置、画像解析方法、及び、画像解析プログラム | |
JP2022126069A (ja) | 画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16802841 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2017521708 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16802841 Country of ref document: EP Kind code of ref document: A1 |