WO2023062688A1 - 監視システム、監視方法、プログラムが格納された非一時的なコンピュータ可読媒体 - Google Patents

監視システム、監視方法、プログラムが格納された非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023062688A1
WO2023062688A1 PCT/JP2021/037593 JP2021037593W WO2023062688A1 WO 2023062688 A1 WO2023062688 A1 WO 2023062688A1 JP 2021037593 W JP2021037593 W JP 2021037593W WO 2023062688 A1 WO2023062688 A1 WO 2023062688A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
monitoring
person
monitored
photographing
Prior art date
Application number
PCT/JP2021/037593
Other languages
English (en)
French (fr)
Inventor
浩一 二瓶
祥史 大西
孝法 岩井
康一 川島
玲 山内
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023553764A priority Critical patent/JPWO2023062688A5/ja
Priority to PCT/JP2021/037593 priority patent/WO2023062688A1/ja
Publication of WO2023062688A1 publication Critical patent/WO2023062688A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to a monitoring system, a monitoring method, and a non-transitory computer-readable medium storing a program.
  • Such a monitoring system generally includes imaging devices such as a plurality of monitoring cameras installed at a plurality of locations, and continuously captures images of a monitoring target area.
  • Patent Document 1 in a hospital, a nursing care facility, or the like, an imaging range is captured by an image sensor installed near a user's bed, and when an abnormality of the user is detected from the user's behavior, a specific image is captured. It states that you will be notified. Further, in Japanese Patent Application Laid-Open No. 2002-200000, the movement of the monitored object in the monitoring image is recognized, and it is determined whether or not it is necessary to respond to the movement of the monitored object.
  • a monitoring system when various kinds of processing, such as processing for recognizing the movement of a monitored object, is executed by an arithmetic device placed at a position away from the image capturing device, the monitoring images captured by the plurality of image capturing devices are not relevant. It is sent over the network to the computing device. If all of a plurality of monitoring images are transmitted, there is concern about resource shortages, such as lack of communication resources and an increase in the load on the monitor who monitors the monitoring target based on the monitoring images, resulting in a shortage of human resources.
  • An object of the present disclosure is to provide a non-temporary computer-readable medium storing a monitoring system, a monitoring method, and a program capable of resolving resource shortages.
  • a monitoring system includes: a plurality of photographing means installed at a plurality of locations within a monitoring target area; From a judgment means for judging whether or not the same surveillance target is shown in the images taken by a plurality of shooting means shot in the same time interval, and from the shooting means that shot the images showing the same surveillance target. and control means for selecting at least one photographing means based on a predetermined condition and controlling photographing by the selected photographing means or controlling the supply of images.
  • An information processing method identifies a monitoring target from images captured by a plurality of imaging means installed at a plurality of locations within a monitoring target area, and captures images of the identified monitoring targets in the same time interval. determining whether or not the same surveillance target is shown in the images captured by a plurality of photographing means, and selecting at least one photographing means based on a predetermined condition from the photographing means that photographed the images in which the same surveillance object is shown. to control the capture by the selected capture means or to control the supply of images.
  • a non-transitory computer-readable medium identifies a monitoring target from images taken by a plurality of imaging means installed at a plurality of locations within a monitoring target area, and among the identified monitoring targets, the same It is determined whether or not the same surveillance object is shown in the images taken by a plurality of shooting means during a time interval, and at least based on a predetermined condition, from the shooting means that shot the images showing the same surveillance object. It stores a program that causes a computer to execute a process of selecting one photographing means and controlling the photographing by the selected photographing means or controlling the supply of an image.
  • FIG. 1 is a block diagram showing the configuration of a monitoring system according to an embodiment
  • FIG. 1 is a diagram showing a configuration example of a monitoring system provided with an event detection device according to an embodiment
  • FIG. It is a figure which shows an example of arrangement
  • FIG. 1 is a block diagram showing the configuration of a monitoring system 100 according to an embodiment.
  • a monitoring system 100 according to the embodiment includes photographing means 101 , identifying means 102 and determining means 103 .
  • a plurality of photographing means 101 are installed at a plurality of locations within the monitoring target area, and photograph the monitoring target.
  • the specifying means 102 specifies a monitoring target from images taken by a plurality of shooting means.
  • the determination means 103 determines whether or not the same monitoring target is shown in the images of the plurality of image capturing means captured in the same time interval among the identified monitoring targets.
  • the control means 104 selects at least one photographing means based on a predetermined condition from the photographing means that photographed the images showing the same monitoring target, and controls the photographing by the selected photographing means or controls the photographing of the images. Control supply.
  • FIG. 2 is a diagram showing a configuration example of a monitoring system 100 including the event detection device 10 according to the embodiment.
  • the surveillance system 100 includes an event detection device 10, a plurality of imaging devices 20, and a notification device 30.
  • FIG. 3 is a diagram showing an example of the arrangement of a plurality of imaging devices 20.
  • the plurality of image capturing devices will be collectively referred to as image capturing device 20, and different reference numerals will be referred to when referring to individual image capturing devices.
  • the monitoring system 100 monitors the behavior of patients and care recipients who are monitoring targets using monitoring images in hospitals, nursing care facilities, and the like.
  • the monitoring system 100 grasps the motion of the monitored object by image analysis or the like, and makes a specific notification corresponding to the type of the grasped motion.
  • the objects to be monitored are not limited to people, and include objects that move within the monitoring area, such as cleaning robots and transport robots.
  • An example in which the monitoring system 100 monitors a patient 1 in a hospital will be described below.
  • a medical staff member 2 is a supervisor who monitors the patient 1 .
  • the monitoring system 100 can notify the medical staff 2 of a response request to the patient 1 by outputting a notification corresponding to the comprehended motion of the patient 1 to the notification device 30 .
  • the event detection device 10, the photographing device 20, and the notification device 30 can be arranged at appropriate separate positions.
  • the event detection device 10, the imaging device 20, and the notification device 30 are connected by a network N and communicate in real time.
  • the network N is a communication network such as the Internet, leased line, 5G, LTE.
  • a closed network is formed by a VPN (Virtual Private Network) or the like.
  • monitoring system 100 is not limited to such an arrangement.
  • part of the configuration of the event detection device 10 may be installed in the imaging device 20 .
  • the multiple imaging devices 20 are so-called surveillance cameras, and are installed at multiple locations in the hospital.
  • the imaging device 20 continuously captures a predetermined imaging range (imaging angle of view) at a predetermined imaging rate to generate moving image data composed of a plurality of time-series image data. Note that the photographing device 20 may move the photographing range in a predetermined time.
  • two private rooms 32A and 32B are provided on one side of a corridor 31 provided in the center of the hospital 3, and a shared space 33 and a monitoring room 34 are provided on the other side. ing. Also, at the end of the corridor 31, a staircase 35 is provided for moving from this floor to another floor. A free space 36 is provided between the stairs 35 and the private room 32B.
  • Each of the private rooms 32A and 32B where the patient stays is provided with one imaging device 20, and the common space 33 is provided with two imaging devices 20.
  • the imaging device installed in the private room 32A is 20A
  • the imaging device installed in the private room 32B is 20B
  • the imaging devices provided in the shared space 33 are 20C and 20D.
  • Photographing devices 20E and 20F are provided at the ends of the corridor 31
  • a photographing device 20G is provided in the free space 36
  • a photographing device 20H is provided at the stairs 35.
  • the imaging ranges of the imaging devices 20F, 20G, and 20H are indicated by dashed lines.
  • the imaging range of the imaging device 20F partially overlaps with the imaging range of the imaging device 20G, and the other part overlaps with the imaging range of the imaging device 20H. Therefore, the patient 1 imaged by the imaging devices 20F, 20G, and 20H is included in the images generated by the imaging devices 20F, 20G, and 20H, respectively.
  • a notification device 30 for receiving notifications from the event detection device 10 is installed in the monitoring room 34 where the medical staff 2 stays.
  • the notification device 30 may be a personal computer, a tablet terminal capable of input/output using a touch panel, a smartphone, or the like.
  • the notification device 30 may be a dedicated device, or may be implemented by installing a dedicated application in a general-purpose information terminal.
  • a small information terminal carried by the medical staff 2 outside the monitoring room 34 can also be used as the notification device 30 .
  • FIG. 2 shows logical functional blocks for executing arithmetic processing required for monitoring and arithmetic processing for resolving resource shortages.
  • the event detection device 10 includes an acquisition unit 11, an identification unit 12, a determination unit 13, a control unit 14, a detection unit 15, a calculation unit 16, a notification unit 17, and a storage unit 18, which are shown in the figure. are connected to each other by a bus that does not
  • the event detection device 10 is an arithmetic processing device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the identification unit 12, the determination unit 13, the control unit 14, the detection unit 15, the calculation unit 16, and the notification unit 17 are the identification means, the determination means, the control means, the detection means, the calculation means, and the notification means described in the claims. handle.
  • the storage unit 18 includes a person DB (database) and a risk calculation condition DB.
  • the acquisition unit 11 acquires monitoring images captured by a plurality of imaging devices 20 during monitoring operations.
  • the specifying unit 12 refers to the person DB of the storage unit 18 , detects a monitoring target from images captured by the plurality of imaging devices 20 , and identifies the patient 1 .
  • the person DB for example, the feature amount related to the face image of the patient 1 to be monitored is registered in association with the person ID for identifying each patient 1 .
  • the identification unit 12 can identify the patient 1 by extracting the face area of the person included in the surveillance video and comparing it with the feature amount stored in the person DB.
  • the identification unit 12 is not limited to the example of identifying the patient 1 based on the face image of the patient 1, and may identify the patient 1 based on the body shape, gait, skeleton, etc. of the patient 1, for example.
  • the patient 1 may be specified by combining a plurality of characteristics.
  • the monitoring target can be identified by various known image analysis methods.
  • the specifying unit 12 can be configured using a machine learning type image analysis device having a neural network. Further, it is preferable that the identifying unit 12 simultaneously identifies a plurality of monitoring targets in parallel.
  • the determination unit 13 determines whether or not the same patient 1 among the specified patients 1 appears in the images of the plurality of imaging devices 20 captured in the same time period (same time). As described above, in the example shown in FIG. 3, the same patient 1 is imaged by the imaging devices 20F, 20G, and 20H. The determination unit 13 determines that the image capturing devices 20F, 20G, and 20H are the image capturing means that captured the images in which the same patient 1 is captured.
  • the control unit 14 selects at least one imaging device 20 based on a predetermined condition from the imaging devices 20 that have shot images of the same patient 1, and the selected imaging device 20 control the shooting by or control the supply of images.
  • the predetermined condition is, for example, the orientation of the same patient 1, such as whether the face of the patient 1 is shown in the surveillance video in which the same patient 1 is shown, the whole body is shown, or the patient is facing the front. Or, it can be the range that is reflected.
  • the biological information is information about the living body that can be measured from a person's image, and includes, for example, heart rate, blood pressure, oxygen saturation, and the like.
  • Biological information can be obtained from the surveillance image showing the face of the patient 1 based on the information indicating the state change of the body surface.
  • One example of the information indicating the state change of the body surface is the color change of the body surface based on the patient's blood flow.
  • Each frame of image data obtained by photographing a patient includes changes in the color of the patient's body surface. For example, if the patient 1 is breathing heavily during the monitoring video, the percutaneous arterial oxygen saturation (SpO 2 , hereinafter referred to as oxygen saturation) of the patient 1 can be measured based on the monitoring video.
  • SpO 2 percutaneous arterial oxygen saturation
  • Oxygen saturation is a percentage of how much hemoglobin in the blood is bound to oxygen.
  • the reflected light intensity when light is applied to the body surface such as the face changes with time due to fluctuations in the amount of hemoglobin in blood vessels.
  • the event detection device 10 can estimate SpO2 by analyzing the video. In this manner, the control unit 14 selects at least one imaging device 20 from the imaging means that have shot images in which the same patient 1 is shown, depending on the purpose.
  • Controlling photography includes, for example, controlling the start and stop of photography by the photography device 20, and changing the image quality by controlling the optical zoom and digital zoom provided in the photography device 20, and the like.
  • Controlling the supply of video includes controlling the start and stop of video supply by the imaging device 20, and changing the compression rate of the monitoring video transmitted from the imaging device 20 to the event detection device 10, thereby improving the image quality. change etc. is included.
  • the imaging device 20 normally compresses and encodes the monitoring image in order to reduce the data size when transmitting the monitoring image.
  • By lowering the compression rate of the target area than the compression rate of the non-target area it is possible to reduce the data size of the entire monitoring image while making the target area data with higher image quality than the non-target area. can.
  • the face region (target region) of the patient 1 in the monitoring video can be made higher in image quality than the regions other than the face region. .
  • the control unit 14 selects the imaging device 20H, which is imaging the stairs 35 (cautious area) where there is a risk of falling or falling, from the imaging devices 20F, 20G, and 20H, which have captured images in which the same patient 1 is shown. can be selected.
  • the control unit 14 transmits to the event detection device 10 only the monitoring image of the imaging device 20H installed so as to include such a caution area in the imaging range, and monitors the other imaging devices (imaging devices 20F and 20G).
  • the imaging device 20 can be controlled so as not to transmit the video. This can prevent an increase in network traffic.
  • the control unit 14 controls the imaging device that shot these surveillance images. It is also possible to select both. By selecting a plurality of photographing devices 20 in this way, it is possible to detect staggering in the surveillance video from one photographing device 20 and to measure the oxygen saturation in the surveillance video from the other photographing device 20 .
  • the control unit 14 can control each selected imaging device 20 to perform different processing. That is, one imaging device 20 can perform a process of clipping out only the peripheral region of the patient 1 necessary for detection of stagger from the surveillance image. Further, in the other imaging device 20, the image quality of the face region of the patient 1 can be made higher than that of regions other than the face region in order to measure the oxygen saturation. This enables the medical staff 2 to confirm the condition of the patient 1 more reliably.
  • the control unit 14 stops supplying the monitoring image from the imaging device 20 that captured the image. Control. In other words, only the imaging device 20 that is capturing the image in which the patient 1 performing an action is included in the monitoring image transmits the monitoring image to the event detection device 10 . As a result, it is possible to reduce the amount of monitoring image data transmitted from the imaging device 20 to the event detection device 10, and to save communication resources.
  • the image quality of the other persons in addition to the patient 1 can be made higher than that of the other areas.
  • the detection unit 15 acquires the image after the control unit 14 has controlled the imaging or the supply of the image, and detects the situation of the patient 1 in the image. For example, the detection unit 15 can acquire an image whose compression rate is controlled so that a predetermined target area has higher image quality than areas other than the target area.
  • the situation of the patient 1 detected by the detection unit 15 includes, for example, the movement of the patient 1, such as swaying, entering and exiting a room, and destination. This movement can be detected by various conventionally known image analysis methods.
  • the detection unit 15 may be configured using an image recognition device using deep learning technology.
  • the destination can be guessed based on the installation position of the photographing device 20 and the orientation of the patient's 1 feet.
  • the condition of the patient 1 includes whether there is a medical staff member 2 or a family member accompanying the patient, and biological information such as the above-described heart rate and oxygen saturation level.
  • the calculation unit 16 refers to the risk calculation condition DB in the storage unit 18 and calculates the risk based on conditions preset for the patient 1 and the situation of the patient 1 .
  • the risk calculation condition DB stores, for example, the risk for each situation condition linked to the person ID.
  • FIG. 4 shows an example of the risk calculation condition DB.
  • the risk calculation condition DB stores a combination of symptoms, situation conditions, and risk of each patient 1 for each person ID, which is the identification information of each patient 1 .
  • the degree of risk is individually set for each patient 1 . That is, in the embodiment, the degree of risk for the motion of the patient 1 has different values depending on the symptoms.
  • the patient with severe symptoms has a higher risk value than the patient with mild symptoms (P2).
  • the risk value is set to differ only according to the symptoms of the patient 1, the risk value is set according to two or more characteristics including not only the symptoms but also other factors such as personality. may
  • the risk level is increased, or the destination of the critically ill patient (P1) is an area requiring caution such as stairs. the risk can be increased.
  • different values may be set for the degree of risk depending on whether the patient 1 is in the private room or in the shared space 33 . Note that when the symptoms of the patient 1 are improved, the risk calculation condition DB can be rewritten so that the value of the risk is reduced.
  • the notification unit 17 outputs notification information to a predetermined notification destination based on the degree of risk calculated by the calculation unit 16.
  • the predetermined notification destinations include a notification device 30 installed in the monitoring room 34, a small information terminal carried by the medical staff 2 outside the monitoring room 34, a nurse call system, a nurse station speaker, and the like. included.
  • the notification unit 17 can be used only for limited notification destinations, such as the information terminal carried by the medical staff 2 who is in charge of the specified patient 1, the information terminal carried by the medical staff 2 who is closest to the patient 1, etc. You may output notification information to .
  • the notification information includes the identified patient 1, the location of the patient 1, and the degree of risk.
  • the notification device 30 can output notification information from the notification unit 17 in the form of images, characters, sounds, etc. that can be recognized by the medical staff 2 .
  • the notification device 30 can change the content of the notification according to the degree of risk when the degree of risk is equal to or greater than a predetermined threshold.
  • the content of notification includes the volume of warning sound, the size of display, font, and the like. For example, the higher the risk, the louder the notification device 30 generates a warning sound so that the medical staff 2 can recognize the urgency.
  • the storage unit 18 is a non-volatile storage device such as an HDD (Hard Disk Drive), SSD (Solid State Drive), or flash memory.
  • the storage unit 18 stores a program that implements each function of the components included in the event detection device 10 .
  • Each function of the components included in the event detection device 10 is implemented by the event detection device 10 executing this program.
  • the storage unit 18 may include memories such as RAM (Random Access Memory) and ROM (Read Only Memory). When executing the above programs, the event detection device 10 may execute these programs after reading them onto the memory, or may execute them without reading them onto the memory. In addition, as described above, the storage unit 18 stores the person DB and the degree-of-risk calculation condition DB.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the specifying unit 12 can refer to the person DB of the storage unit 18 to specify the type of person included in the images captured by the plurality of photographing devices 20 .
  • the person DB in addition to the feature amount related to the face image of the patient 1 to be monitored, the feature amount related to the face image of the medical staff 2 such as doctors and nurses, and the face image of the person accompanying the patient 1 is stored. obtain.
  • the specifying unit 12 can classify the recognized person in the image into categories such as "patient”, “medical staff", and "accompanied person". In addition, among the "patients", those with serious symptoms who need to be dealt with by the medical staff 2 in particular can be classified into the type of "people requiring special attention".
  • the control unit 14 can change the image quality of the image captured by the selected image capturing device 20 according to the type of person in the image captured by the image capturing device 20 .
  • the image quality of a person of a type other than patient 1 can be lowered to that of patient 1 and transmitted.
  • the amount of data can be reduced and tracking of the patient 1 can be facilitated.
  • the image quality can be lowered and transmitted in the same manner as described above.
  • the monitoring target area in the monitoring image of the imaging device 20 installed in the corridor is more likely than the other areas. High image quality can be obtained. This makes it possible to further reflect the detailed features of a plurality of patients and improve the accuracy of human recognition.
  • the detection unit 15 can detect whether the patient 1 is with another person. For example, the detection unit 15 can determine that the patient 1 and another person are together when the patient 1 and another person are within a predetermined distance for a predetermined time.
  • the calculator 16 can lower the risk when the patient 1 is with other people. In addition, it is also possible to change the amount of decrease in the degree of risk calculated by the calculator 16 according to the type of other person who is with the patient 1 .
  • FIG. 5 is a flow diagram explaining an example of the flow of the monitoring method according to the embodiment.
  • the identifying unit 12 identifies the patient 1 from surveillance images captured by a plurality of imaging devices 20 installed at a plurality of locations within the monitored area (S11). Then, among the specified patients 1, it is determined whether or not the same patient 1 appears in the monitoring images of a plurality of imaging devices 20 captured in the same time period (S12).
  • the process ends. If the same patient 1 is not shown (S12, NO), the process ends. If the same patient 1 is captured (S12, YES), at least one imaging device 20 is selected based on a predetermined condition from the imaging devices 20 that captured the monitoring video in which the same monitoring target is captured. The photographing by the photographing device 20 is controlled or the supply of images is controlled (S13).
  • the imaging device 20 transmits to the event detection device 10 a surveillance image in which a specific region (for example, a face region) of the same patient 1 has a higher image quality than other regions.
  • a specific region for example, a face region
  • this reduces communication resources and reduces the amount of data necessary for measuring biometric information. Therefore, it is possible to obtain a region with higher image quality than other regions, and to measure biometric information with high reliability.
  • the detection unit 15 acquires the image after the control unit 14 controls the shooting or the supply of the image, and The situation of the monitored person is detected (S14). Then, the degree of risk is calculated based on the condition preset according to the patient 1 and the situation of the monitoring target person patient 1 (S15). Then, based on the calculated degree of risk, notification information is output to a predetermined notification destination (S16). As described above, highly reliable biological information can be measured, so that appropriate treatment for the person can be provided and the workload of the medical staff 2 can be reduced.
  • At least one monitoring image captured by the imaging device 20 that captures the same monitoring target is captured based on a predetermined condition.
  • each functional block that performs various processes described in the drawings can be configured with a processor, memory, and other circuits. Moreover, it is also possible to implement the above-described processing by causing a processor to execute a program. Therefore, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and are not limited to either one.
  • Non-transitory computer readable media include various types of tangible storage media.
  • Examples of non-transitory computer-readable media include magnetic recording media (e.g., flexible discs, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/W, semiconductor memory (eg mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • the program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.
  • (Appendix 1) a plurality of photographing means installed at a plurality of locations within a monitoring target area; an identifying means for identifying a monitoring target from images captured by a plurality of said capturing means; determination means for determining whether or not the same monitoring target is shown in images taken by a plurality of imaging means taken in the same time interval, among the identified monitoring targets; Control for selecting at least one photographing means based on a predetermined condition from the photographing means that photographed images showing the same surveillance target, and controlling photographing by the selected photographing means or controlling the supply of images.
  • means and A surveillance system comprising: (Appendix 2) The control means controls the selected photographing means so as to change the image quality of the image when the image includes a target to be monitored. 1.
  • the identifying means identifies a type of person included in the video, 2.
  • the control means when transmitting the image captured by the image capturing means, controls the compression rate of a target area including the monitoring target in the image so as to be lower than the compression rate of the area other than the target area. Make the area have higher image quality than the area other than the target area, 4.
  • the control means selects at least one photographing means according to the surrounding environment of the monitoring target within the photographing range photographed by each of the plurality of photographing means, controlling to transmit only the video shot by the selected shooting means;
  • the monitoring system according to any one of Appendices 1-4.
  • the control means controls to stop the supply of the image from the image capturing means that captured the image when the image does not include an object to be monitored and/or when the image does not move.
  • Appendix 7) When a plurality of photographing means are selected, the control means controls the selected photographing means to perform different processing. 7.
  • the monitoring system according to any one of Appendices 1-6.
  • a detection means for acquiring an image after the control means has controlled the shooting or after the supply of the image has been controlled, and for detecting the situation of the person to be monitored in the image; calculation means for calculating a degree of risk based on a condition preset according to the person to be monitored and the situation of the person to be monitored; notification means for outputting notification information to a predetermined notification destination based on the degree of risk; further comprising The monitoring system according to any one of Appendices 1-7. (Appendix 9) The monitoring system according to appendix 8, wherein the control means changes the image quality according to the situation of the person to be monitored in the video captured by the selected imaging means.
  • the detection means detects whether the person to be monitored is with another person, the calculation means reduces the risk when the monitored person is with another person; 10.
  • a monitoring system according to appendix 8 or 9. The calculation means changes the amount of reduction in the degree of risk according to the type of the other person. 11. The monitoring system according to Appendix 10.
  • (Appendix 12) Identifying an object to be monitored from images taken by a plurality of photographing means installed at a plurality of locations within the area to be monitored; Determining whether or not the same monitoring target is shown in the images of a plurality of shooting means shot in the same time interval from among the identified monitoring targets, Selecting at least one photographing means based on a predetermined condition from the photographing means that photographed images showing the same surveillance target, and controlling photographing by the selected photographing means or controlling the supply of the image; Monitoring method. (Appendix 13) if the video includes a target to be monitored, controlling the selected imaging means to change the image quality of the video; The monitoring method according to appendix 12. (Appendix 14) Identifying the type of person included in the video, 13.
  • Appendix 15 When transmitting the image photographed by the photographing means, the target area including the monitoring target in the image is controlled to have a lower compression rate than the area other than the target area, and the target area is transferred to the area other than the target area. The image quality is higher than the area of , 14.
  • the monitoring method according to appendix 12 or 13. selecting at least one photographing means according to the surrounding environment of the monitored object within the photographing range photographed by each of the plurality of photographing means; controlling to transmit only the video shot by the selected shooting means; The monitoring method according to any one of Appendices 12 to 15.
  • Appendix 17 If the video does not include an object to be monitored and/or if there is no movement in the video, controlling to stop the supply of the video from the shooting means that shot the video; 17. The monitoring method according to any one of Appendices 12-16. (Appendix 18) When multiple shooting means are selected, controlling the selected multiple shooting means to perform different processing, 18. The monitoring method according to any one of Appendices 12-17.
  • Appendix 19 If you identify a person to be monitored as a monitoring target, Acquiring the image after the shooting is controlled or the supply of the image is controlled, and detects the situation of the monitored person who is the monitoring target in the image, calculating a degree of risk based on a condition preset according to the person to be monitored and the situation of the person to be monitored; outputting notification information to a predetermined notification destination based on the degree of risk; 19.
  • the monitoring method according to any one of Appendices 12-18. (Appendix 20) 20.
  • Appendix 23 Identifying an object to be monitored from images taken by a plurality of photographing means installed at a plurality of locations within the area to be monitored; Determining whether or not the same monitoring target is shown in the images of a plurality of shooting means shot in the same time interval from among the identified monitoring targets, Selecting at least one photographing means based on a predetermined condition from the photographing means that photographed images showing the same surveillance target, and controlling photographing by the selected photographing means or controlling the supply of the image;
  • a non-transitory computer-readable medium storing a program that causes a computer to execute a process.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)

Abstract

本開示に係る監視システム(100)は、監視対象領域内の複数の箇所に設置された複数の撮影手段(101)と、複数の前記撮影手段により撮影された映像から監視対象を特定する特定手段(102)と、特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定する判定手段(103)と、同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する制御手段(104)とを備える。

Description

監視システム、監視方法、プログラムが格納された非一時的なコンピュータ可読媒体
 本開示は、監視システム、監視方法、プログラムが格納された非一時的なコンピュータ可読媒体に関する。
 監視対象の動作を監視画像により監視する種々の監視システムが提案されている。このような監視システムでは、一般に、複数の箇所に設置された複数の監視カメラ等の撮像装置を備え、監視対象領域が連続的に撮影される。
 例えば、特許文献1では、病院や介護施設等において、利用者のベッド周辺に設置された画像センサで撮影範囲内を撮影し、利用者の挙動から利用者の異常が検知された場合に特定の通知をすることが記載されている。また、特許文献2では、監視画像中の監視対象の動作を認識して、監視対象の動作に対する対応の要否を決定している。
特開2016-045573号公報 特開2020-194493号公報
 このような監視システムにおいて、撮影装置から離れた位置に配置された演算装置で監視対象の動作を認識する処理等の各種処理が実行される場合、複数の撮像装置により撮影された監視画像は該演算装置にネットワークを介して送信される。複数の監視画像をすべて送信すると、通信リソースの不足や、監視画像に基づいて監視対象を監視する監視者の負荷が高くなり、人的なリソースが不足するといった、リソース不足が懸念される。
 本開示の目的は、リソース不足の解消が可能な、監視システム、監視方法及びプログラムが格納され非一時的なコンピュータ可読媒体を提供することにある。
 一態様に係る監視システムは、監視対象領域内の複数の箇所に設置された複数の撮影手段と、複数の前記撮影手段により撮影された映像から監視対象を特定する特定手段と、特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定する判定手段と、同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する制御手段とを備えるものである。
 一態様に係る情報処理方法は、監視対象領域内の複数の箇所に設置された複数の撮影手段により撮影された映像から監視対象を特定し、特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定し、同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する。
 一態様に係る非一時的なコンピュータ可読媒体は、監視対象領域内の複数の箇所に設置された複数の撮影手段により撮影された映像から監視対象を特定し、特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定し、同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する処理をコンピュータに実行させるプログラムが格納されたものである。
 上述の態様によれば、リソース不足の解消が可能な、監視システム、監視方法及びプログラムが格納された非一時的なコンピュータ可読媒体を提供ことができる。
実施形態に係る監視システムの構成を示すブロック図である。 実施形態に係る事象検出装置を備えた監視システムの構成例を示す図である。 複数の撮影装置の病院内における配置の一例を示す図である。 危険度算出条件DBの一例を示す図である。 実施形態に係る監視方法の流れの一例を説明するフロー図である。
 以下、図面を参照して本開示の実施形態について説明する。なお、以下の記載及び図面は、説明の明確化のため、適宜、省略及び簡略化がなされている。また、以下の各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。また、以下で示す具体的な数値などは、本開示の理解を容易とするための例示にすぎず、これに限定されるものではない。
 実施形態は、監視対象の動作を監視映像により監視する種々の監視システムに関する。図1は、実施形態に係る監視システム100の構成を示すブロック図である。図1に示すように、実施形態に係る監視システム100は、撮影手段101、特定手段102、判定手段103を備える。
 撮影手段101は、監視対象領域内の複数の箇所に複数設置されており、監視対象を撮影する。特定手段102は、複数の撮影手段により撮影された映像から監視対象を特定する。判定手段103は、特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定する。制御手段104は、同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する。
 このように、同一の監視対象が映っている映像を撮影した撮影手段のうち、選択された少なくとも1つの撮影手段による撮影を制御するか又は映像の供給を制御することで、リソース不足の解消を可能とすることができる。
 次に、図2、3を参照して、実施形態に係る監視システム100の具体的な例について説明する。図2は、実施形態に係る事象検出装置10を含む監視システム100の構成例を示す図である。図2に示すように、監視システム100は、事象検出装置10と、複数の撮影装置20と、通知装置30とを含む。図3は、複数の撮影装置20の配置の一例を示す図である。以下の説明では、複数の撮影装置をまとめて撮影装置20と呼び、個々の撮影装置に言及する場合はそれぞれ異なる符号を参照する。
 図2に示す例では、監視システム100は、病院や介護施設等において、監視対象である患者や被介護者の挙動を監視映像により監視する。監視システム100は、監視対象の動作を画像解析等により把握して、把握した動作の種類に対応する特定の通知を行う。
 なお、監視対象としては、人に限定されず、掃除ロボットや搬送ロボット等の監視領域内を移動する物体を含む。以下では、監視システム100が、病院内において患者1を監視対象とする例について説明する。また、患者1を監視する監視者を医療スタッフ2とする。監視システム100は、把握した患者1の動作に対応する通知を通知装置30に出力することで、医療スタッフ2に該患者1に対する対応要求を知らせることができる。
 監視システム100では、事象検出装置10と撮影装置20と通知装置30を、それぞれ適切な離れた位置に配置することができる。例えば、事象検出装置10と撮影装置20と通知装置30とはネットワークNで接続され、リアルタイムで通信を行う。ここで、ネットワークNは、インターネット、専用線、5G、LTE等の通信ネットワークである。インターネットなどの公衆網の場合、VPN(Virtual Private Network)等で閉域網が形成されていることが好ましい。ただし、監視システム100は、このような配置に限定されない。例えば、事象検出装置10の一部の構成を撮影装置20内に搭載してもよい。
 複数の撮影装置20は、所謂、監視カメラであり、病院内の複数の箇所にそれぞれ設置される。撮影装置20は、所定の撮影範囲(撮影画角)を所定の撮影レートで連続的に撮影して、時系列の複数の画像データによって構成される動画データを生成する。なお、撮影装置20は、所定の時間で撮影範囲を移動させるようにしてもよい。
 ここで、図3を参照して、複数の撮影装置20の配置の一例について説明する。図3に示す例では、病院3内の中央に設けられた廊下31をはさんで一方の側に2つの個室32A、32Bが設けられ、他方の側に共有スペース33と監視室34が設けられている。また、廊下31の端には、このフロアから他のフロアへ移動するための階段35が設けられている。階段35と個室32Bの間にはフリースペース36が設けられている。
 患者が滞在する各個室32A、32Bにはそれぞれ1つの撮影装置20が設けられており、共有スペース33には2つの撮影装置20が設けられている。なお、説明のため、個室32Aに設置された撮影装置を20A、個室32Bに設置された撮影装置を20B、共有スペース33に設けられた撮影装置を20C、20Dとする。また、廊下31の端部にはそれぞれ撮影装置20E、20Fが設けられ、フリースペース36には撮影装置20Gが設けられ、階段35には撮影装置20Hが設けられている。
 図3において、撮影装置20F、20G、20Hの撮影範囲が破線で示されている。図からわかるように、撮影装置20Fの撮影範囲は、その一部が撮影装置20Gの撮影範囲と重複しており、また他の一部が撮影装置20Hの撮影範囲と重複している。したがって、撮影装置20F、20G、20Hで撮影される患者1は、撮影装置20F、20G、20Hにてそれぞれ生成される画像に含まれることとなる。
 医療スタッフ2が滞在する監視室34には、事象検出装置10からの通知を受信する通知装置30が設置されている。通知装置30は、パーソナルコンピュータ、タッチパネルによる入出力が可能なタブレット端末、スマートフォン等であり得る。通知装置30は、専用機であってもよく、汎用の情報端末に専用のアプリケーションをインストールすることにより実現されてもよい。また、監視システム100において、監視室34以外の場所にいる医療スタッフ2が携帯する小型の情報端末についても、通知装置30として使用できるように構成されることが好ましい。
 図2では、事象検出装置10のハードウェア構成のほか、監視に必要な演算処理やリソース不足を解消するための演算処理を実行する、論理的な機能ブロックが示されている。図2に示すように、事象検出装置10は、取得部11、特定部12、判定部13、制御部14、検出部15、算出部16、通知部17、記憶部18を備え、これらは図示しないバスにより相互に接続されている。事象検出装置10は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の演算処理装置である。
 特定部12、判定部13、制御部14、検出部15、算出部16、通知部17は、特許請求の範囲に記載の特定手段、判定手段、制御手段、検出手段、算出手段、通知手段に対応する。記憶部18は、人物DB(データベース)と、危険度算出条件DBとを含む。
 取得部11は、監視動作中に、複数の撮影装置20が撮影した監視映像を取得する。特定部12は、記憶部18の人物DBを参照して、複数の撮影装置20により撮影された映像から監視対象を検出し、患者1を特定する。人物DBには、例えば、監視対象である患者1の顔画像に関する特徴量が、各患者1を識別するための人物IDと紐づけて登録されている。
 この場合、特定部12は、監視映像に含まれる人物の顔領域を抽出して、人物DBに格納されている特徴量と比較して患者1を特定することができる。ただし、特定部12は、患者1の顔画像に基づいて患者1を特定する例に限定されず、例えば、患者1の体形や歩容、骨格等に基づいて患者1を特定してもよい。また、複数の特徴を組み合わせて、患者1を特定してもよい。
 なお、監視対象の特定は、公知の様々な画像解析方法によることができる。例えばニューラルネットワークを有する機械学習型の画像解析装置を用いて特定部12を構成することができる。また、特定部12は、複数の監視対象を同時に並行して特定することが好ましい。
 判定部13は、特定された患者1のうち、同じ時間区間(同時刻)に撮影された複数の撮影装置20の映像に同一の患者1が映っているか否かを判定する。上述したように、図3に示す例では、撮影装置20F、20G、20Hで同一の患者1が撮影されている。判定部13は、撮影装置20F、20G、20Hを、同一の患者1が映っている映像を撮影した撮影手段として判定する。
 上述の通り、複数の撮影装置20による監視映像のすべてを事象検出装置10に送信すると、ネットワーク負荷が高くなり、通信リソース不足に陥る恐れがある。また、従量課金型のネットワークの場合には、通信コストが増大する。そこで、実施形態では、制御部14により、同一の患者1が映っている映像を撮影した撮影装置20から、所定の条件に基づいて少なくとも1つの撮影装置20を選択し、選択された撮影装置20による撮影を制御するか又は映像の供給を制御する。
 所定の条件とは、例えば、同一の患者1が映っている監視映像に、患者1の顔が映っているか、全身が映っているか、又は、正面を向いているか等、同一の患者1の向きや、映っている範囲とすることができる。
 例えば、患者1の全身が映っている監視映像では、患者1のふらつきを検出することができる。また、例えば、患者1の顔が映っている監視映像では、当該患者の生体情報を測定することができる。
 ここで、生体情報とは、人の画像から測定可能な生体に関する情報であり、例えば、心拍数、血圧値、酸素飽和度等があげられる。患者1の顔が映っている監視映像から、体表の状態変化を示す情報に基づき、生体情報を得ることができる。
 体表の状態変化を示す情報の一例として、例えば、患者の血液の流れに基づく体表の色の変化がある。患者を撮影した映像データの各フレームには、患者の体表の色の変化が含まれる。例えば、監視映像中の患者1の呼吸が荒い場合は、監視映像に基づいて、患者1の経皮的動脈血酸素飽和度(SpO、以下、酸素飽和度とする)を測定することができる。
 酸素飽和度は、血中のヘモグロビンが酸素とどのくらい結合しているかをパーセントで表したものである。顔などの体表に光を当てたときの反射光強度は、血管内のヘモグロビン量の変動により時間的に変化する。事象検出装置10は、映像を解析することでSpOを推定することができる。このように、制御部14は、目的に応じて、同一の患者1が映っている映像を撮影した撮影手段から少なくとも1つの撮影装置20を選択する。
 そして、制御部14は、選択された撮影装置20による撮影を制御するか又は映像の供給を制御する。「撮影を制御する」には、例えば撮影装置20の撮影の開始及び停止の制御や、撮影装置20が備える光学ズームやデジタルズームの制御による、画質を変更すること等が含まれる。「映像の供給を制御する」には、撮影装置20による映像の供給の開始、停止の制御や、撮影装置20から事象検出装置10へ送信する監視映像の圧縮率を変化させることで、画質を変更すること等が含まれる。
 撮影装置20は、通常、監視画像を送信する際に、データサイズを小さくするために、監視画像を圧縮符号化する。対象領域の圧縮率を対象領域以外の領域の圧縮率よりも下げることで、監視画像全体のデータサイズを小さくしつつ、対象領域が対象領域以外の領域よりも高画質であるデータとすることができる。例えば、患者1の酸素飽和度を測定する場合、圧縮率を変更することで、監視映像中の患者1の顔領域(対象領域)を、顔領域以外の領域よりも高画質とすることができる。
 これにより、全ての映像データを圧縮せずに伝送する場合や全ての映像データを一定の圧縮率で圧縮して伝送する場合と比較して、通信リソースを節約しながら、生体情報の測定に必要な領域を他の領域よりも高画質で取得することができ、信頼度の高い生体情報を測定することが可能となる。
 所定の条件の他の例として、複数の撮影装置20それぞれが撮影する撮影範囲内の患者1の周囲の環境を挙げることができる。例えば、制御部14は、同一の患者1が映っている映像を撮影した撮影装置20F、20G、20Hから、転倒、転落のおそれのある階段35(要注意エリア)を撮影している撮影装置20Hを選択することができる。
 制御部14は、撮影範囲にこのような要注意エリアを含むように設置された撮影装置20Hの監視映像のみを事象検出装置10に送信し、他の撮影装置(撮影装置20F、20G)の監視映像を送信しないように、撮影装置20を制御することができる。これにより、ネットワークのトラヒックの増大を防止することができる。
 なお、制御部14は、一方の監視映像に患者1の全身が映っており、他の監視映像に同一の患者1の顔領域が映っている場合には、これらの監視映像を撮影した撮影装置20の両方を選択することも可能である。このように複数の撮影装置20を選択することで、一方の撮影装置20による監視映像でふらつき検知を行い、他方の撮影装置20による監視映像で酸素飽和度を測定することができる。
 この場合、制御部14は、複数の撮影装置20を選択した場合、選択された各撮影装置20に異なる処理を行うように制御することができる。すなわち、一方の撮影装置20では、監視映像から、ふらつき検出に必要な患者1の周辺領域のみを切り抜く処理を行うことができる。また、他方の撮影装置20では、酸素飽和度を測定するために、患者1の顔領域を顔領域以外の領域よりも高画質とすることができる。これにより、医療スタッフ2が患者1の状態をより確実に確認することが可能となる。
 また、制御部14は、監視映像に患者1が含まれていない場合、及び/又は、監視映像に動きがない場合、該映像を撮影した撮影装置20からの監視映像の供給を停止するように制御する。すなわち、監視画像に動作を行っている患者1が含まれている映像を撮影している撮影装置20のみが、監視画像を事象検出装置10へと送信する。これにより、撮影装置20から事象検出装置10へ送信される監視画像のデータ量を減らすことができ、通信リソースを節約することが可能となる。また、選択された撮影装置20の監視映像中に患者1以外の人物が映っている場合には、患者1に加えて他の人物についても、その他の領域よりも高画質にすることができる。
 ところで、病院3内において、患者1が注意が必要な状況に置かれた場合、自動でそれを検知し、医療スタッフ2が迅速に対処できるようにしたいというニーズがある。注意が必要な状況とは、例えば、患者が体調不良でふらついた場合や、要注意エリアに行った場合、付き添いが必要な患者1が単独で行動した場合等があげられる。
 しかしながら、患者1によって症状や性格等の特性は異なるため、患者1毎にその状況に置かれた場合の危険の程度は異なる。患者1にとって危険の程度が低い場合にも、医療スタッフ2が画一的に発せられる通知に対して逐一対応をするようにすると、医療スタッフ2の業務負荷が高くなり、人的リソースの不足が懸念される一方、患者にとっても心理的負荷が高くなる。
 そこで、人的リソースの不足を解消するための構成について、以下に説明する。検出部15は、制御部14により撮影が制御されたか、又は映像の供給が制御された後の映像を取得し、該映像中の患者1の状況を検出する。例えば、検出部15は、所定の対象領域が対象領域以外の領域よりも高画質となるように、圧縮率を制御された映像を取得することができる。
 検出部15が検出する患者1の状況とは、例えば、患者1のふらつき、部屋の出入り、行先等、患者1の動作が含まれる。この動作の検出は、従来公知の様々な画像解析方法によることができる。例えば、検出部15は、ディープラーニング技術を用いた画像認識装置を用いて構成され得る。
 また、行先は、撮影した撮影装置20の設置位置と、患者1の足の向きとに基づいて推測することができる。さらに、患者1の状況には、医療スタッフ2や家族等の付き添いの人が存在するか、上述した心拍数や酸素飽和度等の生体情報等も含まれる。
 算出部16は、患者1に応じて予め設定された条件と患者1の状況とに基づいて、記憶部18の危険度算出条件DBを参照して、危険度を算出する。危険度算出条件DBには、例えば、人物IDに紐づけた各状況条件に対する危険度が格納されている。図4に、危険度算出条件DBの一例を示す。
 図4に示すように、危険度算出条件DBには、各患者1の識別情報である人物ID毎に、各患者1の症状、状況条件、危険度の組み合わせが格納されている。危険度は、患者1毎にそれぞれ個別に設定されている。すなわち、実施形態では、患者1の動作に対する危険度を、その症状に応じて異なる値としている。
 例えば、同じ「ふらつき」という状況条件であっても、重篤な症状である患者(P1)の方が、軽症である患者(P2)よりも危険度の値が高い。なお、患者1の症状のみに応じて危険度の値が異なるようにしているが、症状のみではなく性格等の他の要因を含め、2つ以上の特性に応じて危険度の値を設定してもよい。
 例えば、重篤な症状である患者(P1)が部屋から出て所定時間部屋に戻ってこない場合は危険度を高くしたり、重篤患者(P1)の行先が階段等の要注意エリアである場合は危険度を高くすることができる。また、危険度の値は、患者1が個室にいる場合と、共有スペース33にいる場合で、それぞれ異なる値が設定されていてもよい。なお、患者1の症状が改善した場合には、危険度の値が小さくなるように、危険度算出条件DBを書き換えることができる。
 通知部17は、算出部16にて算出された危険度に基づいて、所定の通知先に通知情報を出力する。所定の通知先には、監視室34に設置された通知装置30や、監視室34以外の場所にいる医療スタッフ2が携帯する小型の情報端末の他、ナースコールシステム、ナースステーションのスピーカ等が含まれる。また、通知部17は、特定された患者1を担当している医療スタッフ2が携帯する情報端末や、当該患者1の最も近くにいる医療スタッフ2が携帯する情報端末等、限定した通知先のみに通知情報を出力してもよい。
 通知情報には、特定した患者1、患者1がいる場所及び危険度が含まれる。通知装置30は、通知部17からの通知情報を医療スタッフ2が認知可能な映像・文字・音声等で出力することができる。通知装置30は、危険度が所定の閾値以上である場合、危険度に応じて通知内容を異ならせることができる。通知内容としては、警告音の大きさ、表示の大きさ、フォント等があげられる。例えば、危険度が高いほど、緊急性が医療スタッフ2に認識されるように、通知装置30が大きな警告音を発生する。
 このように、患者1の特性を考慮した危険度に応じて通知内容を変更することで、通知が画一的に発せられる場合と比較すると、医療スタッフ2の負担を少なくすることができる。
 記憶部18は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等の不揮発性記憶装置である。記憶部18は、事象検出装置10が備える構成要素の各機能を実現するプログラムを記憶している。事象検出装置10がこのプログラムを実行することで、事象検出装置10が備える構成要素の各機能が実現される。
 記憶部18は、RAM(Random Access Memory)やROM(Read Only Memory)等のメモリを含んでいてもよい。事象検出装置10は、上記プログラムを実行する際、これらのプログラムをメモリ上に読み出してから実行しても良いし、メモリ上に読み出さずに実行しても良い。また、上述のように記憶部18には、人物DB、危険度算出条件DBが格納される。
 また、特定部12は、記憶部18の人物DBを参照して、複数の撮影装置20により撮影された映像中に含まれる人物の種別を特定することができる。人物DBには、監視対象である患者1の顔画像に関する特徴量に加えて、医師や看護師等の医療スタッフ2の顔画像や、患者1の付き添いの人の顔画像に関する特徴量が格納され得る。特定部12は、認識した映像中の人物を、例えば、「患者」、「医療スタッフ」「付き添いの人」といった種別に分類することができる。また、「患者」のうち、特に医療スタッフ2による対応が必要である、症状が重篤な人等は、「要注意人物」の種別に分類することができる。
 なお、特定部12による人物の種別の特定方法は、公知の様々な方法によることができ、例えば、映像中の人物を服装や姿勢、歩容等に基づいて特定することも可能である。制御部14は、選択された撮影装置20の映像中の人物の種別に応じて、該撮影装置20で撮影された映像の画質を変更することができる。
 選択された撮影装置20から映像を送信する際には、患者1以外の種別の人物の画質を、患者1よりも低下させて送信することができる。患者1以外の種別の人物を患者1よりも画質を低下させて送信することで、データ量を低減することができるとともに、患者1のトラッキングを容易にすることができる。また、患者であっても顔画像や姿勢、歩き方などから要注意人物でないことが確認できた場合には、上記と同様に画質を低下させて送信することができる。
 なお、選択された撮影装置20のうち、転倒の多い階段等の要注意エリアを撮影している撮影装置から映像を配信する際には、要注意人物でなくてもすべての患者1をその周囲よりも高画質にすることができる。また、患者1が普段と異なる場所にいる場合にも同様に、要注意人物でなくてもすべての患者1をその周囲よりも高画質にすることができる。
 また、監視対象を特定するために用いる監視対象の体形や歩容等の情報を収集するために、例えば、廊下に設置した撮影装置20の監視映像中の監視対象の領域をその他の領域よりも高画質とすることができる。これにより、複数の患者の詳細な特徴を一層反映して、人物の認識精度を向上させることができる。
 また、検出部15は、患者1他の人物と一緒にいるか否かを検出することができる。検出部15は、例えば、患者1と他の人物とが所定の時間、所定の距離内にいる場合に、患者1と他の人物が一緒にいると判断することができる。算出部16は、患者1が他の人物と一緒にいる場合、危険度を下げることが可能である。また、患者1と一緒にいる他の人物の種別に応じて算出部16で算出される危険度の下げ幅を変えることもできる。
 例えば、患者1が医療スタッフ2と一緒にいる場合には、患者1が危険な状況になったとしても、医療スタッフ2が状況をすぐに確認して、患者1に対応することができるため、危険度を通知装置30に対して通知情報を出力しないレベルとする下げ幅に設定することができる。一方、患者1が付き添いの人と一緒にいる場合には、医療スタッフ2と一緒にいる場合の危険度の下げ幅よりも少ない下げ幅とすることができる。
 ここで、図5を参照して、実施形態に係る監視方法について説明する。図5は、実施形態に係る監視方法の流れの一例を説明するフロー図である。まず、特定部12は、監視対象領域内の複数の箇所に設置された複数の撮影装置20により撮影された監視映像から患者1を特定する(S11)。そして、特定された患者1のうち、同じ時間区間に撮影された複数の撮影装置20の監視映像に同一の患者1が映っているか否かを判定する(S12)。
 同一の患者1が映っていない場合(S12、NO)、処理は終了する。同一の患者1が映っている場合(S12、YES)、同一の監視対象が映っている監視映像を撮影した撮影装置20から、所定の条件に基づいて少なくとも1つの撮影装置20を選択し、選択された撮影装置20による撮影を制御するか又は映像の供給を制御する(S13)。
 例えば、撮影装置20は、当該同一の患者1の特定領域(例えば顔領域)が他の領域よりも高画質にした監視映像を、事象検出装置10に送信する。これにより、全ての映像データを圧縮せずに伝送する場合や全ての映像データを一定の圧縮率で圧縮して伝送する場合と比較して、通信リソースを節約しながら、生体情報の測定に必要な領域を他の領域よりも高画質で取得することができ、信頼度の高い生体情報を測定することが可能となる。
 また、監視対象として人物である患者1が特定された場合、検出部15は、制御部14により撮影が制御されたか、又は映像の供給が制御された後の映像を取得し、該映像中の監視対象人物の状況を検出する(S14)。そして、患者1に応じて予め設定された条件と、前記監視対象人物患者1の状況とに基づいて、危険度を算出する(S15)。そして、算出された危険度に基づいて、所定の通知先に通知情報を出力する(S16)。上述の通り、信頼度の高い生体情報を測定することができるため、該人物にとって適切な処置を提供するとともに、医療スタッフ2の業務負荷を軽減することが可能となる。
 以上説明したように、実施形態によれば、監視画像を撮影する複数の撮影装置のうち、同一の監視対象が映っている監視映像を撮影した撮影装置20から、所定の条件に基づいて少なくとも1つの撮影装置20を選択して、選択された撮影装置20の撮影や映像の送信を制御することで、リソース不足を解消することが可能となる。
 なお、図面に記載された様々な処理を行う各機能ブロックは、ハードウェア的には、プロセッサ、メモリ、その他の回路で構成することができる。また、上述した処理を、プロセッサにプログラムを実行させることにより実現することも可能である。従って、これらの機能ブロックは、ハードウェアのみ、ソフトウェアのみ、又はそれらの組合せによっていろいろな形で実現でき、いずれかに限定されるものではない。
 上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、実施形態を参照して本開示を説明したが、本開示は上述した実施形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
 また、上述した実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 監視対象領域内の複数の箇所に設置された複数の撮影手段と、
 複数の前記撮影手段により撮影された映像から監視対象を特定する特定手段と、
 特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定する判定手段と、
 同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する制御手段と、
 を備える、監視システム。
 (付記2)
 前記制御手段は、前記映像に監視対象が含まれている場合、該映像の画質を変更するように選択された撮影手段を制御する、
 付記1に記載の監視システム。
 (付記3)
 前記特定手段は、前記映像に含まれる人物の種別を特定し、
 前記制御手段は、選択された撮影手段の映像中の人物の種別に応じて画質を変更する、付記2に記載の監視システム。
 (付記4)
 前記制御手段は、前記撮影手段が撮影した映像を送信する際に、該映像中の監視対象が含まれる対象領域の圧縮率を対象領域以外の領域よりも低くするように制御して、該対象領域を対象領域以外の領域よりも高画質とする、
 付記2又は3に記載の監視システム。
 (付記5)
 前記制御手段は、複数の前記撮影手段それぞれが撮影する撮影範囲内の前記監視対象の周囲の環境に応じて、少なくとも1つの撮影手段を選択し、
 前記選択された撮影手段により撮影された映像のみを送信するように制御する、
 付記1~4のいずれか1項に記載の監視システム。
 (付記6)
 前記制御手段は、前記映像に監視対象が含まれていない場合及び/又は前記映像に動きがない場合、該映像を撮影した撮影手段からの前記映像の供給を停止するように制御する、
 付記1~5のいずれか1項に記載の監視システム。
 (付記7)
 前記制御手段は、複数の撮影手段を選択した場合、選択された複数の撮影手段に異なる処理を行うように制御する、
 付記1~6のいずれか1項に記載の監視システム。
 (付記8)
 前記特定手段が監視対象として監視対象人物を特定した場合、
 前記制御手段により撮影が制御されたか、又は映像の供給が制御された後の映像を取得し、該映像中の前記監視対象人物の状況を検出する検出手段と、
 前記監視対象人物に応じて予め設定された条件と、前記監視対象人物の状況とに基づいて、危険度を算出する算出手段と、
 前記危険度に基づいて、所定の通知先に通知情報を出力する通知手段と、
 をさらに備える、
 付記1~7のいずれか1項に記載の監視システム。
 (付記9)
 前記制御手段は、選択された撮影手段の映像中の前記監視対象人物の状況に応じて画質を変更する、付記8に記載の監視システム。
 (付記10)
 前記検出手段は、前記監視対象人物が他の人物と一緒にいるか否かを検出し、
 前記算出手段は、前記監視対象人物が他の人物と一緒にいる場合、前記危険度を下げる、
 付記8又は9に記載の監視システム。
 (付記11)
 前記算出手段は、前記他の人物の種別に応じて前記危険度の下げ幅を変える、
 付記10に記載の監視システム。
 (付記12)
 監視対象領域内の複数の箇所に設置された複数の撮影手段により撮影された映像から監視対象を特定し、
 特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定し、
 同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する、
 監視方法。
 (付記13)
 前記映像に監視対象が含まれている場合、該映像の画質を変更するように選択された撮影手段を制御する、
 付記12に記載の監視方法。
 (付記14)
 前記映像に含まれる人物の種別を特定し、
 選択された撮影手段の映像中の人物の種別に応じて画質を変更する、付記12に記載の監視方法。
 (付記15)
 前記撮影手段が撮影した映像を送信する際に、該映像中の監視対象が含まれる対象領域の圧縮率を対象領域以外の領域よりも低くするように制御して、該対象領域を対象領域以外の領域よりも高画質とする、
 付記12又は13に記載の監視方法。
 (付記16)
 複数の前記撮影手段それぞれが撮影する撮影範囲内の前記監視対象の周囲の環境に応じて、少なくとも1つの撮影手段を選択し、
 前記選択された撮影手段により撮影された映像のみを送信するように制御する、
 付記12~15のいずれか1項に記載の監視方法。
 (付記17)
 前記映像に監視対象が含まれていない場合及び/又は前記映像に動きがない場合、該映像を撮影した撮影手段からの前記映像の供給を停止するように制御する、
 付記12~16のいずれか1項に記載の監視方法。
 (付記18)
 複数の撮影手段を選択した場合、選択された複数の撮影手段に異なる処理を行うように制御する、
 付記12~17のいずれか1項に記載の監視方法。
 (付記19)
 監視対象として監視対象人物を特定した場合、
 撮影が制御されたか、又は映像の供給が制御された後の映像を取得し、該映像中の監視対象である監視対象人物の状況を検出し、
 前記監視対象人物に応じて予め設定された条件と、前記監視対象人物の状況とに基づいて、危険度を算出し、
 前記危険度に基づいて、所定の通知先に通知情報を出力する、
 付記12~18のいずれか1項に記載の監視方法。
 (付記20)
 選択された撮影手段の映像中の前記監視対象人物の状況に応じて画質を変更する、付記19に記載の監視方法。
 (付記21)
 前記監視対象人物が他の人物と一緒にいるか否かを検出し、
 前記監視対象人物が他の人物と一緒にいる場合、前記危険度を下げる、
 付記19又は20に記載の監視方法。
 (付記22)
 前記他の人物の種別に応じて前記危険度の下げ幅を変える、
 付記21に記載の監視方法。
 (付記23)
 監視対象領域内の複数の箇所に設置された複数の撮影手段により撮影された映像から監視対象を特定し、
 特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定し、
 同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する、
 処理をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
 1 患者
 2 医療スタッフ
 3 病院
 10 事象検出装置
 11 取得部
 12 特定部
 13 判定部
 14 制御部
 15 検出部
 16 算出部
 17 通知部
 18 記憶部
 20 撮影装置
 30 通知装置
 31 廊下
 32A、32B 個室
 33 共有スペース
 34 監視室
 35 階段
 36 フリースペース
 100 監視システム
 101 撮影手段
 102 特定手段
 103 判定手段
 104 制御手段
 N ネットワーク

Claims (23)

  1.  監視対象領域内の複数の箇所に設置された複数の撮影手段と、
     複数の前記撮影手段により撮影された映像から監視対象を特定する特定手段と、
     特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定する判定手段と、
     同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する制御手段と、
     を備える、監視システム。
  2.  前記制御手段は、前記映像に監視対象が含まれている場合、該映像の画質を変更するように選択された撮影手段を制御する、
     請求項1に記載の監視システム。
  3.  前記特定手段は、前記映像に含まれる人物の種別を特定し、
     前記制御手段は、選択された撮影手段の映像中の人物の種別に応じて画質を変更する、請求項2に記載の監視システム。
  4.  前記制御手段は、前記撮影手段が撮影した映像を送信する際に、該映像中の監視対象が含まれる対象領域の圧縮率を対象領域以外の領域よりも低くするように制御して、該対象領域を対象領域以外の領域よりも高画質とする、
     請求項2又は3に記載の監視システム。
  5.  前記制御手段は、複数の前記撮影手段それぞれが撮影する撮影範囲内の前記監視対象の周囲の環境に応じて、少なくとも1つの撮影手段を選択し、
     前記選択された撮影手段により撮影された映像のみを送信するように制御する、
     請求項1~4のいずれか1項に記載の監視システム。
  6.  前記制御手段は、前記映像に監視対象が含まれていない場合及び/又は前記映像に動きがない場合、該映像を撮影した撮影手段からの前記映像の供給を停止するように制御する、
     請求項1~5のいずれか1項に記載の監視システム。
  7.  前記制御手段は、複数の撮影手段を選択した場合、選択された複数の撮影手段に異なる処理を行うように制御する、
     請求項1~6のいずれか1項に記載の監視システム。
  8.  前記特定手段が監視対象として監視対象人物を特定した場合、
     前記制御手段により撮影が制御されたか、又は映像の供給が制御された後の映像を取得し、該映像中の前記監視対象人物の状況を検出する検出手段と、
     前記監視対象人物に応じて予め設定された条件と、前記監視対象人物の状況とに基づいて、危険度を算出する算出手段と、
     前記危険度に基づいて、所定の通知先に通知情報を出力する通知手段と、
     をさらに備える、
     請求項1~7のいずれか1項に記載の監視システム。
  9.  前記制御手段は、選択された撮影手段の映像中の前記監視対象人物の状況に応じて画質を変更する、請求項8に記載の監視システム。
  10.  前記検出手段は、前記監視対象人物が他の人物と一緒にいるか否かを検出し、
     前記算出手段は、前記監視対象人物が他の人物と一緒にいる場合、前記危険度を下げる、
     請求項8又は9に記載の監視システム。
  11.  前記算出手段は、前記他の人物の種別に応じて前記危険度の下げ幅を変える、
     請求項10に記載の監視システム。
  12.  監視対象領域内の複数の箇所に設置された複数の撮影手段により撮影された映像から監視対象を特定し、
     特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定し、
     同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する、
     監視方法。
  13.  前記映像に監視対象が含まれている場合、該映像の画質を変更するように選択された撮影手段を制御する、
     請求項12に記載の監視方法。
  14.  前記映像に含まれる人物の種別を特定し、
     選択された撮影手段の映像中の人物の種別に応じて画質を変更する、請求項12に記載の監視方法。
  15.  前記撮影手段が撮影した映像を送信する際に、該映像中の監視対象が含まれる対象領域の圧縮率を対象領域以外の領域よりも低くするように制御して、該対象領域を対象領域以外の領域よりも高画質とする、
     請求項12又は13に記載の監視方法。
  16.  複数の前記撮影手段それぞれが撮影する撮影範囲内の前記監視対象の周囲の環境に応じて、少なくとも1つの撮影手段を選択し、
     前記選択された撮影手段により撮影された映像のみを送信するように制御する、
     請求項12~15のいずれか1項に記載の監視方法。
  17.  前記映像に監視対象が含まれていない場合及び/又は前記映像に動きがない場合、該映像を撮影した撮影手段からの前記映像の供給を停止するように制御する、
     請求項12~16のいずれか1項に記載の監視方法。
  18.  複数の撮影手段を選択した場合、選択された複数の撮影手段に異なる処理を行うように制御する、
     請求項12~17のいずれか1項に記載の監視方法。
  19.  監視対象として監視対象人物を特定した場合、
     撮影が制御されたか、又は映像の供給が制御された後の映像を取得し、該映像中の監視対象である監視対象人物の状況を検出し、
     前記監視対象人物に応じて予め設定された条件と、前記監視対象人物の状況とに基づいて、危険度を算出し、
     前記危険度に基づいて、所定の通知先に通知情報を出力する、
     請求項12~18のいずれか1項に記載の監視方法。
  20.  選択された撮影手段の映像中の前記監視対象人物の状況に応じて画質を変更する、請求項19に記載の監視方法。
  21.  前記監視対象人物が他の人物と一緒にいるか否かを検出し、
     前記監視対象人物が他の人物と一緒にいる場合、前記危険度を下げる、
     請求項19又は20に記載の監視方法。
  22.  前記他の人物の種別に応じて前記危険度の下げ幅を変える、
     請求項21に記載の監視方法。
  23.  監視対象領域内の複数の箇所に設置された複数の撮影手段により撮影された映像から監視対象を特定し、
     特定された監視対象のうち、同じ時間区間に撮影された複数の撮影手段の映像に同一の監視対象が映っているか否かを判定し、
     同一の監視対象が映っている映像を撮影した撮影手段から、所定の条件に基づいて少なくとも1つの撮影手段を選択し、選択された撮影手段による撮影を制御するか又は映像の供給を制御する、
     処理をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2021/037593 2021-10-11 2021-10-11 監視システム、監視方法、プログラムが格納された非一時的なコンピュータ可読媒体 WO2023062688A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023553764A JPWO2023062688A5 (ja) 2021-10-11 監視システム、監視方法、プログラム
PCT/JP2021/037593 WO2023062688A1 (ja) 2021-10-11 2021-10-11 監視システム、監視方法、プログラムが格納された非一時的なコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/037593 WO2023062688A1 (ja) 2021-10-11 2021-10-11 監視システム、監視方法、プログラムが格納された非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2023062688A1 true WO2023062688A1 (ja) 2023-04-20

Family

ID=85988170

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/037593 WO2023062688A1 (ja) 2021-10-11 2021-10-11 監視システム、監視方法、プログラムが格納された非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023062688A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274359A (ja) * 2002-03-14 2003-09-26 Sony Corp 撮像装置、撮像方法、撮像管理装置、撮像管理システム
JP2004320112A (ja) * 2003-04-11 2004-11-11 Matsushita Electric Ind Co Ltd 画像符号化方法、画像符号化装置、およびそのプログラム
JP2006245746A (ja) * 2005-03-01 2006-09-14 Hitachi Kokusai Electric Inc 監視システム
WO2017212568A1 (ja) * 2016-06-08 2017-12-14 三菱電機株式会社 監視装置
US9948902B1 (en) * 2014-03-07 2018-04-17 Alarm.Com Incorporated Video camera and sensor integration
JP2018143338A (ja) * 2017-03-02 2018-09-20 オムロン株式会社 見守り支援システム及びその制御方法
JP2019114857A (ja) * 2017-12-21 2019-07-11 大日本印刷株式会社 監視システム
JP2021087103A (ja) * 2019-11-27 2021-06-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274359A (ja) * 2002-03-14 2003-09-26 Sony Corp 撮像装置、撮像方法、撮像管理装置、撮像管理システム
JP2004320112A (ja) * 2003-04-11 2004-11-11 Matsushita Electric Ind Co Ltd 画像符号化方法、画像符号化装置、およびそのプログラム
JP2006245746A (ja) * 2005-03-01 2006-09-14 Hitachi Kokusai Electric Inc 監視システム
US9948902B1 (en) * 2014-03-07 2018-04-17 Alarm.Com Incorporated Video camera and sensor integration
WO2017212568A1 (ja) * 2016-06-08 2017-12-14 三菱電機株式会社 監視装置
JP2018143338A (ja) * 2017-03-02 2018-09-20 オムロン株式会社 見守り支援システム及びその制御方法
JP2019114857A (ja) * 2017-12-21 2019-07-11 大日本印刷株式会社 監視システム
JP2021087103A (ja) * 2019-11-27 2021-06-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム

Also Published As

Publication number Publication date
JPWO2023062688A1 (ja) 2023-04-20

Similar Documents

Publication Publication Date Title
JP6823160B2 (ja) ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法
JP6378086B2 (ja) データ管理システム及び方法
US10750129B2 (en) Hospital video surveillance system
US9408562B2 (en) Pet medical checkup device, pet medical checkup method, and non-transitory computer readable recording medium storing program
KR102052883B1 (ko) 열화상 카메라를 이용한 낙상 예측 시스템 및 열화상 카메라를 이용한 낙상 예측 방법
JP2020500570A (ja) 患者モニタリングシステム及び方法
JP6918129B2 (ja) 患者周辺の光学画像データを検出し、患者のチェックを識別する方法、装置およびコンピュータプログラム
JP6692987B2 (ja) ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法
JP2019535052A (ja) ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法
CN109891516A (zh) 用于患者监测以预测和防止床跌落的设备、系统和方法
JP2020120908A (ja) 精神状態推定システム、精神状態推定方法、及び、プログラム
US20240138775A1 (en) Systems and methods for detecting attempted bed exit
WO2024001588A1 (zh) 呼吸状态检测方法、装置、设备、存储介质和计算机程序产品
KR20200056660A (ko) 얼굴 내 미세움직임 기반 통증 모니터링 방법 및 시스템
JP2019152914A (ja) 保育施設児童見守りシステム及び情報処理方法
Rachakonda et al. Good-eye: a combined computer-vision and physiological-sensor based device for full-proof prediction and detection of fall of adults
WO2023062688A1 (ja) 監視システム、監視方法、プログラムが格納された非一時的なコンピュータ可読媒体
JP6729510B2 (ja) 見守り支援システム及びその制御方法
US20220409120A1 (en) Information Processing Method, Computer Program, Information Processing Device, and Information Processing System
TWI783374B (zh) 健康照護系統和健康照護方法
WO2021033453A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JPWO2019186955A1 (ja) 生体情報推定装置、生体情報推定方法、及び生体情報推定プログラム
TWM595870U (zh) 照護系統
KR102558653B1 (ko) 스마트 케어 응급 안전 알림 시스템 및 이의 실행 방법
Sunny et al. TeleVital: Enhancing the quality of contactless health assessment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21960549

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023553764

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE