WO2021250805A1 - 見守り監視装置および見守り監視方法 - Google Patents

見守り監視装置および見守り監視方法 Download PDF

Info

Publication number
WO2021250805A1
WO2021250805A1 PCT/JP2020/022794 JP2020022794W WO2021250805A1 WO 2021250805 A1 WO2021250805 A1 WO 2021250805A1 JP 2020022794 W JP2020022794 W JP 2020022794W WO 2021250805 A1 WO2021250805 A1 WO 2021250805A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
processing
monitoring
watching
image
Prior art date
Application number
PCT/JP2020/022794
Other languages
English (en)
French (fr)
Inventor
耕治 鹿庭
万寿男 奥
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to CN202080101683.3A priority Critical patent/CN115943626A/zh
Priority to JP2022530420A priority patent/JP7516515B2/ja
Priority to PCT/JP2020/022794 priority patent/WO2021250805A1/ja
Priority to US18/008,919 priority patent/US20230300296A1/en
Publication of WO2021250805A1 publication Critical patent/WO2021250805A1/ja
Priority to JP2024107555A priority patent/JP2024125422A/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Definitions

  • the present invention relates to a watching monitoring device and a watching monitoring method for watching a person with a surveillance camera, and relates to a watching monitoring technique that achieves both status grasping of a person to be watched (watched person) and privacy protection.
  • Patent Document 1 includes a sensor that detects the movement of a person, and when the movement of the person is detected by the sensor, the captured image data is subjected to blurring processing and output, and the movement of the person is detected for a predetermined time. If not, a monitoring monitoring system that outputs captured image data is disclosed.
  • Patent Document 1 even if privacy protection is taken into consideration, it is difficult to accurately grasp the situation of the person because the blurring process is performed when the person is moving. In particular, since the blurring process is performed including the face of the person, it becomes difficult to even determine whether the person is the person to be watched over. It is not necessary to hide the face of the person to be watched over, but rather it is possible to know the health condition of the person by looking at the face. Further, in Patent Document 1, since the image output is controlled after detecting the presence or absence of the movement of the person by the sensor, it takes a predetermined time to output the image, and the person who watches over (the watcher) tries to start watching. Sometimes, there is a problem that the situation of the watcher cannot be grasped instantly.
  • the present invention has been made in view of the above points, and an object thereof is to achieve both the situation grasp of the watcher and the privacy protection, and the situation of the watcher when the watcher tries to start or restart the watch. It is an object of the present invention to provide a monitoring monitoring device and a monitoring monitoring method that can instantly grasp.
  • the watching monitoring device of the present invention detects a person from a monitoring camera that captures a watching space in which a guarded person is present, and a captured image acquired by the monitoring camera, and detects the detected person on the face and the face.
  • a person detection unit that divides into body parts, a processing drawing unit that performs processing drawing processing on body parts other than the face part divided by the person detection unit, and a composite image of the image that has undergone processing drawing processing and the captured image. It includes an image compositing unit to be created and a network unit to watch over the compositing image and send it to a display terminal of a person.
  • the watching monitoring method of the present invention includes an image acquisition step of acquiring a captured image of a watching space in which a guarded person is present, and a person detection step of detecting a person from the captured image and classifying the detected person into a face and a body part.
  • a processing drawing step that performs processing drawing processing on the body part excluding the face part classified in the person detection step, an image composition step that creates a composite image of the processed image and the captured image, and composition. It has a transmission step to send the image to the display terminal of the person watching over it.
  • the present invention it is possible to grasp the situation of the watcher and protect the privacy at the same time, and to instantly grasp the situation of the watcher when the watcher starts or tries to restart the watch.
  • a block diagram showing a configuration example of a surveillance camera A block diagram showing a configuration example of a surveillance camera (with a distance measuring function).
  • a block diagram showing a configuration example of a home server The figure which shows an example of the processing drawing processing (coloring processing) by the processing drawing part.
  • the figure which shows the flowchart of the watching monitoring process The figure which shows the whole structure of the monitoring system which concerns on Example 2.
  • a block diagram showing a configuration example of a home server The figure which shows the example of the surveillance image displayed on the display terminal.
  • FIG. The figure which shows the example of the surveillance image displayed on the display terminal.
  • FIG. A block diagram showing a configuration example (with a distance measuring function) of a server-integrated surveillance camera.
  • the figure which shows the example of the display surveillance image (surveillance camera 101).
  • the figure which shows the example of the display surveillance image (surveillance camera 102).
  • the basic configuration and basic operation (person detection, processing and drawing process) of the watching monitoring device will be described.
  • FIG. 1 is a diagram showing an overall configuration of the monitoring system according to the first embodiment.
  • the monitoring system includes a monitoring camera 1 and a home server 2 as a monitoring monitoring device, and monitors the monitoring space 4 in which the watched person 3 exists.
  • the home server 2 is connected to the display terminal 8 possessed by the watcher 7 via the network 5 and the access point 6.
  • the surveillance camera 1 takes a picture of the watching space 4.
  • the image data taken by the surveillance camera 1 is transmitted to the home server 2 by the communication signals 1a and 2a.
  • the home server 2 performs processing and drawing processing described later on the image data, and transmits the communication signals 6a and 8a to the display terminal 8 via the network 5 and the access point 6.
  • the processed and drawn image is displayed on the display terminal 8, and the watcher 7 can grasp the situation of the watcher 3 by visually recognizing the image.
  • FIG. 2A and 2B are block diagrams showing two configuration examples of the surveillance camera 1.
  • the surveillance camera 1 shown in FIG. 2A has a configuration having only a photographing function, and includes a lens unit 10, an image pickup element 11, a signal processing unit 12, a network unit 13, and a controller 14.
  • the image pickup target collected by the lens unit 10 is imaged on the image sensor 11, converted into image data by the signal processing unit 12, and transmitted from the network unit 13 to the home server 2 by the communication signal 1a.
  • the controller 14 controls all of these operations.
  • the surveillance camera 1 shown in FIG. 2B has a distance measuring function in addition to the photographing function of FIG. 2A. Therefore, an irradiation unit 16, a light receiving unit 17, an infrared light generation unit 18, and a TOF (Time of Flat) detection unit 19 are added.
  • the infrared light generated by the infrared light generation unit 18 irradiates the outside (watching space 4) from the irradiation unit 16.
  • the irradiated infrared light receives the reflected light reflected by the photographing target (watcher 3).
  • the TOF detection unit 19 measures the distance from the surveillance camera to the shooting target from the time difference between the irradiation light and the reflected light, and obtains distance measurement data.
  • a method of irradiating infrared light having a specific two-dimensional pattern and calculating the distance from the distortion of the two-dimensional pattern of the received infrared light may be used.
  • a method other than TOF such as a method using laser light, may be used.
  • FIG. 3 is a block diagram showing a configuration example of the home server 2.
  • the home server 2 includes a network unit 21, a CPU 22, a RAM 23, and a storage unit 24.
  • the storage unit 24 has a basic program 24a and a monitoring monitoring program 24b as processing programs and data.
  • the processing program and data are expanded in the RAM 23 and executed by the CPU 22 to perform various controls of the watching and monitoring operation.
  • the storage unit 24 is not limited in its configuration method, such as one composed of a semiconductor such as a flash ROM or one configured in combination with a hard disk.
  • the network unit 21 receives the captured image data from the surveillance camera 1 and transmits the image data for display to the display terminal 8.
  • the monitoring monitoring program 24b is stored in the storage unit 24, and by executing this, the CPU 22 realizes functional units such as the person detection unit 201, the processing drawing unit 202, and the image composition unit 203.
  • the person detection unit 201 detects a person (watcher) from the image taken by the camera, and also performs a process of dividing the detected person area into body parts such as a face and a torso. Further, in order to protect the privacy of the watcher, the processing drawing unit 202 performs a coloring process on each body part of the person and a shading process according to the distance to each part of the person.
  • the image synthesizing unit 203 synthesizes the captured image and the processed and drawn image, and the combined image is transmitted as a monitoring image to the display terminal 8 of the watcher 7 via the network unit 21.
  • the home server 2 of the present embodiment has a function of performing image processing on the image captured by the camera and providing the image to the watcher, and can be called a “management device”.
  • FIG. 4A and 4B are diagrams showing an example of processing drawing processing by the processing drawing unit 202.
  • FIG. 4A is an example in which a person's body part is colored.
  • the person detection unit 201 detects the person 30 from the captured image, it classifies the person 30 into body parts such as the face 31, the body 32, the hands 33, and the feet 34. Then, the processing drawing unit 202 gives different colors to the parts 32, 33, and 34 other than the face 31 (here, the difference in color is indicated by a pattern).
  • FIG. 4B is an example in which when the surveillance camera 1 has the configuration of FIG. 2B (with a distance measuring function), the body part is shaded according to the distance measuring data.
  • the shading process is performed on a portion other than the face 31 on a pixel-by-pixel basis or on a plurality of pixel-by-pixel basis, and the pixel with a short distance is brightened and the pixel with a long distance is darkened.
  • the shading treatment is performed in combination with the coloring treatment imparted in FIG. 4A, but the shading treatment may be performed alone without performing the shading treatment.
  • the surveillance image to which the above processing and drawing processing has been performed is combined with the captured image and transmitted to the display terminal 8 for display.
  • the watcher 7 cannot recognize the detailed details of the body part of the person 30, but the movement of the body part becomes easy to understand.
  • the shading process makes it possible to express the positional relationship between the front and back with shading, making it easier to grasp the movement.
  • the processing and drawing process of this embodiment is not performed on the face of the person 30. Therefore, the situation can be grasped by the facial expression without any problem. And since the drawing is performed for each body part, there is an effect that it becomes easy to grasp the behavior of the person.
  • the colors given to each watcher may be different so that the watchers can be easily distinguished. Further, depending on the orientation of the face of the watcher, the face of the watcher may not be detected in the image captured by the surveillance camera, and only the head may be detected. Even in this case, it is better to give priority to the privacy protection of the watcher and perform the above processing.
  • FIG. 5 is a diagram showing a flowchart of the watching monitoring process. The following processing is realized by the CPU 22 of the home server 2 executing the monitoring monitoring program 24b.
  • the home server 2 and the surveillance camera 1 are linked.
  • the captured image data is received from the surveillance camera 1 via the network unit 21.
  • the surveillance camera 1 shown in FIG. 2B is used, the distance measurement data is received together with the captured image data.
  • the person detection unit 201 detects a person from the captured image data. Further, in S104, the person detection unit 201 divides the detected area of the person into body parts such as the face, torso, hands, and feet. In S106, it is determined whether or not the division of body parts has been completed for all the detected persons. If there is an unprocessed person, the process returns to S104 and the process is repeated.
  • S107 different color data is given to the body part by the processing drawing unit 202. Further, in S108, when there is distance measurement data together with the image data, shading data is added according to the distance measurement data. In S109, processing and drawing processing of image data is performed according to the assigned color and shading data. In S110, it is determined whether or not the processing drawing process has been completed for all the body parts. Further, in S111, it is determined whether or not the processing drawing process is completed for all the persons. If there is an untreated body part or person, return to S107 and execute repeatedly.
  • the processed and drawn image data is combined with the captured image data.
  • the synthesized image data is transmitted by the network unit 21 to the display terminal 8 via the network 5.
  • the processing and drawing process of this embodiment is not performed on the face of the person, but on the body part other than the face.
  • the watcher In watching over, for example, when watching over the situation where an elderly parent is at home, or when watching over the situation of a child or a nursery teacher at a nursery school, the watcher is a person intended in advance for the watcher and is watched over. Displaying a person's face image as it is is often not a privacy issue.
  • the purpose of performing the processing and drawing process in this embodiment is to hide the detailed situation of the body part of the watcher, and the watcher looks rough, for example, when changing clothes or after taking a bath. You will not be able to see the situation as it is.
  • the processed drawing process of this embodiment the processed image of the same format can be displayed regardless of the movement of the watcher.
  • the first embodiment it is possible to grasp the situation of the watched person by the facial expression and the movement of the body part, and it is possible to achieve both privacy protection that obscures the lifestyle of the watched person. ..
  • the same style of watching image is provided regardless of the situation of the watching person, and even when the watching person starts or tries to restart the watching, there is an effect that the watching situation can be grasped instantly. ..
  • FIG. 6 is a diagram showing the overall configuration of the monitoring system according to the second embodiment. An example in which a plurality of persons 3a to 3c exist in the watching space 4 is shown. The same reference numerals are given to the elements having the same functions as those of the watching monitoring device shown in the first embodiment (FIG. 1), and duplicate description will be omitted.
  • FIG. 7 is a block diagram showing a configuration example of the home server 2 in the second embodiment.
  • the storage unit 24 includes the face information registration data 24c in addition to the basic program 24a and the watching monitoring program 24b.
  • the face information registration data 24c is the one in which the face information of the watched person to be watched is registered in advance.
  • the person detection unit 201 collates the detected face information of the person with the registration data of the face information registration data 24c, and determines whether or not the target person is registered. If the target person is a registrant (watcher), the processing drawing process is performed by the processing drawing unit 202, and if the target person is an unregistered person (other than the watching person), the processing drawing process is not performed.
  • FIG. 8 is a diagram showing an example of a surveillance image 80 displayed on the display terminal 8.
  • a plurality of persons 3a to 3c are detected, of which the persons 3b and 3c are guardians whose face information is registered in the face information registration data 24c, and the person 3a has the face information registered in the face information registration data 24c. It is assumed that the person is not a watcher and is not a watcher.
  • the processing drawing unit 202 performs coloring processing on body parts other than the face for the registered persons 3b and 3c. On the other hand, for the unregistered person 3a, the processing and drawing process of the body part is not performed.
  • FIG. 9 is a diagram showing a flowchart of the watching monitoring process. The same reference numerals are given to the steps for performing the same processing as that shown in the first embodiment (FIG. 5), and duplicate description will be omitted. In the flowchart of FIG. 9, S105a and S105b are added.
  • the person detection unit 201 collates the detected face information of the person with the registration data of the face information registration data 24c, and determines whether or not the target person is registered. Further, in S105b, branching is performed depending on whether or not the target person is a watcher (registered), and in the case of a watcher (S105b, Yes), processing and drawing processing after S107 is performed. If the person is not a watcher (S105b, No), the process proceeds to S111 without performing the processing drawing process, and the process for the next person proceeds.
  • the processing drawing process is performed only by the person registered as the watcher, and the privacy of the watcher can be protected.
  • the detailed situation can be grasped by displaying the captured image as it is without performing the processing and drawing process.
  • the watcher has the same effect as that of the first embodiment, and when there is a person other than the watcher in the watch space, the watcher clearly defines the situation as an unintended person. It has the effect of being able to grasp quickly.
  • FIG. 10 is a block diagram showing a configuration example of the home server 2 in the third embodiment.
  • the storage unit 24 includes the basic program 24a, the watching monitoring program 24b, the face information registration data 24c, the suspicious person pattern registration data 24d, and an image.
  • the data storage unit 24e is included.
  • the suspicious person pattern registration data 24d is data in which an appearance situation in which a person intentionally hides his / her face is registered as a suspicious person pattern.
  • the suspicious person pattern corresponds to a situation in which a person wears a full-face helmet, a balaclava, a mask and sunglasses, and the like.
  • the image data storage unit 24e stores the captured image data (before processing and drawing processing) from the surveillance camera.
  • the person detection unit 201 collates the detected person with the suspicious person pattern registration data 24d, and determines whether or not the detected person corresponds to the suspicious person pattern. If it is determined that the pattern corresponds to a suspicious person, alarm information is created and notified to the display terminal 8. In that case, the processed drawing unit 202 does not perform the processed drawing process on the captured image, and transmits the captured image data (before the processed drawing process) from the surveillance camera saved in the image data storage unit 24e to the display terminal 8. do.
  • FIG. 11 is a diagram showing an example of a surveillance image 80 displayed on the display terminal 8.
  • a plurality of persons 3a to 3c are detected, and among them, the persons 3b and 3c are watchers whose face information is registered in the face information registration data 24c.
  • the person 3a corresponds to the suspicious person pattern 39 (for example, wearing a helmet) registered in the suspicious person pattern registration data 24d and the face information is not registered in the face information registration data 24c. do.
  • the alarm information 89 such as "there is a suspicious person" is created, included in the monitoring image 80, and transmitted to the display terminal 8 for display. ..
  • the alarm information may be transmitted to the display terminal 8 by voice.
  • the processed drawing unit 202 does not perform the processed drawing process on the captured image not only for the person 3a determined to be a suspicious person but also for the registered persons 3b and 3c. This is because if there is a suspicious person, it is an abnormal situation, and it is necessary to inform the watcher 7 of the situation of each detected person in detail.
  • FIG. 12 is a diagram showing a flowchart of the watching monitoring process. The same reference numerals are given to the steps for performing the same processing as that shown in the second embodiment (FIG. 9), and duplicate description will be omitted. In the flowchart of FIG. 12, the abnormality processing of S123 to S125 is added.
  • alarm information 89 is created and transmitted to the display terminal 2.
  • the transmission may be performed by voice, e-mail, or the like.
  • the captured image is stored in the image data storage unit 24e.
  • the captured image data stored in the image data storage unit 24e is transmitted to the display terminal 8 as it is, instead of the processed and drawn image data.
  • the conditions for performing the above-mentioned abnormality processing are not limited to the above cases. If the number of guardians is limited, such as an elderly person living alone, and if more than the number of face information registered in the image data is detected, the abnormal processing is set to be performed immediately. You may. For example, in the situation where the face information for two persons 3b and 3c is registered in the face information registration data 24c, the situation in which the three persons 3a to 3c are detected as shown in FIG. 11 corresponds to this.
  • the conditions for executing the abnormal processing can be appropriately set by a person with higher system authority (watcher) to realize a system that is easy for the user to use.
  • an abnormal situation such as a suspicious person in the watching space can be quickly detected and notified to the watching person.
  • the surveillance camera 1 and the home server 2 have been described as separate bodies, but in the fourth embodiment, a configuration in which both are integrated will be described.
  • FIG. 13A and 13B are block diagrams showing two configuration examples of a server-integrated surveillance camera.
  • FIG. 13A shows a case where the surveillance camera 1 of FIG. 2A and the home server 2 of the second embodiment (FIG. 7) are integrated with each other.
  • FIG. 13B shows a case where the surveillance camera 1 (with a distance measuring function) of FIG. 2B and the home server 2 of the second embodiment (FIG. 7) are integrated with each other.
  • the home server 2 is referred to as a controller 14a, and a camera control program 24f that controls the surveillance camera 1 is added to the storage unit 24.
  • the network unit 21 sends the composite image data of the processed and drawn image to the external network 5, it may be sent directly to the network, and the access point is arranged in the watching space 4 and sent via the access point. You may. Needless to say, the controller 14a in the server-integrated surveillance camera 1b may have the configuration of another embodiment (FIGS. 3 and 10).
  • the overall size of the surveillance device can be reduced and the device can be easily installed.
  • FIG. 14 is a diagram showing the overall configuration of the monitoring system according to the fifth embodiment.
  • a plurality of (here, two) surveillance cameras 101 and 102 are installed in the watching space 4.
  • Each of the surveillance cameras 101 and 102 has the same configuration as the surveillance camera 1 shown in FIG. 2A or FIG. 2B, and these are connected to a common home server 2.
  • the home server 2 shown in the second embodiment (FIG. 7) is applied.
  • the home server 2 performs processing and drawing processing on the captured images of the surveillance cameras 101 and 102, respectively.
  • the images of the surveillance cameras 101 and 102 are switched and transmitted to the display terminal 8.
  • FIG. 15A and 15B are diagrams showing an example of a surveillance image displayed on the display terminal 8
  • FIG. 15A shows a surveillance image 81 from the surveillance camera 101
  • FIG. 15B shows a surveillance image 82 from the surveillance camera 102. Since the surveillance areas of the surveillance cameras 101 and 102 overlap a part of the monitoring space 4, the same person may appear in both surveillance images 81 and 82. In this example, the person 3b is included in both surveillance images 81 and 82.
  • the processing drawing unit 202 standardizes the processing drawing process between the two monitoring images for the same person 3b, and performs the same coloring and the same shading process. On the other hand, different processing and drawing processing is performed on the other persons 3a and 3c.
  • FIG. 16 is a diagram showing a flowchart of the watching monitoring process. The same reference numerals are given to the steps for performing the same processing as that shown in the second embodiment (FIG. 9).
  • step of S130 is added, and the person detection process of S102 to S106 is repeated for the number of surveillance cameras corresponding to a plurality of surveillance cameras.
  • the person detection unit 201 identifies the same person in a plurality of surveillance cameras.
  • the selection information of the surveillance camera to which the surveillance image should be transmitted is received from the display terminal 8 side.
  • processing and drawing processing is performed on the captured image of the selected surveillance camera, but common processing and drawing is performed on the person specified as the same person in S131. For a person who has not been registered in the face data collation of S105, processing drawing is not performed as in the case of the second embodiment.
  • the surveillance image of the selected surveillance camera is transmitted to the display terminal 8.
  • the monitoring monitoring device provided with a plurality of monitoring cameras, by monitoring while switching the monitoring cameras, the divided monitoring space is captured as a continuous space, and a plurality of monitoring images are displayed. There is an effect that the same watcher can be easily identified among them.
  • FIG. 17 is a diagram showing the overall configuration of the monitoring system according to the sixth embodiment.
  • the monitoring system of this embodiment has a configuration in which the functions of the home server 2 in the first embodiment (FIG. 1) and the second embodiment (FIG. 6) are realized by the server 9 arranged on the network 5.
  • This configuration is a suitable form for providing monitoring and monitoring as a commercial service via a network.
  • a server 9 which is a management device arranged on the network 5 and an access point 60 for relaying the captured image of the surveillance camera 1 are added.
  • the access point 60 transmits the image data captured by the surveillance camera 1 to the server 9 via the communication signal 60a and the network 5.
  • the server 9 processes and draws the captured image of the surveillance camera 1 and transmits it to the display terminal 8 via the access point 6.
  • FIG. 18 is a block diagram showing a configuration example of the server 9 in the sixth embodiment.
  • the basic configuration is the case where the configuration of the second embodiment (FIG. 7) is applied, and includes a network unit 91, a CPU 92, a RAM 93, and a storage unit 94.
  • the storage unit 94 includes a basic program 94a, a user management program 94b, a watching monitoring service program 94c, and face information registration data 94d as processing programs and data.
  • the user management program 94b manages a user who is a provider of the monitoring monitoring service.
  • the watching space 4 in FIG. 17 is a space for a specific user who is a service provider.
  • the storage unit 94 is not limited in its configuration method, such as one composed of a semiconductor such as a flash ROM or one configured in combination with a hard disk.
  • FIG. 19 is a diagram showing a flowchart of the watching monitoring process. The following processing is executed by the monitoring monitoring service program 94c. The same reference numerals are given to the steps for performing the same processing as that shown in the second embodiment (FIG. 9).
  • the sixth embodiment has the effect that it can be applied to a commercial watching and monitoring service corresponding to a plurality of users.
  • the communication signals 1a, 2a, 6a, 8a and the like are shown in the image of a wireless signal, but this may be a wired signal, and further, the amount of data in the communication unit. Even if an image compression / expansion technique such as H.264 is used in order to reduce the problem, the object and effect of the present invention are not impaired.
  • the functional blocks and the like described in the examples may be implemented by hardware, for example, by designing a part or all of them with an integrated circuit. Further, it may be implemented by software by interpreting and executing an operation program by a microprocessor unit, a CPU, or the like. Further, the implementation range of the software is not limited, and the hardware and the software may be used together.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Abstract

見守り監視装置は、監視カメラ1とホームサーバ2を備え、被見守り人3が存在する見守り空間4を監視する。監視カメラ1は、被見守り人の居る見守り空間を撮影する。ホームサーバ2は、監視カメラ1で取得した撮影画像から人物を検出し、検出した人物を顔部および身体部位に区分する人物検出部201と、人物検出部が区分した顔部を除く身体部位に対して加工描画処理を行う加工描画部202と、加工描画処理を行った画像と撮影画像との合成画像を作成する画像合成部203と、合成画像を見守り人7の表示端末8に送信するネットワーク部21と、を備える。また、被見守り人の顔情報を登録した顔情報登録データを有し、検出した人物がこれに登録されていない場合には、その人物について加工描画部202による加工描画処理を行わない。

Description

見守り監視装置および見守り監視方法
 本発明は、監視カメラで人物を見守る見守り監視装置および見守り監視方法に関し、見守り対象者(被見守り人)の状況把握とプライバシー保護を両立させる見守り監視技術に係る。
 見守り監視装置においては、被見守り人のプライバシー保護のために、監視カメラの撮影画像全体、あるいは人の顔を含む身体部分に対してモザイク処理や摺りガラス処理等の抽象化を行うことが行われるが、被見守り人の状況を把握しにくいという課題がある。
 これに関し特許文献1には、人物の動作を検知するセンサを備え、センサにより人物の動作が検知されると、撮像した画像データに暈し処理を施して出力し、所定時間人物の動きが検知されないと、撮像した画像データを出力する見守り監視システムが開示されている。
特開2018-18456号公報
 特許文献1の方法では、プライバシー保護が考慮されているとしても、人物が動いている時には暈し処理が施されるため、人物の状況を正確に把握しにくくなる。特に、人物の顔を含めて暈し処理を行っているため、その人物が見守り対象の人物かどうかさえ判断しにくくなる。見守り対象者についてはその顔まで隠す必要はなく、むしろ顔を見ることでその人の健康状態等を知ることも可能となる。また特許文献1では、センサにより人物の動作の有無を検知してから画像出力を制御するので、画像出力まで所定の時間を要し、見守りを行う人(見守り人)が見守りを開始しようとした時に、被見守り人の状況を瞬時に把握することができないといった課題がある。
 本発明は上記の点を鑑みてなされたものであり、その目的は、被見守り人の状況把握とプライバシー保護を両立させ、見守り人が見守りを開始あるいは再開しようとした時に、被見守り人の状況を瞬時に把握できる見守り監視装置および見守り監視方法を提供することにある。
 上記課題を解決するために、本発明の見守り監視装置は、被見守り人の居る見守り空間を撮影する監視カメラと、監視カメラで取得した撮影画像から人物を検出し、検出した人物を顔部および身体部位に区分する人物検出部と、人物検出部が区分した顔部を除く身体部位に対して加工描画処理を行う加工描画部と、加工描画処理を行った画像と撮影画像との合成画像を作成する画像合成部と、合成画像を見守り人の表示端末に送信するネットワーク部と、を備える。
 また本発明の見守り監視方法は、被見守り人の居る見守り空間の撮影画像を取得する画像取得ステップと、撮影画像から人物を検出し、検出した人物を顔部および身体部位に区分する人物検出ステップと、人物検出ステップで区分した顔部を除く身体部位に対して加工描画処理を行う加工描画ステップと、加工描画処理を行った画像と撮影画像との合成画像を作成する画像合成ステップと、合成画像を見守り人の表示端末に送信する送信ステップと、を備える
 本発明によれば、被見守り人の状況把握とプライバシー保護を両立させ、見守り人が見守りを開始する、あるいは再開しようとした時に、被見守り人の状況を瞬時に把握することが可能となる。
実施例1に係る監視システムの全体構成を示す図。 監視カメラの構成例を示すブロック図。 監視カメラの構成例(測距機能付き)を示すブロック図。 ホームサーバの構成例を示すブロック図。 加工描画部による加工描画処理(色付け処理)の一例を示す図。 加工描画部による加工描画処理(濃淡処理)の一例を示す図。 見守り監視処理のフローチャートを示す図。 実施例2に係る監視システムの全体構成を示す図。 ホームサーバの構成例を示すブロック図。 表示端末に表示される監視画像の例を示す図。 見守り監視処理のフローチャートを示す図。 実施例3におけるホームサーバの構成例を示すブロック図。 表示端末に表示される監視画像の例を示す図。 見守り監視処理のフローチャートを示す図。 実施例4に係るサーバ一体型監視カメラの構成例を示すブロック図。 サーバ一体型監視カメラの構成例(測距機能付き)を示すブロック図。 実施例5に係る監視システムの全体構成を示す図。 表示される監視画像(監視カメラ101)の例を示す図。 表示される監視画像(監視カメラ102)の例を示す図。 見守り監視処理のフローチャートを示す図。 実施例6に係る監視システムの全体構成を示す図。 サーバの構成例を示すブロック図。 見守り監視処理のフローチャートを示す図。
 以下、図面を参照しながら、本発明の実施形態について説明する。
 実施例1では、見守り監視装置の基本構成と基本動作(人物検出、加工描画処理)について説明する。
 図1は、実施例1に係る監視システムの全体構成を示す図である。監視システムは見守り監視装置として、監視カメラ1とホームサーバ2を備え、被見守り人3が存在する見守り空間4を監視する。ホームサーバ2はネットワーク5とアクセスポイント6を介して、見守り人7の所持する表示端末8に接続される。監視カメラ1は見守り空間4の撮影を行う。監視カメラ1で撮影した画像データは、通信信号1a、2aによって、ホームサーバ2に送信される。ホームサーバ2では画像データに対し後述する加工描画処理を施し、ネットワーク5、アクセスポイント6を経由して、通信信号6a、8aにて表示端末8へ送信する。表示端末8では加工描画処理された画像が表示され、見守り人7はこれを視認することで被見守り人3の状況を把握することができる。
 図2Aと図2Bは、監視カメラ1の2つの構成例を示すブロック図である。
  図2Aに示す監視カメラ1は、撮影機能のみを有する構成の場合で、レンズ部10、撮像素子11、信号処理部12、ネットワーク部13、コントローラ14を有する。レンズ部10で集光された撮影対象は、撮像素子11上で結像し、信号処理部12で画像データに変換され、ネットワーク部13から通信信号1aでホームサーバ2に向けて送信される。コントローラ14は、これらの動作全体を制御する。
 図2Bに示す監視カメラ1は、図2Aの撮影機能の他に測距機能を有している。そのため、照射部16、受光部17、赤外光発生部18、TOF(Time of Flight)検出部19を追加している。赤外光発生部18で発生した赤外光は照射部16から外部(見守り空間4)に照射する。受光部17では、照射した赤外光が撮影対象(被見守り人3)で反射された反射光を受光する。TOF検出部19は、照射光と反射光との時間差から、監視カメラから撮影対象までの距離を測定し、測距データを得る。なお測距機能を実現する手段としては、特定の2次元パターンを有する赤外光を照射し、受光した赤外光の2次元パターンの歪から距離を計算する方式や、赤外光に替えてレーザ光を用いる方式など、TOF以外の方式であってもよい。
 図3は、ホームサーバ2の構成例を示すブロック図である。ホームサーバ2は、ネットワーク部21、CPU22、RAM23、ストレージ部24を備える。ストレージ部24には、処理プログラムやデータとして、基本プログラム24a、見守り監視プログラム24bを有する。処理プログラムやデータはRAM23に展開して、CPU22で実行することで見守り監視動作の各種の制御を行う。ストレージ部24はフラッシュROMなどの半導体で構成されるもの、ハードディスクと組み合わせて構成されるものなど、その構成方法が限定されるものではない。ネットワーク部21は、監視カメラ1から撮影画像データを受信し、表示端末8に表示用の画像データを送信する。
 ストレージ部24には見守り監視プログラム24bが格納されており、CPU22がこれを実行することで、人物検出部201や加工描画部202や画像合成部203などの機能部を実現する。人物検出部201はカメラの撮影画像から人物(被見守り人)を検出するとともに、検出した人物領域を顔や胴体などの身体部位に区分する処理を行う。また加工描画部202は、被見守り人のプライバシーを保護するため、人物の各身体部位に対する色付け処理や、人物の各部分までの距離に応じて濃淡処理を施す。画像合成部203は、撮影画像と加工描画処理を施した画像とを合成し、合成後の画像は監視画像としてネットワーク部21を介して見守り人7の表示端末8へ送信される。このように本実施例のホームサーバ2は、カメラ撮影画像に対して画像処理を施して見守り人へ提供する機能を有し、「管理装置」と呼ぶことができる。
 図4Aと図4Bは、加工描画部202による加工描画処理の一例を示す図である。
  図4Aは、人物の身体部位に色付け処理を行った例である。人物検出部201は撮影画像から人物30を検出すると、これを顔31、胴体32、手33、足34などの身体部位に区分する。そして加工描画部202は、顔31以外の部位32,33,34にそれぞれ異なる色を付与している(ここでは色の違いをパターンで表記している)。
 図4Bは、監視カメラ1が図2Bの構成(測距機能付き)の場合に、測距データに応じて身体部位に濃淡処理を行った例である。濃淡処理は、顔31以外の部位に対し、画素単位に、あるいは複数画素単位に行い、距離の近い画素は明るく、距離の遠い画素は暗くする処理である。濃淡処理は、図4Aで付与した色付け処理の後これと組み合わせて行うが、色付け処理を行わず、濃淡処理単独としてもよい。
 上記の加工描画処理が施された監視画像は、撮影画像と合成され、表示端末8に送信されて表示される。その結果見守り人7は、人物30の身体部の細部詳細は認識できないが、身体部の動きは分かり易くなる。特に濃淡処理により、前後の位置関係を濃淡で表現でき、動きの把握が容易になる。
 本実施例の加工描画処理は、人物30の顔部に対しては行わない。このため、顔の表情による状況把握は何ら支障なく行える。そして、身体部位ごとの描画を行っているため、人物の挙動を把握し易くなるという効果がある。
 なお、人物(被見守り人)が複数いる場合には、被見守り人毎に付与する色を異ならせ、被見守り人を区別しやすいようにしてもよい。また、被見守り人の顔の向きによっては、監視カメラの撮影画像内に被見守り人の顔が検出されず、頭部のみが検出される場合がある。この場合においても、被見守り人のプライバシー保護を優先させて、上記の処理を行うのが良い。
 図5は、見守り監視処理のフローチャートを示す図である。以下の処理は、ホームサーバ2のCPU22が見守り監視プログラム24bを実行することで実現する。
 S100で処理を開始し、S101で見守り監視プログラムにログインする。ログインにより、ホームサーバ2と監視カメラ1とを紐付ける。S102で監視カメラ1からネットワーク部21を介して撮影画像データを受信する。なお、図2Bに示す監視カメラ1を使用する場合には、撮影画像データとともに測距データを受信する。
 S103では、人物検出部201により、撮影画像データから人物を検出する。さらにS104では、人物検出部201により、検出した人物の領域を、顔、胴体、手、足、などの身体部位に区分する。S106では、検出した全ての人物について身体部位の区分が終了したかどうかを判定する。未処理の人物があればS104に戻り繰り返し実行する。
 S107では、加工描画部202により、身体部位に対して異なる色データを付与する。さらにS108では、画像データとともに測距データがある場合には、測距データに応じで濃淡データを付与する。S109では、付与された色や濃淡のデータに従い、画像データの加工描画処理を行う。S110では、全ての身体部位に対して加工描画処理を終了したかどうかを判定する。またS111では、全ての人物に対して加工描画処理を終了したかどうかを判定する。未処理の身体部位または人物があれば、S107に戻り繰り返し実行する。
 S112では、加工描画処理した画像データを、撮影画像データと合成する。S113では、合成した画像データを、ネットワーク部21によりネットワーク5を介して表示端末8に向けて送信する。
 S114では、ログオフ等により監視処理の終了が指示されている場合には、S115で処理を終了する。終了が指示されていない場合には、S102に戻り監視処理を継続する。
 上記したように、本実施例の加工描画処理は、人物の顔部に対しては行わず、顔部以外の身体部位に対して行う。見守り監視は、例えば、老親が自宅にいる状況を見守る場合や、保育所で園児や保母の様子を見守る場合などのように、見守り人にとって被見守り人は予め意図された人物であり、被見守り人の顔部画像をそのまま表示するのはプライバシーの問題にはならない場合が多い。
 一方、本実施例で加工描画処理を行うことは、被見守り人の身体部分の詳細状況を隠すことが目的であり、例えば着替えや風呂上がりの時のように、被見守り人がラフな格好でいる状況がそのまま見られることがなくなる。また、見守り人にとっても必要以上に被見守り人、特に老親のプライバシーを見ることを抑制することができる。さらに、全身が写った画像データが表示端末から漏洩することを防止することができる。これにより被見守り人は、プライバシーのために生活や活動のスタイルを意識することなく、見守り監視を受けることができる。また、本実施例の加工描画処理では、被見守り人の動き等に関わらず同一様式の処理画像を表示させることができる。
 以上のように、実施例1によれば、顔の表情や身体部位の動きによって被見守り人の状況把握ができるとともに、被見守り人の生活スタイルをあいまいにさせるプライバシー保護とを両立させることができる。また、被見守り人の状況にかかわらず同一様式の見守り画像を提供しており、見守り人が見守りを開始する、あるいは再開しようとした時でも、瞬時に見守り状況を把握可能であるという効果がある。
 実施例2では、見守り空間に複数の人物が存在し、それぞれの人物が被見守り人かどうかを判定して各描画処理を行う場合について説明する。
 図6は、実施例2に係る監視システムの全体構成を示す図である。見守り空間4には、複数の人物3a~3cが存在する例を示す。実施例1(図1)に示した見守り監視装置と同一機能を有する要素には同一の符号を付与しており、重複する説明を省略する。
 図7は、実施例2におけるホームサーバ2の構成例を示すブロック図である。実施例1(図3)のホームサーバ2の構成と比較し、ストレージ部24は、基本プログラム24a、見守り監視プログラム24bに加えて、顔情報登録データ24cを含む。顔情報登録データ24cは、見守り対象である被見守り人の顔情報を予め登録したものである。
 人物検出部201は検出した人物の顔情報を、顔情報登録データ24cの登録データと照合し、対象人物が登録されているかどうかを判定する。対象人物が登録者(被見守り人)の場合には、加工描画部202により加工描画処理を行い、対象人物が未登録者(被見守り人以外)の場合は、加工描画処理を行わない。
 図8は、表示端末8に表示される監視画像80の例を示す図である。ここでは、複数の人物3a~3cが検出され、そのうち人物3bと3cは顔情報登録データ24cに顔情報が登録された被見守り人であり、人物3aは顔情報登録データ24cに顔情報が登録されておらず、被見守り人ではない場合を想定する。
 加工描画部202は、登録された人物3bと3cについては、顔以外の身体部位に色付け処理を行っている。一方、未登録の人物3aについては、身体部位の加工描画処理を行わない。
 図9は、見守り監視処理のフローチャートを示す図である。実施例1(図5)に示した処理と同様の処理を行うステップについては同一符号を付与し、重複する説明を省略する。図9のフローチャートでは、S105aとS105bが追加される。
 S105aでは、人物検出部201は検出した人物の顔情報を、顔情報登録データ24cの登録データと照合し、対象人物が登録されているかどうかを判別する。またS105bでは、対象人物が被見守り人(登録されている)かどうかで分岐し、被見守り人の場合(S105b、Yes)にはS107以降の加工描画処理を行う。被見守り人でない場合(S105b、No)は、加工描画処理を行わずS111へ進み、次の人物についての処理を進める。
 上記の処理フローによれば、加工描画処理は、被見守り人として登録された人にのみ行われ、被見守り人のプライバシーを保護することができる。被見守り人以外の人物については、加工描画処理を行わず撮影画像をそのまま表示することで、詳細な状況を把握することができる。
 以上説明したように、実施例2によれば、実施例1と同様の効果を持つとともに、見守り空間に被見守り人以外の人物が存在するときは意図しない人物として、見守り人はその状況を明確に素早く把握できるという効果がある。
 実施例3では、見守り空間に不審者がいることを検知して警報を発する場合について説明する。監視システムの全体構成は、実施例2(図6)と同様である。
 図10は、実施例3におけるホームサーバ2の構成例を示すブロック図である。実施例2(図7)のホームサーバ2の構成と比較し、ストレージ部24には、基本プログラム24a、見守り監視プログラム24b、顔情報登録データ24cの他に、不審者パターン登録データ24dと、画像データ保存部24eを含む。
 不審者パターン登録データ24dは、人物が故意に顔を隠すような外観状況を、不審者パターンとして登録したデータである。例えば不審者パターンとしては、人物が、フルフェースのヘルメットや、目出し帽や、マスクとサングラスなどを装着している状況が該当する。画像データ保存部24eは、監視カメラからの撮影画像データ(加工描画処理前)を保存する。
 人物検出部201は検出した人物について不審者パターン登録データ24dと照合して、不審者パターンに該当するかどうかを判定する。不審者パターンに該当すると判定した場合、アラーム情報を作成して表示端末8へ報知する。またその場合は、加工描画部202は撮影画像に対して、加工描画処理を行なわず、画像データ保存部24eに保存した監視カメラからの撮影画像データ(加工描画処理前)を表示端末8へ送信する。
 図11は、表示端末8に表示される監視画像80の例を示す図である。ここでは、複数の人物3a~3cが検出され、そのうち人物3bと3cは顔情報登録データ24cに顔情報が登録された被見守り人である。一方人物3aは、顔情報登録データ24cに顔情報が登録されておらず、かつ、不審者パターン登録データ24dに登録された不審者パターン39(例えばヘルメットを装着)に該当している場合を想定する。
 人物検出部201が人物の中に不審者パターンに該当する人物3aを検出すると、「不審者がいます」等のアラーム情報89を作成し、監視画像80に含めて表示端末8に送信し表示させる。あるいはアラーム情報を表示端末8に音声で伝えてもよい。その場合、加工描画部202は撮影画像に対して、不審者と判定した人物3aは勿論のこと、登録された人物3bと3cについても加工描画処理を行わない。不審者がいる場合は異常事態であるから、見守り人7に対し、検出した各人物の状況を詳細に知らせる必要があるからである。
 図12は、見守り監視処理のフローチャートを示す図である。実施例2(図9)に示した処理と同様の処理を行うステップについては、同一符号を付与し、重複する説明を省略する。図12のフローチャートでは、S123~S125の異常処理が追加されている。
 S120では、人物検出部201は不審者パターン登録データ24dと照合して、不審者パターンに該当する人物を検出すると、S123以降の異常処理に進む。またS121では、不審者パターンには該当しないが、顔情報が顔情報登録データ24cの登録データに一致しないときは、被見守り人以外の意図されていない人物としてS123以降の異常処理に進む。
 さらにS122では、システム権限の上位者(例えば見守り人)から加工描画処理を停止するよう指示された場合にも、S123以降の異常処理に進むようにする。これは、見守り人が詳細画像を要求するような場合である。
 S123では、アラーム情報89を作成し表示端末2に送信する。見守り人7が表示端末8を見ていない場合も考慮し、音声やメール等で発信してもよい。S124では、撮影画像を画像データ保存部24eに保存する。これにより、異常発生時の画像データを解析し、不審者等の特定などに利用できる。S125では、加工描画処理された画像データではなく、画像データ保存部24eに保存された撮影画像データをそのまま表示端末8へ送信する。
 上記した異常処理(S123~S125)を行う条件は、上記の場合に限らない。被見守り人が独居老人のように被見守り人の数が限定されている場合で、画像データの中に登録した顔情報の数以上の人を検知した場合、直ちに異常処理を行うように設定してもよい。例えば顔情報登録データ24cに、人物3bと3cの2人分の顔情報が登録されている状況で、図11のように3人の人物3a~3cが検出された状況がこれに該当する。
 また、異常処理を実行する条件は、システム権限の上位者(見守り者)が適宜設定することで、ユーザにとって使い勝手の良いシステムが実現できる。
 以上のように実施例3によれば、見守り空間に不審者がいるなどの異常事態を素早く検知して、見守り人に知らせることができるという効果がある。
 前記実施例1~3においては、監視カメラ1とホームサーバ2とは別体として説明したが、実施例4では、両者を一体化した構成について説明する。
 図13Aと図13Bは、サーバ一体型監視カメラの2つの構成例を示すブロック図である。図13Aは、図2Aの監視カメラ1と、実施例2(図7)のホームサーバ2の機能を一体化した場合を示す。図13Bは、図2Bの監視カメラ1(測距機能付き)と、実施例2(図7)のホームサーバ2の機能を一体化した場合を示す。
 これらサーバ一体型監視カメラ1bの構成では、ホームサーバ2はコントローラ14aと称し、ストレージ部24には、監視カメラ1の制御を司るカメラ制御プログラム24fを追加している。またネットワーク部21は、加工描画処理した画像の合成画像データを外部ネットワーク5に送出するが、直接ネットワークに送出してもよく、見守り空間4にアクセスポイントを配置してこれを経由して送出してもよい。サーバ一体型監視カメラ1bにおけるコントローラ14aは、他の実施例(図3、図10)の構成としてもよいことは言うまでもない。
 実施例4によれば、監視カメラ1とホームサーバ2とが一体化されているので、監視装置の全体サイズが小型化し、また装置の設置が容易になる効果がある。
 実施例5では、複数台の監視カメラを設置して複数の監視画像を表示する場合、同一の人物については共通の加工描画処理を行うことについて説明する。
 図14は、実施例5に係る監視システムの全体構成を示す図である。見守り空間4には複数台(ここでは2台)の監視カメラ101,102を設置している。各監視カメラ101,102は、図2Aまたは図2Bに示した監視カメラ1と同じ構成であり、これらを共通のホームサーバ2に接続する。ここでは、実施例2(図7)に示すホームサーバ2を適用している。ホームサーバ2は、監視カメラ101,102のそれぞれの撮影画像に対し加工描画処理を行う。そして、見守り人7からの要求で、監視カメラ101,102の画像を切り替えて表示端末8に送信する。複数台の監視カメラを用いることで、見守り空間4が広い場合でも、領域を分割して全体を監視することができる。
 図15Aと図15Bは、表示端末8に表示される監視画像の例を示す図で、図15Aは監視カメラ101からの監視画像81、図15Bは監視カメラ102からの監視画像82を示す。監視カメラ101、102の監視領域は、見守り空間4の一部の領域を重複させているため、同一人物が両方の監視画像81、82に出現されることがある。本例では、人物3bが両方の監視画像81、82に含まれている。このような場合、加工描画部202は、同一の人物3bに対しては2つの監視画像間で加工描画処理を共通化し、同じ色付け、同じ濃淡処理を行う。一方、他の人物3a、3cに対してはこれと異なる加工描画処理を行う。これにより、監視カメラ101、102の選択を切り替えたときに、同一人物には同じ加工描画が施されているので、見守り人は、即座に同一人物であることが分かり、監視空間が分割されていてもこれらを統合して容易に認識することできる。
 図16は、見守り監視処理のフローチャートを示す図である。実施例2(図9)に示した処理と同様の処理を行うステップについては、同一符号を付与している。
 図16のフローチャートでは、S130のステップを追加し、複数の監視カメラに対応して、S102~S106の人物検出処理を監視カメラの数だけ繰り返す。
 S131では、人物検出部201は複数の監視カメラに写っている同一人物を特定する。S132では、表示端末8側から、監視画像を送信すべき監視カメラの選択情報を受信する。S107以降では、選択された監視カメラの撮影画像に対して加工描画処理を行うが、S131で同一人物として特定された人物に対しては共通の加工描画を行う。なお、S105の顔データ照合で未登録の人物に対しては、実施例2の場合と同様に加工描画を行わない。S113では、選択された監視カメラの監視画像を表示端末8へ送信する。
 以上のように実施例5によれば、複数の監視カメラを備える見守り監視装置において、監視カメラを切り替えながら監視を行うことで、分割された見守り空間を連続した空間として捉えるとともに、複数の監視画像間で同一の被見守り人を容易に識別することができるという効果がある。
 実施例6では、監視システムの管理装置であるサーバをネットワーク上に配置した構成について説明する。
 図17は、実施例6に係る監視システムの全体構成を示す図である。本実施例の監視システムは、実施例1(図1)や実施例2(図6)におけるホームサーバ2の機能を、ネットワーク5上に配置したサーバ9により実現する構成である。この構成は、ネットワークを介して見守り監視を商用サービスとして提供するのに好適な形態である。
 新たな構成として、ネットワーク5上に配置される管理装置であるサーバ9と、監視カメラ1の撮影画像を中継するアクセスポイント60を追加している。アクセスポイント60は、監視カメラ1で撮影された画像データを、通信信号60a、ネットワーク5を介して、サーバ9に送信する。サーバ9では監視カメラ1の撮影画像に加工描画処理を行い、アクセスポイント6を介して表示端末8へ送信する。
 図18は、実施例6におけるサーバ9の構成例を示すブロック図である。基本構成は実施例2(図7)の構成を適用した場合で、ネットワーク部91、CPU92、RAM93、ストレージ部94を備える。ストレージ部94には、処理プログラムやデータとして、基本プログラム94a、ユーザ管理プログラム94b、見守り監視サービスプログラム94c、顔情報登録データ94dを含む。ここでユーザ管理プログラム94bは、見守り監視サービスの提供先であるユーザを管理する。図17の見守り空間4は、サービスの提供先である特定のユーザの空間となる。顔情報登録データ94dには、ユーザ毎の被見守り人の顔データを予め登録したものである。また処理プログラムやデータは、RAM93に展開して、CPU92で実行する。ストレージ部94はフラッシュROMなどの半導体で構成されるもの、ハードディスクと組み合わせて構成されるものなど、その構成方法が限定されるものではない。
 図19は、見守り監視処理のフローチャートを示す図である。以下の処理は、見守り監視サービスプログラム94cにより実行される。実施例2(図9)に示した処理と同様の処理を行うステップについては、同一符号を付与している。
 S100で処理を開始し、S140で見守り監視サービスへのログインを行う。ログインは、サーバ9とユーザの監視カメラ1とを紐付ける。
 S102で監視カメラからの画像データを受信する。以降のステップは、図9の処理フローと同様である。
 以上説明したように実施例6によれば、複数のユーザに対応した商用の見守り監視サービスに適用できるという効果を有する。
 なお、上記の各実施例において、通信信号1a、2a、6a、8a等は、無線信号をイメージした図になっているが、これは有線信号であってもよく、さらに、通信部におけるデータ量を削減するために、例えばH.264等の画像圧縮伸長技術を用いても、本発明の目的、効果を損なうものではない。
 以上説明した各実施例は、これらに限られるものではなく、ある実施例の構成の一部を他の実施例に置き換えることが可能である。また、ある実施例の構成に、他の実施例の構成を加えることも可能である。これらは全て本発明の範疇に属するものであり、さらに文中や図中に現れる数値やメッセージ等もあくまで一例であり、異なるものを用いても本発明の効果を損なうものでない。
 また、実施例で述べた機能ブロック等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実装しても良い。また、マイクロプロセッサユニット、CPU等が動作プログラムを解釈して実行することによりソフトウェアで実装しても良い。また、ソフトウェアの実装範囲を限定するものでなく、ハードウェアとソフトウェアを併用しても良い。
 1、1b、101、102:監視カメラ、2:ホームサーバ、3、3a~3c、30:人物(被見守り人)、4:見守り空間、5:ネットワーク、6、60:アクセスポイント、7:見守り人、8:表示端末、9:サーバ、21:ネットワーク部、22:CPU、23:RAM、24、94:ストレージ部、24b:見守り監視プログラム、94c:見守り監視サービスプログラム、24c、94d:顔情報登録データ、24d:不審者パターン登録データ、24e:画像データ保存部、24f:カメラ制御プログラム、31:頭部、32~34:身体部位、39:不審者パターン、80、81、82:監視画像、201:人物検出部、202:加工描画部、203:画像合成部。

Claims (14)

  1.  被見守り人の居る見守り空間を撮影する監視カメラと、
     前記監視カメラで取得した撮影画像から人物を検出し、検出した人物を顔部および身体部位に区分する人物検出部と、
     前記人物検出部が区分した顔部を除く身体部位に対して加工描画処理を行う加工描画部と、
     前記加工描画処理を行った画像と前記撮影画像との合成画像を作成する画像合成部と、
     前記合成画像を見守り人の表示端末に送信するネットワーク部と、
     を備えることを特徴とする見守り監視装置。
  2.  請求項1に記載の見守り監視装置において、
     被見守り人の顔情報を登録した顔情報登録データを有し、
     前記人物検出部は、検出した人物の顔情報を前記顔情報登録データの登録データと照合し、検出した人物が登録されているかどうかを判定し、
     判定の結果、検出した人物が登録されている場合には、その人物について前記加工描画部による加工描画処理を行い、検出した人物が登録されていない場合には、その人物について前記加工描画部による加工描画処理を行わないことを特徴とする見守り監視装置。
  3.  請求項1または2に記載の見守り監視装置において、
     見守り監視の異常処理として、アラーム情報を作成して前記表示端末へ送信する処理、または前記監視カメラの撮影画像を加工描画処理を行わずに前記表示端末へ送信する処理を行うことを特徴とする見守り監視装置。
  4.  請求項3に記載の見守り監視装置において、
     不審者の外観状況を不審者パターンとして登録した不審者パターン登録データを有し、
     前記人物検出部は、検出した人物を前記不審者パターン登録データと照合し、不審者パターンに該当すると判定した場合、前記異常処理を実行することを特徴とする見守り監視装置。
  5.  請求項3に記載の見守り監視装置において、
     前記人物検出部は、検出した人物が被見守り人以外の意図しない人物と判定した場合、あるいは、前記人物検出部で検出した人物の数が被見守り人として登録された人物の数よりも多い場合、前記異常処理を実行することを特徴とする見守り監視装置。
  6.  請求項1または2に記載の見守り監視装置において、
     前記監視カメラを複数台設置して複数の撮影画像を取得する構成であって、
     前記人物検出部により同一の人物が複数の撮影画像に含まれると判定した場合、前記加工描画部は、同一の人物に対しては複数の撮影画像間で共通の加工描画処理を行うことを特徴とする見守り監視装置。
  7.  見守り空間の外部のネットワーク上に配置された管理装置により見守りを行う見守り監視装置において、
     前記管理装置は、
     被見守り人の居る見守り空間を撮影する監視カメラからの撮影画像を受信するネットワーク部と、
     被見守り人の顔情報を登録した顔情報登録データと、
     前記監視カメラで取得した撮影画像から人物を検出し、検出した人物を顔部および身体部位に区分する人物検出部と、
     前記人物検出部が区分した顔部を除く身体部位に対して加工描画処理を行う加工描画部と、
     前記加工描画処理を行った画像と撮影画像との合成画像を作成する画像合成部と、を備え、
     前記合成画像を前記ネットワーク部を介して見守り人の表示端末に送信するものであって、
     前記人物検出部は、検出した人物の顔情報を前記顔情報登録データの登録データと照合し、検出した人物が登録されているかどうかを判定し、
     判定の結果、検出した人物が登録されている場合には、その人物について前記加工描画部による加工描画処理を行い、検出した人物が登録されていない場合には、その人物について前記加工描画部による加工描画処理を行わないことを特徴とする見守り監視装置。
  8.  請求項1ないし7のいずれかに記載の見守り監視装置において、
     前記加工描画部は、顔部を除く身体部位に対して色付け処理を行うことを特徴とする見守り監視装置。
  9.  請求項1ないし8のいずれかに記載の見守り監視装置において、
     前記監視カメラは、さらに、撮影対象までの距離を測定する機能を有し、
     前記加工描画部は、前記監視カメラが取得した測距データに応じて、顔部を除く身体部位に対して濃淡処理を行うことを特徴とする見守り監視装置。
  10.  被見守り人の居る見守り空間の撮影画像を取得する画像取得ステップと、
     前記撮影画像から人物を検出し、検出した人物を顔部および身体部位に区分する人物検出ステップと、
     前記人物検出ステップで区分した顔部を除く身体部位に対して加工描画処理を行う加工描画ステップと、
     前記加工描画処理を行った画像と前記撮影画像との合成画像を作成する画像合成ステップと、
     前記合成画像を見守り人の表示端末に送信する送信ステップと、
     を備えることを特徴とする見守り監視方法。
  11.  請求項10に記載の見守り監視方法において、
     予め被見守り人の顔情報を顔情報登録データに登録するステップを有し、
     前記人物検出ステップでは、検出した人物の顔情報を前記顔情報登録データと照合し、検出した人物が登録されているかどうかを判定し、
     判定の結果、検出した人物が登録されている場合には、その人物について前記加工描画ステップによる加工描画処理を行い、検出した人物が登録されていない場合には、その人物について前記加工描画ステップによる加工描画処理を行わないことを特徴とする見守り監視方法。
  12.  請求項10または11に記載の見守り監視方法において、
     予め不審者の外観状況を不審者パターンとして不審者パターン登録データに登録するステップと、
     アラーム情報を作成して前記表示端末へ送信する処理、または前記撮影画像を加工描画処理を行わずに前記表示端末へ送信する処理を行う異常処理ステップとを有し、
     前記人物検出ステップでは、検出した人物を前記不審者パターン登録データと照合し、不審者パターンに該当すると判定した場合、前記異常処理ステップを実行することを特徴とする見守り監視方法。
  13.  請求項10または11に記載の見守り監視方法において、
     前記画像取得ステップでは、前記見守り空間に対する複数の撮影画像を取得し、
     前記人物検出ステップにより同一の人物が複数の撮影画像に含まれると判定した場合、前記加工描画ステップでは、同一の人物に対しては複数の撮影画像間で共通の加工描画処理を行うことを特徴とする見守り監視方法。
  14.  請求項10ないし13のいずれかに記載の見守り監視方法において、
     前記加工描画ステップでは、顔部を除く身体部位に対する色付け処理と、撮影対象までの測距データに応じて身体部位に対する濃淡処理のいずれか、もしくは両方の処理を行うことを特徴とする見守り監視方法。
PCT/JP2020/022794 2020-06-10 2020-06-10 見守り監視装置および見守り監視方法 WO2021250805A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202080101683.3A CN115943626A (zh) 2020-06-10 2020-06-10 看护监视装置以及看护监视方法
JP2022530420A JP7516515B2 (ja) 2020-06-10 2020-06-10 見守り監視装置および見守り監視方法
PCT/JP2020/022794 WO2021250805A1 (ja) 2020-06-10 2020-06-10 見守り監視装置および見守り監視方法
US18/008,919 US20230300296A1 (en) 2020-06-10 2020-06-10 Watching monitoring device and watching monitoring method
JP2024107555A JP2024125422A (ja) 2020-06-10 2024-07-03 見守り監視装置および見守り監視方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/022794 WO2021250805A1 (ja) 2020-06-10 2020-06-10 見守り監視装置および見守り監視方法

Publications (1)

Publication Number Publication Date
WO2021250805A1 true WO2021250805A1 (ja) 2021-12-16

Family

ID=78845558

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022794 WO2021250805A1 (ja) 2020-06-10 2020-06-10 見守り監視装置および見守り監視方法

Country Status (4)

Country Link
US (1) US20230300296A1 (ja)
JP (2) JP7516515B2 (ja)
CN (1) CN115943626A (ja)
WO (1) WO2021250805A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287287A (ja) * 2005-03-31 2006-10-19 Hitachi Ltd 画像処理装置およびそのシステム及びそれらのプログラムの記録媒体
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
JP2012212967A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 画像監視装置
JP2014197263A (ja) * 2013-03-29 2014-10-16 シャープ株式会社 見守りサービスシステム、見守りサービス方法、通信端末装置、見守り通知方法、及びコンピュータプログラム
JP2017037385A (ja) * 2015-08-07 2017-02-16 公立大学法人大阪市立大学 見守りシステム、情報処理方法、及びプログラム
JP2017188771A (ja) * 2016-04-05 2017-10-12 株式会社東芝 撮影システムおよび画像や映像の表示方法
WO2018092378A1 (ja) * 2016-11-17 2018-05-24 シャープ株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014194439A1 (en) * 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding
JP5707562B1 (ja) * 2014-05-23 2015-04-30 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP6128468B2 (ja) * 2015-01-08 2017-05-17 パナソニックIpマネジメント株式会社 人物追尾システム及び人物追尾方法
US9852543B2 (en) * 2015-03-27 2017-12-26 Snap Inc. Automated three dimensional model generation
US10796480B2 (en) * 2015-08-14 2020-10-06 Metail Limited Methods of generating personalized 3D head models or 3D body models
EP3207823A1 (en) * 2016-02-16 2017-08-23 Braun GmbH Interactive system setup concept
JP2019114821A (ja) * 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
JP7489633B2 (ja) * 2017-08-02 2024-05-24 株式会社木村技研 セキュリティ管理システム
US11735018B2 (en) * 2018-03-11 2023-08-22 Intellivision Technologies Corp. Security system with face recognition
EP4141583A4 (en) * 2020-05-26 2023-11-01 Yunding Network Technology (Beijing) Co., Ltd. METHOD AND SYSTEM FOR APPARATUS CONTROL

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287287A (ja) * 2005-03-31 2006-10-19 Hitachi Ltd 画像処理装置およびそのシステム及びそれらのプログラムの記録媒体
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
JP2012212967A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 画像監視装置
JP2014197263A (ja) * 2013-03-29 2014-10-16 シャープ株式会社 見守りサービスシステム、見守りサービス方法、通信端末装置、見守り通知方法、及びコンピュータプログラム
JP2017037385A (ja) * 2015-08-07 2017-02-16 公立大学法人大阪市立大学 見守りシステム、情報処理方法、及びプログラム
JP2017188771A (ja) * 2016-04-05 2017-10-12 株式会社東芝 撮影システムおよび画像や映像の表示方法
WO2018092378A1 (ja) * 2016-11-17 2018-05-24 シャープ株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US20230300296A1 (en) 2023-09-21
CN115943626A (zh) 2023-04-07
JP2024125422A (ja) 2024-09-18
JP7516515B2 (ja) 2024-07-16
JPWO2021250805A1 (ja) 2021-12-16

Similar Documents

Publication Publication Date Title
US9298969B2 (en) Information processing device and storage medium, for replacing a face image
JP2921936B2 (ja) 画像監視装置
CN109196850B (zh) 摄像装置和摄像系统
KR101215948B1 (ko) 신체정보 및 얼굴인식에 기반한 감시 시스템의 영상정보 마스킹 방법
US7106885B2 (en) Method and apparatus for subject physical position and security determination
KR101133924B1 (ko) 행동패턴 데이터베이스를 이용한 능동형 영상감시 시스템 및 그 방법
KR101514061B1 (ko) 노인 관리용 무선 카메라 장치 및 이를 통한 노인 관리 시스템
CN107015638A (zh) 用于向头戴式显示器用户报警的方法和装置
WO2016042946A1 (ja) 監視システム
EP3343524A1 (en) Alarm masking based on gaze in video management system
JP2017208616A (ja) 画像処理装置、画像処理方法、およびプログラム
US11904869B2 (en) Monitoring system and non-transitory storage medium
GB2526575A (en) Communications system
WO2021250805A1 (ja) 見守り監視装置および見守り監視方法
KR20190085376A (ko) 출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치 및 그의 영상 제공 방법
JP2014154129A (ja) 装備認識システム
JP6720010B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7371764B2 (ja) 情報登録装置、情報登録システム、情報登録方法およびコンピュータプログラム
JP2005269473A (ja) 監視システム
JP2011227677A (ja) 通報装置
WO2018096806A1 (ja) 被監視者監視装置用設定装置および該方法ならびに被監視者監視システム
JPWO2018096805A1 (ja) 被監視者監視装置用設定装置および該方法ならびに被監視者監視システム
JP6808532B2 (ja) 警備システム、管理装置及び警備方法
JP2016110246A (ja) 帽子、情報処理装置、情報処理システム、情報処理方法、及びプログラム
Sporrer et al. NIR camera based person detection in the working range of industrial robots

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20940141

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022530420

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20940141

Country of ref document: EP

Kind code of ref document: A1