WO2021014873A1 - 監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2021014873A1
WO2021014873A1 PCT/JP2020/024871 JP2020024871W WO2021014873A1 WO 2021014873 A1 WO2021014873 A1 WO 2021014873A1 JP 2020024871 W JP2020024871 W JP 2020024871W WO 2021014873 A1 WO2021014873 A1 WO 2021014873A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
frame
image
monitoring
safe
Prior art date
Application number
PCT/JP2020/024871
Other languages
English (en)
French (fr)
Inventor
永記 石寺
Original Assignee
Necソリューションイノベータ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソリューションイノベータ株式会社 filed Critical Necソリューションイノベータ株式会社
Priority to JP2021533882A priority Critical patent/JP7485449B2/ja
Publication of WO2021014873A1 publication Critical patent/WO2021014873A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61BRAILWAY SYSTEMS; EQUIPMENT THEREFOR NOT OTHERWISE PROVIDED FOR
    • B61B1/00General arrangement of stations, platforms, or sidings; Railway networks; Rail vehicle marshalling systems
    • B61B1/02General arrangement of stations and platforms including protection devices for the passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a monitoring device and a monitoring method for monitoring a dangerous state of a person such as a fall from a step, and further to a computer-readable recording medium in which a program for realizing these is recorded.
  • Patent Document 1 discloses a system for monitoring a person existing in a platform and a train invading the platform by using a surveillance camera.
  • the system disclosed in Patent Document 1 determines from the image of the surveillance camera whether or not a person exists in the set area on the home, and further, whether or not the person comes into contact with the train.
  • the system disclosed in Patent Document 1 determines that a person exists in the set area, it outputs an alarm from the home speaker to call attention. Further, the system disclosed in Patent Document 1 outputs a train stop signal to the train when it is determined that a person has come into contact with the train.
  • Patent Document 2 discloses a monitoring system that detects a person who falls from a railroad track to a platform by using a stereo camera.
  • a stereo camera In the system disclosed in Patent Document 2, a plurality of stereo cameras are prepared and arranged at intervals along the edge of the home. These multiple stereo cameras capture the entire edge of the home.
  • the system disclosed in Patent Document 2 detects a person at the edge of the home when a person at the edge of the home is photographed by either stereo camera, and further uses two images obtained from the stereo camera. By doing so, the distance from the camera of the detected person is calculated, and this is used as the distance information.
  • the system disclosed in Patent Document 1 uses an image and distance information to track a person at the edge of the home, outputs an alarm when the person gets too close to the edge of the home, and detects a fall. If so, a stop signal is sent to the train.
  • the system disclosed in Patent Document 1 only determines whether or not a person exists in the setting area on the home. Therefore, the system disclosed in Patent Document 1 may not be able to detect a person who is about to fall when the person is about to fall from the home, that is, when most of the body has come out of the set area. There is. Further, the system disclosed in Patent Document 1 targets only stations where there is no station employee on the platform, and if the station employee monitors the edge of the platform, the station employee is erroneously detected.
  • An example of an object of the present invention provides a monitoring device, a monitoring method, and a computer-readable recording medium capable of accurately detecting a dangerous state while solving the above-mentioned problems and suppressing an increase in the cost of the system. To do.
  • the monitoring device in one aspect of the present invention is A target detection unit that detects an object existing in the monitoring area from an image of the monitoring area and sets a frame surrounding the detected object on the image.
  • the boundary line separating the safe area and the non-safe area on the image is compared with the frame, and when the boundary line crosses the frame, the safety area is included and the outer edge of the frame and the frame are described.
  • a partial safety area extraction unit that extracts the area surrounded by the boundary line as a partial safety area, A portion corresponding to the partial safety region is extracted from the reference image in the monitoring region, a difference between the extracted portion and the partial safety region is calculated, and the target is safe based on the calculated value of the difference.
  • Judgment processing unit that determines whether or not there is It is characterized by having.
  • the monitoring method in one aspect of the present invention is: A setting step of detecting an object existing in the monitoring area from an image of the monitoring area and setting a frame surrounding the detected object on the image.
  • the boundary line separating the safe area and the non-safe area on the image is compared with the frame, and when the boundary line crosses the frame, the safety area is included and the outer edge of the frame and the frame are described.
  • An extraction step that extracts the area surrounded by the boundary line as a partial safety area, A portion corresponding to the partial safety region is extracted from the reference image in the monitoring region, a difference between the extracted portion and the partial safety region is calculated, and the target is safe based on the calculated value of the difference.
  • the computer-readable recording medium in one aspect of the present invention is used.
  • the boundary line separating the safe area and the non-safe area on the image is compared with the frame, and when the boundary line crosses the frame, the safety area is included and the outer edge of the frame and the frame are described.
  • An extraction step that extracts the area surrounded by the boundary line as a partial safety area A portion corresponding to the partial safety region is extracted from the reference image in the monitoring region, a difference between the extracted portion and the partial safety region is calculated, and the target is safe based on the calculated value of the difference.
  • FIG. 1 is a block diagram showing a schematic configuration of a monitoring device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing more specifically the configuration of the monitoring device according to the embodiment of the present invention.
  • 3 (a) and 3 (b) are diagrams showing an example of a target detection process according to the embodiment of the present invention, respectively.
  • 4 (a) and 4 (b) are diagrams showing an example of the difference calculation process according to the embodiment of the present invention, respectively.
  • FIG. 5 is a flow chart showing the operation of the monitoring device according to the embodiment of the present invention.
  • FIG. 6 is a block diagram showing an example of a computer that realizes the monitoring device according to the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of a monitoring device according to an embodiment of the present invention.
  • the monitoring device 10 in the present embodiment shown in FIG. 1 is a device for monitoring a dangerous state of a person such as a person falling from a step.
  • the monitoring device 10 includes a target detection unit 11, a partial safety area extraction unit 12, and a determination processing unit 13.
  • the target detection unit 11 detects a target existing in the monitoring area from the image of the monitoring area, and sets a frame surrounding the detected target on the image.
  • the target here is a person.
  • a monitoring area for example, a platform of a station can be mentioned.
  • the partial safety area extraction unit 12 compares the boundary line separating the safe area and the non-safe area and the frame on the image. Further, the partial safety area extraction unit 12 extracts the area including the safety area and surrounded by the outer edge of the frame and the boundary line as the partial safety area when the boundary line crosses the frame.
  • the determination processing unit 13 extracts a part corresponding to the partial safety area from the reference image in the monitoring area, calculates the difference between the extracted part and the partial safety area, and the target is based on the calculated value of the difference. Determine if it is safe.
  • the determination is made based on the difference between the partial safety area and the corresponding area of the reference image, when most of the body of the target person has come out of the safety area. Even so, the dangerous state can be reliably detected. Further, since the distance information is not required for the determination, the increase in the cost of the system is suppressed. That is, according to the present embodiment, it is possible to accurately detect a dangerous state while suppressing an increase in the cost of the system.
  • FIG. 2 is a block diagram showing more specifically the configuration of the monitoring device according to the embodiment of the present invention.
  • the monitoring device 10 is connected to the imaging device 20 and the display device 30.
  • the image pickup device 20 is a surveillance camera, and outputs image data of captured images in the surveillance area at a set frame rate.
  • the display device 30 is a liquid crystal display device or the like, and displays a monitoring image, a determination result by the monitoring device 10, and the like on the screen.
  • the monitoring device 10 includes an image data acquisition unit 14 and a display unit 15 in addition to the target detection unit 11, the partial safety area extraction unit 12, and the determination processing unit 13 described above. I have.
  • the image data acquisition unit 14 acquires the image data output from the image pickup apparatus 20. Further, the image data acquisition unit 14 outputs the acquired image data to the target detection unit 11 and the display unit 15. When the image data is output, the display unit 15 sends the image data to the display device 30 to display the captured image.
  • the target detection unit 11 detects a person who is the detection target in the image data, and sets a rectangular frame surrounding the person. Specifically, the target detection unit 11 identifies a region having a feature amount indicating a person while scanning an image of image data. Since this specified area corresponds to a person, the target detection unit 11 sets a rectangular frame surrounding the specified area. Further, the feature amount representing a person is obtained, for example, by performing machine learning in advance using an image of a person as teacher data.
  • 3 (a) and 3 (b) are diagrams showing an example of a target detection process according to the embodiment of the present invention, respectively.
  • a boundary line 41 that separates the safe area A and the unsafe area B is set in the image 40.
  • the monitoring area is the platform of the station.
  • the boundary line 41 is set along the edge of the platform, the area of the platform is the safe area A, and the area where the track exists is the unsafe area B.
  • the target detection unit 11 detects a person 51 and a person 52 as targets, and sets a frame 53 and a frame 54 for each. Further, in the example of FIG. 3B, the target detection unit 11 detects a person 55 and a person 56 as targets, and sets a frame 57 and a frame 58 for each.
  • the partial safety area extraction unit 12 compares the boundary line 41 with each frame set for each person, and determines whether or not there is a frame crossing the boundary line 41. When there is a frame that the boundary line 41 crosses, the partial safety area extraction unit 12 includes the safety area, and the area surrounded by the outer edge of this frame and the boundary line is the partial safety area. Extract as. Further, the partial safety area extraction unit 12 specifies the coordinates of the extracted partial safety area, and sends the specified coordinates to the determination processing unit 13.
  • the partial safety area extraction unit 12 determines that the boundary line 41 crosses the frame 54 set for the person 52 standing at the edge of the platform. , The hatched area a1 is extracted as a partial safety area. Further, also in the example of FIG. 3B, the partial safety area extraction unit 12 determines that the boundary line 41 crosses the frame 58 set for the person 56 standing at the edge of the platform, and hatching is performed. The region a2 is extracted as a partial safety region.
  • the determination processing unit 13 first acquires a reference image, and uses the coordinates of the partial safety region to refer to the portion corresponding to the partial safety region (hereinafter referred to as “partial safety region applicable portion”” from the reference image. Notation) is extracted.
  • the reference image is created, for example, by obtaining the average value of the pixel values for each pixel from a plurality of images obtained by photographing the monitoring area for a certain period of time and using the obtained average value as the pixel value of each pixel. ing. Further, as the reference image, an image of a monitoring area in a state where no person exists may be used.
  • the determination processing unit 13 calculates the difference between the partially safe area and the extracted partial safety area corresponding portion, as shown in FIGS. 4 (a) and 4 (b), respectively.
  • 4 (a) and 4 (b) are diagrams showing an example of the difference calculation process according to the embodiment of the present invention, respectively.
  • FIG. 4A shows the calculation process of the difference for the partial safety region shown in FIG. 3A
  • FIG. 4B shows the calculation of the difference for the partial safety region shown in FIG. 3B. Indicates processing.
  • the determination processing unit 13 determines whether or not the difference is equal to or greater than the threshold value in the present embodiment. As a result of the determination, when the difference is equal to or greater than the threshold value, most of the human beings are in the safe area, and the determination processing unit 13 determines that the difference is safe. On the other hand, if the difference is less than the threshold value as a result of the determination, most of the human beings are not in the safe area, and the determination processing unit 13 determines that the difference is not safe. Further, the determination processing unit 13 sends the determination result to the display unit 15.
  • the display unit 15 creates an image showing the determination result and sends the image data of the created image to the display device 30.
  • the determination result is displayed on the display screen of the display device 30.
  • the station staff can immediately know the unsafe situation. As a result, safety is more reliably ensured in railway operation.
  • FIG. 5 is a flow chart showing the operation of the monitoring device according to the embodiment of the present invention.
  • FIGS. 1 to 4 will be referred to as appropriate.
  • the monitoring method is implemented by operating the monitoring device. Therefore, the description of the monitoring method in the present embodiment will be replaced with the following description of the operation of the monitoring device 10.
  • the image data acquisition unit 14 acquires the image data output from the image pickup apparatus 20 (step A1). Further, the image data acquisition unit 14 outputs the acquired image data to the target detection unit 11 and the display unit 15.
  • the target detection unit 11 determines whether or not a person to be detected exists in the image data acquired in step A1 (step A2). Specifically, in step A2, the target detection unit 11 determines whether or not a region having a feature amount indicating a person exists while scanning the image of the image data.
  • step A1 As a result of the determination in step A2, if no person exists, step A1 is executed again. On the other hand, if a person exists as a result of the determination in step A2, the target detection unit 11 sets a rectangular frame surrounding the existing person (step A3).
  • the partial safety area extraction unit 12 compares the boundary line 41 with each frame set in step A3, and determines whether or not there is a frame crossing the boundary line 41 (step A4). As a result of the determination in step A4, if there is no frame crossing the boundary line 41, step A1 is executed again. On the other hand, as a result of the determination in step A4, if there is a frame that crosses the boundary line 41, the partial safety area extraction unit 12 extracts the partial safety area from this frame (step A5).
  • the determination processing unit 13 extracts the part corresponding to the partial safety area from the reference image by using the coordinates of the partial safety area extracted in step A5 (step A6). Further, the determination processing unit 13 calculates the difference between the partial safety region extracted in step A5 and the partial safety region corresponding portion extracted in step A6 (step A7).
  • the determination processing unit 13 determines whether or not the difference calculated in step A7 is equal to or greater than the threshold value (step A8). As a result of the determination in step A8, if the difference is equal to or greater than the threshold value, the determination processing unit 13 determines that it is safe (step A9). On the other hand, if the difference is less than the threshold value as a result of the determination, the determination processing unit 13 determines that it is not safe (step A10).
  • step A9 or A10 the determination processing unit 13 sends the determination result to the display unit 15.
  • the display unit 15 creates an image showing the determination result, and outputs the image data of the created image to the display device 30 (step A11).
  • the determination result is displayed on the display screen of the display device 30.
  • step A11 When step A11 is executed, step A1 is executed again. Steps A1 to A11 are repeatedly executed as long as the monitoring device 10 is in operation. Further, steps A1 to A11 may be performed every single frame, or may be performed every two or more frames.
  • the monitoring area is the platform of the station
  • the monitoring area may be other than the platform of the station.
  • the monitoring area may be a production line in a factory or the like.
  • the monitoring device 10 can also determine whether or not a person has invaded the restricted area (around the machine, above the conveyor, etc.) set in the factory.
  • the determination processing unit 13 corresponds to the partial safety area of the reference image in addition to or instead of calculating the difference between the partial safety area corresponding portion of the reference image and the partial safety area. It is also possible to calculate the degree of similarity between the part and the partial safety area. In this case, the determination processing unit 13 determines whether or not the target person is safe based on the calculated similarity value. Specifically, the determination processing unit 13 determines that it is safe when the similarity is low, and determines that it is not safe when the similarity is high.
  • the program in the present embodiment may be any program that causes a computer to execute steps A1 to A11 shown in FIG. By installing this program on a computer and executing it, the monitoring device 10 and the monitoring method according to the present embodiment can be realized.
  • the computer processor functions as the target detection unit 11, the partial safety area extraction unit 12, the determination processing unit 13, the image data acquisition unit 14, and the display unit 15 to perform processing.
  • each computer may function as any of the target detection unit 11, the partial safety area extraction unit 12, the determination processing unit 13, the image data acquisition unit 14, and the display unit 15, respectively.
  • FIG. 6 is a block diagram showing an example of a computer that realizes the monitoring device according to the embodiment of the present invention.
  • the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. And. Each of these parts is connected to each other via a bus 121 so as to be capable of data communication. Further, the computer 110 may include a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array) in addition to the CPU 111 or in place of the CPU 111.
  • a GPU Graphics Processing Unit
  • FPGA Field-Programmable Gate Array
  • the CPU 111 executes various operations by expanding the program (code group) in the present embodiment stored in the storage device 113 into the main memory 112 and executing the codes constituting the program in a predetermined order.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the program according to the present embodiment is provided in a state of being stored in a computer-readable recording medium 120.
  • the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.
  • the storage device 113 include a semiconductor storage device such as a flash memory in addition to a hard disk drive.
  • the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and mouse.
  • the display controller 115 is connected to the display device 119 and controls the display on the display device 119.
  • the data reader / writer 116 mediates the data transmission between the CPU 111 and the recording medium 120, reads the program from the recording medium 120, and writes the processing result in the computer 110 to the recording medium 120.
  • the communication interface 117 mediates data transmission between the CPU 111 and another computer.
  • the recording medium 120 include a general-purpose semiconductor storage device such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), a magnetic recording medium such as a flexible disk, or a CD-.
  • CF Compact Flash
  • SD Secure Digital
  • a magnetic recording medium such as a flexible disk
  • CD- Compact Disk Read Only Memory
  • optical recording media such as ROM (Compact Disk Read Only Memory).
  • the monitoring device 10 in the present embodiment can also be realized by using hardware corresponding to each part instead of the computer on which the program is installed. Further, the monitoring device 10 may be partially realized by a program and the rest may be realized by hardware.
  • a target detection unit that detects an object existing in the monitoring area from an image of the monitoring area and sets a frame surrounding the detected object on the image.
  • the boundary line separating the safe area and the non-safe area on the image is compared with the frame, and when the boundary line crosses the frame, the safety area is included and the outer edge of the frame and the frame are described.
  • a partial safety area extraction unit that extracts the area surrounded by the boundary line as a partial safety area, A portion corresponding to the partial safety region is extracted from the reference image in the monitoring region, a difference between the extracted portion and the partial safety region is calculated, and the target is safe based on the calculated value of the difference.
  • Judgment processing unit that determines whether or not there is A monitoring device characterized by being equipped with.
  • Appendix 2 The monitoring device according to Appendix 1.
  • the determination processing unit calculates the similarity between the extracted portion and the partial safety region, and based on the calculated value of the similarity, Determining if the subject is safe, A monitoring device characterized by that.
  • the boundary line separating the safe area and the non-safe area on the image is compared with the frame, and when the boundary line crosses the frame, the safety area is included and the outer edge of the frame and the frame are described.
  • Judgment step to determine if there is, A monitoring method characterized by having.
  • Appendix 4 The monitoring method described in Appendix 3 In the determination step, in addition to the calculation of the difference, or instead of the calculation of the difference, the similarity between the extracted portion and the partial safety region is calculated, and the similarity is calculated based on the calculated value of the similarity. Determine if the subject is safe, A monitoring method characterized by that.
  • the boundary line separating the safe area and the non-safe area on the image is compared with the frame, and when the boundary line crosses the frame, the safety area is included and the outer edge of the frame and the frame are described.
  • a computer-readable recording medium that records a program, including instructions to execute.
  • Appendix 6 The computer-readable recording medium according to Appendix 5.
  • the similarity between the extracted portion and the partial safety region is calculated, and the similarity is calculated based on the calculated value of the similarity. Determine if the subject is safe, A computer-readable recording medium characterized by that.
  • the present invention it is possible to accurately detect a dangerous state while suppressing an increase in the cost of the system.
  • the present invention is useful for ensuring safety in, for example, station platforms, factories, and the like.
  • Imaging device 10
  • Monitoring device 11
  • Target detection unit 12
  • Partial safety area extraction unit 13
  • Judgment processing unit 14
  • Image data acquisition unit 15
  • Display unit 20
  • Imaging device 30
  • Display device 110
  • CPU 112
  • Main memory 113
  • Storage device 114
  • Input interface 115
  • Display controller 116
  • Data reader / writer 117
  • Communication interface 118
  • Input device 119
  • Recording medium 121 Bus

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

監視装置10は、監視領域の画像から、監視領域に存在する対象を検出し、画像上に、検出した対象を囲む枠を設定する、対象検出部11と、画像上において安全領域と非安全領域とを区切る境界線と、枠と、を比較し、境界線が枠を横切る場合に、安全領域を含み、且つ、枠の外縁と境界線とで囲まれた領域を、部分安全領域として抽出する、部分安全領域抽出部12と、監視領域における基準画像から、部分安全領域に該当する部分を抽出し、抽出した部分と部分安全領域との差分を算出し、算出した差分の値に基づいて、対象が安全であるかどうかを判定する、判定処理部13と、を備えている。

Description

監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、段差からの転落といった人の危険な状態を監視するための、監視装置、及び監視方法に関し、更には、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 駅のホームにおいて、人が線路に転落した場合は、電車を緊急停止する必要がある。このため、駅員は、目視を行うことによって、又は監視カメラの映像を確認することによって、監視を行っているが、これらの対策だけでは十分ではない。このため、近年においては、画像処理を利用した監視システムが提案されている(例えば、特許文献1及び2参照。)
 特許文献1は、監視カメラを用いて、ホームに存在する人とホームに侵入する列車とを監視するシステムを開示している。特許文献1に開示されたシステムは、監視カメラの画像から、ホーム上の設定領域に人が存在しているかどうか、更には、人が列車と接触したかどうを判定する。
 そして、特許文献1に開示されたシステムは、設定された領域に人が存在していると判定すると、ホームのスピーカから警報を出力して、注意を喚起する。また、特許文献1に開示されたシステムは、人が列車と接触したと判定した場合は、列車に、列車停止信号を出力する。
 また、特許文献2は、ステレオカメラを用いて、線路からホームに転落する人を検知する監視システムを開示している。特許文献2に開示されたシステムでは、ステレオカメラは複数台用意され、ホームの縁に沿って間隔をおいて配置されている。これらの複数台のステレオカメラによって、ホームの縁全体がくまなく撮影される。
 そして、特許文献2に開示されたシステムは、いずれかのステレオカメラによって、ホームの縁にいる人が撮影されると、この人を検出し、更に、ステレオカメラから得られた2つの画像を用いることで、検出した人のカメラからの距離を計算し、これを距離情報とする。その後、特許文献1に開示されたシステムは、画像と距離情報とを用いて、ホームの縁にいる人の追跡を行い、その人がホームの縁に近づき過ぎると警報を出力し、転落を検知した場合は、列車に停止信号を送信する。
特開2001-341642号公報 特開2004-058737号公報
 しかしながら、特許文献1に開示されたシステムは、ホーム上の設定領域に人が存在しているかどうかを判定するのみである。このため、特許文献1に開示されたシステムでは、人がホームから転落しかかっている場合、つまり、身体の大半が設定領域から出てしまっている場合に、転落しかかっている人を検出できない可能性がある。また、特許文献1に開示されたシステムは、ホームに駅員がいない駅のみを対象としており、駅員がホームの縁で監視をしている場合は、駅員を誤検出してしまう。
 一方、特許文献2に開示されたシステムによれば、画像と距離情報とを用いて、ホームの縁にいる人を追跡することができるため、特許文献1に開示されたシステムにおける問題を解消できると考えられる。
 しかしながら、ステレオカメラの視野角は狭いため、特許文献2に開示されたシステムを実現するためには、多数のステレオカメラが必要となる。また、ステレオカメラ自体のコストが、単眼カメラのコストよりも高くなっている。このため、特許文献2に開示されたシステムには、コストが大幅に上昇するという問題がある。
 本発明の目的の一例は、上記問題を解消し、システムにかかるコストの増加を抑制しつつ、危険な状態を精度良く検出し得る、監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面における監視装置は、
 監視領域の画像から、前記監視領域に存在する対象を検出し、前記画像上に、検出した前記対象を囲む枠を設定する、対象検出部と、
 前記画像上において安全領域と非安全領域とを区切る境界線と、前記枠と、を比較し、前記境界線が前記枠を横切る場合に、前記安全領域を含み、且つ、前記枠の外縁と前記境界線とで囲まれた領域を、部分安全領域として抽出する、部分安全領域抽出部と、
 前記監視領域における基準画像から、前記部分安全領域に該当する部分を抽出し、抽出した部分と前記部分安全領域との差分を算出し、算出した前記差分の値に基づいて、前記対象が安全であるかどうかを判定する、判定処理部と、
を備えている、ことを特徴とする。
 また、上記目的を達成するため、本発明の一側面における監視方法は、
 監視領域の画像から、前記監視領域に存在する対象を検出し、前記画像上に、検出した前記対象を囲む枠を設定する、設定ステップと、
 前記画像上において安全領域と非安全領域とを区切る境界線と、前記枠と、を比較し、前記境界線が前記枠を横切る場合に、前記安全領域を含み、且つ、前記枠の外縁と前記境界線とで囲まれた領域を、部分安全領域として抽出する、抽出ステップと、
 前記監視領域における基準画像から、前記部分安全領域に該当する部分を抽出し、抽出した部分と前記部分安全領域との差分を算出し、算出した前記差分の値に基づいて、前記対象が安全であるかどうかを判定する、判定ステップと、
を有する、ことを特徴とする。
 更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、
コンピュータに、
 監視領域の画像から、前記監視領域に存在する対象を検出し、前記画像上に、検出した前記対象を囲む枠を設定する、設定ステップと、
 前記画像上において安全領域と非安全領域とを区切る境界線と、前記枠と、を比較し、前記境界線が前記枠を横切る場合に、前記安全領域を含み、且つ、前記枠の外縁と前記境界線とで囲まれた領域を、部分安全領域として抽出する、抽出ステップと、
 前記監視領域における基準画像から、前記部分安全領域に該当する部分を抽出し、抽出した部分と前記部分安全領域との差分を算出し、算出した前記差分の値に基づいて、前記対象が安全であるかどうかを判定する、判定ステップと、
を実行させる命令を含む、プログラムを記録していることを特徴とする。
 以上のように、本発明によれば、システムにかかるコストの増加を抑制しつつ、危険な状態を精度良く検出することができる。
図1は、本発明の実施の形態における監視装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態における監視装置の構成をより具体的に示すブロック図である。 図3(a)及び図3(b)は、それぞれ、本発明の実施の形態における対象の検出処理の一例を示す図である。 図4(a)及び図4(b)は、それぞれ、本発明の実施の形態における差分の算出処理の一例を示す図である。 図5は、本発明の実施の形態における監視装置の動作を示すフロー図である。 図6は、本発明の実施の形態における監視装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
 以下、本発明の実施の形態における、監視装置、監視方法、及びプログラムについて、図1~図6を参照しながら説明する。
[装置構成]
 最初に、図1を用いて、本実施の形態における監視装置の概略構成について説明する。図1は、本発明の実施の形態における監視装置の概略構成を示すブロック図である。
 図1に示す、本実施の形態における監視装置10は、段差からの人の転落といった人の危険な状態を監視するための装置である。図1に示すように、監視装置10は、対象検出部11と、部分安全領域抽出部12と、判定処理部13とを備えている。
 対象検出部11は、監視領域の画像から、監視領域に存在する対象を検出し、画像上に、検出した対象を囲む枠を設定する。ここでいう対象としては、人が挙げられる。監視領域としては、例えば、駅のホームが挙げられる。
 部分安全領域抽出部12は、画像上において安全領域と非安全領域とを区切る境界線と、枠と、を比較する。更に、部分安全領域抽出部12は、境界線が枠を横切る場合に、安全領域を含み、且つ、枠の外縁と境界線とで囲まれた領域を、部分安全領域として抽出する。
 判定処理部13は、監視領域における基準画像から、部分安全領域に該当する部分を抽出し、抽出した部分と部分安全領域との差分を算出し、算出した前記差分の値に基づいて、対象が安全であるかどうかを判定する。
 このように、本実施の形態では、部分安全領域と基準画像の該当する領域との差分に基づいた判定が行われるので、対象となる人の身体の大半が安全領域から出てしまっている場合であっても、危険な状態を確実に検出できる。また、判定には、距離情報が必要とされないので、システムにかかるコストの増加は抑制される。つまり、本実施の形態によれば、システムにかかるコストの増加を抑制しつつ、危険な状態を精度良く検出することができる。
 続いて、図2~図4を用いて、本実施の形態における監視装置10の構成及び機能についてより具体的に説明する。図2は、本発明の実施の形態における監視装置の構成をより具体的に示すブロック図である。
 図2に示すように、本実施の形態では、監視装置10は、撮像装置20及び表示装置30に接続されている。撮像装置20は、監視カメラであり、監視領域の撮影画像の画像データを、設定されたフレームレートで出力する。表示装置30は、液晶表示装置等であり、監視画像、監視装置10による判定結果等を画面上に表示する。
 また、図2に示すように、監視装置10は、上述した、対象検出部11、部分安全領域抽出部12、及び判定処理部13に加えて、画像データ取得部14と、表示部15とを備えている。画像データ取得部14は、撮像装置20から出力されてきた画像データを取得する。また、画像データ取得部14は、取得した画像データを、対象検出部11と、表示部15とに出力する。表示部15は、画像データが出力されてくると、画像データを表示装置30に送り、撮影画像を表示させる。
 対象検出部11は、本実施の形態では、画像データ中に、検出対象である人が存在していると、その人を検出し、その人を囲む矩形の枠を設定する。具体的には、対象検出部11は、画像データの画像を走査しながら、人を示す特徴量を持った領域を特定する。この特定した領域が人に相当するので、対象検出部11は、特定した領域を囲む矩形の枠を設定する。また、人を表す特徴量は、例えば、予め、人が映った画像を教師データとした機械学習を行うことによって得られている。
 図3(a)及び図3(b)は、それぞれ、本発明の実施の形態における対象の検出処理の一例を示す図である。図3(a)及び(b)に示すように、画像40には、安全領域Aと非安全領域Bとを区切る境界線41が設定されている。図3(a)及び(b)の例では、監視領域は、駅のホームである。境界線41は、ホームの縁に沿って設定されており、ホームの領域が安全領域Aとなっており、線路が存在する領域が非安全領域Bとなっている。
 また、図3(a)の例では、対象検出部11は、対象として人51及び人52を検出し、それぞれに対して、枠53及び枠54を設定している。更に、図3(b)の例では、対象検出部11は、対象として人55及び人56を検出し、それぞれに対して、枠57及び枠58を設定している。
 部分安全領域抽出部12は、本実施の形態では、境界線41と人毎に設定した各枠とを比較し、境界線41が横切っている枠が存在しているかどうかを判定する。そして、境界線41が横切っている枠が存在している場合は、部分安全領域抽出部12は、安全領域を含み、且つ、この枠の外縁と境界線とで囲まれた領域を部分安全領域として抽出する。また、部分安全領域抽出部12は、抽出した部分安全領域の座標を特定し、特定した座標を判定処理部13に送る。
 具体的には、上述した図3(a)の例では、部分安全領域抽出部12は、境界線41が、ホームの端に立っている人52に設定した枠54を横切っていると判定し、ハッチングが施された領域a1を部分安全領域として抽出する。また、図3(b)の例でも、部分安全領域抽出部12は、境界線41が、ホームの端に立っている人56に設定した枠58を横切っていると判定し、ハッチングが施された領域a2を部分安全領域として抽出する。
 判定処理部13は、本実施の形態では、まず、基準画像を取得し、部分安全領域の座標を用いて、基準画像から、部分安全領域に該当する部分(以下「部分安全領域該当部分」と表記する)を抽出する。基準画像は、例えば、予め、監視領域を一定期間撮影して得られた複数画像から、画素毎の画素値の平均値を求め、求めた平均値を各画素の画素値とすることによって作成されている。また、基準画像としては、人が存在しない状態の監視領域の画像が用いられても良い。
 更に、判定処理部13は、図4(a)及び図4(b)それぞれに示すように、部分安全領域と抽出した部分安全領域該当部分との差分を算出する。図4(a)及び図4(b)は、それぞれ、本発明の実施の形態における差分の算出処理の一例を示す図である。図4(a)は、図3(a)に示した部分安全領域についての差分の算出処理を示し、図4(b)は、図3(b)に示した部分安全領域についての差分の算出処理を示している。
 そして、判定処理部13は、本実施の形態では、差分が閾値以上であるかどうかを判定する。判定の結果、差分が閾値以上である場合は、人の殆どの部分が安全領域上にあるので、判定処理部13は、安全であると判定する。一方、判定の結果、差分が閾値未満である場合は、人の殆どの部分が安全領域上にないので、判定処理部13は、安全でないと判定する。また、判定処理部13は、判定の結果を、表示部15に送る。
 表示部15は、判定結果が送られてくると、判定結果を示す画像を作成し、作成した画像の画像データを表示装置30に送る。これにより、表示装置30の表示画面には、判定結果が表示される。例えば、表示装置30が駅の管理室等に配置されている場合は、駅員は、安全でない状況を即座に知ることが出来る。この結果、鉄道運行において、安全がいっそう確実に確保されることになる。
[装置動作]
 次に、本発明の実施の形態における監視装置10の動作について図5を用いて説明する。図5は、本発明の実施の形態における監視装置の動作を示すフロー図である。以下の説明においては、適宜図1~図4を参照する。また、本実施の形態では、監視装置を動作させることによって、監視方法が実施される。よって、本実施の形態における監視方法の説明は、以下の監視装置10の動作説明に代える。
 図5に示すように、最初に、画像データ取得部14は、撮像装置20から出力されてきた画像データを取得する(ステップA1)。また、画像データ取得部14は、取得した画像データを、対象検出部11と、表示部15とに出力する。
 次に、対象検出部11は、ステップA1で取得された画像データ中に、検出対象である人が存在しているかどうかを判定する(ステップA2)。具体的には、ステップA2では、対象検出部11は、画像データの画像を走査しながら、人を示す特徴量を持った領域が存在しているかどうかを判定する。
 ステップA2の判定の結果、人が存在していない場合は、再度ステップA1が実行される。一方、ステップA2の判定の結果、人が存在している場合は、対象検出部11は、存在している人を囲む矩形の枠を設定する(ステップA3)。
 次に、部分安全領域抽出部12は、境界線41とステップA3で設定された各枠とを比較し、境界線41が横切っている枠が存在しているかどうかを判定する(ステップA4)。ステップA4の判定の結果、境界線41が横切っている枠が存在していない場合は、再度ステップA1が実行される。一方、ステップA4の判定の結果、境界線41が横切っている枠が存在している場合は、部分安全領域抽出部12は、この枠から部分安全領域を抽出する(ステップA5)。
 次に、判定処理部13は、ステップA5で抽出された部分安全領域の座標を用いて、基準画像から、部分安全領域該当部分を抽出する(ステップA6)。更に、判定処理部13は、ステップA5で抽出された部分安全領域と、ステップA6で抽出した部分安全領域該当部分との差分を算出する(ステップA7)。
 次に、判定処理部13は、ステップA7で算出した差分が閾値以上であるかどうかを判定する(ステップA8)。ステップA8の判定の結果、差分が閾値以上である場合は、判定処理部13は、安全であると判定する(ステップA9)。一方、判定の結果、差分が閾値未満である場合は、判定処理部13は、安全でないと判定する(ステップA10)。
 ステップA9又はA10が実行されると、判定処理部13は、判定結果を表示部15に送る。これにより、表示部15は、判定結果を示す画像を作成し、作成した画像の画像データを表示装置30に出力する(ステップA11)。これにより、表示装置30の表示画面には、判定結果が表示される。
 ステップA11が実行されると、再度ステップA1が実行される。ステップA1~A11は、監視装置10が稼働している限り、繰り返し実行される。また、ステップA1~A11は、単一のフレーム毎に行われていても良いし、2以上のフレーム毎に行われていても良い。
[実施の形態における効果]
 以上のように本実施の形態によれば、例えば、監視領域が駅のホームである場合に、線路から転落しようとしている人を精度良く検出することができる。転落の検出のために、距離情報が必要とされないので、システムにかかるコストの増加は抑制される。そして、本実施の形態によれば、表示装置30の画面から、駅員は、人がホームから転落しそうになっている状況を即座に知ることができるので、鉄道運行において、安全がいっそう確実に確保される。
[変形例]
 上述した例では、監視領域が駅のホームである場合について説明しているが、本実施の形態においては、監視領域は、駅のホーム以外であっても良い。例えば、監視領域は、工場内の製造ライン等であっても良い。この場合、監視装置10は、工場内に設定されている立ち入り禁止領域(機械の周辺、コンベアの上等)に、人が侵入していないかどうかを判定することもできる。
 また、本実施の形態では、判定処理部13は、基準画像の部分安全領域該当部分と部分安全領域との差分の算出に加えて、又は差分の算出に代えて、基準画像の部分安全領域該当部分と部分安全領域との類似度を算出することもできる。この場合、判定処理部13は、算出した類似度の値に基づいて、対象である人が安全であるかどうかを判定する。具体的には、判定処理部13は、類似度が低い場合は、安全であると判定し、類似度が高い場合は、安全でないと判定する。
[プログラム]
 本実施の形態におけるプログラムは、コンピュータに、図5に示すステップA1~A11を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における監視装置10と監視方法とを実現することができる。この場合、コンピュータのプロセッサは、対象検出部11、部分安全領域抽出部12、判定処理部13、画像データ取得部14、及び表示部15として機能し、処理を行なう。
 また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、対象検出部11、部分安全領域抽出部12、判定処理部13、画像データ取得部14、及び表示部15のいずれかとして機能しても良い。
 ここで、本実施の形態におけるプログラムを実行することによって、監視装置10を実現するコンピュータについて図6を用いて説明する。図6は、本発明の実施の形態における監視装置を実現するコンピュータの一例を示すブロック図である。
 図6に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
 CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード群)をメインメモリ112に展開し、プログラムを構成するコードを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
 なお、本実施の形態における監視装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、監視装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記6)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 監視領域の画像から、前記監視領域に存在する対象を検出し、前記画像上に、検出した前記対象を囲む枠を設定する、対象検出部と、
 前記画像上において安全領域と非安全領域とを区切る境界線と、前記枠と、を比較し、前記境界線が前記枠を横切る場合に、前記安全領域を含み、且つ、前記枠の外縁と前記境界線とで囲まれた領域を、部分安全領域として抽出する、部分安全領域抽出部と、
 前記監視領域における基準画像から、前記部分安全領域に該当する部分を抽出し、抽出した部分と前記部分安全領域との差分を算出し、算出した前記差分の値に基づいて、前記対象が安全であるかどうかを判定する、判定処理部と、
を備えている、ことを特徴とする監視装置。
(付記2)
 付記1に記載の監視装置であって、
 前記判定処理部が、前記差分の算出に加えて、又は前記差分の算出に代えて、抽出した部分と前記部分安全領域との類似度を算出し、算出した前記類似度の値に基づいて、前記対象が安全であるかどうかを判定する、
ことを特徴とする監視装置。
(付記3)
 監視領域の画像から、前記監視領域に存在する対象を検出し、前記画像上に、検出した前記対象を囲む枠を設定する、設定ステップと、
 前記画像上において安全領域と非安全領域とを区切る境界線と、前記枠と、を比較し、前記境界線が前記枠を横切る場合に、前記安全領域を含み、且つ、前記枠の外縁と前記境界線とで囲まれた領域を、部分安全領域として抽出する、抽出ステップと、
 前記監視領域における基準画像から、前記部分安全領域に該当する部分を抽出し、抽出した部分と前記部分安全領域との差分を算出し、算出した前記差分の値に基づいて、前記対象が安全であるかどうかを判定する、判定ステップと、
を有する、ことを特徴とする監視方法。
(付記4)
 付記3に記載の監視方法であって、
 前記判定ステップにおいて、前記差分の算出に加えて、又は前記差分の算出に代えて、抽出した部分と前記部分安全領域との類似度を算出し、算出した前記類似度の値に基づいて、前記対象が安全であるかどうかを判定する、
ことを特徴とする監視方法。
(付記5)
 コンピュータに、
 監視領域の画像から、前記監視領域に存在する対象を検出し、前記画像上に、検出した前記対象を囲む枠を設定する、設定ステップと、
 前記画像上において安全領域と非安全領域とを区切る境界線と、前記枠と、を比較し、前記境界線が前記枠を横切る場合に、前記安全領域を含み、且つ、前記枠の外縁と前記境界線とで囲まれた領域を、部分安全領域として抽出する、抽出ステップと、
 前記監視領域における基準画像から、前記部分安全領域に該当する部分を抽出し、抽出した部分と前記部分安全領域との差分を算出し、算出した前記差分の値に基づいて、前記対象が安全であるかどうかを判定する、判定ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記6)
 付記5に記載のコンピュータ読み取り可能な記録媒体であって、
 前記判定ステップにおいて、前記差分の算出に加えて、又は前記差分の算出に代えて、抽出した部分と前記部分安全領域との類似度を算出し、算出した前記類似度の値に基づいて、前記対象が安全であるかどうかを判定する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2019年7月25日に出願された日本出願特願2019-136637を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 以上のように、本発明によれば、システムにかかるコストの増加を抑制しつつ、危険な状態を精度良く検出することができる。本発明は、例えば、駅のホーム、工場等における安全の確保に有用である。
 10 監視装置
 11 対象検出部
 12 部分安全領域抽出部
 13 判定処理部
 14 画像データ取得部
 15 表示部
 20 撮像装置
 30 表示装置
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (6)

  1.  監視領域の画像から、前記監視領域に存在する対象を検出し、前記画像上に、検出した前記対象を囲む枠を設定する、対象検出手段と、
     前記画像上において安全領域と非安全領域とを区切る境界線と、前記枠と、を比較し、前記境界線が前記枠を横切る場合に、前記安全領域を含み、且つ、前記枠の外縁と前記境界線とで囲まれた領域を、部分安全領域として抽出する、部分安全領域抽出手段と、
     前記監視領域における基準画像から、前記部分安全領域に該当する部分を抽出し、抽出した部分と前記部分安全領域との差分を算出し、算出した前記差分の値に基づいて、前記対象が安全であるかどうかを判定する、判定処理手段と、
    を備えている、ことを特徴とする監視装置。
  2. 請求項1に記載の監視装置であって、
     前記判定処理手段が、前記差分の算出に加えて、又は前記差分の算出に代えて、抽出した部分と前記部分安全領域との類似度を算出し、算出した前記類似度の値に基づいて、前記対象が安全であるかどうかを判定する、
    ことを特徴とする監視装置。
  3.  監視領域の画像から、前記監視領域に存在する対象を検出し、前記画像上に、検出した前記対象を囲む枠を設定し、
     前記画像上において安全領域と非安全領域とを区切る境界線と、前記枠と、を比較し、前記境界線が前記枠を横切る場合に、前記安全領域を含み、且つ、前記枠の外縁と前記境界線とで囲まれた領域を、部分安全領域として抽出し、
     前記監視領域における基準画像から、前記部分安全領域に該当する部分を抽出し、抽出した部分と前記部分安全領域との差分を算出し、算出した前記差分の値に基づいて、前記対象が安全であるかどうかを判定する、
    ことを特徴とする監視方法。
  4. 請求項3に記載の監視方法であって、
     前記差分の算出に加えて、又は前記差分の算出に代えて、抽出した部分と前記部分安全領域との類似度を算出し、算出した前記類似度の値に基づいて、前記対象が安全であるかどうかを判定する、
    ことを特徴とする監視方法。
  5. コンピュータに、
     監視領域の画像から、前記監視領域に存在する対象を検出し、前記画像上に、検出した前記対象を囲む枠を設定させ、
     前記画像上において安全領域と非安全領域とを区切る境界線と、前記枠と、を比較し、前記境界線が前記枠を横切る場合に、前記安全領域を含み、且つ、前記枠の外縁と前記境界線とで囲まれた領域を、部分安全領域として抽出させ、
     前記監視領域における基準画像から、前記部分安全領域に該当する部分を抽出し、抽出した部分と前記部分安全領域との差分を算出し、算出した前記差分の値に基づいて、前記対象が安全であるかどうかを判定させる、
    命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
  6. 請求項5に記載のコンピュータ読み取り可能な記録媒体であって、
     前記差分の算出に加えて、又は前記差分の算出に代えて、抽出した部分と前記部分安全領域との類似度を算出し、算出した前記類似度の値に基づいて、前記対象が安全であるかどうかを判定させる、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
PCT/JP2020/024871 2019-07-25 2020-06-24 監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体 WO2021014873A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021533882A JP7485449B2 (ja) 2019-07-25 2020-06-24 監視装置、監視方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019136637 2019-07-25
JP2019-136637 2019-07-25

Publications (1)

Publication Number Publication Date
WO2021014873A1 true WO2021014873A1 (ja) 2021-01-28

Family

ID=74193018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/024871 WO2021014873A1 (ja) 2019-07-25 2020-06-24 監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
JP (1) JP7485449B2 (ja)
WO (1) WO2021014873A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166243A (ja) * 2010-02-05 2011-08-25 Hitachi Kokusai Electric Inc 監視システム
JP2016212657A (ja) * 2015-05-11 2016-12-15 オムロン株式会社 移動検知装置、移動検知方法、および移動検知プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5030832B2 (ja) * 2008-03-27 2012-09-19 セコム株式会社 画像センサ
JP5531865B2 (ja) * 2010-09-03 2014-06-25 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166243A (ja) * 2010-02-05 2011-08-25 Hitachi Kokusai Electric Inc 監視システム
JP2016212657A (ja) * 2015-05-11 2016-12-15 オムロン株式会社 移動検知装置、移動検知方法、および移動検知プログラム

Also Published As

Publication number Publication date
JPWO2021014873A1 (ja) 2021-01-28
JP7485449B2 (ja) 2024-05-16

Similar Documents

Publication Publication Date Title
RU2607774C2 (ru) Способ управления в системе захвата изображения, устройство управления и машиночитаемый носитель данных
US20190199898A1 (en) Image capturing apparatus, image processing apparatus, control method, and storage medium
US20150146006A1 (en) Display control apparatus and display control method
WO2017107647A1 (zh) 一种基于摄像机的监控方法、装置及系统
US9904865B2 (en) Setting apparatus which sets a detection region for a detection process
CN109544870B (zh) 用于智能监控系统的报警判断方法与智能监控系统
US10200607B2 (en) Image capturing apparatus, method of controlling the same, monitoring camera system, and storage medium
CN113191293B (zh) 广告检测方法、装置、电子设备、系统及可读存储介质
US20180082413A1 (en) Image surveillance apparatus and image surveillance method
JP6088024B2 (ja) 不正を検出するためのビデオ監視システムおよび方法
JP5950628B2 (ja) 物体検知装置、物体検知方法及びプログラム
US11263759B2 (en) Image processing apparatus, image processing method, and storage medium
JP5710230B2 (ja) 監視システムおよび監視方法
WO2021014873A1 (ja) 監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体
US20180197000A1 (en) Image processing device and image processing system
CN108334811B (zh) 一种人脸图像处理方法及装置
JP2007274656A (ja) 映像監視装置及び方法
JP5465594B2 (ja) 対象物検出サイズ算出システムおよび対象物検出サイズ算出プログラム
US11521330B2 (en) Image processing apparatus, image processing method, and storage medium
EP2375382A1 (en) Image motion detection method and apparatus
JP2008165705A (ja) 画像処理装置及び画像処理方法
JP2004128648A (ja) 侵入物体追尾方法
KR20140143918A (ko) 영상의 전경과 배경을 분리하여 전경영상을 검출하는 방법 및 장치
CN111062337B (zh) 人流方向检测方法及装置、存储介质和电子设备
CN112288774B (zh) 移动侦测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20844742

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021533882

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20844742

Country of ref document: EP

Kind code of ref document: A1