WO2016151950A1 - 監視システム、監視方法および監視プログラム - Google Patents

監視システム、監視方法および監視プログラム Download PDF

Info

Publication number
WO2016151950A1
WO2016151950A1 PCT/JP2015/083912 JP2015083912W WO2016151950A1 WO 2016151950 A1 WO2016151950 A1 WO 2016151950A1 JP 2015083912 W JP2015083912 W JP 2015083912W WO 2016151950 A1 WO2016151950 A1 WO 2016151950A1
Authority
WO
WIPO (PCT)
Prior art keywords
blind spot
monitoring system
video
appearance
intrusion
Prior art date
Application number
PCT/JP2015/083912
Other languages
English (en)
French (fr)
Inventor
慶文 奥田
達士 安田
健一朗 猪田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US15/559,526 priority Critical patent/US10368035B2/en
Priority to JP2017507337A priority patent/JP6493514B2/ja
Publication of WO2016151950A1 publication Critical patent/WO2016151950A1/ja
Priority to US16/351,982 priority patent/US10419724B2/en
Priority to US16/352,011 priority patent/US10516855B2/en
Priority to US16/687,048 priority patent/US10750127B2/en
Priority to US16/921,409 priority patent/US11877094B2/en
Priority to US18/522,328 priority patent/US20240098223A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Definitions

  • the present invention relates to a monitoring system, a monitoring method, and a monitoring program.
  • Patent Document 1 discloses a technique for assigning the same identification number when a tracked object is hidden behind a shield and reappears.
  • Patent Document 2 discloses a technique for displaying a predicted position of a tracked vehicle on a monitor when the tracked vehicle is hidden by an obstacle.
  • Patent Document 3 discloses a technique for predicting and alarming the danger of an object in the blind spot of a driver popping out.
  • An object of the present invention is to provide a technique for solving the above-described problems.
  • a monitoring system provides: Video acquisition means for acquiring video; Detecting means for detecting the intrusion of the object into the blind spot caused by the shielding object in the image and the appearance of the object from the blind area; Informing means for informing when the object does not appear from the blind spot even after a first time has passed since the object has entered the blind spot; Equipped with.
  • a monitoring method comprises: A video acquisition step of acquiring video; A detection step of detecting the intrusion of the object into the blind spot caused by the shielding object in the image and the appearance of the object from the blind spot; An informing step for informing when the object does not appear from the blind spot even after a first time has passed since the intrusion of the object into the blind spot; including.
  • a monitoring program provides: A video acquisition step of acquiring video; A detection step of detecting the intrusion of the object into the blind spot caused by the shielding object in the image and the appearance of the object from the blind spot; An informing step for informing when the object does not appear from the blind spot even after a first time has passed since the intrusion of the object into the blind spot; Is executed on the computer.
  • the monitoring system 100 is a system that discovers an abnormal situation behind the shielding object when the object that has entered the blind spot does not appear from the blind spot even after a predetermined time has elapsed.
  • the monitoring system 100 includes a video acquisition unit 101, a detection unit 103, and a notification unit 104.
  • the notification unit 104 further has a first time 141.
  • the video acquisition unit 101 acquires video.
  • the detecting unit 103 detects the intrusion of the target object into the blind spot caused by the shielding object in the video and the appearance of the target object from the blind spot.
  • the notification unit 104 notifies the monitor 130 or the like when the target does not appear from the blind spot even after the first time 141 has elapsed since the target has entered the blind spot.
  • FIG. 2 is a diagram for explaining the outline of the operation of the monitoring system according to the present embodiment.
  • the object 210 is moving at a speed V from the left side to the right side in the figure.
  • the shield 220 is present at the destination of the object 210, and the presence of the shield 220 causes a blind spot on the back side of the shield 220. After that, if the object 210 enters the blind spot caused by the shield 220 and the object 210 becomes invisible, the object 210 cannot be tracked.
  • the monitoring system 200 predicts the timing at which the object 210 appears again based on the speed (V) when the object 210 enters the blind spot. If the target object 210 does not appear even after a predetermined time has elapsed from the predicted timing or the predicted timing, the monitoring system 200 notifies an alert to, for example, a supervisor.
  • the monitoring system 200 determines that no abnormal situation has occurred on the back side of the shielding object 220 and does not notify an alert or the like. As a result, it is possible to easily find a situation such as a person falling or accident behind the shield 220 or an abnormal situation such as a criminal act including a drug transaction.
  • FIG. 3 is a block diagram showing the configuration of the monitoring system 200 according to the present embodiment.
  • the monitoring system 200 includes a video acquisition unit 301, a determination unit 302, a speed detection unit 303, a prediction unit 304, a detection unit 305, and a notification unit 306.
  • the video acquisition unit 301 acquires video from the camera 320. Note that the number of cameras 320 is not limited to one, and may be a plurality.
  • the determination unit 302 determines that there is a blind spot caused by the shield in the video acquired by the video acquisition unit 301.
  • the determination unit 302 may perform the determination of the presence of the blind spot by two-dimensionally analyzing the image of one camera, or may be performed by three-dimensionally analyzing the images of a plurality of cameras. . In the case of two-dimensional analysis, the determination unit 302 may determine that there is a blind spot in the area of the shielding object in the image as it is.
  • the speed detection unit 303 detects the intrusion speed when the target object enters the blind spot caused by the shielding object. Then, the prediction unit 304 predicts the appearance timing at which the object appears from the blind spot based on the intrusion speed of the object detected by the speed detection unit 303. The detection unit 305 detects the appearance of the object from the blind spot. The notification unit 306 notifies the monitor 330 or the like when the object does not appear from the blind spot even after a predetermined time has elapsed from the appearance timing predicted by the prediction unit 304.
  • FIG. 4A is a diagram illustrating an example of a configuration of a prediction table 401 included in the monitoring system 200 according to the present embodiment.
  • the prediction table 401 stores an appearance prediction time and a predetermined time that is an elapsed time from the appearance prediction time in association with the combination of the object speed and the blind spot size.
  • the prediction unit 304 may detect the size of the shielding object with respect to the appearance timing of the target object, and derive the appearance timing from the intrusion speed of the target object and the detected size of the shielding object.
  • the prediction unit 304 may specify the appearance timing using the prediction table 401 illustrated in FIG. 4A.
  • FIG. 4B is a diagram illustrating an example of the configuration of the shielding object table 402 included in the monitoring system 200 according to the present embodiment.
  • the shielding object table 402 stores the position of the blind spot caused by the shielding object in association with the position and size of the shielding object.
  • the monitoring system 200 may detect the size of the shielding object for the blind spot caused by the shielding object, and derive the position of the blind spot based on the detected size.
  • the monitoring system 200 may specify the position of the blind spot using the shielding object table 402 illustrated in FIG. 4B.
  • FIG. 4C is a diagram illustrating an example of a configuration of the notification table 403 included in the monitoring system 200 according to the present embodiment.
  • the notification table 403 stores an alert level and a notification destination in association with the appearance delay time. For example, when the delay time is “T4”, the alert level is “1” and the notification destination is “monitor”.
  • the alert level may be changed according to the elapsed time (appearance delay time) from the predicted appearance timing. For example, the alert level may be changed by gradually increasing the volume of the alarm sound, blinking the display on the screen viewed by the supervisor, or gradually increasing the alert sound.
  • FIG. 5 is a diagram illustrating a hardware configuration of the monitoring system 200.
  • the monitoring system 200 includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, a storage 504, and a communication control unit 505.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 501 is a processor for arithmetic processing, and implements each functional component of the monitoring system 200 by executing a program. Note that the number of CPUs 501 is not limited to one, and a plurality of CPUs 501 may be included, and a GPU (GraphicsGraphProcessing Unit) for image processing may be included.
  • the ROM 502 is a read only memory and stores programs such as firmware.
  • the communication control unit 505 communicates with other devices via a network. Further, the communication control unit 505 may include a CPU independent of the CPU 501 and write or read transmission / reception data to / from the RAM 503.
  • the RAM 503 is a random access memory that the CPU 501 uses as a work area for temporary storage.
  • the RAM 503 has an area for storing data necessary for realizing the present embodiment. As such data, the monitoring system 200 temporarily stores the appearance prediction time 531, the delay time 532, the notification content 533, and the shielding object information 534.
  • the RAM 503 has an application execution area 535 for executing various application modules.
  • the storage 504 is a storage device that stores programs and databases necessary for realizing the present embodiment.
  • the storage 504 stores a prediction table 401, a shielding object table 402, a notification table 403, a monitoring program 541, and a control program 545.
  • the monitoring program 541 stores a determination module 542, a speed detection module 543, and a prediction module 544. These modules 542 to 544 are read by the CPU 501 into the application execution area 535 and executed.
  • the control program 545 is a program for controlling the entire monitoring system 200. Also, it is desirable to provide a DMAC (Direct Memory Access Controller) that transfers data between the RAM 503 and the storage 504 (not shown).
  • DMAC Direct Memory Access Controller
  • RAM 503 and the storage 504 shown in FIG. 5 do not show programs and data relating to general-purpose functions and other realizable functions that the monitoring system 200 has.
  • the hardware configuration of the monitoring system 200 described here is merely an example, and the present invention is not limited to this hardware configuration, and various hardware configurations can be used.
  • FIG. 6 is a flowchart for explaining the processing procedure of the monitoring system 200.
  • the monitoring system 200 acquires a video from the camera.
  • the monitoring system 200 recognizes the presence of the shielding object in the acquired video and determines the presence of the blind spot caused by the shielding object.
  • the monitoring system 200 detects the intrusion speed of the target object that has entered the blind spot on the back side of the shield, and predicts the appearance timing of the target object from the blind spot.
  • step S ⁇ b> 607 the monitoring system 200 determines whether the target object has appeared from the predicted appearance timing (appearance prediction time) or whether it has appeared from the blind spot within a predetermined time from the appearance timing. If the target does not appear from the blind spot within the predetermined time from the predicted appearance timing or this appearance timing, in step S609, the monitoring system 200 notifies an alert.
  • the appearance timing of the target object is predicted, it is possible to detect an abnormal situation such as a fall of a person behind the shield, an accident, or a criminal act including drug trafficking.
  • FIG. 7 is a diagram for explaining the outline of the operation of the monitoring system 700 according to the present embodiment.
  • the monitoring system 700 according to the present embodiment is different from the second embodiment in that it includes a direction detection unit. Since other configurations and operations are the same as those of the second embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the monitoring system 700 detects the intrusion direction of the object 210 into the blind spot generated by the shield 220. Based on the detected intrusion direction and speed, the appearance timing and the appearance position of the object 210 are predicted.
  • FIG. 8 is a block diagram showing the configuration of the monitoring system 700. As shown in FIG.
  • the monitoring system 700 further includes a direction detection unit 801.
  • the direction detection unit 801 detects the intrusion direction of the object into the blind spot caused by the shielding object.
  • the monitoring system 700 predicts the appearance position along with the appearance timing of the object based on the intrusion direction and the intrusion speed.
  • FIG. 9 is a flowchart for explaining the processing procedure of the monitoring system 700. Steps similar to those in FIG. 6 are given the same step numbers and description thereof is omitted.
  • the monitoring system 700 further detects the intrusion direction of the target object into the blind spot, and predicts the appearance position of the target object from the blind spot based on the detected intrusion direction.
  • the monitoring system 700 determines whether or not the target object has appeared at the predicted appearance position at the predicted appearance timing.
  • the appearance position is predicted in consideration of the direction in which the target object enters the blind spot caused by the shielding object, a person falls behind the shielding object, an accident, criminal activities including drug trafficking, etc. You can discover the abnormal situation.
  • FIG. 10 is a diagram for explaining the outline of the operation of the monitoring system 1000 according to the present embodiment.
  • the monitoring system 1000 according to the present embodiment is different from the third embodiment in that it includes a video generation unit. Since other configurations and operations are the same as those of the third embodiment, the same configurations and operations are denoted by the same reference numerals and detailed description thereof is omitted.
  • the monitoring system 1000 determines the predicted position of the position of the blind spot generated by the shielding object 1020 based on the penetration speed at which the object 1010 has entered the blind spot.
  • a predicted position mark 1011 to be displayed is displayed.
  • the monitoring system 1000 displays a predicted movement trajectory 1030 together with the predicted position mark 1011.
  • the monitoring system 1000 may display the predicted position mark 1011 and the predicted movement trajectory 1030 in consideration of the intrusion direction in addition to the intrusion speed of the object 1010 to the blind spot.
  • the monitoring system 1000 may predict the appearance position from the blind spot of the target object 1010 that has entered the blind spot, and may display the predicted appearance position.
  • the monitoring system 1000 has an appearance position such as an object 210 indicated by a dotted line in FIG. 2, an object 210 indicated by a dotted line in FIG. 7, and an object 1310 indicated by a dotted line in FIG. May be displayed, or the appearance position may be displayed as an area.
  • FIG. 11 is a block diagram showing the configuration of the monitoring system 1000.
  • the monitoring system 1000 further includes a video generation unit 1101.
  • the video generation unit 1101 generates a video in which the trajectory of the target generated based on the prediction by the prediction unit 304 is superimposed on the video acquired by the video acquisition unit 301. Then, the video generation unit 1101 shows the generated video to the supervisor 1130 and the like.
  • FIG. 12 is a flowchart for explaining the processing procedure of the monitoring system 1000. Steps similar to those in FIG. 6 are given the same step numbers and description thereof is omitted.
  • step S1201 the monitoring system 1000 generates a video in which a trajectory of movement of the target generated based on the prediction is superimposed on the acquired video. Then, the monitoring system 1000 shows the generated superimposed video to the supervisor 1130 and the like.
  • the monitor can visually recognize the appearance timing of the object.
  • FIG. 13 is a diagram for explaining an outline of the operation of the monitoring system 1300 according to the present embodiment.
  • the monitoring system 1300 according to the present embodiment is different from the third embodiment in that the prediction unit considers the relative speed. Since other configurations and operations are the same as those of the second embodiment, the same configurations and operations are denoted by the same reference numerals, and detailed description thereof is omitted.
  • FIG. 13 is a diagram for explaining the outline of the operation of the monitoring system 1300 when the object 1310 and the shield 1320 are moving.
  • the object 1310 is moving at a speed V1 from the left side to the right side in the drawing.
  • a vehicle such as a bus which is the shielding object 1320 is moving at a speed V2 from the right side to the left side in the drawing.
  • the monitoring system 1300 predicts the appearance timing of the object 1310 from the relative speed between the object 1310 and the shield 1320.
  • FIG. 14 is a block diagram showing the configuration of the monitoring system 1300.
  • the monitoring system 1300 includes a relative speed calculation unit 1401 and a prediction unit 1402.
  • the relative speed calculation unit 1401 calculates the relative speed between the moving object 1310 and the moving shield 1320.
  • the prediction unit 1402 predicts the appearance timing of the object 1310 based on the relative speed calculated by the relative speed calculation unit 1401.
  • FIG. 15 is a flowchart for explaining the processing procedure of the monitoring system 1300. Steps similar to those in FIG. 6 are given the same step numbers and description thereof is omitted.
  • step S1501 the monitoring system 1300 calculates the relative speed between the moving object 1310 and the moving shielding object 1320.
  • step S1503 the monitoring system 1300 predicts the appearance timing of the object 1310 from the blind spot based on the calculated relative speed.
  • the prediction is performed in consideration of the relative speed, it is possible to detect an abnormal situation such as a fall of a person behind the shield, an accident, or a criminal act including drug trafficking.
  • the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied to a case where an information processing program that implements the functions of the embodiments is supplied directly or remotely to a system or apparatus. Therefore, in order to realize the functions of the present invention on a computer, a program installed on the computer, a medium storing the program, and a WWW (World Wide Web) server that downloads the program are also included in the scope of the present invention. . In particular, at least a non-transitory computer readable medium storing a program for causing a computer to execute the processing steps included in the above-described embodiments is included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

 遮蔽物の裏での異常事態を発見すること。監視システムであって、映像取得手段と、検知手段と、報知手段とを備えた。監視システムの映像取得手段は、映像を取得する。監視システムの検知手段は、映像中において遮蔽物によって生じた死角への対象物の侵入と、当該死角からの当該対象物の出現を検知する。監視システムの報知手段は、前記対象物の前記死角への侵入から第1時間が経過しても前記対象物が前記死角から出現しなかった場合に報知する。

Description

監視システム、監視方法および監視プログラム
 本発明は、監視システム、監視方法および監視プログラムに関する。
 上記技術分野において、特許文献1には、追跡物体が遮蔽物に隠れて、再度出現した場合に、同じ識別番号を付与する技術が開示されている。また、特許文献2には、追跡車両が遮蔽物に隠れた場合に、追跡車両の予測位置をモニタ上に表示する技術が開示されている。さらに、特許文献3には、ドライバーの死角にある物体が飛び出してくる危険を予測してアラームする技術が開示されている。
特開2007-334631号公報 特開2009-193135号公報 特開2013-97480号公報
 しかしながら、上記特許文献に記載の技術では、遮蔽物の裏での異常事態を発見することができなかった。
 本発明の目的は、上述の課題を解決する技術を提供することにある。
 上記目的を達成するため、本発明に係る監視システムは、
 映像を取得する映像取得手段と、
 前記映像中において遮蔽物によって生じた死角への対象物の侵入と、当該死角からの当該対象物の出現を検知する検知手段と、
 前記対象物の前記死角への侵入から第1時間が経過しても前記対象物が前記死角から出現しなかった場合に報知する報知手段と、
 を備えた。
 上記目的を達成するため、本発明に係る監視方法は、
 映像を取得する映像取得ステップと、
 前記映像中において遮蔽物によって生じた死角への対象物の侵入と、当該死角からの当該対象物の出現を検知する検知ステップと、
 前記対象物の前記死角への侵入から第1時間が経過しても前記対象物が前記死角から出現しなかった場合に報知する報知ステップと、
 を含む。
 上記目的を達成するため、本発明に係る監視プログラムは、
 映像を取得する映像取得ステップと、
 前記映像中において遮蔽物によって生じた死角への対象物の侵入と、当該死角からの当該対象物の出現を検知する検知ステップと、
 前記対象物の前記死角への侵入から第1時間が経過しても前記対象物が前記死角から出現しなかった場合に報知する報知ステップと、
 をコンピュータに実行させる。
 本発明によれば、遮蔽物の裏での異常事態を発見することができる。
本発明の第1実施形態に係る監視システムの構成を示すブロック図である。 本発明の第2実施形態に係る監視システムの動作の概略を説明する図である 本発明の第2実施形態に係る監視システムの構成を示すブロック図である。 本発明の第2実施形態に係る監視システムの備える予測テーブルの構成を示す図である。 本発明の第2実施形態に係る監視システムの備える遮蔽物テーブルの構成を示す図である。 本発明の第2実施形態に係る監視システムの備える報知テーブルの構成を示す図である。 本発明の第2実施形態に係る監視システムのハードウェア構成を示す図である。 本発明の第2実施形態に係る監視システムの処理手順を示すフローチャートである。 本発明の第3実施形態に係る監視システムの動作の概略を説明する図である。 本発明の第3実施形態に係る監視システムの構成を示すブロック図である。 本発明の第3実施形態に係る監視システムの処理手順を示すフローチャートである。 本発明の第4実施形態に係る監視システムの動作の概略を説明する図である。 本発明の第4実施形態に係る監視システムの構成を示すブロック図である。 本発明の第4実施形態に係る監視システムの処理手順を示すフローチャートである。 本発明の第5実施形態に係る監視システムの動作の概略を説明する図である。 本発明の第5実施形態に係る監視システムの構成を示すブロック図である。 本発明の第5実施形態に係る監視システムの処理手順を示すフローチャートである。
 以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
 [第1実施形態]
 本発明の第1実施形態としての監視システム100について、図1を用いて説明する。監視システム100は、死角へ侵入した対象物が所定時間経過しても死角から出現しないことを契機として、遮蔽物の裏での異常事態を発見するシステムである。
 図1に示すように、監視システム100は、映像取得部101と、検知部103と、報知部104とを含む。報知部104は、さらに第1時間141を有する。映像取得部101は、映像を取得する。
 検知部103は、映像中において遮蔽物によって生じた死角への対象物の侵入と、死角からの対象物の出現を検知する。報知部104は、対象物の死角への侵入から第1時間141が経過しても対象物が死角から出現しなかった場合に監視者130などに報知する。
 本実施形態によれば、遮蔽物の裏での異常事態を発見することができる。
 [第2実施形態]
 次に本発明の第2実施形態に係る監視システムについて、図2~図6を用いて説明する。図2は、本実施形態に係る監視システムの動作の概略を説明するための図である。図2に示したように、対象物210が、図上左側から右側に向かって速度Vで移動している。対象物210の移動先には遮蔽物220が存在しており、遮蔽物220の存在により、遮蔽物220の裏側に死角が生じている。その後、遮蔽物220によって生じた死角に、対象物210が侵入して対象物210が見えなくなると、対象物210を追跡することができなくなる。
 監視システム200は、対象物210が死角に侵入した時の速度(V)に基づいて、対象物210が再び出現するタイミングを予測する。そして、予測したタイミングまたは予測したタイミングから所定時間経過しても対象物210が出現しなければ、監視システム200は、例えば、監視者などにアラートを報知する。
 例えば、予測した出現タイミングが3秒後であるとして、[3秒+α秒]経過しても対象物210が再び出現しなければ、遮蔽物220の裏側の死角で異常事態が発生したと判断し、監視者などにアラートを報知する。これとは反対に、[3秒+α秒]以内に対象物210が出現すれば、監視システム200は、遮蔽物220の裏側で異常事態は発生していないと判断し、アラートなどは報知しない。これにより、遮蔽物220の裏での人物の転倒や事故などの事態や、麻薬取引を含む犯罪行為などの異常事態を容易に発見することができる。
 図3は、本実施形態に係る監視システム200の構成を示すブロック図である。監視システム200は、映像取得部301と、判定部302と、速度検出部303と、予測部304と、検知部305と、報知部306とを備える。
 映像取得部301は、カメラ320から映像を取得する。なお、カメラ320の台数は、1台には限定されず、複数台であってもよい。判定部302は、映像取得部301で取得した映像中に、遮蔽物によって生じた死角が存在することを判定する。判定部302は、死角の存在の判定を、1台のカメラの映像で2次元的に解析して行ってもよいし、複数台のカメラの映像で3次元的に解析して行ってもよい。判定部302は、2次元的に解析する場合は、画像中で占める遮蔽物の領域に、そのまま死角が存在すると判定してもよい。
 速度検出部303は、対象物が、遮蔽物によって生じた死角に侵入した場合の侵入速度を検出する。そして、予測部304は、速度検出部303で検出した対象物の侵入速度に基づいて、対象物が死角から出現する出現タイミングを予測する。検知部305は、対象物の死角からの出現を検知する。報知部306は、予測部304で予測した出現タイミングから所定の時間経過しても対象物が死角から出現しなかった場合に、監視者330などに報知する。
 図4Aは、本実施形態に係る監視システム200が備える予測テーブル401の構成の一例を示す図である。予測テーブル401は、対象物速度および死角サイズの組み合わせに関連付けて、出現予測時間および出現予測時間からの経過時間である所定時間とを記憶する。予測部304は、対象物の出現タイミングについて、遮蔽物の大きさを検出して、対象物の侵入速度と検出した遮蔽物の大きさとから出現タイミングを導出しても良い。また、予測部304は、図4Aに示した予測テーブル401を用いて出現タイミングを特定しても良い。
 図4Bは、本実施形態に係る監視システム200が備える遮蔽物テーブル402の構成の一例を示す図である。遮蔽物テーブル402は、遮蔽物の位置と大きさとに関連付けて、遮蔽物によって生じた死角の位置を記憶する。監視システム200は、遮蔽物によって生じた死角について、遮蔽物の大きさを検出して、検出した大きさに基づいて死角の位置を導出してもよい。また、監視システム200は、図4Bに示した遮蔽物テーブル402を用いて死角の位置を特定してもよい。
 図4Cは、本実施形態に係る監視システム200が備える報知テーブル403の構成の一例を示す図である。報知テーブル403は、出現遅延時間に関連付けてアラートレベルと報知先とを記憶する。例えば、遅延時間が「T4」の場合には、アラートレベルが「1」で報知先は「監視者」となる。アラートとしては、例えば、予測した出現タイミングからの経過時間(出現遅延時間)に応じて、アラートのレベルが変化するようにしてもよい。例えば、警報音の音量を徐々に大きくしたり、監視者の見ている画面上の表示を点滅させたり、徐々に大きくしたりしてアラートレベルを変えてもよい。
 図5は、監視システム200のハードウェア構成を示す図である。監視システム200は、CPU(Central Processing Unit)501と、ROM(Read Only Memory)502と、RAM(Random Access Memory)503と、ストレージ504と、通信制御部505とを備える。
 CPU501は、演算処理用のプロセッサであり、プログラムを実行することにより監視システム200の各機能構成部を実現する。なお、CPU501は1個に限定されず、複数個あってもよく、また、画像処理用のGPU(Graphics Processing Unit)を含んでもよい。ROM502は、リードオンリメモリであり、ファームウェアなどのプログラムを記憶する。
 通信制御部505は、ネットワークを介して他の機器などと通信する。また、通信制御部505は、CPU501とは独立したCPUを備えて、RAM503に送受信データを書き込みまたは読み出ししてもよい。
 RAM503は、CPU501が一時記憶用のワークエリアとして使用するランダムアクセスメモリである。RAM503には、本実施形態の実現に必要なデータを記憶する領域がある。このようなデータとして、監視システム200は、出現予測時間531と、遅延時間532と、報知内容533と、遮蔽物情報534とを一時的に保存する。また、RAM503は、各種アプリケーションモジュールを実行するためのアプリケーション実行領域535を有する。
 ストレージ504は、本実施形態の実現に必要なプログラムやデータベースなどを記憶する記憶デバイスである。ストレージ504は、予測テーブル401と、遮蔽物テーブル402と、報知テーブル403と、監視プログラム541と、制御プログラム545とを格納する。
 監視プログラム541は、判定モジュール542と、速度検出モジュール543と、予測モジュール544とを格納している。これらのモジュール542~544は、CPU501によりアプリケーション実行領域535に読み出され、実行される。制御プログラム545は、監視システム200の全体を制御するためのプログラムである。また、RAM503とストレージ504との間でデータを転送するDMAC(Direct Memory Access Controller)を設けるのが望ましい(図示なし)。
 なお、図5に示したRAM503やストレージ504には、監視システム200が有する汎用の機能や他の実現可能な機能に関するプログラムやデータは図示されていない。また、ここで説明した監視システム200のハードウェア構成は一例に過ぎず、このハードウェア構成には限定されず、様々なハードウェア構成とすることができる。
 図6は、監視システム200の処理手順を説明するためのフローチャートである。ステップS601において、監視システム200は、カメラから映像を取得する。ステップS603において、監視システム200は、取得した映像中の遮蔽物の存在を認識し、遮蔽物によって生じた死角の存在を判定する。ステップS605において、監視システム200は、遮蔽物の裏側の死角に侵入した対象物の侵入速度を検出し、死角からの対象物の出現タイミングを予測する。ステップS607において、監視システム200は、対象物が予測した出現タイミング(出現予測時間)またはこの出現タイミングから所定時間内に死角から出現したか否かを判定する。対象物が、予測した出現タイミングまたはこの出現タイミングから所定時間内に死角から出現しなければ、ステップS609において、監視システム200は、アラートを報知する。
 本実施形態によれば、対象物の出現タイミングを予測するので、遮蔽物の裏での人物の転倒や事故、麻薬取引を含む犯罪行為などの異常事態を発見することができる。
 [第3実施形態]
 次に本発明の第3実施形態に係る監視システム700について、図7~図9を用いて説明する。図7は、本実施形態に係る監視システム700の動作の概略を説明するための図である。本実施形態に係る監視システム700は、上記第2実施形態と比べると、方向検出部を有する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
 監視システム700は、遮蔽物220で生じた死角への対象物210の侵入方向を検知する。検知した侵入方向と速度とに基づいて、対象物210の出現タイミングと出現位置とを予測する。
 図8は、監視システム700の構成を示すブロック図である。監視システム700は、さらに、方向検出部801を備える。方向検出部801は、遮蔽物によって生じた死角への対象物の侵入方向を検出する。監視システム700は、この侵入方向と侵入速度とに基づいて、対象物の出現タイミングと共に、出現位置も予測する。
 図9は、監視システム700の処理手順を説明するフローチャートである。なお、図6と同様のステップには同じステップ番号を付けて説明を省略する。ステップS901において、監視システム700は、対象物の死角への侵入方向をさらに検出し、検出した侵入方向に基づいて対象物の死角からの出現位置を予測する。ステップS903において、監視システム700は、対象物が予測した出現タイミングに、予測した出現位置に出現したか否かを判定する。
 本実施形態によれば、遮蔽物によって生じた死角への対象物の侵入方向も加味して出現位置を予測するので、遮蔽物の裏での人物の転倒や事故、麻薬取引を含む犯罪行為などの異常事態を発見することができる。
 [第4実施形態]
 次に本発明の第4実施形態に係る監視システム1000について、図10~図12を用いて説明する。図10は、本実施形態に係る監視システム1000の動作の概略を説明するための図である。本実施形態に係る監視システム1000は、上記第3実施形態と比べると、映像生成部を有する点で異なる。その他の構成および動作は、第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
 監視システム1000は、対象物1010が遮蔽物1020によって生じた死角に侵入すると、死角に侵入した侵入速度に基づいて、対象物1010が遮蔽物1020によって生じた死角のどの位置にいるかの予測位置を示す予測位置マーク1011を表示する。さらに、監視システム1000は、予測位置マーク1011と共に、予測移動軌跡1030を表示する。また、監視システム1000は、対象物1010の死角への侵入速度の他に侵入方向も考慮して予測位置マーク1011および予測移動軌跡1030を表示してもよい。さらに、監視システム1000は、死角へ侵入した対象物1010の当該死角からの出現位置を予測し、予測した出現位置を表示してもよい。例えば、監視システム1000は、図2において点線で示される対象物210、図7において点線で示される対象物210、(また、後述する図13において点線で示される対象物1310)のように出現位置を表示してもよいし、領域として出現位置を表示してもよい。
 図11は、監視システム1000の構成を示すブロック図である。監視システム1000は、さらに、映像生成部1101を備える。映像生成部1101は、映像取得部301で取得した映像に対して、予測部304による予測に基づいて生成した対象物の軌跡を重畳した映像を生成する。そして、映像生成部1101は、生成した映像を監視者1130などに見せる。
 図12は、監視システム1000の処理手順を説明するフローチャートである。なお、図6と同様のステップには同じステップ番号を付けて説明を省略する。ステップS1201において、監視システム1000は、取得した映像に対して、予測に基づいて生成した対象物の移動の軌跡を重畳した映像を生成する。そして、監視システム1000は、生成した重畳映像を監視者1130などに見せる。
 本実施形態によれば、予測位置マークと予測移動軌跡とを表示するので、遮蔽物の裏での人物の転倒や事故、麻薬取引を含む犯罪行為などの異常事態を発見することができ、さらに、監視者は、視覚的に対象物の出現タイミングを認識することができる。
 [第5実施形態]
 次に本発明の第5実施形態に係る監視システム1300について、図13~図15を用いて説明する。図13は、本実施形態に係る監視システム1300の動作の概略を説明するための図である。本実施形態に係る監視システム1300は、上記第3実施形態と比べると、予測部が相対速度を考慮する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
 図13は、対象物1310と遮蔽物1320とが移動している場合の監視システム1300の動作の概略を説明する図である。対象物1310が、図面上左側から右側に向かって速度V1で移動している。遮蔽物1320であるバスなどの車両が、図面上右側から左側に向かって速度V2で移動している。この場合、監視システム1300は、対象物1310と遮蔽物1320との相対的な速度から対象物1310の出現タイミングを予測する。
 図14は、監視システム1300の構成を示すブロック図である。監視システム1300は、相対速度算出部1401と予測部1402とを備える。相対速度算出部1401は、移動する対象物1310と移動する遮蔽物1320との相対速度を算出する。そして、予測部1402は、相対速度算出部1401で算出した相対速度に基づいて、対象物1310の出現タイミングを予測する。
 図15は、監視システム1300の処理手順を説明するフローチャートである。なお、図6と同様のステップには同じステップ番号を付けて説明を省略する。ステップS1501において、監視システム1300は、移動する対象物1310と移動する遮蔽物1320との相対速度を算出する。ステップS1503において、監視システム1300は、算出した相対速度に基づいて、対象物1310の死角からの出現タイミングを予測する。
 本実施形態によれば、相対速度を考慮して予測するので、遮蔽物の裏での人物の転倒や事故、麻薬取引を含む犯罪行為などの異常事態を発見することができる。
 [他の実施形態]
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
 また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。
この出願は、2015年3月20日に出願された日本出願特願2015-058279を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (9)

  1.  映像を取得する映像取得手段と、
     前記映像中において遮蔽物によって生じた死角への対象物の侵入と、当該死角からの当該対象物の出現を検知する検知手段と、
     前記対象物の前記死角への侵入から第1時間が経過しても前記対象物が前記死角から出現しなかった場合に報知する報知手段と、
     を備えた監視システム。
  2.  前記死角に侵入した対象物の侵入速度を検出する速度検出手段と、
     前記侵入速度に基づいて、前記死角からの前記対象物の出現タイミングを予測する予測手段と、
     をさらに備え、
     前記報知手段は、予測した前記出現タイミングから第2時間経過しても前記対象物が前記死角から出現しなかった場合に報知する、
     請求項1に記載の監視システム。
  3.  前記対象物の前記死角への侵入方向を検出する方向検出手段をさらに備え、
     前記予測手段は、前記侵入方向に基づいて前記対象物の前記死角からの出現位置を予測し、
     前記報知手段は、予測した前記出現位置に前記対象物が出現しなかった場合に報知する請求項2に記載の監視システム。
  4.  前記予測手段は、前記遮蔽物が移動する場合、前記対象物と前記遮蔽物との相対速度に基づいて、前記出現タイミングを予測する請求項2または3に記載の監視システム。
  5.  前記映像取得手段で取得した映像に対して、前記予測手段による予測に基づいて生成した前記対象物の軌跡を重畳した映像を生成する映像生成手段をさらに備えた請求項2乃至4のいずれか1項に記載の監視システム。
  6.  前記報知手段は、前記出現タイミングからの経過時間に応じて、報知内容を変更する請求項2乃至5のいずれか1項に記載の監視システム。
  7.  前記映像取得手段は、少なくとも1つのカメラから前記映像を取得する請求項2乃至6のいずれか1項に記載の監視システム。
  8.  映像を取得する映像取得ステップと、
     前記映像中において遮蔽物によって生じた死角への対象物の侵入と、当該死角からの当該対象物の出現を検知する検知ステップと、
     前記対象物の前記死角への侵入から第1時間が経過しても前記対象物が前記死角から出現しなかった場合に報知する報知ステップと、
     を含む監視方法。
  9.  映像を取得する映像取得ステップと、
     前記映像中において遮蔽物によって生じた死角への対象物の侵入と、当該死角からの当該対象物の出現を検知する検知ステップと、
     前記対象物の前記死角への侵入から第1時間が経過しても前記対象物が前記死角から出現しなかった場合に報知する報知ステップと、
     をコンピュータに実行させる監視プログラム。
PCT/JP2015/083912 2015-03-20 2015-12-02 監視システム、監視方法および監視プログラム WO2016151950A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US15/559,526 US10368035B2 (en) 2015-03-20 2015-12-02 Monitoring system, monitoring method, and monitoring program
JP2017507337A JP6493514B2 (ja) 2015-03-20 2015-12-02 監視システム、監視方法および監視プログラム
US16/351,982 US10419724B2 (en) 2015-03-20 2019-03-13 Monitoring system, monitoring method, and monitoring program
US16/352,011 US10516855B2 (en) 2015-03-20 2019-03-13 Monitoring system, monitoring method, and monitoring program
US16/687,048 US10750127B2 (en) 2015-03-20 2019-11-18 Monitoring system, monitoring method, and monitoring program
US16/921,409 US11877094B2 (en) 2015-03-20 2020-07-06 Monitoring system, monitoring method, and monitoring program
US18/522,328 US20240098223A1 (en) 2015-03-20 2023-11-29 Monitoring system, monitoring method, and monitoring program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015058279 2015-03-20
JP2015-058279 2015-03-20

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US15/559,526 A-371-Of-International US10368035B2 (en) 2015-03-20 2015-12-02 Monitoring system, monitoring method, and monitoring program
US16/351,982 Continuation US10419724B2 (en) 2015-03-20 2019-03-13 Monitoring system, monitoring method, and monitoring program
US16/352,011 Continuation US10516855B2 (en) 2015-03-20 2019-03-13 Monitoring system, monitoring method, and monitoring program

Publications (1)

Publication Number Publication Date
WO2016151950A1 true WO2016151950A1 (ja) 2016-09-29

Family

ID=56977937

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/083912 WO2016151950A1 (ja) 2015-03-20 2015-12-02 監視システム、監視方法および監視プログラム

Country Status (3)

Country Link
US (6) US10368035B2 (ja)
JP (5) JP6493514B2 (ja)
WO (1) WO2016151950A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018137515A (ja) * 2017-02-20 2018-08-30 セコム株式会社 監視システム
JP2019109724A (ja) * 2017-12-19 2019-07-04 日本信号株式会社 異常判定装置
JP2022035379A (ja) * 2020-08-20 2022-03-04 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び情報処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810973B2 (en) * 2016-08-29 2020-10-20 Sony Corporation Information processing device and information processing method
WO2019231456A1 (en) * 2018-05-31 2019-12-05 Nissan North America, Inc. Probabilistic object tracking and prediction framework
CN111998780B (zh) * 2019-05-27 2022-07-01 杭州海康威视数字技术股份有限公司 目标测距方法、装置及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226351A (ja) * 2006-02-21 2007-09-06 Sogo Keibi Hosho Co Ltd 監視システム及び監視方法
JP2013242728A (ja) * 2012-05-21 2013-12-05 Secom Co Ltd 画像監視装置
JP2014072598A (ja) * 2012-09-28 2014-04-21 Hitachi Kokusai Electric Inc 侵入者監視システム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10257482A (ja) 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JP3947375B2 (ja) * 2001-08-24 2007-07-18 アイシン精機株式会社 駐車補助装置
KR20040033675A (ko) 2002-10-15 2004-04-28 여태순 자동차용 후방 감시 장치
US6859148B2 (en) * 2002-10-30 2005-02-22 Ford Global Technologies, Llc Blind spot warning system for an automotive vehicle
US6838981B2 (en) 2003-03-28 2005-01-04 Visteon Global Technologies, Inc. Stopped object filtering for side object detection system
JP4298577B2 (ja) 2004-05-06 2009-07-22 三菱電機株式会社 車両用警報装置
EP1859411B1 (en) * 2005-03-17 2010-11-03 BRITISH TELECOMMUNICATIONS public limited company Tracking objects in a video sequence
JP4720386B2 (ja) * 2005-09-07 2011-07-13 株式会社日立製作所 運転支援装置
JP4541316B2 (ja) * 2006-04-06 2010-09-08 三菱電機株式会社 映像監視検索システム
JP4360381B2 (ja) * 2006-06-05 2009-11-11 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2007334631A (ja) 2006-06-15 2007-12-27 Sony Corp 画像監視システムおよび物体領域追跡方法
JP4947138B2 (ja) * 2007-03-28 2012-06-06 富士通株式会社 ナビゲーション装置
JP2009193135A (ja) 2008-02-12 2009-08-27 Xanavi Informatics Corp 車載モニタ装置
JP2009268005A (ja) 2008-04-30 2009-11-12 Meidensha Corp 侵入物検知追跡装置
JP2010016805A (ja) 2008-06-04 2010-01-21 Sanyo Electric Co Ltd 画像処理装置、運転支援システム、及び画像処理方法
US8912978B2 (en) 2009-04-02 2014-12-16 GM Global Technology Operations LLC Dynamic vehicle system information on full windshield head-up display
JP5682563B2 (ja) 2009-08-20 2015-03-11 日本電気株式会社 移動体軌跡識別システム、移動体軌跡識別方法および移動体軌跡識別プログラム
EP2743900B1 (en) * 2011-08-10 2018-05-30 Toyota Jidosha Kabushiki Kaisha Driving assistance device
JP2013097480A (ja) 2011-10-31 2013-05-20 Hitachi Consumer Electronics Co Ltd 車両用衝突危険予測装置及び車両用衝突危険予測システム
US9390329B2 (en) * 2014-04-25 2016-07-12 Xerox Corporation Method and system for automatically locating static occlusions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226351A (ja) * 2006-02-21 2007-09-06 Sogo Keibi Hosho Co Ltd 監視システム及び監視方法
JP2013242728A (ja) * 2012-05-21 2013-12-05 Secom Co Ltd 画像監視装置
JP2014072598A (ja) * 2012-09-28 2014-04-21 Hitachi Kokusai Electric Inc 侵入者監視システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018137515A (ja) * 2017-02-20 2018-08-30 セコム株式会社 監視システム
JP2019109724A (ja) * 2017-12-19 2019-07-04 日本信号株式会社 異常判定装置
JP6999399B2 (ja) 2017-12-19 2022-01-18 日本信号株式会社 異常判定装置
JP2022035379A (ja) * 2020-08-20 2022-03-04 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び情報処理方法

Also Published As

Publication number Publication date
JP6493514B2 (ja) 2019-04-03
US20200084415A1 (en) 2020-03-12
US11877094B2 (en) 2024-01-16
US10750127B2 (en) 2020-08-18
US10368035B2 (en) 2019-07-30
JP2024019182A (ja) 2024-02-08
JP2022111126A (ja) 2022-07-29
US20200336704A1 (en) 2020-10-22
US20240098223A1 (en) 2024-03-21
US20180124360A1 (en) 2018-05-03
US20190215489A1 (en) 2019-07-11
JP2019135653A (ja) 2019-08-15
JP7074164B2 (ja) 2022-05-24
JP7388478B2 (ja) 2023-11-29
JP2020195144A (ja) 2020-12-03
US10419724B2 (en) 2019-09-17
JP6747537B2 (ja) 2020-08-26
JPWO2016151950A1 (ja) 2018-03-01
US20190215488A1 (en) 2019-07-11
US10516855B2 (en) 2019-12-24

Similar Documents

Publication Publication Date Title
JP6493514B2 (ja) 監視システム、監視方法および監視プログラム
JP7188513B2 (ja) 監視システム、監視方法、及びプログラム
US10600311B2 (en) Eyeglasses-type wearable terminal, control method thereof, and control program
US10417506B2 (en) Embedded surround vision-based driver assistance for safe zone estimation
JP2008252519A (ja) 画像処理装置
WO2014061342A1 (ja) 情報処理システム、情報処理方法及びプログラム
WO2022205106A1 (zh) 一种车辆预警方法、装置、设备及存储介质
JP2009159448A (ja) 物体検出装置及び物体検出方法
JP2019008474A (ja) 監視支援システム及び監視支援方法
US20190304275A1 (en) Control device and monitoring system
US20190281257A1 (en) Video monitoring apparatus for displaying event information
JP6226859B2 (ja) 作業監視システム
KR20180119344A (ko) 영역 감시 장치 및 이에 의한 영역 감시 방법
WO2016151932A1 (ja) 監視システム、監視方法および監視プログラム
JP2009017031A (ja) 映像情報出力装置、監視カメラシステム、及び映像情報出力方法
WO2016152318A1 (ja) 監視システム、監視方法および監視プログラム
JP2020102676A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15886502

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017507337

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15559526

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15886502

Country of ref document: EP

Kind code of ref document: A1