WO2019082474A1 - 3次元侵入検知システムおよび3次元侵入検知方法 - Google Patents

3次元侵入検知システムおよび3次元侵入検知方法

Info

Publication number
WO2019082474A1
WO2019082474A1 PCT/JP2018/029798 JP2018029798W WO2019082474A1 WO 2019082474 A1 WO2019082474 A1 WO 2019082474A1 JP 2018029798 W JP2018029798 W JP 2018029798W WO 2019082474 A1 WO2019082474 A1 WO 2019082474A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional
area
unit
intrusion detection
captured
Prior art date
Application number
PCT/JP2018/029798
Other languages
English (en)
French (fr)
Inventor
坪田 一広
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2019082474A1 publication Critical patent/WO2019082474A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present invention acquires three-dimensional information of the monitoring area from a plurality of captured images obtained by imaging the monitoring area with at least two imaging units arranged separately, and an object that has invaded the monitoring area based on the three-dimensional information.
  • Intrusion detection systems which install a camera for imaging a surveillance area and detect an object such as a person who invades the surveillance area by image processing of an image captured by the camera, are widely spread. In such an intrusion detection system, false detection frequently occurs when the environment such as brightness changes, so a technique capable of robust intrusion detection that is less susceptible to environmental changes is desired.
  • the present invention provides a three-dimensional intrusion detection system and a three-dimensional intrusion detection method that reduce the processing load of three-dimensional measurement and enable real-time processing even with a low-speed processor such as a processor incorporated in a camera.
  • the main purpose is to
  • the three-dimensional intrusion detection system acquires three-dimensional information of the monitoring area from a plurality of captured images obtained by imaging the monitoring area with at least two imaging units arranged separately, and based on the three-dimensional information,
  • a three-dimensional intrusion detection system that detects an object that has entered a monitoring area, and a plurality of image acquisition units that acquire a plurality of the captured images captured by the imaging unit, and a plurality of imaging times captured by one of the imaging units
  • a difference area extraction unit that compares the captured images of the two, and extracts a difference area between the captured images as a target area of three-dimensional measurement;
  • the monitoring area is compared with the three-dimensional information of the target area and the three-dimensional information of the background by performing the three-dimensional measurement to measure the position and acquiring the three-dimensional information of the target area. Detecting a foreground region representing a newly appearing object by, for the intrusion detection unit that detects entered the monitoring area object, configured to include a.
  • three-dimensional information of the monitoring area is acquired from a plurality of captured images obtained by imaging the monitoring area by at least two imaging units arranged separately, and the three-dimensional information is acquired.
  • a three-dimensional intrusion detection method that causes a processor to perform processing for detecting an object that has entered a monitoring area, the plurality of captured images captured by the imaging unit being acquired, and one captured by the imaging unit being captured A plurality of the captured images at different times are compared, a difference area between the captured images is extracted as a three-dimensional measurement target area, and the three-dimensional position of the subject is set as the target area in the plurality of captured images.
  • the processing load of three-dimensional measurement is reduced because the difference region between a plurality of captured images having different imaging times is extracted as the three-dimensional measurement target region and the three-dimensional measurement target region is narrowed. It also enables real-time processing even with slow processors such as those built into the camera.
  • three-dimensional information of the monitoring area is acquired from a plurality of captured images obtained by capturing the monitoring area with at least two imaging units arranged separately.
  • a three-dimensional intrusion detection system for detecting an object that has entered a monitoring area based on information, wherein an image acquisition unit that acquires a plurality of the captured images captured by the imaging unit and an image captured by one of the imaging units
  • a difference area extraction unit that compares a plurality of the captured images at different imaging times and extracts a difference area between the captured images as a target area of three-dimensional measurement, and the target areas in the plurality of captured images
  • a three-dimensional measurement unit for measuring three-dimensional position of the subject and acquiring three-dimensional information of the target region, and comparing three-dimensional information of the target region with three-dimensional information of the background; , By detecting the foreground region representing a newly appearing object monitoring area, to the intrusion detection unit that detects entered the monitoring area object, configured to include
  • the second invention further includes a normalization processing unit that performs normalization to equalize the brightness of a plurality of the captured images, and the difference area extraction unit further includes the image pickup normalized by the normalization processing unit. The difference area is extracted based on an image.
  • the processing of the difference area extraction unit becomes less susceptible to the change in brightness, and the area is not an intruding object It is possible to narrow down the target area of the three-dimensional measurement appropriately by suppressing the extraction of the difference area.
  • the normalization processing unit corrects the luminance of each pixel of the captured image based on the average luminance of the captured image.
  • the fourth invention further includes a screen generation unit that generates a monitoring screen to be displayed on a display device, and the screen generation unit displays at least one of the plurality of captured images on the monitoring screen.
  • a mark image representing an intruding object is displayed at a position corresponding to the foreground area on the captured image.
  • the observer can immediately grasp the intruding object shown in the captured image.
  • the observer can easily confirm whether or not there is a false detection.
  • the mark image is displayed according to at least one of the type of the object and the elapsed time from the detection time.
  • the display is color-coded.
  • the observer can immediately grasp the type of the intruding object and the elapsed time from the detection time.
  • the screen generation unit detects a plurality of objects by the intrusion detection unit, the size of the object, the object identification information, and the like in the position corresponding to the foreground area on the captured image And character information regarding at least one of a detection time, a detection order, and an elapsed time from the detection time.
  • the observer can immediately grasp information such as the size of the intruding object.
  • a seventh invention comprises a camera device for imaging a monitoring area, and the camera device includes the imaging unit, the image acquisition unit, the difference area extraction unit, the three-dimensional measurement unit, and the intrusion. And a detection unit.
  • the system configuration can be simplified, and the system installation and operation can be facilitated.
  • three-dimensional information of the monitoring area is acquired from a plurality of captured images obtained by imaging the monitoring area by at least two imaging units arranged separately, and the monitoring area is acquired based on the three-dimensional information.
  • Three-dimensional intrusion detection method for causing a processor to perform processing for detecting an object that has entered into a plurality of images, wherein a plurality of the captured images captured by the imaging unit are acquired, and a plurality of imaging times captured by one of the imaging units are different The three captured images are compared, the difference area between the captured images is extracted as a three-dimensional measurement target area, and the three-dimensional position of the subject is measured for the target areas in a plurality of the captured images.
  • the processing load of the three-dimensional measurement is reduced, and real-time processing becomes possible even with a low speed processor such as a processor built in the camera.
  • FIG. 1 is an overall configuration diagram of a three-dimensional intrusion detection system according to the present embodiment.
  • the three-dimensional intrusion detection system detects a person or the like who intrudes into a monitoring area in a target facility, and includes a camera 1 (camera device), a monitor 2 (display device), and an alarm device 3. Have.
  • the camera 1, the monitor 2, and the alarm device 3 are connected via a network such as a local area network provided in a facility or the Internet.
  • the camera 1 is installed at a target facility.
  • the camera 1 includes left and right imaging units 11 and 12, and the left and right imaging units 11 and 12 periodically image the monitoring area in the facility at a predetermined frame rate, and image the left and right of each time Output an image (frame image).
  • the camera 1 also includes a control unit 13.
  • the control unit 13 measures the three-dimensional position of the subject based on the left and right captured images output from the left and right imaging units 11 and 12. And detect an object such as a person who has invaded the monitoring area based on the three-dimensional information of the monitoring area acquired by the three-dimensional measurement.
  • the camera 1 may be configured as a stereo camera (binary camera) by housing the left and right imaging units 11 and 12 in one case, but each of the left and right imaging units 11 and 12 is a single-eye camera If it is configured so as to be spaced apart in the left and right at a predetermined distance, the distance between the two imaging units 11 and 12 can be kept large, so that three-dimensional information with depth can be acquired Suitable for monitoring of Furthermore, three or more single-eye cameras may be installed, and arbitrary two imaging units may be used to acquire three-dimensional information.
  • the monitor 2 and the alarm device 3 are installed in a monitoring room inside or outside the target facility.
  • the monitor 2 displays a monitor screen that the monitor views, and a captured image of the camera 1 is displayed on the monitor screen so that the monitor can grasp the actual situation of the monitor area.
  • an intrusion detection result of the camera 1 is displayed on the monitoring screen, and the surveillance staff can grasp that an object has entered the surveillance area.
  • the alarm device 3 notifies the surveillance staff that an object has entered the surveillance area by lighting a lamp, outputting a sound, or the like.
  • the monitor 2 may be configured by a wireless mobile terminal (tablet, smartphone, etc.) possessed by the surveillance staff.
  • the process necessary for detecting intrusion is performed by the control unit 13 of the camera 1.
  • the process necessary for detecting intrusion may be performed by an information processing apparatus other than the camera 1 .
  • FIGS. 2 and 3 are explanatory diagrams showing an outline of processing performed by the control unit 13 of the camera 1.
  • the control unit 13 of the camera 1 acquires the left and right captured images from the left and right imaging units 11 and 12 and measures the three-dimensional position of the object in the monitoring area based on the left and right captured images. Then, based on three-dimensional information of the monitoring area acquired by this three-dimensional measurement, an object such as a person who has invaded the monitoring area is detected.
  • the current (current) frame image (captured image) and the previous (previous) frame image (captured image) are compared, and the difference region between the frame images is determined. It is extracted as a target area of three-dimensional measurement. At this time, an area where a change appears between frame images, that is, an area (pixel) in which the subject has motion is extracted as a difference area.
  • the difference area is a set of pixels in which a significant difference in luminance is recognized.
  • the brightness may change significantly between the current and previous two frame images.
  • the condition of solar radiation changes rapidly according to the movement of the clouds
  • the brightness of the two frame images is significantly different.
  • normalization is performed to equalize the brightness of the two current frame images and the previous two frame images as pre-processing of difference area extraction, and two normalized frame images are used.
  • difference area That is, pixels having a significant difference in luminance between the two frame images whose luminances have been corrected by normalization are extracted as a difference area.
  • the target area (difference area) of three-dimensional measurement is extracted, next, as shown in FIG. 3, the current frame image on the left, the current frame image on the right, and the target area Based on the position information, three-dimensional measurement is performed to measure the three-dimensional position of the subject on the target regions of the left and right frame images, and three-dimensional information of the target regions is acquired. Then, the three-dimensional information of the target area is compared with the three-dimensional information of the background, that is, the three-dimensional information acquired from the captured image captured in the initial state in which the intruding object does not exist. Detect
  • the processing load of the three-dimensional measurement can be significantly reduced.
  • real-time processing can be performed by the control unit 13 of the camera 1.
  • the process of differential area extraction is added, the process of differential area extraction is a simple process and does not significantly increase the processing load.
  • normalization is performed to equalize the brightness of the current and previous two frame images, so the difference area extraction process is less susceptible to the difference in the brightness of the frame image, and in the intruding object It is possible to suppress the extraction of the non-region as the difference region, appropriately extract the difference region as the target region of the three-dimensional measurement, and sufficiently narrow the target region of the three-dimensional measurement.
  • an area that is not an intruding object may be extracted as a difference area although it is slightly, but in this area, the same measurement value as the background area in three-dimensional measurement Therefore, false detection does not occur because it can be clearly determined that the object is not an intruding object. That is, even if a region that is not an intruding object is extracted as a difference region, this does not affect the accuracy of intrusion detection.
  • each process of normalization and difference area extraction is performed on the captured image of the imaging unit 11 on the left side, but it suffices to target either one of the left and right captured images.
  • Each process of normalization and difference area extraction may be performed on the image captured by the imaging unit 12 on the right side.
  • normalization is performed as preprocessing for difference area extraction, but gain adjustment may be performed other than normalization.
  • FIG. 4 is a block diagram showing a schematic configuration of the camera 1.
  • the camera 1 includes left and right imaging units 11 and 12, a control unit 13, a storage unit 14, and a communication unit 15.
  • the communication unit 15 transmits the monitoring screen generated by the control unit 13 to the monitor 2. In addition, when the control unit 13 detects an intruding object, the communication unit 15 transmits, to the alarm device 3, an instruction signal for performing a predetermined notification operation.
  • the storage unit 14 stores, for example, captured images output from the imaging units 11 and 12 and programs executed by a processor that configures the control unit 13.
  • the storage unit 14 stores three-dimensional information of the background, that is, three-dimensional information acquired from a captured image captured in an initial state in which there is no intruding object.
  • the three-dimensional information of the background is three-dimensional information of the entire captured image, that is, the entire monitoring area.
  • the control unit 13 includes an imaging control unit 21 (image acquisition unit), a normalization processing unit 22, a difference area extraction unit 23, a three-dimensional measurement unit 24, an intrusion detection unit 25, and a screen generation unit 26.
  • the control unit 13 is configured by a processor, and each unit of the control unit 13 is realized by causing the processor to execute a program stored in the storage unit 14.
  • an adapter-like terminal such as an edge computer may be connected as the control unit 13.
  • the imaging control unit 21 controls the left and right imaging units 11 and 12 and outputs synchronization signals to the left and right imaging units 11 and 12 so that the left and right imaging units 11 and 12 perform imaging at the same timing. Further, the imaging control unit 21 acquires left and right captured images output from the left and right imaging units 11 and 12.
  • the normalization processing unit 22 normalizes the two frame images (captured images) compared by the difference area extraction unit 23, that is, the brightness of the current (current) frame image and the previous (previous) frame image. Do. Specifically, the average luminance of each of two frame images is calculated from the luminance of each pixel of the two frame images, and the average luminance of the two frame images is calculated based on the difference of the average luminance of the two frame images. The brightness of each pixel of the frame image is corrected so that
  • normalization is performed to equalize the average luminances of two frame images, but normalization may be performed to equalize the maximum luminances of two frame images. Further, in the present embodiment, normalization is performed based on the luminance of each pixel, but normalization may be performed based on pixel values other than luminance.
  • the difference area extraction unit 23 compares the two normalized frame images acquired by the normalization processing unit 22 and extracts the difference area between the frame images as a target area of three-dimensional measurement. In this process, an area where a change appears in the captured image, that is, an area where the subject has motion is extracted as a difference area. Specifically, the luminance of each pixel of two frame images is compared to detect a pixel in which a significant difference is recognized in luminance.
  • the three-dimensional measurement unit 24 detects the left and right captured images based on the position information of the target region (difference region) of the three-dimensional measurement acquired by the difference region extraction unit 23 and the left and right captured images acquired by the imaging control unit 21.
  • the three-dimensional measurement for measuring the three-dimensional position of the subject is performed on the target region in the above to acquire three-dimensional information of the target region.
  • the intrusion detection unit 25 detects an object that has entered the monitoring area based on the three-dimensional information of the target area acquired by the three-dimensional measurement unit 24 and the three-dimensional information of the background stored in the storage unit 14, that is, the monitoring area Detect newly appeared objects.
  • the intruding object is represented by comparing the three-dimensional information of the target area with the three-dimensional information of the background, that is, the three-dimensional information acquired from the captured image captured in the initial state where the intruding object does not exist.
  • the foreground area is detected and position information of the foreground area is acquired.
  • the intrusion detection unit 25 assigns an ID to the detected intruding object.
  • the IDs are assigned in the order of detection, and the intruding object detected in the captured image (frame image) at each time is the same as the intruding object detected before based on the feature information such as the size and color of the intruding object If it is determined, the same ID is given to the intruding object.
  • ID since ID is provided in order of detection, it represents the detection order of the intruding object.
  • the intrusion detection unit 25 acquires information on the size (height, width, depth, and the like) of the intruding object based on the three-dimensional information of the intruding object (foreground region) acquired by the three-dimensional measurement unit 24.
  • the intrusion detection unit 25 extracts features such as the size and shape of the object based on the three-dimensional information of the intruding object (foreground region) acquired by the three-dimensional measurement unit 24 and intrudes based on the features. Determine the type of object.
  • the intrusion detection unit 25 detects the intruding object until the present time (detection time) when the time when the intruding object is detected (detection time) or the state where the intruding object is detected continues until the present time (detection Get the elapsed time from the time).
  • the screen generation unit 26 generates a monitoring screen (see FIGS. 5 and 6) displayed on the monitor 2. Specifically, based on the position information of the foreground area representing the intruding object acquired by the intrusion detection unit 25, a frame image (mark image) surrounding the intruding object is generated, and the frame image is generated on the captured image on the left side. Superimposed on the monitor screen. In addition, based on the information on the ID and the size of the intruding object acquired by the intrusion detection unit 25, character information on the ID and the size of the intruding object is superimposed on the captured image and displayed on the monitoring screen.
  • the difference area extraction unit 23 compares two consecutive frame images, that is, the current (current) frame image and the previous (previous) frame image, and then the difference area between the frame images.
  • two frame images having different imaging times may be compared, the two frame images to be compared are not limited to continuous ones.
  • the user designates an area where an intruding object may appear in the captured image (frame image) as a measurement area, and performs normalization, difference area extraction, three-dimensional measurement, and the measurement area as a target. Each process of intrusion detection may be performed.
  • the captured image (frame image) is reduced, that is, the number of pixels of the captured image is reduced, and then each processing of normalization and difference region extraction is performed to obtain the difference region on the acquired reduced image.
  • the position of the pixel in the difference area on the original captured image may be obtained from the position of the pixel in the above.
  • the difference area between frame images is extracted, but the difference area is extracted by a so-called background difference, that is, a captured image (background image) captured in an initial state in which there is no intruding object. And the current (current) captured image may be compared to extract a difference region.
  • a so-called background difference that is, a captured image (background image) captured in an initial state in which there is no intruding object.
  • the current (current) captured image may be compared to extract a difference region.
  • 5 and 6 are explanatory diagrams showing a monitoring screen displayed on the monitor 2.
  • the captured image 31 of the imaging unit 11 on the left side is displayed.
  • a frame image 32 (a mark image) indicating a detected intruding object is superimposed and displayed on the captured image 31.
  • the frame image 32 representing the intruding object is displayed in different colors according to the type of the intruding object (person, vehicle, luggage, etc.).
  • the observer can immediately grasp the type of the intruding object.
  • the frame image 32 may be displayed in different colors according to the elapsed time from the detection time. In this case, as the elapsed time becomes longer, the color of the frame image 32 may be gradually darkened. Thus, the observer can immediately grasp the object staying in the monitoring area for a long time.
  • the rectangular frame image 32 surrounding the intruding object is displayed as the mark image indicating the intruding object.
  • the mark image is not limited to the rectangular, and various types such as circular may be used. It may be a shape. Further, the mark image is not limited to the form surrounding the intruding object, and the intruding object may be indicated by an arrow image or the like.
  • the captured image 31 of the imaging unit 11 on the left side is displayed on the monitoring screen
  • either one of the left and right captured images may be displayed on the monitoring screen.
  • the captured image of may be displayed on the monitoring screen.
  • the label 33 in which the character information on the detected intruding object is described is displayed in the vicinity of the frame image 32.
  • the ID object identification information assigned to the intruding object is described on the label 33. This ID allows the observer to track the intruding object.
  • the detection time, the detection order, and the elapsed time from the detection time may be described on the label 33.
  • the embodiment has been described as an example of the technology disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, and the like have been made.
  • the three-dimensional intrusion detection system and the three-dimensional intrusion detection method according to the present invention have the effect of reducing the processing load of three-dimensional measurement and enabling real-time processing even with a low-speed processor such as a processor built in a camera.
  • the three-dimensional information of the monitoring area is acquired from a plurality of captured images obtained by imaging the monitoring area by at least two imaging units arranged at a distance, and an object that has invaded the monitoring area is detected based on the three-dimensional information It is useful as a three-dimensional intrusion detection system and a three-dimensional intrusion detection method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

【課題】3次元計測の処理負荷を軽減して、カメラのプロセッサでもリアルタイムな処理が可能になるようにする。 【解決手段】カメラの制御部13が、撮像部11,12の一方で撮像した撮像時刻が異なる複数の撮像画像の明るさを揃える正規化を行う正規化処理部22と、正規化された複数の撮像画像を比較して、その撮像画像間の差分領域を3次元計測の対象領域として抽出する差分領域抽出部23と、複数の撮像画像における対象領域を対象にして、被写体の3次元位置を計測する3次元計測を行って、対象領域の3次元情報を取得する3次元計測部24と、対象領域の3次元情報と背景の3次元情報とを比較して、監視エリアに新たに出現した物体を表す前景領域を検出することにより、監視エリアに侵入した物体を検知する侵入検知部25と、を備えものとする。

Description

3次元侵入検知システムおよび3次元侵入検知方法
 本発明は、離間配置された少なくとも2つの撮像部で監視エリアを撮像した複数の撮像画像から、監視エリアの3次元情報を取得して、その3次元情報に基づいて、監視エリアに侵入した物体を検知する3次元侵入検知システムおよび3次元侵入検知方法に関するものである。
 監視エリアを撮像するカメラを設置して、そのカメラの撮像画像の画像処理により、監視エリアに侵入する人物などの物体を検知する侵入検知システムが広く普及している。このような侵入検知システムでは、明るさなどの環境が変化することで、誤検知が頻繁に発生することから、環境変化の影響を受けにくい頑強な侵入検知が可能な技術が望まれる。
 このような侵入検知に関する技術として、従来、左右の撮像画像に基づいて、監視エリア内の物体の3次元位置を計測する3次元計測(ステレオ画像処理)を行って、監視エリアの3次元情報を取得して、その3次元情報に基づいて、監視エリアに侵入した物体を検知する技術が知られている(特許文献1参照)。
特許第3388087号公報
 さて、このような侵入検知システムでは、3次元計測の処理負荷が大きいため、リアルタイムな処理を行おうとすると、高速なプロセッサを備えたPCが必要となるが、このようなシステムでは、システムの導入および運用が面倒になる。そこで、カメラに内蔵されたプロセッサなどの低速のプロセッサでもリアルタイムな処理が可能な技術が望まれるが、前記従来の技術では、このような要望を満足することができないという問題があった。
 そこで、本発明は、3次元計測の処理負荷を軽減して、カメラに内蔵されたプロセッサなどの低速のプロセッサでもリアルタイムな処理が可能になる3次元侵入検知システムおよび3次元侵入検知方法を提供することを主な目的とする。
 本発明の3次元侵入検知システムは、離間配置された少なくとも2つの撮像部で監視エリアを撮像した複数の撮像画像から、監視エリアの3次元情報を取得して、その3次元情報に基づいて、監視エリアに侵入した物体を検知する3次元侵入検知システムであって、前記撮像部で撮像した複数の前記撮像画像を取得する画像取得部と、一方の前記撮像部で撮像した撮像時刻が異なる複数の前記撮像画像を比較して、その撮像画像間の差分領域を3次元計測の対象領域として抽出する差分領域抽出部と、複数の前記撮像画像における前記対象領域を対象にして、被写体の3次元位置を計測する3次元計測を行って、前記対象領域の3次元情報を取得する3次元計測部と、前記対象領域の3次元情報と背景の3次元情報とを比較して、監視エリアに新たに出現した物体を表す前景領域を検出することにより、監視エリアに侵入した物体を検知する侵入検知部と、を備えた構成とする。
 また、本発明の3次元侵入検知方法は、離間配置された少なくとも2つの撮像部で監視エリアを撮像した複数の撮像画像から、監視エリアの3次元情報を取得して、その3次元情報に基づいて、監視エリアに侵入した物体を検知する処理をプロセッサに行わせる3次元侵入検知方法であって、前記撮像部で撮像した複数の前記撮像画像を取得し、一方の前記撮像部で撮像した撮像時刻が異なる複数の前記撮像画像を比較して、その撮像画像間の差分領域を3次元計測の対象領域として抽出し、複数の前記撮像画像における前記対象領域を対象にして、被写体の3次元位置を計測する3次元計測を行って、前記対象領域の3次元情報を取得し、前記対象領域の3次元情報と背景の3次元情報とを比較して、監視エリアに新たに出現した物体を表す前景領域を検出することにより、監視エリアに侵入した物体を検知する構成とする。
 本発明によれば、撮像時刻が異なる複数の撮像画像間の差分領域を3次元計測の対象領域として抽出して、3次元計測の対象領域を絞り込むため、3次元計測の処理負荷を軽減することができ、カメラに内蔵されたプロセッサなどの低速のプロセッサでもリアルタイムな処理が可能になる。
本実施形態に係る3次元侵入検知システムの全体構成図 カメラ1の制御部13で行われる処理の概要を示す説明図 カメラ1の制御部13で行われる処理の概要を示す説明図 カメラ1の概略構成を示すブロック図 モニタ2に表示される監視画面を示す説明図 モニタ2に表示される監視画面を示す説明図
 前記課題を解決するためになされた第1の発明は、離間配置された少なくとも2つの撮像部で監視エリアを撮像した複数の撮像画像から、監視エリアの3次元情報を取得して、その3次元情報に基づいて、監視エリアに侵入した物体を検知する3次元侵入検知システムであって、前記撮像部で撮像した複数の前記撮像画像を取得する画像取得部と、一方の前記撮像部で撮像した撮像時刻が異なる複数の前記撮像画像を比較して、その撮像画像間の差分領域を3次元計測の対象領域として抽出する差分領域抽出部と、複数の前記撮像画像における前記対象領域を対象にして、被写体の3次元位置を計測する3次元計測を行って、前記対象領域の3次元情報を取得する3次元計測部と、前記対象領域の3次元情報と背景の3次元情報とを比較して、監視エリアに新たに出現した物体を表す前景領域を検出することにより、監視エリアに侵入した物体を検知する侵入検知部と、を備えた構成とする。
 これによると、撮像時刻が異なる複数の撮像画像間の差分領域を3次元計測の対象領域として抽出して、3次元計測の対象領域を絞り込むため、3次元計測の処理負荷を軽減することができ、カメラに内蔵されたプロセッサなどの低速のプロセッサでもリアルタイムな処理が可能になる。
 また、第2の発明は、さらに、複数の前記撮像画像の明るさを揃える正規化を行う正規化処理部を備え、前記差分領域抽出部は、前記正規化処理部で正規化された前記撮像画像に基づいて、前記差分領域を抽出する構成とする。
 これによると、差分領域抽出部で比較する複数の撮像画像の明るさを揃える正規化を行うため、差分領域抽出部の処理が、明るさの変化による影響を受けにくくなり、侵入物体ではない領域が差分領域として抽出されることを抑制して、3次元計測の対象領域を適切に絞り込むことができる。
 また、第3の発明は、前記正規化処理部は、前記撮像画像の平均輝度に基づいて、前記撮像画像の各画素の輝度を補正する構成とする。
 これによると、撮像画像の明るさを揃える正規化を適切に行うことができる。
 また、第4の発明は、さらに、表示装置に表示する監視画面を生成する画面生成部を備え、前記画面生成部は、前記監視画面に、複数の前記撮像画像の少なくとも一方を表示すると共に、その撮像画像上における前記前景領域に対応する位置に、侵入物体を表すマーク画像を表示する構成とする。
 これによると、撮像画像に写る侵入物体を監視者が即座に把握することができる。また、誤検知でないか否かを監視者が容易に確認することができる。
 また、第5の発明は、前記画面生成部は、前記侵入検知部により複数の物体を検知した場合、物体の種別、および検知時刻からの経過時間の少なくともいずれかに応じて、前記マーク画像を色分けして表示する構成とする。
 これによると、侵入物体の種別や検知時刻からの経過時間を監視者が即座に把握することができる。
 また、第6の発明は、前記画面生成部は、前記侵入検知部により複数の物体を検知した場合、前記撮像画像上での前記前景領域に対応する位置に、物体の大きさ、物体識別情報、検知時刻、検知順位、および検知時刻からの経過時間の少なくともいずれかに関する文字情報を表示する構成とする。
 これによると、侵入物体の大きさなどの情報を監視者が即座に把握することができる。
 また、第7の発明は、監視エリアを撮像するカメラ装置を備え、このカメラ装置が、前記撮像部と、前記画像取得部と、前記差分領域抽出部と、前記3次元計測部と、前記侵入検知部と、を備えた構成とする。
 これによると、必要な処理がカメラ装置内で行われるため、システム構成を簡素化することができるため、システムの導入および運用が容易になる。
 また、第8の発明は、離間配置された少なくとも2つの撮像部で監視エリアを撮像した複数の撮像画像から、監視エリアの3次元情報を取得して、その3次元情報に基づいて、監視エリアに侵入した物体を検知する処理をプロセッサに行わせる3次元侵入検知方法であって、前記撮像部で撮像した複数の前記撮像画像を取得し、一方の前記撮像部で撮像した撮像時刻が異なる複数の前記撮像画像を比較して、その撮像画像間の差分領域を3次元計測の対象領域として抽出し、複数の前記撮像画像における前記対象領域を対象にして、被写体の3次元位置を計測する3次元計測を行って、前記対象領域の3次元情報を取得し、前記対象領域の3次元情報と背景の3次元情報とを比較して、監視エリアに新たに出現した物体を表す前景領域を検出することにより、監視エリアに侵入した物体を検知する構成とする。
 これによると、第1の発明と同様に、3次元計測の処理負荷を軽減して、カメラに内蔵されたプロセッサなどの低速のプロセッサでもリアルタイムな処理が可能になる。
 以下、本発明の実施の形態を、図面を参照しながら説明する。
 図1は、本実施形態に係る3次元侵入検知システムの全体構成図である。
 この3次元侵入検知システムは、対象となる施設内の監視エリアに侵入する人物などを検知するものであり、カメラ1(カメラ装置)と、モニタ2(表示装置)と、警報装置3と、を備えている。カメラ1とモニタ2と警報装置3とは、施設内に設けられた構内ネットワークやインターネットなどのネットワークを介して接続されている。
 カメラ1は、対象となる施設に設置される。このカメラ1は、左右の撮像部11,12を備えており、この左右の撮像部11,12は、施設内の監視エリアを所定のフレームレートで定期的に撮像し、各時刻の左右の撮像画像(フレーム画像)を出力する。また、カメラ1は、制御部13を備えており、この制御部13では、左右の撮像部11,12から出力される左右の撮像画像に基づいて、被写体の3次元位置を計測する3次元計測を行い、この3次元計測で取得した監視エリアの3次元情報に基づいて、監視エリアに侵入した人物などの物体を検知する。
 なお、カメラ1は、左右の撮像部11,12を1つの筐体内に収容してステレオカメラ(2眼カメラ)として構成してもよいが、左右の撮像部11,12の各々を単眼カメラで構成して、所定の距離をおいて左右に離間して設置するようにすると、2つの撮像部11,12の間隔を大きく確保できるため、奥行きのある3次元情報を取得することができ、広域の監視に適している。さらに、3以上の単眼カメラを設置し、任意の2つの撮像部を用いて3次元情報を取得するようにしてもよい。
 モニタ2および警報装置3は、対象となる施設内または施設外の監視室に設置される。モニタ2には、監視者が閲覧する監視画面が表示され、この監視画面には、カメラ1の撮像画像が表示され、監視エリアの実際の状況を監視員が把握することができる。また、監視画面には、カメラ1での侵入検知結果が表示され、監視エリアに物体が侵入したことを監視員が把握することができる。警報装置3は、ランプの点灯や音声の出力などにより、監視エリアに物体が侵入したことを監視員に通知する。なお、モニタ2は、監視員が所持する無線系のモバイル端末(タブレット、スマートフォンなど)で構成してもよい。
 なお、本実施形態では、侵入検知に必要な処理をカメラ1の制御部13で行うようにしたが、侵入検知に必要な処理をカメラ1とは別の情報処理装置で行うようにしてもよい。
 次に、カメラ1の制御部13で行われる処理の概要について説明する。図2および図3は、カメラ1の制御部13で行われる処理の概要を示す説明図である。
 カメラ1の制御部13では、左右の撮像部11,12から左右の撮像画像を取得して、この左右の撮像画像に基づいて、監視エリア内の物体の3次元位置を計測する3次元計測を行い、この3次元計測で取得した監視エリアの3次元情報に基づいて、監視エリア内に侵入した人物などの物体を検知する。
 このとき、撮像画像の全体を対象にして3次元計測を行うと、3次元計測の処理負荷が大きく、カメラ1の制御部13でリアルタイムな処理ができない。
 そこで、本実施形態では、図2に示すように、今回(現在)のフレーム画像(撮像画像)と前回(直前)のフレーム画像(撮像画像)とを比較して、フレーム画像間の差分領域を3次元計測の対象領域として抽出する。このとき、フレーム画像間で変化が現れた領域、すなわち、被写体に動きのある領域(画素)が差分領域として抽出される。なお、差分領域は、輝度に有意な差異が認められる画素の集合である。
 また、今回および前回の2つのフレーム画像では明るさが大きく変化する場合がある。例えば、雲が移動するのに応じて日射の状況が急激に変化すると、2つのフレーム画像の明るさが大きく異なる。このような場合、3次元計測の対象領域としての差分領域を適切に抽出することができない。すなわち、侵入物体でない領域が差分領域として大量に抽出され、3次元計測の対象領域を十分に絞り込むことができない。
 そこで、本実施形態では、図2に示すように、差分領域抽出の前処理として、今回および前回の2つのフレーム画像の明るさを揃える正規化を行い、正規化済みの2つのフレーム画像を用いて差分領域を抽出する。すなわち、正規化により輝度が補正された2つのフレーム画像同士で依然として輝度に有意な差がある画素が差分領域として抽出される。
 このようにして、3次元計測の対象領域(差分領域)が抽出されると、次に、図3に示すように、左側の今回のフレーム画像と、右側の今回のフレーム画像と、対象領域の位置情報とに基づいて、左右のフレーム画像の対象領域を対象にして、被写体の3次元位置を計測する3次元計測を行って、対象領域の3次元情報を取得する。そして、対象領域の3次元情報と、背景の3次元情報、すなわち、侵入物体が存在しない初期状態で撮像された撮像画像から取得した3次元情報とを比較して、監視エリアに侵入した物体を検知する。
 このように本実施形態では、フレーム画像間の差分領域を3次元計測の対象領域として、対象領域を絞り込んで3次元計測を行うため、3次元計測の処理負荷を大幅に軽減することができ、これにより、カメラ1の制御部13でリアルタイムな処理が可能となる。なお、差分領域抽出の処理が追加されるが、この差分領域抽出の処理は、簡単な処理であり、処理負荷を顕著に増大させるものではない。
 また、本実施形態では、今回および前回の2つのフレーム画像の明るさを揃える正規化を行うため、差分領域抽出の処理が、フレーム画像の明るさの違いによる影響を受けにくくなり、侵入物体ではない領域が差分領域として抽出されることを抑制して、3次元計測の対象領域としての差分領域を適切に抽出して、3次元計測の対象領域を十分に絞り込むことができる。
 また、図2に示したように、差分領域抽出の処理で、侵入物体ではない領域が僅かながら差分領域として抽出される場合があるが、この領域では、3次元計測において背景領域と同じ計測値が得られることから、侵入物体ではないと明らかに判別できるため、誤検知が発生することはない。すなわち、侵入物体ではない領域が差分領域として抽出されても、これは侵入検知の精度に影響を与えない。
 なお、本実施形態では、正規化および差分領域抽出の各処理を、左側の撮像部11の撮像画像を対象にして行うようにしたが、左右の撮像画像のいずれか一方を対象とすればよく、右側の撮像部12の撮像画像を対象にして正規化および差分領域抽出の各処理を行うようにしてもよい。
 また、本実施形態では、差分領域抽出の前処理として、正規化を行うようにしたが、正規化の他に、ゲイン調整を行うようにしてもよい。
 次に、カメラ1の概略構成について説明する。図4は、カメラ1の概略構成を示すブロック図である。
 カメラ1は、左右の撮像部11,12と、制御部13と、記憶部14と、通信部15と、を備えている。
 通信部15は、制御部13で生成した監視画面をモニタ2に送信する。また、通信部15は、制御部13で侵入物体を検知した場合に、所定の報知動作を行わせる指示信号を警報装置3に送信する。
 記憶部14は、撮像部11,12から出力される撮像画像や、制御部13を構成するプロセッサで実行されるプログラムなどを記憶する。また、記憶部14は、背景の3次元情報、すなわち、侵入物体が存在しない初期状態で撮像された撮像画像から取得した3次元情報を記憶する。この背景の3次元情報は、撮像画像の全体、すなわち、監視エリアの全体の3次元情報である。
 制御部13は、撮像制御部21(画像取得部)と、正規化処理部22と、差分領域抽出部23と、3次元計測部24と、侵入検知部25と、画面生成部26と、を備えている。この制御部13は、プロセッサで構成され、制御部13の各部は、記憶部14に記憶されたプログラムをプロセッサで実行することで実現される。なお、既設の監視カメラを利用する場合には、制御部13として、エッジコンピュータ等のアダプタ的な端末を接続するようにしてもよい。
 撮像制御部21は、左右の撮像部11,12を制御し、左右の撮像部11,12が同一のタイミングで撮像を行うための同期信号を左右の撮像部11,12に出力する。また、撮像制御部21は、左右の撮像部11,12から出力される左右の撮像画像を取得する。
 正規化処理部22は、差分領域抽出部23で比較される2つのフレーム画像(撮像画像)、すなわち、今回(現在)のフレーム画像および前回(直前)のフレーム画像の明るさを揃える正規化を行う。具体的には、2つのフレーム画像の各画素の輝度から、2つのフレーム画像ごとの平均輝度を求めて、その2つのフレーム画像ごとの平均輝度の差分に基づいて、2つのフレーム画像の平均輝度が一致するように、フレーム画像の各画素の輝度を補正する。
 なお、本実施形態では、2つのフレーム画像の平均輝度を揃える正規化を行うようにしたが、2つのフレーム画像の最大輝度を揃える正規化を行うようにしてもよい。また、本実施形態では、各画素の輝度に基づいて正規化を行うようにしたが、輝度以外の画素値に基づいて正規化を行うようにしてもよい。
 差分領域抽出部23は、正規化処理部22で取得した正規化済みの2つのフレーム画像を比較して、フレーム画像間の差分領域を3次元計測の対象領域として抽出する。この処理では、撮像画像内で変化が現れた領域、すなわち、被写体に動きのある領域が差分領域として抽出される。具体的には、2つのフレーム画像の各画素の輝度を比較して、輝度に有意な差異が認められる画素を検出する。
 3次元計測部24は、差分領域抽出部23で取得した3次元計測の対象領域(差分領域)の位置情報と、撮像制御部21で取得した左右の撮像画像とに基づいて、左右の撮像画像における対象領域を対象にして、被写体の3次元位置を計測する3次元計測を行って、対象領域の3次元情報を取得する。
 侵入検知部25は、3次元計測部24で取得した対象領域の3次元情報と、記憶部14に記憶された背景の3次元情報とに基づいて、監視エリアに侵入した物体、すなわち、監視エリアに新たに出現した物体を検知する。具体的には、対象領域の3次元情報と、背景の3次元情報、すなわち、侵入物体が存在しない初期状態で撮像された撮像画像から取得した3次元情報とを比較して、侵入物体を表す前景領域を検出して、その前景領域の位置情報を取得する。
 また、侵入検知部25は、検知した侵入物体にIDを付与する。このIDは、検知した順に付与され、侵入物体の大きさや色などの特徴情報に基づいて、各時刻の撮像画像(フレーム画像)で検知された侵入物体が、以前に検知された侵入物体と同一と判定されると、その侵入物体には同一のIDが付与される。なお、IDは、検知した順に付与されることから、侵入物体の検知順位を表すものとなる。
 また、侵入検知部25は、3次元計測部24で取得した侵入物体(前景領域)の3次元情報に基づいて、侵入物体の大きさ(高さ、幅および奥行きなど)に関する情報を取得する。
 また、侵入検知部25は、3次元計測部24で取得した侵入物体(前景領域)の3次元情報に基づいて、物体の大きさや形状などの特徴を抽出して、その特徴に基づいて、侵入物体の種別を判定する。
 また、侵入検知部25は、侵入物体を検知した時刻(検知時刻)や、侵入物体を検知した状態が現在まで継続している場合において、侵入物体を検知してから現在までの経過時間(検知時刻からの経過時間)を取得する。
 画面生成部26は、モニタ2に表示する監視画面(図5,図6参照)を生成する。具体的には、侵入検知部25で取得した侵入物体を表す前景領域の位置情報に基づいて、侵入物体を取り囲む枠画像(マーク画像)を生成して、その枠画像を、左側の撮像画像上に重畳して監視画面に表示する。また、侵入検知部25で取得した侵入物体のIDや大きさなどに関する情報に基づいて、その侵入物体のIDや大きさなどに関する文字情報を撮像画像上に重畳して監視画面に表示する。
 ところで、本実施形態では、差分領域抽出部23において、連続した2つのフレーム画像、すなわち、今回(現在)のフレーム画像と前回(直前)のフレーム画像とを比較して、フレーム画像間の差分領域を抽出するようにしたが、撮像時刻が異なる2つのフレーム画像を比較すればよく、比較する2つのフレーム画像は連続したものに限定されない。
 ここで、連続したフレーム画像では、環境変動による画像の変化が小さいため、正規化の効果があまり大きくない。一方、比較するフレーム画像の時間間隔を大きくする、すなわち、フレーム画像を間引いて比較すると、環境変動による画像の変化が大きくなるため、正規化の効果が大きくなり、さらに、被写体に動きのある領域、すなわち、侵入物体の領域を、差分領域として確実に抽出することができる。
 そこで、正規化処理部22で正規化を行い、かつ、差分領域抽出部23においてフレーム画像を間引いて比較する第1の処理モードと、正規化処理部22で正規化を行わず、かつ、差分領域抽出部23において連続したフレーム画像を比較する第2の処理モードとを設けて、いずれかの処理モードをユーザが選択できるようにしてもよい。
 また、撮像画像(フレーム画像)内において侵入物体が出現する可能性がある領域を計測領域としてユーザが指定して、その計測領域を対象にして、正規化、差分領域抽出、3次元計測、および侵入検知の各処理を行うようにしてもよい。
 また、撮像画像(フレーム画像)を縮小する、すなわち、撮像画像の画素数を削減する処理を行った上で、正規化および差分領域抽出の各処理を行い、取得した縮小画像上での差分領域の画素の位置から、元の撮像画像上での差分領域の画素の位置を取得するようにしてもよい。
 また、本実施形態では、フレーム画像間の差分領域を抽出するようにしたが、いわゆる背景差分で差分領域を抽出する、すなわち、侵入物体が存在しない初期状態で撮像された撮像画像(背景画像)と、今回(現在)の撮像画像とを比較して、差分領域を抽出するようにしてもよい。
 次に、モニタ2に表示される監視画面について説明する。図5,図6は、モニタ2に表示される監視画面を示す説明図である。
 図5,図6に示すように、監視画面には、左側の撮像部11の撮像画像31が表示される。本実施形態では、図5に示すように、検知された侵入物体を示す枠画像32(マーク画像)が撮像画像31上に重畳して表示される。
 図5に示す例では、侵入物体の種別(人物、車両、荷物など)に応じて、侵入物体を表す枠画像32が色分けして表示される。これにより、侵入物体の種別を監視者が即座に把握することができる。
 また、検知時刻からの経過時間に応じて、枠画像32を色分けして表示するようにしてもよい。この場合、経過時間が長くなるのに応じて、次第に枠画像32の色が濃くなるようにしてもよい。これにより、監視エリア内に長時間滞留する物体を監視者が即座に把握することができる。
 なお、本実施形態では、侵入物体を示すマーク画像として、侵入物体を取り囲む矩形の枠画像32を表示するようにしたが、マーク画像は、矩形に限定されるものではなく、円形などの種々の形状としてもよい。また、マーク画像は、侵入物体を取り囲む形態に限定されるものではなく、矢印の画像などで侵入物体を指し示すようにしてもよい。
 また、本実施形態では、左側の撮像部11の撮像画像31を監視画面に表示するようにしたが、監視画面には左右の撮像画像のいずれか一方を表示すればよく、右側の撮像部12の撮像画像を監視画面に表示するようにしてもよい。
 また、本実施形態では、図6(A),(B)に示すように、検知した侵入物体に関する文字情報が記載されたラベル33が、枠画像32の近傍に表示される。
 図6(A)に示す例では、侵入物体の大きさ(高さ、幅および奥行き)に関する情報がラベル33に記載されている。これにより、侵入物体の大きさを監視者が容易に把握することができる。
 図6(B)に示す例では、侵入物体に付与されたID(物体識別情報)がラベル33に記載されている。このIDにより、監視者が侵入物体を追跡することができる。
 この他に、検知時刻、検知順位、および検知時刻からの経過時間をラベル33に記載するようにしてもよい。
 以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
 本発明に係る3次元侵入検知システムおよび3次元侵入検知方法は、3次元計測の処理負荷を軽減して、カメラに内蔵されたプロセッサなどの低速のプロセッサでもリアルタイムな処理が可能になる効果を有し、離間配置された少なくとも2つの撮像部で監視エリアを撮像した複数の撮像画像から、監視エリアの3次元情報を取得して、その3次元情報に基づいて、監視エリアに侵入した物体を検知する3次元侵入検知システムおよび3次元侵入検知方法などとして有用である。
1 カメラ(カメラ装置)
2 モニタ(表示装置)
11,12 撮像部
13 制御部
14 記憶部
15 通信部
21 撮像制御部
22 正規化処理部
23 差分領域抽出部
24 次元計測部
25 侵入検知部
26 画面生成部
31 撮像画像
32 枠画像
33 ラベル

Claims (8)

  1.  離間配置された少なくとも2つの撮像部で監視エリアを撮像した複数の撮像画像から、監視エリアの3次元情報を取得して、その3次元情報に基づいて、監視エリアに侵入した物体を検知する3次元侵入検知システムであって、
     前記撮像部で撮像した複数の前記撮像画像を取得する画像取得部と、
     一方の前記撮像部で撮像した撮像時刻が異なる複数の前記撮像画像を比較して、その撮像画像間の差分領域を3次元計測の対象領域として抽出する差分領域抽出部と、
     複数の前記撮像画像における前記対象領域を対象にして、被写体の3次元位置を計測する3次元計測を行って、前記対象領域の3次元情報を取得する3次元計測部と、
     前記対象領域の3次元情報と背景の3次元情報とを比較して、監視エリアに新たに出現した物体を表す前景領域を検出することにより、監視エリアに侵入した物体を検知する侵入検知部と、
    を備えたことを特徴とする3次元侵入検知システム。
  2.  さらに、複数の前記撮像画像の明るさを揃える正規化を行う正規化処理部を備え、
     前記差分領域抽出部は、前記正規化処理部で正規化された前記撮像画像に基づいて、前記差分領域を抽出することを特徴とする請求項1に記載の3次元侵入検知システム。
  3.  前記正規化処理部は、前記撮像画像の平均輝度に基づいて、前記撮像画像の各画素の輝度を補正することを特徴とする請求項2に記載の3次元侵入検知システム。
  4.  さらに、表示装置に表示する監視画面を生成する画面生成部を備え、
     前記画面生成部は、前記監視画面に、複数の前記撮像画像の少なくとも一方を表示すると共に、その撮像画像上における前記前景領域に対応する位置に、侵入物体を表すマーク画像を表示することを特徴とする請求項1に記載の3次元侵入検知システム。
  5.  前記画面生成部は、前記侵入検知部により複数の物体を検知した場合、物体の種別、および検知時刻からの経過時間の少なくともいずれかに応じて、前記マーク画像を色分けして表示することを特徴とする請求項4に記載の3次元侵入検知システム。
  6.  前記画面生成部は、前記侵入検知部により複数の物体を検知した場合、前記撮像画像上での前記前景領域に対応する位置に、物体の大きさ、物体識別情報、検知時刻、検知順位、および検知時刻からの経過時間の少なくともいずれかに関する文字情報を表示することを特徴とする請求項4に記載の3次元侵入検知システム。
  7.  監視エリアを撮像するカメラ装置を備え、
     このカメラ装置が、前記撮像部と、前記画像取得部と、前記差分領域抽出部と、前記3次元計測部と、前記侵入検知部と、を備えたことを特徴とする請求項1に記載の3次元侵入検知システム。
  8.  離間配置された少なくとも2つの撮像部で監視エリアを撮像した複数の撮像画像から、監視エリアの3次元情報を取得して、その3次元情報に基づいて、監視エリアに侵入した物体を検知する処理をプロセッサに行わせる3次元侵入検知方法であって、
     前記撮像部で撮像した複数の前記撮像画像を取得し、
     一方の前記撮像部で撮像した撮像時刻が異なる複数の前記撮像画像を比較して、その撮像画像間の差分領域を3次元計測の対象領域として抽出し、
     複数の前記撮像画像における前記対象領域を対象にして、被写体の3次元位置を計測する3次元計測を行って、前記対象領域の3次元情報を取得し、
     前記対象領域の3次元情報と背景の3次元情報とを比較して、監視エリアに新たに出現した物体を表す前景領域を検出することにより、監視エリアに侵入した物体を検知することを特徴とする3次元侵入検知方法。
PCT/JP2018/029798 2017-10-23 2018-08-08 3次元侵入検知システムおよび3次元侵入検知方法 WO2019082474A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017204305A JP6664078B2 (ja) 2017-10-23 2017-10-23 3次元侵入検知システムおよび3次元侵入検知方法
JP2017-204305 2017-10-23

Publications (1)

Publication Number Publication Date
WO2019082474A1 true WO2019082474A1 (ja) 2019-05-02

Family

ID=66246350

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/029798 WO2019082474A1 (ja) 2017-10-23 2018-08-08 3次元侵入検知システムおよび3次元侵入検知方法

Country Status (2)

Country Link
JP (1) JP6664078B2 (ja)
WO (1) WO2019082474A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113163104A (zh) * 2020-12-31 2021-07-23 深圳市微网力合信息技术有限公司 基于wifi6的摄像头控制方法、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041939A (ja) * 2004-07-27 2006-02-09 Victor Co Of Japan Ltd 監視装置及び監視プログラム
JP2009288893A (ja) * 2008-05-27 2009-12-10 Nikon Corp 画像処理装置
JP2012216006A (ja) * 2011-03-31 2012-11-08 Sony Computer Entertainment Inc 情報処理システム、情報処理装置、撮像装置、および情報処理方法
JP2014186715A (ja) * 2013-02-21 2014-10-02 Canon Inc 情報処理装置、情報処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0514891A (ja) * 1991-06-28 1993-01-22 Toshiba Corp 画像監視装置
JPH05284501A (ja) * 1992-04-06 1993-10-29 Mitsubishi Electric Corp 侵入監視画像装置
JPH10141913A (ja) * 1996-11-07 1998-05-29 Komatsu Ltd 移動体の位置、速度計測装置
DE10259882A1 (de) * 2002-12-20 2004-07-15 Daimlerchrysler Ag Darstellungsbereich eines automobilen Nachsichtssystems
JP2005242606A (ja) * 2004-02-26 2005-09-08 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2013196294A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 人物画像処理装置、及び人物画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041939A (ja) * 2004-07-27 2006-02-09 Victor Co Of Japan Ltd 監視装置及び監視プログラム
JP2009288893A (ja) * 2008-05-27 2009-12-10 Nikon Corp 画像処理装置
JP2012216006A (ja) * 2011-03-31 2012-11-08 Sony Computer Entertainment Inc 情報処理システム、情報処理装置、撮像装置、および情報処理方法
JP2014186715A (ja) * 2013-02-21 2014-10-02 Canon Inc 情報処理装置、情報処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113163104A (zh) * 2020-12-31 2021-07-23 深圳市微网力合信息技术有限公司 基于wifi6的摄像头控制方法、设备及存储介质

Also Published As

Publication number Publication date
JP2019079173A (ja) 2019-05-23
JP6664078B2 (ja) 2020-03-13

Similar Documents

Publication Publication Date Title
KR101309407B1 (ko) 블록 단위 영상 기반의 화재감지 카메라 및 센서를 이용한 복합 화재 감지기, 화재 감지 시스템 및 그 방법
US10740906B2 (en) Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
WO2016199244A1 (ja) 物体認識装置及び物体認識システム
JP2010238032A (ja) 煙検出装置
JP2008077517A (ja) カメラ妨害検知方式
US9367742B2 (en) Apparatus and method for monitoring object from captured image
KR20120104711A (ko) 감시구역 상의 객체의 경로를 추적할 수 있는 스테레오 카메라 장치, 그를 이용한 감시시스템 및 방법
US20130216099A1 (en) Imaging system and imaging method
JP2015226209A (ja) 情報提示装置、ステレオカメラシステム、及び情報提示方法
JP2014006586A (ja) 情報処理装置及びその制御方法、コンピュータプログラム
US20150139494A1 (en) Slow change detection system
JP6712778B2 (ja) 物体検知装置、物体検知システムおよび物体検知方法
JP2018169831A (ja) 画像比較装置
US20190370591A1 (en) Camera and image processing method of camera
WO2016139868A1 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2010015469A (ja) 静止領域検出方法とその装置、プログラム及び記録媒体
JPH0844874A (ja) 画像変化検出装置
US20220065976A1 (en) Mobile body detection device, mobile body detection method, and mobile body detection program
CN108184098B (zh) 安全区域的监控方法以及系统
US20190325587A1 (en) Gas detection-use image processing device, gas detection-use image processing method, and gas detection-use image processing program
WO2019082474A1 (ja) 3次元侵入検知システムおよび3次元侵入検知方法
CN111063145A (zh) 电子围栏智能处理器
KR102150661B1 (ko) 객체를 검출하기 위한 전처리 장치 및 방법
KR101381580B1 (ko) 다양한 조명 환경에 강인한 영상 내 차량 위치 판단 방법 및 시스템
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18870051

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18870051

Country of ref document: EP

Kind code of ref document: A1