JP2012133433A - Left/carried-away object detection apparatus and left/carried-away object detection method - Google Patents

Left/carried-away object detection apparatus and left/carried-away object detection method Download PDF

Info

Publication number
JP2012133433A
JP2012133433A JP2010282717A JP2010282717A JP2012133433A JP 2012133433 A JP2012133433 A JP 2012133433A JP 2010282717 A JP2010282717 A JP 2010282717A JP 2010282717 A JP2010282717 A JP 2010282717A JP 2012133433 A JP2012133433 A JP 2012133433A
Authority
JP
Japan
Prior art keywords
background
data
leaving
area
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010282717A
Other languages
Japanese (ja)
Inventor
Shinji Takenaka
慎治 竹中
Masaaki Sato
正章 佐藤
Masao Miyaoka
政夫 宮岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010282717A priority Critical patent/JP2012133433A/en
Publication of JP2012133433A publication Critical patent/JP2012133433A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a left/carried-away object detection apparatus which is capable of accurately determining a left/carried-away event, and a left/carried-away object detection method.SOLUTION: A background data generation section 12 generates two background image data items with different quantities of information in the past and generates two background distance data items with different quantities of information in the past, and a left/carried-away area detection section 13 compares the two background image data items with the different quantities of information in the past to detect an area which is continuously varied for a fixed time or longer. A left/carried-away event determination section 14 compares the two background distance data items with the different quantities of information in the past for the area detected by the left/carried-away area detection section 13 and determines whether the event is a left event or a carried-way event. Thus, by generating two kinds of background image data and background distance data with the different quantities of information in the past, accurate left/carried-away detection can be performed.

Description

本発明は、カメラで撮影された画像と距離情報とから置去り/持去り等の事象の発生を検出する機能を備えた監視カメラ装置に用いて好適な置去り/持去り物体検知装置及び置去り/持去り物体検知方法に関する。   The present invention provides a device for detecting a leaving / moving object suitable for use in a surveillance camera device having a function of detecting the occurrence of an event such as leaving / taking away from an image photographed by a camera and distance information. The present invention relates to a method for detecting a leaving / moving object.

カメラにて撮影された画像のシーケンスから事象を検出するシステムとして、例えば特許文献1に記載されているものが知られている。この特許文献1に記載されたシステムでは、事象が発生する前後2枚の画像を比較して変化のある領域を抽出することで置去り/持去り事象の発生した領域を検出するようにしている。また、検出した事象が置去りであるか持去りであるかを判別するために、領域内の輝度エッジの長さや総和を2枚の画像間で比較し、過去画像から現在画像にかけて輝度エッジ情報が減少している場合に、本来置かれていた物体が持去られた持去り事象であると判別し、逆に、過去画像から現在画像にかけて輝度エッジ情報が増加している場合に、従来から物体が置かれ、エッジ情報が増加したとみなして置去り事象が発生したと判別している。   As a system for detecting an event from a sequence of images taken by a camera, for example, a system described in Patent Document 1 is known. In the system described in Patent Document 1, a region where a leaving / moving event has occurred is detected by comparing two images before and after the occurrence of the event and extracting a region having a change. . In addition, in order to determine whether the detected event is left or removed, the length and sum of the luminance edges in the area are compared between the two images, and luminance edge information from the past image to the current image is compared. If the brightness edge information has increased from the past image to the current image, it is determined that the object has been removed. It is determined that an object has been placed and the edge information has increased, and that a leaving event has occurred.

特表2004−519786号公報Special table 2004-519786 gazette

しかしながら、上述した従来の技術では、置去り/持去り検出領域のエッジ情報の増減のみで置去り事象と持去り事象を判別しているため、周囲の領域と比較してエッジ情報が少ない物体が置去られた場合には、置去られる以前よりもエッジ情報が減少してしまい、持去り事象として判定されてしまう。反対に、持去りが発生した場合には、物体で隠れていたエッジ情報が見えるようになることで、エッジ情報が増加し置去り事象として誤判定してしまう。図4は、持去りが発生した例を示す図である。同図において、9個の箱型の物体110が縦横3個ずつ積み上げられたカメラ映像100の輝度エッジ101は略四角形になるが、一番上に積み上げられている物体110が持去られると、カメラ映像100のその部分(持去られた物体110の部分)に対応する輝度エッジ部分101aが物体110の外縁に沿う形状(コ字状)になって、物体110が持去られる前よりもエッジ情報が増加してしまい、持去りが発生したにも関わらず、置去り事象と誤判定してしまう。   However, in the conventional technique described above, since the leaving event and the leaving event are discriminated only by the increase / decrease of the edge information in the leaving / moving detection area, an object having less edge information than the surrounding area is detected. In the case of being left behind, the edge information is reduced as compared to before being left behind, and it is determined as a removal event. On the other hand, when the take-away occurs, the edge information hidden by the object becomes visible, so that the edge information increases and it is erroneously determined as a leaving event. FIG. 4 is a diagram illustrating an example in which removal has occurred. In the same figure, the luminance edge 101 of the camera image 100 in which nine box-shaped objects 110 are stacked three by three vertically and horizontally is substantially rectangular, but when the object 110 stacked on the top is taken away, The luminance edge portion 101a corresponding to that portion of the camera image 100 (the portion of the object 110 that has been removed) has a shape along the outer edge of the object 110 (a U-shape), and the edge before the object 110 is removed is removed. Although the information increases and the removal occurs, it is erroneously determined as a leaving event.

本発明は、係る事情に鑑みてなされたものであり、置去り/持去り事象を精度良く判別することができる置去り/持去り物体検知装置及び置去り/持去り物体検知方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a removed / removed object detection apparatus and a removed / removed object detection method capable of accurately determining a removed / removed event. With the goal.

本発明の置去り/持去り物体検知装置は、監視対象領域を撮影し、画像データを出力するカメラ部と、前記監視対象領域における前記カメラ部から物体までの距離を測定する距離測定部と、前記カメラ部から出力される画像データ又は前記距離測定部から出力される距離データより、過去1枚以上のフレームに亘る平均化処理により背景データを生成する背景データ生成部と、前記背景データ生成部で生成された背景データより、前記監視対象領域から持去られた領域、若しくは、置去られた領域を検出する置去り/持去り領域検出部と、前記背景データ生成部で生成された背景データより、前記置去り/持去り領域検出部で検出された領域が、置去り事象であるか、持去り事象であるかを判定する置去り/持去り事象判定部と、を備えた。   The leaving / moving object detection device of the present invention includes a camera unit that images a monitoring target region and outputs image data, a distance measurement unit that measures a distance from the camera unit to the object in the monitoring target region, A background data generation unit that generates background data by averaging processing over one or more past frames from image data output from the camera unit or distance data output from the distance measurement unit, and the background data generation unit The background data generated by the background data generated by the background data generated by the background data generated by the background data generated by the background data generator Accordingly, a detention / removal event determination unit that determines whether the area detected by the deportation / removal area detection unit is a detention event or a detention event.

上記構成によれば、置去り/持去り事象を検出するための背景画像データを生成し、生成した背景画像データにより、置去り/持去り領域検出部が、置去り/持去り事象の候補となる領域を検出する。そして、置去り/持去り事象判定部が、置去り/持去り領域検出部にて検出された領域において、距離測定部で測定した置去り/持去り事象発生前後の距離データを比較することで、置去り事象、持去り事象を判定する。これにより、高い精度で、置去り事象、持去り事象を判別することが可能となる。   According to the above configuration, the background image data for detecting the leaving / moving event is generated, and the leaving / moving area detecting unit determines the leaving / moving event candidate as the generated background image data. Detect the area. Then, the leaving / moving event determining unit compares the distance data before and after the occurrence of the leaving / moving event measured by the distance measuring unit in the area detected by the leaving / moving area detecting unit. Judgment of leaving event and removal event. As a result, it is possible to determine a leaving event and a leaving event with high accuracy.

上記構成において、前記背景データ生成部は、前記カメラ部から出力される画像データから過去1枚以上のフレームに亘る平均化処理によって、背景画像データを生成するとともに、前記距離測定部から出力された距離データから過去1枚以上のフレームに亘る平均化処理によって、背景距離データを生成する。   In the above configuration, the background data generation unit generates background image data from the image data output from the camera unit by an averaging process over the past one or more frames, and is output from the distance measurement unit. Background distance data is generated by an averaging process over one or more past frames from the distance data.

上記構成によれば、背景データ、距離データにおける時間的なノイズを抑えることができ、置去り事象であるか、持去り事象であるかを精度良く検出、判別することができる。   According to the above configuration, temporal noise in the background data and the distance data can be suppressed, and whether the event is a leaving event or a leaving event can be detected and determined with high accuracy.

上記構成において、前記背景データ生成部は、1枚以上のフレームの平均化処理を行う際、生成する背景画像データにおける過去の情報量を、背景生成対象となるフレーム数やフレームの時間間隔を調整することにより変更し、少なくとも2つの背景画像データを生成する。   In the above configuration, the background data generation unit adjusts the past information amount in the background image data to be generated, the number of frames to be background generated, and the time interval of frames when performing averaging processing of one or more frames By doing so, at least two background image data are generated.

上記構成によれば、過去の情報量を容易に調節することができ、撮影領域の環境(ノイズ、明暗変化等)に応じた背景データを生成することができる。   According to the above configuration, it is possible to easily adjust the past information amount, and it is possible to generate background data according to the environment (noise, change in brightness, etc.) of the shooting area.

上記構成において、前記置去り/持去り領域検出部は、前記背景データ生成部の出力から、過去の情報量が比較的少ないショート背景画像データと過去の情報量が比較的多いロング背景画像データを取得し、これらの背景画像データを比較することにより一定時間以上変化の継続した領域を検出する。   In the above-described configuration, the leaving / moving area detection unit outputs, from the output of the background data generation unit, short background image data having a relatively small amount of past information and long background image data having a relatively large amount of past information. By acquiring and comparing these background image data, an area where the change has continued for a certain period of time is detected.

上記構成によれば、画像データにおける突発的なノイズへの影響を軽減することができ、より精度の良い置去り/持去り領域を検出することができる。   According to the above configuration, it is possible to reduce the influence of sudden noise on the image data, and it is possible to detect a leaving / moving area with higher accuracy.

上記構成において、前記置去り/持去り事象判定部は、前記背景データ生成部の出力から、過去の情報量が比較的少ないショート背景距離データと過去の情報量が比較的多いロング背景距離データを取得し、これらの背景距離データを比較し、前記置去り/持去り領域検出部により検出された領域における前記ショート背景距離データに比べ、前記ロング背景距離データの方が遠方にある場合は、前記領域は置去り事象が発生した領域と判定し、逆に、前記ショート背景距離データに比べ、前記ロング背景距離データの方が近方にある場合は、前記領域は持去り事象が発生した領域と判定する。   In the above-described configuration, the leaving / moving event determination unit obtains, from the output of the background data generation unit, short background distance data with a relatively small amount of past information and long background distance data with a relatively large amount of past information. Obtaining and comparing these background distance data, when the long background distance data is farther than the short background distance data in the area detected by the leaving / carrying area detection unit, A region is determined as a region where a leaving event has occurred, and conversely, when the long background distance data is closer than the short background distance data, the region is a region where a leaving event has occurred. judge.

上記構成によれば、距離データにおける突発的なノイズへの影響を軽減することができ、より精度の良い置去り/持去り領域を検出することができる。   According to the above configuration, it is possible to reduce the influence of sudden noise in the distance data, and it is possible to detect a leaving / moving area with higher accuracy.

本発明の置去り/持去り物体検知方法は、カメラ部が撮影した監視対象領域における前記カメラ部から物体までの距離を測定するステップと、前記カメラ部から出力される画像データ又は前記距離測定部から出力される距離データより、過去1枚以上のフレームに亘る平均化処理により背景データを生成するステップと、生成された前記背景データより、前記監視対象領域から持去られた領域、若しくは、置去られた領域を検出するステップと、生成された前記背景データより、検出された前記領域が、置去り事象であるか、持去り事象であるかを判定するステップと、を備えた。   The leaving / moving object detection method of the present invention includes a step of measuring a distance from the camera unit to an object in a monitoring target area photographed by the camera unit, and image data output from the camera unit or the distance measuring unit. From the distance data output from the step of generating background data by averaging over one or more past frames, and from the generated background data, A step of detecting a left area, and a step of determining whether the detected area is a leaving event or a leaving event based on the generated background data.

上記方法によれば、置去り/持去り事象を検出するための背景画像データを生成し、生成した背景画像データにより、置去り/持去り事象の候補となる領域を検出し、検出した領域において、置去り/持去り事象発生前後の距離データを比較することで置去り事象、持去り事象を判定する。これにより、高い精度で、置去り事象、持去り事象を判別することが可能となる。   According to the above method, background image data for detecting a leaving / taking away event is generated, a region that is a candidate for a leaving / taking away event is detected from the generated background image data, and in the detected region By comparing the distance data before and after the occurrence of the leaving / moving event, the leaving event and the leaving event are determined. As a result, it is possible to determine a leaving event and a leaving event with high accuracy.

本発明は、過去の情報の量が異なる複数の画像から置去り/持去り領域を検出し、当該検出領域において、距離測定した置去り/持去り事象発生前後の距離データを比較するようにしたので、置去り/持去り事象を精度良く判別することができる。   In the present invention, a leaving / moving area is detected from a plurality of images having different amounts of past information, and distance data before and after the occurrence of the leaving / taking event measured in the detection area are compared. Therefore, it is possible to accurately determine a leaving / carrying event.

本発明の一実施の形態に係る置去り/持去り物体検知装置の概略構成を示すブロック図1 is a block diagram showing a schematic configuration of a leaving / moving object detection apparatus according to an embodiment of the present invention. 図1の置去り/持去り物体検知装置の動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement of the leaving / moving object detection apparatus of FIG. 図1の置去り/持去り物体検知装置における置去り/持去り事象が検出されるまでの処理を模式化した図FIG. 1 is a diagram schematically showing processing until a leaving / moving event is detected in the leaving / moving object detection apparatus of FIG. 1. 従来の置去り/持去り物体検知技術を説明するための図The figure for explaining the conventional leaving / moving object detection technology

以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments for carrying out the invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る置去り/持去り物体検知装置の概略構成を示すブロック図である。同図において、本実施の形態の置去り/持去り物体検知装置1は、カメラ部10と、距離測定部11と、背景データ生成部12と、置去り/持去り領域検出部13と、置去り/持去り事象判定部14と、表示部15と、報知部16とを備える。   FIG. 1 is a block diagram showing a schematic configuration of a leaving / moving object detection apparatus according to an embodiment of the present invention. In the same figure, the leaving / moving object detection apparatus 1 of the present embodiment includes a camera unit 10, a distance measuring unit 11, a background data generating unit 12, a leaving / removing area detecting unit 13, and a placing unit. A leaving / taking away event determination unit 14, a display unit 15, and a notification unit 16 are provided.

カメラ部10は、監視対象領域を撮影し、画像データを出力する。距離測定部11は、カメラ部10が撮影した監視対象領域におけるカメラ部10から監視対象領域に存在する物体(図示略)までの距離を測定し、距離データを出力する。   The camera unit 10 captures the monitoring target area and outputs image data. The distance measuring unit 11 measures the distance from the camera unit 10 to an object (not shown) existing in the monitoring target region in the monitoring target region captured by the camera unit 10 and outputs distance data.

背景データ生成部12は、カメラ部10から出力される画像データより、過去1枚以上のフレームに亘る平均化等の処理によって背景画像データを生成する。この場合、過去の情報の量の異なる2つの背景画像データ(即ち過去の情報量が比較的少ない「ショート背景画像データ」と過去の情報量が比較的多い「ロング背景画像データ」)を生成する。ここで、過去の情報量を容易に調節することで、撮影領域の環境(ノイズ、明暗変化等)に応じた背景画像データを生成できる。   The background data generation unit 12 generates background image data from the image data output from the camera unit 10 by processing such as averaging over one or more past frames. In this case, two background image data having different amounts of past information (ie, “short background image data” having a relatively small amount of past information and “long background image data” having a relatively large amount of past information) are generated. . Here, by easily adjusting the past information amount, it is possible to generate background image data corresponding to the environment (noise, change in brightness, etc.) of the shooting region.

また、背景データ生成部12は、距離測定部11から出力される距離データより、過去1枚以上のフレームに亘る平均化等の処理によって背景距離データを生成する。この場合、平均化等の処理によって、更新率、更新間隔を変え、過去情報の量の異なる2つの背景距離データ(即ち過去の情報量が比較的少ない「ショート背景距離データ」と過去の情報量が比較的多い「ロング背景距離データ」)を生成する。その際、上述したショート背景画像データ及びロング背景画像データの2つの過去情報量に対応する形で、ショート背景距離データ及びロング背景距離データの過去情報量が決定される。背景データ生成部12は、生成した背景画像データを置去り/持去り領域検出部13へ出力し、生成した背景距離データを置去り/持去り事象判定部14へ出力する。   Further, the background data generation unit 12 generates background distance data from the distance data output from the distance measurement unit 11 by a process such as averaging over the past one or more frames. In this case, two background distance data having different past information amounts (ie, “short background distance data” having a relatively small amount of past information and past information amounts) by changing the update rate and the update interval by averaging or the like. "Long background distance data") having a relatively large number of. At this time, the past information amounts of the short background distance data and the long background distance data are determined in a form corresponding to the two past information amounts of the short background image data and the long background image data. The background data generation unit 12 outputs the generated background image data to the left / removed area detection unit 13 and outputs the generated background distance data to the left / removed event determination unit 14.

置去り/持去り領域検出部13は、背景データ生成部12で生成された背景画像データより監視対象領域から持去られた領域、若しくは、置去られた領域を検出する。即ち、置去り/持去り領域検出部13は、背景データ生成部12からショート背景画像データとロング背景画像データを取得し、これらの背景画像データを比較することにより、一定時間以上変化の継続した領域を検出する。過去情報の量の異なるショート背景画像データとロング背景画像データとの差分処理を行うことで、突発的なノイズや明度変化の影響を軽減しつつ、置去り/持去り領域を検出することができる。   The removed / removed area detection unit 13 detects an area removed from the monitoring target area or a left area from the background image data generated by the background data generation unit 12. That is, the leaving / removal area detection unit 13 acquires the short background image data and the long background image data from the background data generation unit 12 and compares the background image data, so that the change continues for a certain time or more. Detect areas. By performing the difference process between the short background image data and the long background image data having different amounts of past information, it is possible to detect the leaving / carrying area while reducing the influence of sudden noise and brightness change. .

置去り/持去り事象判定部14は、置去り/持去り領域検出部13で検出された領域に対して、ショート背景距離データとロング背景距離データの比較を行い、置去り事象であるか、持去り事象であるかの判定を行う。この場合、置去り/持去り領域検出部13により検出された領域におけるショート背景距離データに比べ、ロング背景距離データの方が遠方にある場合は、当該領域は置去り事象が発生した領域と判定し、逆に、ショート背景距離データに比べ、ロング背景距離データの方が近方にある場合は、当該領域は持去り事象が発生した領域と判定する。置去り/持去り領域検出部13で検出された領域において、置去り/持去り事象発生前後の背景距離データを比較することで、背景距離データにおける突発的なノイズの影響を軽減することができ、より精度の良い置去り事象/持去り事象の判別が可能となる。   The leaving / carrying event determination unit 14 compares the short background distance data and the long background distance data with respect to the area detected by the leaving / carrying area detection unit 13, and determines whether the leaving event is a leaving event. Judge whether it is a take away event. In this case, when the long background distance data is farther than the short background distance data in the area detected by the leaving / moving area detection unit 13, the area is determined to be the area where the leaving event has occurred. On the contrary, when the long background distance data is closer than the short background distance data, the area is determined to be the area where the carry-out event has occurred. By comparing the background distance data before and after the occurrence of the leaving / carrying event in the area detected by the leaving / carrying area detection unit 13, the influence of sudden noise in the background distance data can be reduced. Therefore, it is possible to determine a leaving event / a leaving event with higher accuracy.

表示部15は、置去り/持去り事象判定部14での判定結果をユーザが判別できるように撮影画像上に表示する。なお、表示部15は、判定時より以前の実際に置去り/持去り事象が発生した際の画像を利用して表示しても良い。報知部16は、事象発生時に音声スピーカ(図示略)からブサー音を発生させるなど、事象発生をユーザに報知する。なお、表示部15に事象発生を報知する表示も行うようにしても構わない。また、表示部15及び報知部16を置去り/持去り物体検知装置1と別体にして、置去り/持去り物体検知装置1から離れた場所に配置するようにしても構わない。   The display unit 15 displays the determination result in the leaving / moving event determination unit 14 on the captured image so that the user can determine the determination result. The display unit 15 may display using an image when an actual leaving / moving event has occurred before the determination. The notification unit 16 notifies the user of the occurrence of an event, such as generating a buzzer sound from an audio speaker (not shown) when the event occurs. In addition, you may make it also perform the display which alert | reports event generation | occurrence | production on the display part 15. FIG. In addition, the display unit 15 and the notification unit 16 may be separated from the removed / removed object detection device 1 and may be disposed at a location away from the removed / removed object detection device 1.

次に、本実施の形態の置去り/持去り物体検知装置1の動作について詳細に説明する。
図2は、本実施の形態の置去り/持去り物体検知装置1の動作を説明するためのフローチャートである。同図において、まず距離測定部11が、カメラ部10が撮影した監視対象領域におけるカメラ部10から監視対象領域に存在する物体(図示略)までの距離を測定する(ステップS1)。次いで、背景データ生成部12が、カメラ部10より出力される画像データから過去1枚以上のフレームに亘る平均化等の処理によって、背景画像データを生成する(ステップS2)。この場合、背景データ生成部12は、過去情報の量の異なるショート背景画像データとロング背景画像データを生成する。
Next, the operation of the leaving / moving object detection apparatus 1 of the present embodiment will be described in detail.
FIG. 2 is a flowchart for explaining the operation of the leaving / moving object detection apparatus 1 of the present embodiment. In the figure, first, the distance measuring unit 11 measures the distance from the camera unit 10 to an object (not shown) existing in the monitoring target region in the monitoring target region captured by the camera unit 10 (step S1). Next, the background data generation unit 12 generates background image data from the image data output from the camera unit 10 by a process such as averaging over the past one or more frames (step S2). In this case, the background data generation unit 12 generates short background image data and long background image data having different amounts of past information.

次いで、背景データ生成部12は、距離測定部11より出力される距離データから過去1枚以上のフレームに亘る平均化等の処理によって、背景距離データを生成する(ステップS3)。この場合、背景データ生成部12は、更新率、更新間隔を変えて過去情報の量の異なるショート背景距離データとロング背景距離データを生成する。次に、置去り/持去り領域検出部13が、背景データ生成部12で生成された背景画像データより、監視対象領域から持去られた領域、若しくは、置去られた領域を検出する。即ち、背景データ生成部12で生成されたショート背景画像データとロング背景画像データを比較して一定時間以上変化の継続した領域を検出する(ステップS4)。   Next, the background data generation unit 12 generates background distance data from the distance data output from the distance measurement unit 11 by a process such as averaging over the past one or more frames (step S3). In this case, the background data generation unit 12 generates short background distance data and long background distance data having different past information amounts by changing the update rate and the update interval. Next, the removed / removed area detection unit 13 detects the area removed from the monitoring target area or the left area from the background image data generated by the background data generation unit 12. That is, the short background image data generated by the background data generation unit 12 and the long background image data are compared to detect a region that has continued to change for a predetermined time (step S4).

次に、置去り/持去り事象判定部14が、置去り/持去り領域検出部13で検出された領域に対して、背景データ生成部12で生成されたショート背景距離データとロング背景距離データを比較し、ショート背景距離データに比べ、ロング背景距離データの方が遠方にある場合は、当該領域は置去り事象が発生した領域と判定し、逆に、ショート背景距離データに比べ、ロング背景距離データの方が近方にある場合は、当該領域は持去り事象が発生した領域と判定する(ステップS5)。置去り/持去り事象判定部14は、その判定結果を表示部15に表示する(ステップS6)。次いで、置去り/持去り事象判定部14は、置去り/持去り事象の発生の有無を判定し(ステップS7)、置去り/持去り事象が発生したと判断した場合(即ちステップS7の判定でYESと判断した場合)、ブサー音を発生させるなどして報知する(ステップS8)。置去り/持去り事象の発生を報知した後、本処理を終了する。これに対し、置去り/持去り事象が発生していないと判断した場合(即ちステップS7の判定でNOと判断した場合)は、何も処理をせず本処理を終了する。   Next, the leaving / moving event determining unit 14 performs the short background distance data and the long background distance data generated by the background data generating unit 12 on the area detected by the leaving / moving area detecting unit 13. If the long background distance data is farther than the short background distance data, the area is determined to be the area where the leaving event occurred, and conversely, the long background distance data is compared to the short background distance data. If the distance data is closer, the area is determined to be an area where a take-away event has occurred (step S5). The leaving / taking away event determining unit 14 displays the determination result on the display unit 15 (step S6). Next, the leaving / carrying event determination unit 14 determines whether or not a leaving / carrying event has occurred (step S7), and determines that a leaving / carrying event has occurred (that is, the determination in step S7). If YES is determined in step S8), a buzzer sound is generated to notify the user (step S8). After notifying the occurrence of the leaving / taking away event, the present process is terminated. On the other hand, if it is determined that no leaving / carrying event has occurred (that is, if NO is determined in the determination in step S7), no processing is performed and this processing is terminated.

図3は、置去り/持去り事象が検出されるまでの処理を模式化した図である。同図において、置去り/持去り事象が発生した場合、置去り/持去り領域検出部13が、現在画像と更新率の早い背景画像との比較を行うことで変化領域を検出する。この際、距離測定部11によって背景画像それぞれにおける距離情報が算出されて、検出された変化領域と関連付けされる。一定時間経過後に、更新率の早い背景画像と現在画像が同じ状態になった際、更新率の早い背景画像と、もう一方の遅い背景画像とで差分が生じることになり、置去り/持去り領域検出部13が、置去り/持去り領域を検出する。次に、置去り/持去り事象判定部14が、置去り/持去り領域検出部13で検出された領域に対して、ショート背景距離データとロング背景距離データの比較を行い、過去情報の少ない(即ち時間的に近い)ショート背景距離データに比べ、過去情報の多い(即ち時間的に遠い)ロング背景距離データの方が遠方に位置する場合、時間的に近い間に物体が置去られて距離が近くなったと想定して、置去り事象が発生したと判断する。逆に、過去情報の少ない(即ち時間的に近い)ショート背景距離データに比べ、過去情報の多い(即ち時間的に遠い)ロング背景距離データの方が近方に位置する場合、時間的に近い間に物体が持去られて距離が遠くなったと想定して、持去り事象が発生したと判断する。このようにすることで、より精度の良い置去り/持去り事象判定が可能となる。   FIG. 3 is a diagram schematically showing processing until a leaving / carrying event is detected. In the figure, when a leaving / taking away event occurs, the leaving / taking away area detecting unit 13 detects a change area by comparing the current image with a background image having a high update rate. At this time, distance information in each background image is calculated by the distance measuring unit 11 and associated with the detected change area. When a background image with a fast update rate and the current image are in the same state after a certain period of time, there will be a difference between the background image with a fast update rate and the other slow background image. The area detection unit 13 detects a leaving / moving area. Next, the leaving / carrying event determination unit 14 compares the short background distance data and the long background distance data with respect to the area detected by the leaving / carrying area detection unit 13, and the past information is small. When long background distance data with a lot of past information (that is, far in time) is located farther than short background distance data (that is, close in time), the object is left in the near time. Assuming that the distance has become short, it is determined that a leaving event has occurred. Conversely, when the long background distance data with a large amount of past information (ie, far in time) is located closer to the short background distance data with a small amount of past information (ie, near in time), it is closer in time. Assuming that the object has been taken away and the distance has increased, it is determined that a take-away event has occurred. By doing so, it is possible to determine the leaving / moving event with higher accuracy.

このように本実施の形態の置去り/持去り物体検知装置1によれば、背景データ生成部12が、過去の情報の量が異なる2つの背景画像データ即ち過去の情報量が比較的少ないショート背景画像データと過去の情報量が比較的多いロング背景画像データを生成するとともに、過去の情報の量が異なる2つの背景距離データ即ち過去の情報量が比較的少ないショート背景距離データと過去の情報量が比較的多いロング背景距離データを生成し、置去り/持去り領域検出部13が、ショート背景画像データとロング背景画像データを比較することにより、一定時間以上変化の継続した領域即ち置去り/持去り事象の候補となる領域を検出し、置去り/持去り事象判定部14が、置去り/持去り領域検出部13で検出された領域に対して、ショート背景距離データとロング背景距離データの比較を行い、置去り事象であるか、持去り事象であるかの判定を行うので、置去り事象であるか、持去り事象であるかの判別を精度良く行うことができる。   As described above, according to the removed / removed object detection device 1 of the present embodiment, the background data generation unit 12 performs a short operation in which two background image data having different past information amounts, that is, a past information amount is relatively small. Long background image data having a relatively large amount of past information and background image data are generated, and two background distance data having different amounts of past information, that is, short background distance data and past information having a relatively small amount of past information A long background distance data having a relatively large amount is generated, and the removed / removed area detecting unit 13 compares the short background image data with the long background image data, so that the area that has changed for a certain period of time, that is, the removed area. An area that is a candidate for a take-away event is detected, and the leave / take-away event determination unit 14 is short-circuited with respect to the area detected by the leave / take-out area detection unit 13. Compares the background distance data and the long background distance data and determines whether it is a leaving event or a removing event, so it is possible to accurately determine whether it is a leaving event or a leaving event. It can be carried out.

なお、本実施の形態では、背景画像データと背景距離データをそれぞれ2つずつ(例えば、背景画像データの場合、ショート背景画像データとロング背景画像データの2つ)生成したが、2以上であれば、その数に限定はない。   In this embodiment, two pieces of background image data and two pieces of background distance data are generated (for example, two pieces of short background image data and long background image data in the case of background image data). For example, the number is not limited.

また、本実施の形態では、カメラ部10は1台のカメラを備えたものであったが、2台のカメラを備えたステレオカメラでも良い。ステレオカメラを用いることで、距離測定用の装置を別途用意することなく、カメラ2台で画像、距離データを取得することができ、画像位置に対応する距離情報も容易に取得することができる。   In the present embodiment, the camera unit 10 includes one camera, but may be a stereo camera including two cameras. By using a stereo camera, it is possible to acquire images and distance data with two cameras without separately preparing an apparatus for distance measurement, and it is also possible to easily acquire distance information corresponding to the image position.

本発明は、過去の情報の量が異なる複数の画像から置去り/持去り領域を検出し、検出した領域において、距離測定した置去り/持去り事象発生前後の距離データを比較することで置去り事象、持去り事象を精度良く判別することができるといった効果を有し、置去り/持去り事象の判別等の用途に有用である。   The present invention detects a removed / removed area from a plurality of images having different amounts of past information, and compares the distance data before and after the occurrence of the removed / removed event in the detected area. It has the effect of being able to accurately discriminate between a leaving event and a leaving event, and is useful for applications such as discrimination of a leaving / leaving event.

1 置去り/持去り物体検知装置
10 カメラ部
11 距離測定部
12 背景データ生成部
13 置去り/持去り領域検出部
14 置去り/持去り事象判定部
15 表示部
16 報知部
DESCRIPTION OF SYMBOLS 1 Leaving / moving object detection apparatus 10 Camera part 11 Distance measurement part 12 Background data generation part 13 Leaving / removal area detection part 14 Leaving / removal event determination part 15 Display part 16 Notification part

Claims (6)

監視対象領域を撮影し、画像データを出力するカメラ部と、
前記監視対象領域における前記カメラ部から物体までの距離を測定する距離測定部と、
前記カメラ部から出力される画像データ又は前記距離測定部から出力される距離データより、過去1枚以上のフレームに亘る平均化処理により背景データを生成する背景データ生成部と、
前記背景データ生成部で生成された背景データより、前記監視対象領域から持去られた領域、若しくは、置去られた領域を検出する置去り/持去り領域検出部と、
前記背景データ生成部で生成された背景データより、前記置去り/持去り領域検出部で検出された領域が、置去り事象であるか、持去り事象であるかを判定する置去り/持去り事象判定部と、
を備えた置去り/持去り物体検知装置。
A camera unit that captures an image of the monitored area and outputs image data;
A distance measuring unit for measuring a distance from the camera unit to the object in the monitoring target area;
A background data generating unit that generates background data by averaging processing over one or more past frames from image data output from the camera unit or distance data output from the distance measuring unit;
From the background data generated by the background data generation unit, a region removed from the monitoring target region, or a left / removed region detection unit for detecting a left region,
A leave / remove to determine whether the area detected by the leave / remove area detection unit is a leave event or a leave event based on the background data generated by the background data generation unit An event determination unit;
Leaving / removing object detection device with
前記背景データ生成部は、前記カメラ部から出力される画像データから過去1枚以上のフレームに亘る平均化処理によって、背景画像データを生成するとともに、前記距離測定部から出力された距離データから過去1枚以上のフレームに亘る平均化処理によって、背景距離データを生成する請求項1に記載の置去り/持去り物体検知装置。   The background data generation unit generates background image data from the image data output from the camera unit by an averaging process over one or more past frames, and generates past image data from the distance data output from the distance measurement unit. The leaving / moving object detection device according to claim 1, wherein the background distance data is generated by an averaging process over one or more frames. 前記背景データ生成部は、1枚以上のフレームの平均化処理を行う際、生成する背景画像データにおける過去の情報量を、背景生成対象となるフレーム数やフレームの時間間隔を調整することにより変更し、少なくとも2つの背景画像データを生成する請求項1に記載の置去り/持去り物体検知装置。   When the background data generating unit performs averaging processing of one or more frames, the past information amount in the background image data to be generated is changed by adjusting the number of frames to be background generated and the time interval of the frames. The leaving / moving object detection device according to claim 1, wherein at least two pieces of background image data are generated. 前記置去り/持去り領域検出部は、前記背景データ生成部の出力から、過去の情報量が比較的少ないショート背景画像データと過去の情報量が比較的多いロング背景画像データを取得し、これらの背景画像データを比較することにより一定時間以上変化の継続した領域を検出する請求項3に記載の置去り/持去り物体検知装置。   The leaving / removal area detection unit acquires, from the output of the background data generation unit, short background image data with a relatively small amount of past information and long background image data with a relatively large amount of past information. 4. The removed / removed object detection device according to claim 3, wherein an area that has continued to change for a predetermined time or more is detected by comparing the background image data. 前記置去り/持去り事象判定部は、前記背景データ生成部の出力から、過去の情報量が比較的少ないショート背景距離データと過去の情報量が比較的多いロング背景距離データを取得し、これらの背景距離データを比較し、前記置去り/持去り領域検出部により検出された領域における前記ショート背景距離データに比べ、前記ロング背景距離データの方が遠方にある場合は、前記領域は置去り事象が発生した領域と判定し、逆に、前記ショート背景距離データに比べ、前記ロング背景距離データの方が近方にある場合は、前記領域は持去り事象が発生した領域と判定する請求項4に記載の置去り/持去り物体検知装置。   The leaving / carrying event determination unit acquires, from the output of the background data generation unit, short background distance data with a relatively small amount of past information and long background distance data with a relatively large amount of past information. If the long background distance data is farther than the short background distance data in the area detected by the leaving / moving area detection unit, the area is left behind. An area where an event has occurred is determined, and conversely, when the long background distance data is closer than the short background distance data, the area is determined as an area where a carry-out event has occurred. 4. A leaving / moving object detection device according to 4. カメラ部が撮影した監視対象領域における前記カメラ部から物体までの距離を測定するステップと、
前記カメラ部から出力される画像データ又は前記距離測定部から出力される距離データより、過去1枚以上のフレームに亘る平均化処理により背景データを生成するステップと、
生成された前記背景データより、前記監視対象領域から持去られた領域、若しくは、置去られた領域を検出するステップと、
生成された前記背景データより、検出された前記領域が、置去り事象であるか、持去り事象であるかを判定するステップと、
を備えた置去り/持去り物体検知方法。
Measuring a distance from the camera unit to an object in a monitoring target area captured by the camera unit;
From the image data output from the camera unit or the distance data output from the distance measurement unit, generating background data by averaging processing over the past one or more frames;
From the generated background data, detecting a region removed from the monitoring target region, or a region left, and
Determining whether the detected area is a leaving event or a leaving event from the generated background data;
A method for detecting a removed / removed object comprising
JP2010282717A 2010-12-20 2010-12-20 Left/carried-away object detection apparatus and left/carried-away object detection method Withdrawn JP2012133433A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010282717A JP2012133433A (en) 2010-12-20 2010-12-20 Left/carried-away object detection apparatus and left/carried-away object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010282717A JP2012133433A (en) 2010-12-20 2010-12-20 Left/carried-away object detection apparatus and left/carried-away object detection method

Publications (1)

Publication Number Publication Date
JP2012133433A true JP2012133433A (en) 2012-07-12

Family

ID=46648988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010282717A Withdrawn JP2012133433A (en) 2010-12-20 2010-12-20 Left/carried-away object detection apparatus and left/carried-away object detection method

Country Status (1)

Country Link
JP (1) JP2012133433A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014194687A (en) * 2013-03-29 2014-10-09 Denso Wave Inc Monitoring device
WO2018179361A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium
WO2018179360A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014194687A (en) * 2013-03-29 2014-10-09 Denso Wave Inc Monitoring device
WO2018179361A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium
WO2018179360A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium
JPWO2018179361A1 (en) * 2017-03-31 2020-01-09 日本電気株式会社 Image processing apparatus, image processing method, and program
JPWO2018179360A1 (en) * 2017-03-31 2020-01-09 日本電気株式会社 Image processing apparatus, image processing method, and program
US11250570B2 (en) 2017-03-31 2022-02-15 Nec Corporation Display rack image processing device, image processing method, and recording medium
US11430154B2 (en) 2017-03-31 2022-08-30 Nec Corporation Classification of change related to display rack

Similar Documents

Publication Publication Date Title
JP5218906B2 (en) Smoke detection device and smoke detection method
JP2009110152A (en) Congestion estimation device
JP2013196684A (en) Object counting method and object counting device
EP3177040A3 (en) Information processing apparatus, information processing method, and program
JP2014007498A (en) Disaster detection system
JP6494418B2 (en) Image analysis apparatus, image analysis method, and program
JP2016058085A (en) Method and device for detecting shielding of object
WO2019026457A1 (en) Image monitoring device, image monitoring method, image monitoring program, and recording medium
WO2021206897A1 (en) System and method for determining object distance and/or count in a video stream
CN104657997B (en) A kind of lens shift detection method and device
JP4111660B2 (en) Fire detection equipment
JP2012133433A (en) Left/carried-away object detection apparatus and left/carried-away object detection method
JP6074304B2 (en) Smoke detection device and smoke detection method
JP2018082281A5 (en) Information processing apparatus, control method, and program
KR101214858B1 (en) Moving object detecting apparatus and method using clustering
JP2005328236A (en) Video monitoring method, device, and program
JP2011215806A (en) Smoke detection device
US10062155B2 (en) Apparatus and method for detecting defect of image having periodic pattern
JP5586736B2 (en) Similar image search result display device and similar image search result display method
JP5864230B2 (en) Object detection device
JP2019200718A (en) Monitoring device, monitoring method, and program
JP6664078B2 (en) Three-dimensional intrusion detection system and three-dimensional intrusion detection method
JP5864231B2 (en) Moving direction identification device
JP2013195611A5 (en)
WO2019160070A1 (en) Abnormal-sound detection device and abnormal-sound detection method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140304