JP2009122990A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2009122990A
JP2009122990A JP2007296675A JP2007296675A JP2009122990A JP 2009122990 A JP2009122990 A JP 2009122990A JP 2007296675 A JP2007296675 A JP 2007296675A JP 2007296675 A JP2007296675 A JP 2007296675A JP 2009122990 A JP2009122990 A JP 2009122990A
Authority
JP
Japan
Prior art keywords
moving
area
moving object
image
shielding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007296675A
Other languages
Japanese (ja)
Inventor
Shogo Yoneyama
昇吾 米山
Hiroyasu Miyahara
景泰 宮原
Yasuhiro Okada
康裕 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007296675A priority Critical patent/JP2009122990A/en
Publication of JP2009122990A publication Critical patent/JP2009122990A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that when a moving object is detected by comparing a photographic image with a prepared photographic image in an area other than a mask area where the moving object is not detected, the moving object cannot be detected, which is located within a predetermined mask area for a moving range of a blocking object. <P>SOLUTION: A moving area is detected by moving area detecting means from an image obtained by image recording means which records both the moving object and the blocking object. The blocking object is detected by blocking object detecting means in accordance with operation storing means for storing operation information in advance such as the moving range, the moving direction or the speed of the blocking object. The area of the detected blocking object is decided as the mask area and an area excluding the mask area is set as a moving object detecting area by moving object detecting area setting means. The moving object is detected by moving object detecting means from the moving object detecting area and the moving area detected by the moving area detecting means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、撮影された画像データから、移動物体を検出する画像処理技術に関する。   The present invention relates to an image processing technique for detecting a moving object from captured image data.

撮影された画像データから、移動物体を検出するシステムとして、例えば特許文献1(特開2004−068515号公報)に示されるものがある。この特許文献1によるシステムでは、移動物体の検出を行わない領域をマスク領域としてあらかじめ指定し、これを除く領域に対し、撮影された画像と異なる時間にあらかじめ撮影しておいた画像とを比較することにより移動物体の検出を行う。   As a system for detecting a moving object from photographed image data, for example, there is a system disclosed in Japanese Patent Application Laid-Open No. 2004-068515. In the system according to Patent Document 1, a region where a moving object is not detected is designated in advance as a mask region, and a region other than this region is compared with a captured image at a different time. Thus, a moving object is detected.

特開2004−068515号公報JP 2004-068515 A

従来の移動物体を検出するシステムは以上のように構成されており、移動物体の検出を行わない領域、例えば遮蔽物体が動く範囲をマスク領域としてあらかじめ指定する必要があるため、遮蔽物体が動く範囲全てをマスクすると、移動物体が遮蔽物体の動く範囲内にある場合、移動物体を検出できないという課題があった。   The conventional system for detecting moving objects is configured as described above, and it is necessary to designate in advance as an area where the moving object is not detected, for example, the area where the occluded object moves, as the area where the occluded object moves. When all are masked, the moving object cannot be detected when the moving object is within the moving range of the shielding object.

この発明は、上記のような課題を解決するためになされたもので、遮蔽物体の動作情報を用いることで、遮蔽物体をマスクするか否かを判定すると共に、遮蔽物体に遮られた部分のみをマスクすることで、移動物体の検出を行うことを目的とする。   The present invention has been made to solve the above-described problems, and by using the motion information of the shielding object, it is determined whether or not the shielding object is to be masked, and only the portion blocked by the shielding object. The object is to detect a moving object by masking.

この発明に係る画像処理装置は、移動物体と、この移動物体とは異なる特定の動作を行う遮蔽物体との両物体を撮影する画像撮影手段と、この画像撮影手段で得られた画像から移動領域を検出する移動領域検出手段と、前記遮蔽物体の動く範囲や移動方向、速度などの動作情報をあらかじめ記憶する動作情報記憶手段と、この動作情報記憶手段の記憶情報に基づいて前記画像から遮蔽物体を検出する遮蔽物体検出手段と、この遮蔽物体検出手段で得られた遮蔽物体の領域をマスク領域とするか否かの判定と、該マスク領域を除く範囲を移動物体検出領域として設定する移動物体検出領域設定手段と、この移動物体検出領域設定手段で設定された領域と前記移動領域検出手段の検出した移動領域から移動物体を検出する移動物体検出手段を備える。   An image processing apparatus according to the present invention includes an image capturing unit that captures both a moving object and a shielding object that performs a specific operation different from the moving object, and a moving region from an image obtained by the image capturing unit. A moving area detecting means for detecting movement information, a movement information storage means for storing movement information such as a moving range, a moving direction, and a speed of the shielding object in advance, and a shielding object from the image based on the storage information of the movement information storage means Occluding object detecting means for detecting the object, determination of whether or not the area of the occluding object obtained by the occluding object detecting means is a mask area, and a moving object for setting a range excluding the mask area as a moving object detecting area Detection area setting means, and a moving object detection means for detecting a moving object from the area set by the moving object detection area setting means and the moving area detected by the moving area detection means .

この発明に係る画像処理装置によれば、遮蔽物体検出部における遮蔽物体の移動検出結果に応じて移動物体検出領域設定部がマスクする領域を設定する構成にしたので、遮蔽物体が移動した場合のみ動く範囲にマスクすることができ、高精度に移動物体を検出することができる。   According to the image processing apparatus of the present invention, since the moving object detection area setting unit sets the area to be masked according to the movement detection result of the shielding object in the shielding object detection unit, only when the shielding object moves. The moving range can be masked, and a moving object can be detected with high accuracy.

実施の形態1.
図1はこの発明の実施の形態1による画像処理装置を示す構成図である。図において、画像撮影部1は、移動物体とこの移動物体とは異なる特定の動作を行う遮蔽物体との画像を同一のカメラなどの撮像装置を用いて撮影する。
移動領域検出部2は、画像撮影部1で得られた画像から動きを持つ領域を移動領域として検出する。
動作情報記憶部3は、遮蔽物体となる物体の動く範囲や移動方向、速度などをあらかじめ保持している記憶装置である。
遮蔽物体検出部4は、動作情報記憶部3の遮蔽物体の動く範囲や移動方向、速度に基づいて画像撮影部1が撮影した画像における遮蔽物体の検出や移動を監視する処理を行う。
移動物体検出領域設定部5は、画像撮影部1が撮影した画像中で、遮蔽物体検出部4で得られた遮蔽物体領域をマスク領域とするかの判定や該マスク領域を除く範囲を移動物体検出領域として設定する処理を行う。
移動物体検出部6は、移動物体検出領域設定部5で設定された移動物体検出領域と移動領域検出部2の検出した移動領域から移動物体の検出を行う処理を実行する。
なお、この実施の形態1では、移動物体として車輌を、遮蔽物体として車輌の通行を許諾または拒否するバーを想定している。
Embodiment 1 FIG.
1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention. In the figure, an image capturing unit 1 captures an image of a moving object and a shielding object that performs a specific operation different from the moving object using an imaging device such as the same camera.
The movement area detection unit 2 detects an area having movement from the image obtained by the image photographing unit 1 as a movement area.
The motion information storage unit 3 is a storage device that holds in advance the moving range, moving direction, speed, and the like of an object that is a shielding object.
The shielding object detection unit 4 performs processing for monitoring the detection and movement of the shielding object in the image captured by the image capturing unit 1 based on the moving range, moving direction, and speed of the shielding object in the motion information storage unit 3.
The moving object detection region setting unit 5 determines whether or not the shielding object region obtained by the shielding object detection unit 4 is a mask region in the image captured by the image capturing unit 1 and the range excluding the mask region is a moving object. Processing to set as a detection area is performed.
The moving object detection unit 6 executes processing for detecting a moving object from the moving object detection region set by the moving object detection region setting unit 5 and the moving region detected by the moving region detection unit 2.
In the first embodiment, a vehicle is assumed as a moving object, and a bar that permits or rejects passage of the vehicle as a shielding object is assumed.

図2はこの発明の実施の形態1による画像処理装置の処理内容を示すフローチャートである。
まず、画像撮影部1は、移動物体とこの移動物体とは異なる特定の動作を行う遮蔽物体とを同一のカメラなどで撮影する(ステップST11)。この実施の形態では、図3の画像を撮影したものとする。ここで、バーを遮蔽物体とし、移動物体として車両を検出する。
FIG. 2 is a flowchart showing the processing contents of the image processing apparatus according to Embodiment 1 of the present invention.
First, the image photographing unit 1 photographs a moving object and a shielding object that performs a specific operation different from the moving object with the same camera or the like (step ST11). In this embodiment, it is assumed that the image of FIG. 3 is taken. Here, the bar is used as a shielding object, and the vehicle is detected as a moving object.

移動領域検出部2は、画像撮影部1から得られた画像より動きを持つ領域を移動領域として検出する(ステップST12)。ここでは、移動領域を検出する方法として、画像撮影部1で得られた画像とあらかじめ撮影しておいた図4に示す背景画像との差分による方法などを用いて検出する。例えば、背景画像との差分により移動領域を検出する方法として、特開平07−336694号公報などに記載された方法を用いる。
図5は、移動領域検出部2により図3の撮影画像から図4の背景画像との差分により得られた移動領域の画像例であり、黒色で示される領域が移動領域を意味している。ここでは、移動領域を検出する方法として背景画像との差分による方法を用いたが、その他の方法を用いても良い。
移動領域検出部2は、画像上に移動領域が含まれるか否かを判定し、画像上に移動領域が無い場合は、ステップST11に戻り、移動領域が存在する場合は、ステップST14の処理に進む(ステップST13)。ここでは、移動領域が含まれるためステップST14に進む。
The movement area detection unit 2 detects an area having a movement from the image obtained from the image photographing unit 1 as a movement area (step ST12). Here, as a method of detecting the moving region, detection is performed using a method based on a difference between the image obtained by the image photographing unit 1 and the background image shown in FIG. For example, as a method for detecting a moving region based on a difference from a background image, a method described in Japanese Patent Application Laid-Open No. 07-336694 is used.
FIG. 5 is an image example of the moving area obtained by the difference between the captured image of FIG. 3 and the background image of FIG. 4 by the moving area detecting unit 2, and the area shown in black means the moving area. Here, the method based on the difference from the background image is used as the method for detecting the moving region, but other methods may be used.
The moving area detection unit 2 determines whether or not a moving area is included on the image. If there is no moving area on the image, the process returns to step ST11. If there is a moving area, the process of step ST14 is performed. Proceed (step ST13). Here, since the moving area is included, the process proceeds to step ST14.

遮蔽物体検出部4は、動作情報記憶部3があらかじめ保持している初期状態を遮蔽物体監視領域として設定する。図6に動作情報記憶部3が保持している情報の例を示す。図では、遮蔽物体の初期状態を監視する範囲を決定するための座標点A0(x,y)〜D0(x,y)ならびに動く範囲AT(x,y)〜FT(x,y)、遮蔽物体の移動方向(dx,dy)、遮蔽物体の速度(Vx,Vy)を示している。
図7は、遮蔽物体検出部4が動作情報記憶部3から初期状態を取得し遮蔽物体監視領域を設定した例である。図において破線内部が遮蔽物体監視領域を示している。
次に、遮蔽物体検出部4は、遮蔽物体監視領域内の画素値の変化が所定の閾値を超えた場合、遮蔽物体が初期状態から移動を開始したことを検出する(ステップST14)。ここでは、遮蔽物体の移動を検出する方法として遮蔽物体監視領域内の画素の変化値に基づいて検出したが、その他の方法を用いても良い。
The shielding object detection unit 4 sets the initial state previously stored in the motion information storage unit 3 as the shielding object monitoring area. FIG. 6 shows an example of information held in the operation information storage unit 3. In the figure, the coordinate points A0 (x, y) to D0 (x, y) and the moving range AT (x, y) to FT (x, y), shielding for determining the range to monitor the initial state of the shielding object The moving direction (dx, dy) of the object and the speed (Vx, Vy) of the shielding object are shown.
FIG. 7 shows an example in which the shielding object detection unit 4 acquires the initial state from the motion information storage unit 3 and sets the shielding object monitoring region. In the figure, the inside of the broken line indicates the shielding object monitoring area.
Next, when the change in the pixel value in the shielding object monitoring area exceeds a predetermined threshold, the shielding object detection unit 4 detects that the shielding object has started to move from the initial state (step ST14). Here, as a method of detecting the movement of the shielding object, the detection is performed based on the change value of the pixel in the shielding object monitoring area, but other methods may be used.

移動物体検出領域設定部5では、遮蔽物体が初期状態であるか否かを判定する(ステップST15)。遮蔽物体が初期状態であれば、遮蔽物体監視領域をマスク領域としてステップST17に進み、初期状態でなければステップST16に進む。ここでは、図3に示すように初期状態から遮蔽物体であるバーが開く動作を開始することで移動しているためステップ16に進む。
次に、移動物体検出領域設定部5では、動作情報記憶部3より遮蔽物体の動く範囲を取得し、これをマスク領域として設定する(ステップST16)。図8に遮蔽物体の動く範囲をマスク領域とした例を示す。図において黒色で示される部分がマスク領域を表している。
移動物体検出領域設定部5は、移動領域検出部2で得られた移動領域からマスク領域を除く範囲を移動物体検出領域として設定する(ステップST17)。図9に図5の移動領域から図8のマスク領域を除いた移動物体検出領域の例を示す。
The moving object detection area setting unit 5 determines whether or not the shielding object is in an initial state (step ST15). If the shielding object is in the initial state, the process proceeds to step ST17 using the shielding object monitoring area as the mask area, and if not, the process proceeds to step ST16. Here, as shown in FIG. 3, since the bar which is a shielding object starts moving from the initial state and moves, the process proceeds to step 16.
Next, the moving object detection region setting unit 5 acquires the moving range of the shielding object from the motion information storage unit 3, and sets this as a mask region (step ST16). FIG. 8 shows an example in which the moving range of the shielding object is a mask area. In the drawing, a black portion represents a mask area.
The moving object detection area setting unit 5 sets a range excluding the mask area from the movement area obtained by the movement area detection unit 2 as a moving object detection area (step ST17). FIG. 9 shows an example of a moving object detection area obtained by removing the mask area in FIG. 8 from the moving area in FIG.

移動物体検出部6は、移動物体検出領域設定部5で設定された移動物体検出領域と移動領域検出部2の検出した移動領域から、それらを包含する矩形を移動物体として検出する(ステップST18)。図10に移動物体検出部6が検出した移動物体の矩形例を示す。ここでは、移動物体を検出する方法として、領域を包含する矩形を移動物体として検出したが、膨張・収縮処理などでノイズを除去した後、特開2000−242787号公報で開示されているようなテンプレートを用いて移動体検出を検出する方法やその他の方法を用いて実行するようにしてもよい。
上記ステップ11〜ステップ18の処理を繰り返し実行し、移動物体の検出を連続して行う。
The moving object detection unit 6 detects a rectangle including them as a moving object from the moving object detection region set by the moving object detection region setting unit 5 and the moving region detected by the moving region detection unit 2 (step ST18). . FIG. 10 shows a rectangular example of the moving object detected by the moving object detection unit 6. Here, as a method for detecting a moving object, a rectangle that includes a region is detected as a moving object. However, after removing noise by expansion / contraction processing or the like, it is disclosed in Japanese Patent Laid-Open No. 2000-242787. You may make it perform using the method of detecting a mobile body detection using a template, and another method.
The processes in steps 11 to 18 are repeatedly executed to continuously detect the moving object.

以上のように、この実施の形態1によれば、遮蔽物体検出部4における遮蔽物体の移動検出結果に応じて移動物体検出領域設定部5がマスクする領域を設定する構成にしたので、遮蔽物体が移動した場合のみ動く範囲にマスクすることができる効果を奏する。   As described above, according to the first embodiment, since the moving object detection region setting unit 5 sets the area to be masked according to the movement detection result of the shielding object in the shielding object detection unit 4, the shielding object is set. This has the effect of being able to mask the moving range only when is moved.

なお、この実施の形態では、移動物体検出領域設定部5では、遮蔽物体の動く範囲を動作情報記憶部3より取得し、これをマスク領域としたが、動作情報記憶部3が記憶する遮蔽物体の情報を、図11に示すように、遮蔽物体が移動する範囲を複数の位置情報とその位置情報での移動方向および速度で表し、位置情報をカウント値で代表するものとする。そして、初期状態を基準にし、初期状態の場合をカウント0とする。
ステップ15において、遮蔽物体の位置が初期状態に無い場合、カウントし、図11に示すような動作情報記憶部3から各カウントに対応する遮蔽物体の位置を求め、これを除く範囲を移動物体検出領域として設定するように実行してもよい。
In this embodiment, the moving object detection region setting unit 5 obtains the moving range of the shielding object from the motion information storage unit 3 and uses this as the mask region, but the shielding object stored in the motion information storage unit 3 As shown in FIG. 11, the range in which the shielding object moves is represented by a plurality of pieces of position information and the moving direction and speed of the position information, and the position information is represented by a count value. Then, the initial state is used as a reference, and the count in the initial state is 0.
In step 15, when the position of the shielding object is not in the initial state, counting is performed, the position of the shielding object corresponding to each count is obtained from the motion information storage unit 3 as shown in FIG. You may perform so that it may set as an area | region.

図12は、該当するカウントにおける遮蔽物体のマスク領域を求め、これを除く範囲を移動物体検出領域とした例である。   FIG. 12 shows an example in which the mask area of the shielding object at the corresponding count is obtained and the range excluding this is set as the moving object detection area.

図13は、図12の移動物体検出領域から、移動物体検出部6で移動物体を検出した例である。   FIG. 13 shows an example in which a moving object is detected by the moving object detection unit 6 from the moving object detection region of FIG.

以上のような、構成にすることで、この実施の形態によれば、遮蔽物体に遮られた部分のみをマスクすることで、高精度に移動物体を検出することができる効果を奏する。   With the configuration as described above, according to this embodiment, there is an effect that a moving object can be detected with high accuracy by masking only a portion blocked by the shielding object.

実施の形態2.
次に、この発明の他の実施の形態である画像処理装置について説明する。この発明の実施の形態2を示す構成図は、上記実施の形態1と同様に図1である。
この実施の形態2においても、移動物体として車輌を、遮蔽物体として車輌の通行を許諾または拒否するバーを想定している。
図14はこの発明の実施の形態2による画像処理の処理内容を示すフローチャートである。図中、実施の形態1と同一の処理を行う処理部は同一の符号を付し、その説明を省略する。
Embodiment 2. FIG.
Next, an image processing apparatus according to another embodiment of the present invention will be described. The configuration diagram showing the second embodiment of the present invention is FIG. 1 as in the first embodiment.
Also in the second embodiment, a vehicle is assumed as a moving object, and a bar that permits or rejects passage of the vehicle as a shielding object.
FIG. 14 is a flowchart showing the processing contents of the image processing according to the second embodiment of the present invention. In the figure, processing units that perform the same processing as in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

画像処理装置の画像撮影部1が撮影した画像に対し、実施の形態1の動作と同様、ステップ11〜ステップ13の処理を行う。
移動領域検出部2は、画像撮影部1から得られた画像を部分画像に分割する(ステップST201)。この実施の形態では、移動領域検出部2は水平方向にM個,垂直方向にN個、合計M×N個の部分画像に分割するものとする。図15は、図3の画像を部分画像に分割した例である。この図では、水平方向j番目、垂直方向i番目の部分画像をBij(1≦j≦M,1≦i≦N)と表現している。
Similar to the operation of the first embodiment, the processing of step 11 to step 13 is performed on the image captured by the image capturing unit 1 of the image processing apparatus.
The moving area detection unit 2 divides the image obtained from the image capturing unit 1 into partial images (step ST201). In this embodiment, it is assumed that the moving area detection unit 2 divides M partial images into a total of M × N partial images, M in the horizontal direction and N in the vertical direction. FIG. 15 is an example in which the image of FIG. 3 is divided into partial images. In this drawing, the j-th partial image in the horizontal direction and the i-th vertical direction are expressed as Bij (1 ≦ j ≦ M, 1 ≦ i ≦ N).

次に、移動領域検出部2は、分割した各部分画像の動きベクトルを特開平5−75914号公報に示されるようなマッチング法などを用いて検出する(ステップST202)。図16は図15の画像とその前の時刻のフレーム画像を用いて検出した動きベクトルを示す例である。ここで、t番目のフレームの部分画像Bijにおける動きベクトルをFt_ij(1≦j≦M,1≦i≦N,1≦t≦L,Lは画像撮影部で撮影された画像の総数)として表わす。この実施の形態では、画像を部分画像に分割し、特開平5−75914号公報に示されるような方法で動きベクトルを検出したが、「Lucas B D and Kanade T 著“An iterative image registration technique with an application to stereo vision.” Proceedings of Imaging understanding workshop, pp 121-130, 1981」に開示されているような画素単位で動きベクトルを検出する方法などでもよい。   Next, the moving area detection unit 2 detects the motion vector of each divided partial image using a matching method as disclosed in Japanese Patent Laid-Open No. 5-75914 (step ST202). FIG. 16 shows an example of motion vectors detected using the image of FIG. 15 and the frame image at the previous time. Here, the motion vector in the partial image Bij of the t-th frame is expressed as Ft_ij (1 ≦ j ≦ M, 1 ≦ i ≦ N, 1 ≦ t ≦ L, L is the total number of images captured by the image capturing unit). . In this embodiment, an image is divided into partial images, and motion vectors are detected by a method as disclosed in Japanese Patent Laid-Open No. 5-75914. However, “Lucas BD and Kanade T” “An iterative image registration technique with an A method of detecting a motion vector in pixel units as disclosed in “application to stereo vision.” Proceedings of Imaging understanding workshop, pp 121-130, 1981 ”may be used.

遮蔽物体検出部4は、動作情報記憶部3があらかじめ保持している図17に示す遮蔽物体の位置する部分画像や該部分画像の動きベクトルと移動領域検出部2で検出した動きベクトルとを照合し、同じ動きベクトルを持つ部分画像を遮蔽物体として検出する(ステップST203)。ここでは、画像上で遮蔽物体の位置する部分画像をRBijとし、t番目のフレームの部分画像RBijの動きベクトルをRBt_ijとして表す(1≦j≦M,1≦i≦N,1≦t≦L,Lは画像撮影部で撮影された画像の総数)。   The shielding object detection unit 4 collates the partial image where the shielding object shown in FIG. 17 and the motion vector of the partial image shown in FIG. Then, a partial image having the same motion vector is detected as a shielding object (step ST203). Here, the partial image where the shielding object is located on the image is denoted as RBij, and the motion vector of the partial image RBij in the t-th frame is denoted as RBt_ij (1 ≦ j ≦ M, 1 ≦ i ≦ N, 1 ≦ t ≦ L , L is the total number of images captured by the image capturing unit).

移動物体検出領域設定部5では、遮蔽物体検出部4の結果に基づいて、遮蔽物体と判定された動きベクトルを持つ部分画像をマスクするかの判定を行う(ステップST204)。遮蔽物体検出部4において遮蔽物体に該当する動きベクトルを持つ部分画像が検出されなかった場合、ステップST17に進み。同じ動きベクトルを持つ部分画像が検出された場合、ステップST16に進む。
ステップST16、ステップ17では、実施の形態1と同様の処理を行うため、詳細な説明を省略するが、移動物体検出部6は、移動物体検出領域設定部5のマスク領域を除く範囲と移動領域検出部2の検出した領域から移動物体の検出を行う。
The moving object detection area setting unit 5 determines whether to mask a partial image having a motion vector determined as a shielding object based on the result of the shielding object detection unit 4 (step ST204). If the partial image having the motion vector corresponding to the shielding object is not detected in the shielding object detection unit 4, the process proceeds to step ST17. If a partial image having the same motion vector is detected, the process proceeds to step ST16.
In step ST16 and step 17, detailed processing is omitted because the same processing as in the first embodiment is performed. However, the moving object detection unit 6 includes a range and a moving region excluding the mask region of the moving object detection region setting unit 5. A moving object is detected from the area detected by the detection unit 2.

図18に図5の移動領域から遮蔽物体に該当する動きベクトルを持つ部分画像をマスクすることで得た移動物体検出領域の例を示す。
また、移動体検出部6が、図18に示す移動物体検出領域設定部5で設定された領域から移動物体を検出た例を図19に示す。
FIG. 18 shows an example of a moving object detection region obtained by masking a partial image having a motion vector corresponding to a shielding object from the moving region of FIG.
FIG. 19 shows an example in which the moving object detection unit 6 detects a moving object from the area set by the moving object detection area setting unit 5 shown in FIG.

以上のように、この実施の形態2によれば、移動領域検出部2で求めた動きベクトルと動作情報記憶部5であらかじめ保持している遮蔽物体の動きベクトルとを遮蔽物体検出部4で照合し、類似する動きベクトルを持つ部分画像をマスク領域として設定し、移動物体検出部6で移動物体検出することで、遮蔽物体の位置のみをマスク処理することが可能となり、移動物体が遮蔽物体と重なる位置関係にある場合においても、移動物体を検出できる効果を奏する。   As described above, according to the second embodiment, the motion vector obtained by the moving area detection unit 2 and the motion vector of the occlusion object previously stored in the motion information storage unit 5 are collated by the occlusion object detection unit 4. Then, by setting a partial image having a similar motion vector as a mask region and detecting the moving object by the moving object detection unit 6, it is possible to mask only the position of the shielding object, and the moving object becomes the shielding object. Even when there is an overlapping positional relationship, an effect of detecting a moving object is achieved.

なお、この実施の形態では、遮蔽物体検出部4は、動作情報記憶部5があらかじめ保持している遮蔽物体の動きベクトルと移動領域検出部2で求めた部分画像との動きベクトルとを照合する方法を例で説明したが、照合の際に、独立する異なる位置の部分画像の動きベクトルが左右対称の動きベクトルを持つ領域を遮蔽物体として検出する処理に変更・追加して実行してもよい。   In this embodiment, the shielding object detection unit 4 collates the motion vector of the shielding object previously held in the motion information storage unit 5 with the motion vector of the partial image obtained by the movement area detection unit 2. Although the method has been described by way of example, it may be executed by changing or adding to a process of detecting, as a shielding object, a region in which the motion vectors of partial images at different independent positions have a symmetrical motion vector at the time of collation. .

この発明による画像処理装置は、車などの移動物体が確実に検出でき、踏切や駐車場或いは有料道路の車輌出入口をカメラで撮影して監視するシステムなどに適用される。   The image processing apparatus according to the present invention is applied to a system that can detect a moving object such as a car with certainty, and takes and monitors a railroad crossing, a parking lot, or a vehicle entrance / exit of a toll road with a camera.

この発明の実施の形態1による画像処理装置を示す構成図である。1 is a configuration diagram illustrating an image processing apparatus according to Embodiment 1 of the present invention; 実施の形態1による画像処理装置の処理内容を示すフローチャートである。4 is a flowchart illustrating processing contents of the image processing apparatus according to the first embodiment. 実施の形態1による画像撮影部の撮影画像例の説明図である。6 is an explanatory diagram of a captured image example of the image capturing unit according to Embodiment 1. FIG. 実施の形態1によるあらかじめ撮影され動作情報記憶部に記憶された背景画像図である。3 is a background image photographed in advance and stored in an operation information storage unit according to Embodiment 1. FIG. 実施の形態1による検出された移動領域画像例の説明図である。6 is an explanatory diagram of an example of a moving region image detected according to Embodiment 1. FIG. 実施の形態1による動作情報記憶部が保持している情報例の説明図である。6 is an explanatory diagram of an example of information held by an operation information storage unit according to Embodiment 1. FIG. 実施の形態1による遮蔽物体監視領域設定例の説明図である。6 is an explanatory diagram of a setting example of a shielding object monitoring area according to Embodiment 1. FIG. 実施の形態1によるマスク領域例の説明図である。6 is an explanatory diagram of an example of a mask region according to the first embodiment. FIG. 実施の形態1による移動物体検出領域例の説明図である。6 is an explanatory diagram of an example of a moving object detection region according to Embodiment 1. FIG. 実施の形態1による移動物体検出部が検出した移動物体例の説明図である。6 is an explanatory diagram of a moving object example detected by a moving object detection unit according to Embodiment 1. FIG. 実施の形態1による動作情報記憶部がしている他の情報例の説明図である。It is explanatory drawing of the other example of information which the operation | movement information storage part by Embodiment 1 is doing. 動作情報記憶部が保持する図11の情報による移動物体検出領域例の説明図である。It is explanatory drawing of the example of a moving object detection area | region by the information of FIG. 図12の移動物体検出領域から、検出された移動物体例の説明図である。It is explanatory drawing of the example of a moving object detected from the moving object detection area | region of FIG. 発明の実施の形態2による画像処理装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the image processing apparatus by Embodiment 2 of invention. 実施の形態2による画像を部分画像に分割した例の説明図である。It is explanatory drawing of the example which divided | segmented the image by Embodiment 2 into the partial image. 実施の形態2による画像の動きベクトル例の説明図である。10 is an explanatory diagram of an example of a motion vector of an image according to Embodiment 2. FIG. 実施の形態2による動作情報記憶部保持の情報例の説明図である。FIG. 10 is an explanatory diagram of an example of information stored in an operation information storage unit according to the second embodiment. 実施の形態2による移動物体検出領域例の説明図である。FIG. 10 is an explanatory diagram of an example of a moving object detection area according to the second embodiment. 実施の形態2による検出された移動物体例の説明図である。6 is an explanatory diagram of an example of a moving object detected according to Embodiment 2. FIG.

符号の説明Explanation of symbols

1;画像撮影部、2;移動領域検出部、3;動作情報記憶部、4;遮蔽物体検出部、5;移動物体検出領域設定部、6;移動物体検出部。   DESCRIPTION OF SYMBOLS 1; Image pick-up part, 2; Moving area detection part, 3; Operation | movement information storage part, 4; Shielding object detection part, 5: Moving object detection area setting part, 6;

Claims (5)

移動物体と、この移動物体とは異なる特定の動作を行う遮蔽物体との両物体を撮影する画像撮影手段と、この画像撮影手段で得られた画像から移動領域を検出する移動領域検出手段と、前記遮蔽物体の動く範囲や移動方向、速度などの動作情報をあらかじめ記憶する動作情報記憶手段と、この動作情報記憶手段の記憶情報に基づいて前記画像から遮蔽物体を検出する遮蔽物体検出手段と、この遮蔽物体検出手段で得られた遮蔽物体の領域をマスク領域とするか否かの判定と、該マスク領域を除く範囲を移動物体検出領域として設定する移動物体検出領域設定手段と、この移動物体検出領域設定手段で設定された領域と前記移動領域検出手段の検出した移動領域から移動物体を検出する移動物体検出手段を備えることを特徴とする画像処理装置。   An image photographing means for photographing both a moving object and a shielding object that performs a specific operation different from the moving object, a moving area detecting means for detecting a moving area from an image obtained by the image photographing means, Motion information storage means for storing motion information such as a moving range, a moving direction, and a speed of the shield object in advance, and a shield object detection means for detecting the shield object from the image based on the storage information of the motion information storage means; Determination of whether or not the area of the shielding object obtained by the shielding object detection means is a mask area, a moving object detection area setting means for setting a range excluding the mask area as a moving object detection area, and the moving object An image processing apparatus comprising: a moving object detecting means for detecting a moving object from the area set by the detection area setting means and the moving area detected by the moving area detecting means. 前記移動物体検出領域設定手段は、遮蔽物体が移動したとき、該遮蔽物体が動く範囲を求め、これをマスク領域とすることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the moving object detection region setting unit obtains a range in which the shielding object moves when the shielding object moves, and uses the range as a mask region. 前記移動物体検出領域設定手段は、遮蔽物体が移動したとき、前記動作情報記憶手段から遮蔽物体の位置を求め、これをマスク領域とすることを特徴とした請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the moving object detection region setting unit obtains the position of the shielding object from the motion information storage unit when the shielding object moves, and sets the position as a mask region. 前記移動物体検出領域設定手段は、前記画像撮影手段で得られた画像を複数の部分画像に分割し、各部分画像の動きベクトルと、前記動作情報記憶手段の記憶情報と比較することで遮蔽物体の位置を求め、これをマスク領域とすることを特徴とした請求項1に記載の画像処理装置。   The moving object detection area setting means divides the image obtained by the image photographing means into a plurality of partial images, and compares the motion vector of each partial image with the stored information of the motion information storage means, thereby The image processing apparatus according to claim 1, wherein the position is obtained and used as a mask region. 前記遮蔽物体検出手段は、遮蔽物体としてバーを検出し、前記移動物体検出手段は、移動物体として車両を検出することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the shielding object detection unit detects a bar as the shielding object, and the moving object detection unit detects a vehicle as the moving object. .
JP2007296675A 2007-11-15 2007-11-15 Image processor Pending JP2009122990A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007296675A JP2009122990A (en) 2007-11-15 2007-11-15 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007296675A JP2009122990A (en) 2007-11-15 2007-11-15 Image processor

Publications (1)

Publication Number Publication Date
JP2009122990A true JP2009122990A (en) 2009-06-04

Family

ID=40815073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007296675A Pending JP2009122990A (en) 2007-11-15 2007-11-15 Image processor

Country Status (1)

Country Link
JP (1) JP2009122990A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013114684A1 (en) * 2012-01-30 2013-08-08 株式会社東芝 Image sensor system, information processing device, information processing method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013114684A1 (en) * 2012-01-30 2013-08-08 株式会社東芝 Image sensor system, information processing device, information processing method and program
JP2013157810A (en) * 2012-01-30 2013-08-15 Toshiba Corp Image sensor system, information processor, information processing method and program
CN103339922A (en) * 2012-01-30 2013-10-02 株式会社东芝 Image sensor system, information processing device, information processing method and program
CN103339922B (en) * 2012-01-30 2016-11-09 株式会社东芝 Image sensor system, information processor and information processing method

Similar Documents

Publication Publication Date Title
US8050459B2 (en) System and method for detecting pedestrians
JP5656567B2 (en) Video processing apparatus and method
US8682109B2 (en) Method and system of reconstructing super-resolution image
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
JP5722381B2 (en) Video analysis
JP2010063001A (en) Person-tracking device and person-tracking program
WO2018020722A1 (en) Image processing apparatus and image processing method
JP2000011133A (en) Device and method for detecting moving object
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
WO2019085929A1 (en) Image processing method, device for same, and method for safe driving
KR101016011B1 (en) Vehicle number recognition security cctv system and operating method thereof
JP2001043383A (en) Image monitoring system
JP2009122990A (en) Image processor
KR101370011B1 (en) Driving type auto traffic enforcement system and method for monitoring illegal stopping and parking vehicles using image stabilization and restoration method
KR101669885B1 (en) method of detecting pedestrian collision and IoT apparatus thereof
KR101827114B1 (en) Apparatus and method for detecting proximal entity in pen
CN114882003A (en) Method, medium and computing device for detecting shooting pose change of camera
US11157755B2 (en) Image processing apparatus
CN112766128A (en) Traffic signal lamp detection method and device and computer equipment
EP4246465B1 (en) Improved masking of objects in an image stream
KR102632655B1 (en) Video Analyzing Apparatus and Method for Determining Whether Target Vehicle Is Driving or Stopping for Illegal Parking Enforcement, and Illegal Parking Enforcement System
JP2004247921A (en) Vehicle surrounding monitoring device
WO2023281559A1 (en) Person identifying device and person identifying method
JP2022085577A (en) Information processor, method for processing information, and program