JP2009265827A - Object detection device and method, object detection system, and program - Google Patents

Object detection device and method, object detection system, and program Download PDF

Info

Publication number
JP2009265827A
JP2009265827A JP2008112764A JP2008112764A JP2009265827A JP 2009265827 A JP2009265827 A JP 2009265827A JP 2008112764 A JP2008112764 A JP 2008112764A JP 2008112764 A JP2008112764 A JP 2008112764A JP 2009265827 A JP2009265827 A JP 2009265827A
Authority
JP
Japan
Prior art keywords
image
region
background
model
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008112764A
Other languages
Japanese (ja)
Inventor
Yoshitaro Yamanaka
義太郎 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008112764A priority Critical patent/JP2009265827A/en
Publication of JP2009265827A publication Critical patent/JP2009265827A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To achieve highly precise object detection in response to the change of the environment condition around a camera including illumination conditions. <P>SOLUTION: A prediction region where the existence of an object is predicted and a non-prediction region where the absence of the object is predicted are specified in an input frame image. Then, a background image for contrast is generated, which is different in generation system between a region where difference from the prediction region is calculated and a region where difference from the non-prediction region is calculated. Especially, the region at a position equal to the non-prediction region of the background image for contrast is generated by selecting a small block background model image which is the most similar for each small block. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラの取得画像を用いて対象物を検出する対象物検出装置及び対象物検出方法並びに対象物検出システムに関する。また、それらに対応するプログラムに関する。   The present invention relates to an object detection apparatus, an object detection method, and an object detection system that detect an object using an acquired image of a camera. Moreover, it is related with the program corresponding to them.

カメラの取得画像を用いた対象物の検出及び抽出処理は、一般的に、2枚の画像を比較することで実現される。この比較には、予め用意した背景画像と現在の取得画像との差分を求め所定の閾値と比較する背景差分や、時間的に連続する2枚の画像の差分を求め所定の閾値と比較するフレーム間差分が用いられる。しかしながら、この種の対象物検出方法を用いる場合、比較される2枚の画像間で、検出されるべき対象物以外に変化があると精度の高い対象物検出が困難となる。その代表的な要因がカメラの撮影環境の照明変化である。カメラの撮影環境は太陽光や照明装置の照明光等によって照らされるが、この撮影環境の照明変化によって取得画像の明るさや色合いが変化する。例えば、照明変化によって比較される2枚の画像間の明るさが異なってくると、本来検出されるべき対象物領域だけでなく背景領域に対してまでも所定の閾値以上の差分値が得られてしまい、対象物と背景の区別が困難となる。   The detection and extraction processing of an object using an acquired image of a camera is generally realized by comparing two images. For this comparison, a difference between a background image prepared in advance and a currently acquired image is obtained and compared with a predetermined threshold value, or a difference between two temporally continuous images is obtained and compared with a predetermined threshold value. Differences between them are used. However, when this type of object detection method is used, if there is a change other than the object to be detected between the two images to be compared, highly accurate object detection becomes difficult. A typical factor is a change in lighting in the shooting environment of the camera. The shooting environment of the camera is illuminated by sunlight, illumination light of a lighting device, or the like, but the brightness and color of the acquired image change due to the change in illumination of the shooting environment. For example, when the brightness between two images to be compared differs due to a change in illumination, a difference value equal to or greater than a predetermined threshold value can be obtained not only for the object region that should be originally detected but also for the background region. This makes it difficult to distinguish the object from the background.

具体的に例えば、室内等を撮影している最中に、照明装置の電源のオン/オフを切り替えることとすると、大幅に且つ瞬時に撮影環境の照明の照度が変化しうる。このように急激な照度変化が発生する場合、対象物の検出に背景差分を用いた場合は勿論のこと、フレーム間差分を用いた場合であっても変化速度によっては精度の高い対象物検出ができなくなる。   Specifically, for example, if the lighting device is turned on / off while the room is being photographed, the illuminance of the illumination in the photographing environment can change significantly and instantaneously. When a sudden change in illuminance occurs in this way, not only when the background difference is used for detecting the object, but also when the difference between frames is used, highly accurate object detection is possible depending on the speed of change. become unable.

尚、特許文献1には、差分値を検出して得られた結果に対して、定常変化(例えば、樹木の揺らぎや水面の乱反射など)であるのか、非定常変化(例えば、人の移動など)であるのかを、領域毎の生起確率に基づいて事後的に判定して検出を行う対象物検出方法が提案されている。   In Patent Document 1, whether the result obtained by detecting the difference value is a steady change (for example, fluctuation of a tree or irregular reflection of the water surface) or an unsteady change (for example, movement of a person). ) Has been proposed based on the occurrence probability for each region, and an object detection method for detecting is proposed.

特開平8−44874号公報Japanese Patent Laid-Open No. 8-44874

しかしながらこの方法を用いたとしても、上述のような照明装置のオン/オフによる変化が定常的なもの(例えば、頻繁かつ所定の周期でオン/オフされるもの)でない限り、対象物の動きであると誤って検出する可能性がある。そして、通常の撮影環境の変化は非定常変化となりやすいため、誤検出が頻発して検出精度が低くなる可能性がある。   However, even if this method is used, unless the change due to turning on / off of the lighting device as described above is constant (for example, one that is frequently turned on / off at a predetermined cycle), There is a possibility of erroneous detection. And since the change of a normal imaging | photography environment tends to become a non-stationary change, erroneous detection may occur frequently and detection accuracy may fall.

そこで本発明は、照明条件を含むカメラの周辺環境条件の変化に対応し、精度の高い対象物検出を実現することができる対象物検出装置、対象物検出システム、対象物検出方法及びプログラムを提供することを目的とする。   Accordingly, the present invention provides an object detection device, an object detection system, an object detection method, and a program that can realize highly accurate object detection in response to changes in ambient environmental conditions of the camera including illumination conditions. The purpose is to do.

上記目的を達成するために本発明に係る対象物検出装置は、カメラの撮影に基づく被検出画像を順次取得し、前記被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する対象物検出装置であって、前記被検出画像中の前記対象物が存在すると予測される予測領域と、当該予測領域以外の領域である非予測領域とを特定するマスクを生成するマスク生成部と、前記マスクによって特定される前記予測領域と差分が求められる領域と、前記非予測領域と差分が求められる領域と、で生成方式を異ならせて前記対比用背景画像を生成する対比用背景画像生成部と、を備えることを特徴とする。   In order to achieve the above object, an object detection apparatus according to the present invention sequentially acquires detected images based on camera shooting, and captures the camera based on a difference result between the detected image and a background image for comparison. An object detection apparatus for detecting an object in an area, wherein a prediction area where the object in the detected image is predicted to exist and a non-prediction area which is an area other than the prediction area are specified The background image for comparison with different generation methods for a mask generation unit that generates a mask, an area where a difference is obtained from the prediction area specified by the mask, and an area where a difference is obtained from the non-prediction area A background image generation unit for comparison.

これにより、それぞれの領域毎に、それぞれの領域に適した対比用背景画像を生成することが可能となる。したがって、精度の高い対象物検出を実現することが可能となる。尚、それぞれの領域毎に適した対比用背景画像とは、適切な差分処理が行われることを可能とする対比用背景画像を示すものである。また、適切な差分処理とは、カメラの周辺環境条件の変化に応じた誤検出が発生しにくく、対象物の検出精度が高い差分処理を示すものである。   This makes it possible to generate a contrast background image suitable for each region for each region. Therefore, it is possible to realize highly accurate object detection. The comparison background image suitable for each region indicates a comparison background image that enables appropriate difference processing to be performed. Further, the appropriate difference process indicates a difference process in which erroneous detection corresponding to a change in the ambient environment condition of the camera is unlikely to occur and the detection accuracy of the target object is high.

具体的には例えば、前記対比用背景画像生成部が、前記被検出画像の前記非予測領域に基づいて、前記対比用背景画像の前記予測領域と差分が求められる領域と、前記非予測領域と差分が求められる領域と、のそれぞれを生成する。   Specifically, for example, the comparison background image generation unit, based on the non-prediction area of the detected image, an area in which a difference from the prediction area of the comparison background image is obtained, and the non-prediction area; Each of the regions where the difference is calculated is generated.

したがって、被検出画像の非予測領域に基づいて対比用背景画像を生成すると、効果的にカメラの周辺環境条件を反映させた対比用背景画像を生成することが可能となる。   Therefore, when the comparison background image is generated based on the non-predicted region of the detected image, it is possible to generate the comparison background image that effectively reflects the ambient environment conditions of the camera.

さらに、具体的には例えば、前記撮影領域内に前記対象物が含まれない状態で撮影された複数の画像を保持する画像保持部と、前記画像保持部に保持された前記複数の画像から複数のモデル画像を生成するモデル生成部と、前記モデル生成部で生成された前記モデル画像を保持するモデル保持部と、をさらに備え、前記対比用背景画像生成部が、前記モデル保持部に保持された前記モデル画像を用いて前記対比用背景画像を生成するものであるとともに、前記被検出画像の前記非予測領域と類似する前記モデル画像を用いて、少なくとも前記対比用背景画像の前記非予測領域と差分が求められる領域を生成する生成方式を使用する。   Furthermore, specifically, for example, an image holding unit that holds a plurality of images shot in a state where the object is not included in the shooting region, and a plurality of images from the plurality of images held in the image holding unit. A model generation unit that generates the model image, and a model holding unit that holds the model image generated by the model generation unit, wherein the comparison background image generation unit is held in the model holding unit The comparison background image is generated using the model image, and at least the non-prediction region of the comparison background image is generated using the model image similar to the non-prediction region of the detected image. And a generation method for generating an area for which a difference is obtained.

これにより、被検出画像の非予測領域と類似するモデル画像を用いて、対比用背景画像が生成される。したがって、精度の高い対象物検出を実現することを可能とする対比用背景画像を生成することが可能となる。   Thereby, a contrast background image is generated using a model image similar to the non-predicted region of the detected image. Therefore, it is possible to generate a background image for comparison that makes it possible to realize highly accurate object detection.

そして例えば、前記被検出画像を細分化した領域である小ブロックのそれぞれに対応する複数の小ブロック背景モデル画像が、前記モデル保持部に保持され、前記対比用背景画像生成部が、前記対比用背景画像の前記非予測領域と差分が求められる領域を生成する際に、前記被検出画像の前記非予測領域の前記小ブロック毎に、最も類似する前記小ブロック背景モデル画像を前記モデル保持部からそれぞれ選択し、選択された当該小ブロック背景モデル画像を用いて前記対比用背景画像の前記非予測領域と差分が求められる領域を生成する生成方式を使用する。   And, for example, a plurality of small block background model images corresponding to each of small blocks that are subdivided areas of the detected image are held in the model holding unit, and the comparison background image generation unit is used for the comparison When generating a region in which a difference from the non-predicted region of the background image is obtained, the most similar small block background model image is obtained from the model holding unit for each small block of the non-predicted region of the detected image. A generation method is used in which each is selected and a region in which a difference is obtained from the non-predicted region of the comparison background image is generated using the selected small block background model image.

このように構成すると、被検出画像の非予測領域に最も類似した小ブロック背景モデル画像を、小ブロック毎に選択することができる。尚、小ブロック背景モデル画像は、上記のモデル画像に含まれるものである。   If comprised in this way, the small block background model image most similar to the non-prediction area | region of a to-be-detected image can be selected for every small block. The small block background model image is included in the above model image.

さらに具体的には例えば、前記被検出画像の全体と対応する複数の背景モデル画像が、前記モデル保持部に保持され、前記対比用背景画像生成部が、前記対比用背景画像の前記予測領域と差分が求められる領域を生成する際に、記非予測領域と等しい位置の領域が最も類似する前記背景モデル画像を前記モデル保持部から選択し、選択された当該背景モデル画像から前記予測領域と等しい位置の領域を抽出して用いることで、前記対比用背景画像の前記非予測領域と差分が求められる領域を生成する生成方式を使用する。   More specifically, for example, a plurality of background model images corresponding to the whole of the detected image are held in the model holding unit, and the comparison background image generation unit is connected to the prediction region of the comparison background image. When generating a region for which a difference is calculated, the background model image having the most similar region at the same position as the non-predicted region is selected from the model holding unit, and is equal to the predicted region from the selected background model image A generation method for generating a region where a difference from the non-predicted region of the background image for comparison is obtained by extracting and using the region of the position is used.

このように、被検出画像の非予測領域に類似した背景モデル画像を選択し、予測領域と等しい位置の領域だけ抽出して使用することとすると、対比用背景画像の予測領域と差分が求められる領域に対して、効果的にカメラの周辺環境条件を反映させることが可能となる。尚、背景モデル画像は、上記のモデル画像に含まれるものである。   As described above, when a background model image similar to the non-predicted region of the detected image is selected and only the region at the same position as the predicted region is extracted and used, the difference between the predicted region of the background image for comparison is obtained. It is possible to effectively reflect the surrounding environmental conditions of the camera on the area. The background model image is included in the above model image.

或いは例えば、前記対比用背景画像が、前記対比用背景画像生成部により前記モデル保持部に保持された複数の前記小ブロック背景モデル画像の中から選択されるとともに組み合わせられて成るものであり、前記対比用背景画像生成部から出力された前記対比用背景画像に用いられた前記小ブロック背景モデル画像の、組み合わせの履歴である合成履歴を保持するモデル合成履歴保持部をさらに備え、前記対比用背景画像生成部が、前記対比用背景画像の前記予測領域と差分が求められる領域を生成する際に、前記合成履歴と、前記対比用背景画像の前記非予測領域と差分が求められる領域を成す前記小ブロック背景モデル画像の組み合わせと、に基づいて、前記対比用背景画像の前記予測領域と差分が求められる領域に用いられる前記小ブロック背景モデル画像を選択して生成する生成方式を使用する。   Alternatively, for example, the comparison background image is selected and combined from the plurality of small block background model images held in the model holding unit by the comparison background image generation unit, A model synthesis history holding unit that holds a synthesis history that is a combination history of the small block background model images used in the background image for comparison output from the background image generation unit for comparison; When the image generation unit generates an area in which a difference is obtained from the prediction area of the comparison background image, the synthesis history and the non-prediction area of the comparison background image form an area in which a difference is obtained. The small block used for a region for which a difference is obtained from the prediction region of the background image for comparison based on a combination of small block background model images. Using the generation method of generating select a click background model image.

尚、対比用背景画像の予測領域と差分が求められる領域における小ブロック背景モデル画像の組み合わせを決定する際に、対比用背景画像の非予測領域と差分が求められる領域を成す小ブロック背景モデル画像の組み合わせを条件として、合成履歴から最も可能性が高くなる(生起確率が大きくなる)小ブロック背景画像の組み合わせを選択するように構成してもよい。   Note that when determining a combination of a small block background model image in a region for which a difference is obtained from the prediction region of the background image for comparison, a small block background model image that forms a region in which a difference is obtained from the non-predicted region of the background image for comparison As a condition, a combination of small block background images with the highest possibility (occurrence of occurrence probability) may be selected from the synthesis history.

さらに例えば、前記モデル合成履歴保持部が、前記合成履歴に基づいて前記小ブロック同士の前記小ブロック背景画像の選択結果についての相関を求め、この情報を前記合成履歴に含ませるとともに、前記対比用背景画像生成部が、前記対比用背景画像の前記予測領域と差分が求められる領域を生成するために前記小ブロック背景モデル画像を選択する際に、前記小ブロック背景画像を選択しようとする前記小ブロックと相関が高い前記小ブロックに用いられる前記小ブロック背景モデル画像に基づいて、前記対比用背景画像の前記予測領域と差分が求められる領域の前記小ブロック背景モデル画像を選択して生成する生成方式を使用する。   Further, for example, the model synthesis history holding unit obtains a correlation about the selection result of the small block background image between the small blocks based on the synthesis history, and includes this information in the synthesis history, and for the comparison The background image generation unit selects the small block background image when selecting the small block background model image in order to generate an area in which a difference is obtained from the prediction area of the comparison background image. Generating by selecting and generating the small block background model image in a region where a difference is obtained from the prediction region of the background image for comparison based on the small block background model image used for the small block having a high correlation with the block Use the method.

このように構成すると、モデルを選択したい(しようとしている)小ブロックに関し、相関が高い小ブロックにおいて選択された小ブロック背景モデル画像に基づいて、小ブロック背景モデル画像を選択することが可能となる。したがって、保持するデータや計算量を減少させることが可能となる。   If comprised in this way, it will become possible to select a small block background model image based on the small block background model image selected in the small block with a high correlation regarding the small block which wants to select a model. . Therefore, it is possible to reduce the data to be held and the amount of calculation.

また、上記目的を達成するために本発明に係る対象物検出システムは、撮影によって被検出画像を得るカメラと、上記の何れかに記載の対象物検出装置と、を備えることを特徴とする。   In order to achieve the above object, an object detection system according to the present invention includes a camera that obtains an image to be detected by photographing, and the object detection device described above.

また、上記目的を達成するために本発明に係る対象物検出方法は、撮影によって被検出画像を得るカメラ及び前記被検出画像に基づく画像を表示する表示装置を備えるシステムに用いられ、且つ、前記カメラから前記被検出画像を順次取得し、前記被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する対象物検出方法であって、前記対比用背景画像を生成する際に、前記被検出画像中の前記対象物が存在すると予測される予測領域と、当該予測領域以外の領域である非予測領域とを特定し、前記対比用背景画像の前記非予測領域と差分が求められる領域と、前記予測領域と差分が求められる領域と、で生成方式を異ならせることを特徴とする。   In order to achieve the above object, an object detection method according to the present invention is used in a system including a camera that obtains a detected image by photographing and a display device that displays an image based on the detected image, and An object detection method for sequentially acquiring the detected images from a camera and detecting an object in a shooting region of the camera based on a difference result between the detected image and a background image for comparison, When generating a background image, the prediction region in which the target object in the detected image is predicted to exist and a non-prediction region that is a region other than the prediction region are specified, and the comparison background image The generation method is different between a non-predicted region and a region in which a difference is obtained, and a region in which a difference is obtained from the predicted region.

また、上記目的を達成するために本発明に係るプログラムは、カメラの撮影によって順次得られる被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する機能をコンピュータに実現させるためのプログラムであって、前記被検出画像中の前記対象物が存在すると予測される予測領域と、当該予測領域以外の領域である非予測領域とを特定する機能と、前記非予測領域と差分が求められる領域と、前記予測領域と差分が求められる領域と、で生成方式を異なるものとして前記対比用背景画像を生成する機能と、を前記コンピュータに実現させることを特徴とする。   In order to achieve the above object, a program according to the present invention detects an object in a shooting area of the camera based on a difference result between a detected image sequentially obtained by shooting with the camera and a background image for comparison. A program for causing a computer to realize a function, the function of specifying a prediction region where the target in the detected image is predicted to exist and a non-prediction region other than the prediction region, A function of generating the contrast background image by using a generation method different between the non-predicted region and a region in which a difference is obtained and a region in which a difference is obtained from the predicted region. And

本発明によれば、照明条件を含むカメラの周辺環境条件の変化に対応し、精度の高い対象物検出を実現することができる。   According to the present invention, it is possible to realize highly accurate object detection in response to changes in the ambient environmental conditions of the camera including illumination conditions.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。また、最初に本発明の実施形態に係る対象物検出システムの構成及び動作について説明し、その後に各構成部分の具体的な実施例について説明する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. First, the configuration and operation of the object detection system according to the embodiment of the present invention will be described, and then specific examples of each component will be described.

<<全体構成>>
まず、本発明の実施形態に係る対象物検出システムの全体構成について、図面を参照して説明する。図1は、本発明の実施形態に係る対象物検出システムの全体ブロック図である。対象物検出システムは、カメラ1、検出処理部2及び表示部3を備え、カメラ1の撮影画像に基づいてカメラ1の撮影領域(換言すれば、カメラ1の視野)内に存在しうる検出対象物を検出する。以下の説明では、検出対象物(以下、単に「対象物」と略記する)が、主として人物である場合を想定する。
<< Overall structure >>
First, the overall configuration of an object detection system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is an overall block diagram of an object detection system according to an embodiment of the present invention. The object detection system includes a camera 1, a detection processing unit 2, and a display unit 3, and a detection target that can exist in a shooting area of the camera 1 (in other words, a field of view of the camera 1) based on a captured image of the camera 1. Detect objects. In the following description, it is assumed that the detection target (hereinafter simply referred to as “target”) is mainly a person.

カメラ1として、CCD(Charge Coupled Devices)を用いたカメラや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラが用いられる。検出処理部2は、集積回路等を用いて形成される。表示部3は、液晶ディスプレイパネル等から形成される表示装置である。   As the camera 1, a camera using a CCD (Charge Coupled Devices) or a camera using a CMOS (Complementary Metal Oxide Semiconductor) image sensor is used. The detection processing unit 2 is formed using an integrated circuit or the like. The display unit 3 is a display device formed from a liquid crystal display panel or the like.

カメラ1は、所定のフレーム周期にて順次撮影を行う。この順次撮影によってフレーム周期毎に得られる各画像を、以下「フレーム画像」という。フレーム画像を表す画像データは、検出処理部2に送られる。カメラ1の撮影領域は固定されているものとする。また、本実施形態では、カメラ1の撮影領域が家屋等の室内である場合を想定し、また、カメラ1の撮影領域を照らす光源に蛍光灯などの照明装置と太陽光とが含まれている場合を想定する。ただし、カメラ1の撮影領域を室外とすることも可能であるし、また、光源の数及び種類は任意である。太陽光及び室内に設けられた照明装置の照明光以外の外光(例えば、ネオンの光)によってカメラ1の撮影領域が一時的に照らされる場合もあり、そのような外光も、カメラ1の撮影領域を照らす光源の一種と捉えられる。   The camera 1 sequentially captures images at a predetermined frame period. Each image obtained for each frame period by this sequential shooting is hereinafter referred to as a “frame image”. Image data representing the frame image is sent to the detection processing unit 2. It is assumed that the shooting area of the camera 1 is fixed. In the present embodiment, it is assumed that the shooting area of the camera 1 is a room such as a house, and the light source that illuminates the shooting area of the camera 1 includes a lighting device such as a fluorescent lamp and sunlight. Assume a case. However, the imaging region of the camera 1 can be outdoor, and the number and type of light sources are arbitrary. In some cases, the photographing region of the camera 1 is temporarily illuminated by sunlight and outside light (for example, neon light) other than illumination light of a lighting device provided indoors. It can be seen as a type of light source that illuminates the shooting area.

検出処理部2は、符号11〜14にて参照される各部位を備える。検出処理部2の各部位の機能を概略的に説明する。尚、検出処理部2内の各部位は、検出処理部2内の他部位で生成される各データを必要に応じて自由に参照可能となっている。   The detection processing unit 2 includes each part referred to by reference numerals 11 to 14. The function of each part of the detection processing unit 2 will be schematically described. Each part in the detection processing unit 2 can freely refer to each data generated in another part in the detection processing unit 2 as necessary.

画像取得部11は、順次、カメラ1から出力される画像データを読み出すことにより各フレーム画像を取得する。差分処理部12は、フレーム画像と対比用背景画像供給部14から与えられる対比用背景画像との差分処理を行ってフレーム画像内の対象物を抽出する。表示制御部13は、その抽出結果をフレーム画像に反映させた画像が表示部3にて表示されるように表示用の画像データを生成して出力する。尚、「対比用背景画像」とは、カメラ1の撮影領域の背景のみを示した画像(即ち、対象物が含まれない画像)であり、フレーム画像と差分処理を行うための画像である。   The image acquisition unit 11 acquires each frame image by sequentially reading image data output from the camera 1. The difference processing unit 12 performs a difference process between the frame image and the comparison background image supplied from the comparison background image supply unit 14 to extract an object in the frame image. The display control unit 13 generates and outputs display image data so that an image in which the extraction result is reflected in the frame image is displayed on the display unit 3. The “contrast background image” is an image that shows only the background of the shooting area of the camera 1 (that is, an image that does not include an object), and is an image for performing difference processing with a frame image.

図2に、フレーム画像及び対比用背景画像と両画像に対して差分処理を施すことで得られる抽出結果の一例である、差分結果画像の例を示す。この差分結果画像から対象物としての人物が抽出される。例えば、いわゆる背景差分法を用いて差分結果画像を得ることができる。尚、図2のフレーム画像には、部屋の角、部屋の床、部屋の2つの壁及び一方の壁に沿って直立している人物が描写されている。また、この差分結果画像は二値(それぞれの値を白と黒で表現)で示されたものであり、一方の値となる領域(白色の領域)が対象物の領域、他方の値となる領域(黒色の領域)が対象物ではない領域を示している。以下、差分結果画像を示す場合は、この差分結果画像と同様の方法で示すこととする。   FIG. 2 shows an example of a difference result image, which is an example of an extraction result obtained by performing difference processing on the frame image, the contrast background image, and both images. A person as an object is extracted from the difference result image. For example, a difference result image can be obtained using a so-called background difference method. In the frame image of FIG. 2, a person standing upright along the corner of the room, the floor of the room, the two walls of the room, and one of the walls is depicted. In addition, this difference result image is represented by binary values (each value is expressed in white and black), and the region that is one value (white region) is the region of the object and the other value. An area (black area) indicates an area that is not an object. Hereinafter, when a difference result image is shown, it will be shown by the same method as this difference result image.

また、図3に表示部3で表示される表示用画像の一例を示す。図3において、符号200が表示用画像であり、符合201が付された破線四角枠は、重畳表示された対象物領域を囲む枠である。この表示用画像は、表示制御部13が、差分処理部12から入力される抽出結果と、画像取得部から入力されるフレーム画像と、に基づいて生成される。   FIG. 3 shows an example of a display image displayed on the display unit 3. In FIG. 3, reference numeral 200 is a display image, and a broken-line square frame to which reference numeral 201 is attached is a frame that surrounds the object area that is displayed in a superimposed manner. The display image is generated by the display control unit 13 based on the extraction result input from the difference processing unit 12 and the frame image input from the image acquisition unit.

対象物が抽出されるべきフレーム画像を、特に「被検出画像」と呼ぶ。各フレーム画像が、順次、差分処理部12に送られて被検出画像として取り扱われる。以下の説明において、現時点において被検出画像として取り扱われるフレーム画像を、現フレーム画像又は今回のフレーム画像と呼び、そのフレーム画像が得られるフレームを現フレーム又は今回のフレームと呼ぶ。後述の、過去、前回、次回という記述は、今回のフレームを基準として述べたものである。尚、本明細書において、「フレーム」という文言は、画像を意味する文言ではなく、時間を表す文言として解釈されるものとする。フレームは、フレーム画像を得るための撮影タイミング或いは撮影区間とも換言される。例えば、或る着目したタイミングにおける被写体をカメラ1によって撮影した場合、その撮影によって得られるフレーム画像が現フレーム画像であるとすると、現フレームという文言及び今回のフレームという文言は、上記の着目したタイミングを意味している。また、本発明の実施形態に係る対象物検出システムは、異なる生成方式を使い分けて対比用背景画像を生成し、出力する対比用背景画像供給部を備える。尚、「生成方式」とは、生成を行うための或る決まったやり方を示すものである。また、対比用背景画像供給部について以下で説明する。   A frame image from which an object is to be extracted is particularly referred to as a “detected image”. Each frame image is sequentially sent to the difference processing unit 12 and handled as a detected image. In the following description, a frame image that is currently handled as a detected image is referred to as a current frame image or a current frame image, and a frame from which the frame image is obtained is referred to as a current frame or a current frame. The descriptions of the past, the previous time, and the next time, which will be described later, are based on the current frame. In this specification, the term “frame” is not interpreted as a word meaning an image but as a word representing time. The frame is also referred to as a shooting timing or a shooting section for obtaining a frame image. For example, when a subject at a certain focused timing is photographed by the camera 1 and the frame image obtained by the photographing is the current frame image, the term “current frame” and the term “current frame” are described above. Means. In addition, the object detection system according to the embodiment of the present invention includes a comparison background image supply unit that generates and outputs a comparison background image using different generation methods. The “generation method” indicates a certain method for generating. The comparison background image supply unit will be described below.

<<対比用背景画像供給部>>
対比用背景画像供給部の第1及び第2構成例について図面を参照して説明する。また、最初に各構成例において共通する基本構成について説明し、その後に各構成例についてそれぞれ説明する。
<< Contrast Background Image Supply Unit >>
First and second configuration examples of the background image supply unit for comparison will be described with reference to the drawings. First, a basic configuration common to each configuration example will be described, and then each configuration example will be described.

<対比用背景画像供給部の基本構成>
図4は、図1の対比用背景画像供給部の基本構成を示すブロック図である。図4に示すように、対比用背景画像供給部14は、マスク生成部15と、画像保持部16と、モデル生成部17と、モデル保持部18と、対比用背景画像生成部19と、を備える。
<Basic configuration of contrast background image supply unit>
FIG. 4 is a block diagram showing a basic configuration of the comparison background image supply unit of FIG. As shown in FIG. 4, the comparison background image supply unit 14 includes a mask generation unit 15, an image holding unit 16, a model generation unit 17, a model holding unit 18, and a comparison background image generation unit 19. Prepare.

マスク生成部15は、差分処理部12から出力される抽出結果(例えば、図2に示す差分結果画像など)に基づいて「マスク」を生成して出力する。このマスクについて図5に示す。図5は、図4のマスク生成部から出力されるマスクの模式図であり、マスクの一例であるマスク画像について示すものである。また、図5に示すマスク画像は、図2に示した差分結果画像に対応するものである。   The mask generation unit 15 generates and outputs a “mask” based on the extraction result (for example, the difference result image shown in FIG. 2) output from the difference processing unit 12. This mask is shown in FIG. FIG. 5 is a schematic diagram of a mask output from the mask generation unit of FIG. 4 and shows a mask image which is an example of a mask. Further, the mask image shown in FIG. 5 corresponds to the difference result image shown in FIG.

図5に示すように、マスク画像210には予測領域212と非予測領域211とが備えられる。予測領域212とは、現フレーム画像の差分結果において検出された対象物が、次回のフレーム画像中において存在し得ると予測される領域である。端的には、この予測領域212は、前回のフレーム画像から検出された対象物の領域よりも若干大きい領域となるように設定される。一方、非予測領域211は、マスク画像210中の予測領域212以外の領域となる。即ち、前回のフレーム画像で検出された対象物が、現フレーム画像において存在し得ないと予測される領域である。尚、ここで「予測」とは、例えば可能性が高いと判断することなどを意味するものとする。   As shown in FIG. 5, the mask image 210 includes a prediction area 212 and a non-prediction area 211. The prediction area 212 is an area where an object detected in the difference result of the current frame image is predicted to exist in the next frame image. In short, the prediction area 212 is set to be slightly larger than the area of the object detected from the previous frame image. On the other hand, the non-prediction area 211 is an area other than the prediction area 212 in the mask image 210. That is, it is an area where the object detected in the previous frame image is predicted not to exist in the current frame image. Here, “prediction” means, for example, determining that the possibility is high.

また、予測領域212と非予測領域211との説明を簡単にするために、マスクをマスク画像210として説明したが、マスクはマスク画像210に限られるものではない。特に、対比用背景画像生成部19が、入力されるマスクに基づいて、現フレーム画像中の非予測領域と予測領域とを特定することができるものであれば、どのような形式のデータであっても構わない。ただし、以下においては説明を簡単にするために、マスクがマスク画像210であるものとして説明する。   Further, in order to simplify the description of the prediction region 212 and the non-prediction region 211, the mask has been described as the mask image 210, but the mask is not limited to the mask image 210. In particular, as long as the contrast background image generation unit 19 can identify the non-predicted region and the predicted region in the current frame image based on the input mask, any format of data is possible. It doesn't matter. However, in the following description, in order to simplify the description, it is assumed that the mask is the mask image 210.

また、マスク生成部15は、差分処理部12から出力される抽出結果であれば、差分結果画像以外でも(対象物の領域と、それ以外の領域と、を二値化して表現した画像以外でも)マスクを生成することが可能である。しかしながら、以下では説明を簡単にするために、抽出結果を差分結果画像で表現し、マスクが差分結果画像に基づいて得られるものとして説明する。   In addition, the mask generation unit 15 may be an extraction result output from the difference processing unit 12 other than the difference result image (an image other than the image obtained by binarizing the object region and the other region). It is possible to generate a mask. However, for the sake of simplicity, the following description will be made assuming that the extraction result is expressed as a difference result image and the mask is obtained based on the difference result image.

モデル生成部17は、画像保持部16に保持されているサンプル背景画像に基づいて「統計モデル」を生成する。この統計モデルについて、図6を参照して説明する。図6は、統計モデルを説明するための図である。統計モデルを作成するために、対象物の実際の検出を行うに先立って事前に多数のフレーム画像をカメラ1によって取得させ、画像保持部16に保持させる。この事前に取得された各フレーム画像を、サンプル背景画像という。全てのサンプル背景画像の撮影時において、カメラ1の撮影領域内に対象物が含まれていないものとする。一方で、取得された多数のサンプル背景画像の中には、カメラ1の周辺の照明条件(以下、単に照明条件という)が互いに異なる複数のサンプル背景画像が含まれているものとする。ただし、照明条件が同じ状態で撮影された複数のサンプル背景画像も、多数のサンプル背景画像の中に含まれうる。   The model generation unit 17 generates a “statistic model” based on the sample background image held in the image holding unit 16. This statistical model will be described with reference to FIG. FIG. 6 is a diagram for explaining the statistical model. In order to create a statistical model, a number of frame images are acquired in advance by the camera 1 and held in the image holding unit 16 prior to actual detection of an object. Each frame image acquired in advance is referred to as a sample background image. It is assumed that no object is included in the shooting area of the camera 1 when shooting all the sample background images. On the other hand, it is assumed that a plurality of sample background images obtained include a plurality of sample background images having different illumination conditions around the camera 1 (hereinafter simply referred to as illumination conditions). However, a plurality of sample background images captured under the same illumination conditions can also be included in many sample background images.

これを実現するために、例えば、対象物の実際の検出を行うに先立ってサンプル背景画像取得用の期間を設け、その期間中において、カメラ1に多数のフレーム画像をサンプル背景画像として取得させる。この期間中には、カメラ1の撮影領域を照らす照明装置の電源オン/オフや、カメラ1の撮影領域を照らす太陽光の照度変化などが生じている。尚、照明条件は、カメラ1の撮影領域を照らす光源の状態を意味し、照明状態とも換言される。照明条件が異なれば、カメラ1の撮影領域を照らす光源の照度や色温度が異なり、得られるフレーム画像の明るさや色合いも異なってくる。   In order to realize this, for example, a sample background image acquisition period is provided prior to actual detection of an object, and during that period, the camera 1 acquires a large number of frame images as sample background images. During this period, power on / off of the illumination device that illuminates the imaging region of the camera 1, changes in the illuminance of sunlight that illuminates the imaging region of the camera 1, and the like have occurred. The illumination condition means the state of the light source that illuminates the shooting area of the camera 1, and is also referred to as an illumination state. If the illumination conditions are different, the illuminance and color temperature of the light source that illuminates the imaging region of the camera 1 are different, and the brightness and color of the obtained frame image are also different.

図6に示すように、統計モデルは複数個生成され、生成される複数の統計モデルはモデル保持部18に保持される。生成される統計モデルの個数を、Nで表す(Nは2以上の整数)。各統計モデルは、背景画像をモデル化した1枚の背景モデル画像と、差分処理部12での差分処理にて参照される偏差リストと、から形成される。1つの統計モデルの背景モデル画像は、基本的に、似通ったサンプル背景画像を集めて平均化することにより生成され、異なる統計モデル間で背景モデル画像の明るさや色合いなどが異なる。   As shown in FIG. 6, a plurality of statistical models are generated, and the generated plurality of statistical models are held in the model holding unit 18. The number of statistical models to be generated is represented by N (N is an integer of 2 or more). Each statistical model is formed from one background model image obtained by modeling a background image and a deviation list referred to in the difference processing in the difference processing unit 12. A background model image of one statistical model is basically generated by collecting and averaging similar sample background images, and the brightness and color of the background model image differ between different statistical models.

尚、背景画像とは、カメラ1の撮影領域内に対象物が存在していない状態においてカメラ1によって撮影された画像、換言すれば、対象物を含まないフレーム画像を意味する。また、背景モデルとは、対象物を含まない撮影領域についての画像情報をモデル化した背景モデル画像とその他の情報を組み合わせたものである。統計モデルは、背景モデルの一種である。   Note that the background image means an image photographed by the camera 1 in a state where no object is present in the photographing region of the camera 1, in other words, a frame image not including the object. The background model is a combination of a background model image obtained by modeling image information about a shooting region that does not include an object and other information. The statistical model is a kind of background model.

さらに、モデル生成部17は、上述した統計モデルの他に、小ブロック統計モデルも生成する。この小ブロック統計モデルについて、図7を参照して説明する。図7は、小ブロック統計モデルを説明するための図である。図7に示すように、小ブロック統計モデルは、画像保持部16に保持されているサンプル画像を小ブロック単位にそれぞれ分類したものに基づいて生成される。   Further, the model generation unit 17 generates a small block statistical model in addition to the statistical model described above. This small block statistical model will be described with reference to FIG. FIG. 7 is a diagram for explaining the small block statistical model. As shown in FIG. 7, the small block statistical model is generated based on the sample images held in the image holding unit 16 classified into small blocks.

尚、小ブロックとはフレーム画像を細分化したものであり、例えば、8×8の画素から成る。この例の場合であり、かつフレーム画像が320×240の画素から成るとすると、小ブロックは合計で40×30=1200個となる。また、種々の処理をこの小ブロック単位で行うこともできる(小ブロック単位で行われる処理の具体例については後述の実施例に示す)。そのため、上述したマスク画像210の予測領域212と非予測領域211とがこの小ブロック単位で分けられることとすると、処理の都合上好適となる場合がある。以下では説明を簡単にするため、予測領域212と非予測領域211とが、小ブロック単位で分けられるものとして説明する。   The small block is a frame image that is subdivided, and is composed of, for example, 8 × 8 pixels. In this example, if the frame image is composed of 320 × 240 pixels, the total number of small blocks is 40 × 30 = 1200. Various processes can also be performed in units of small blocks (specific examples of processes performed in units of small blocks are shown in the examples described later). Therefore, if the prediction area 212 and the non-prediction area 211 of the mask image 210 described above are divided in units of small blocks, it may be preferable for the convenience of processing. Hereinafter, in order to simplify the description, it is assumed that the prediction area 212 and the non-prediction area 211 are divided in units of small blocks.

小ブロック統計モデルは、統計モデルと同様に複数個生成され、生成される複数の小ブロック統計モデルがモデル保持部18に保持される。ここで、フレーム画像がM個の小ブロックに分けられ、それぞれの小ブロックについてP個の小ブロック統計モデルが作成されることとすると、合計でM×P個の小ブロック統計モデルが生成される(M、Pは2以上の整数)。また、各小ブロック統計モデルは、背景画像の或る小ブロックをモデル化した1枚の小ブロック背景モデル画像と、差分処理部12での差分処理にて参照される偏差リストと、から形成される。統計モデルと同様、1つの小ブロック統計モデルの背景モデル画像も、基本的に、似通ったサンプル背景画像の小ブロックを集めて平均化することにより生成され、異なる小ブロック統計モデル間で小ブロック背景モデル画像の明るさや色合いなどが異なる。   A plurality of small block statistical models are generated in the same manner as the statistical model, and the generated small block statistical models are held in the model holding unit 18. Here, if the frame image is divided into M small blocks and P small block statistical models are created for each small block, a total of M × P small block statistical models are generated. (M and P are integers of 2 or more). Each small block statistical model is formed from one small block background model image obtained by modeling a certain small block of the background image, and a deviation list referred to in the difference processing in the difference processing unit 12. The Similar to the statistical model, the background model image of one small block statistical model is basically generated by collecting and averaging small blocks of similar sample background images, and the small block background between different small block statistical models. The model image brightness and color are different.

対比用背景画像生成部19は、モデル保持部18から統計モデルや小ブロック統計モデルを取得するとともに、これらに含まれる背景モデル画像及び小ブロック背景モデル画像の少なくとも一種類を用いて対比用背景画像を生成する。このとき、マスク生成部15から入力されるマスクに基づいて、現フレーム画像の非予測領域と予測領域とを特定し、それぞれの領域に対して異なる生成方式を用いることによって対比用背景画像を生成する。これにより、それぞれの領域に適した対比用背景画像を生成することが可能となる。尚、それぞれの領域に適した対比用背景画像とは、適切な差分処理が行われることを可能とする対比用背景画像を示すものである。また、適切な差分処理とは、カメラの周辺環境条件の変化に応じた誤検出が発生しにくく、対象物の検出精度が高い差分処理を示すものである。   The comparison background image generation unit 19 obtains a statistical model and a small block statistical model from the model holding unit 18 and uses at least one of the background model image and the small block background model image included in the statistical model and the small block background model image. Is generated. At this time, the non-predicted region and the predicted region of the current frame image are identified based on the mask input from the mask generating unit 15, and a comparison background image is generated by using a different generation method for each region. To do. Thereby, it is possible to generate a background image for comparison suitable for each region. Note that the comparison background image suitable for each area indicates a comparison background image that enables appropriate difference processing to be performed. Further, the appropriate difference process indicates a difference process in which erroneous detection corresponding to a change in the ambient environment condition of the camera is unlikely to occur and the detection accuracy of the target object is high.

また、対比用背景画像生成部19は、現フレーム画像の非予測領域に基づいて上記のモデル画像を選択し、対比用背景画像を生成する。現フレーム画像の非予測領域は、保持している背景と同様となる可能性が高い領域であり、現在のカメラの周辺環境条件(背景の状態)を把握するのに適した領域である。そのため、この領域を利用することで、適切な差分処理を行うことができる対比用背景画像を生成することが可能となる。尚、対比用背景画像を生成する際に使用する生成方式の具体例や、対比用背景画像供給部の具体的な構成例について、以下において説明する。   The comparison background image generation unit 19 selects the model image based on the non-prediction region of the current frame image, and generates a comparison background image. The non-predicted area of the current frame image is an area that is highly likely to be the same as the held background, and is an area that is suitable for grasping the surrounding environmental conditions (background state) of the current camera. Therefore, by using this area, it is possible to generate a background image for comparison that can perform appropriate difference processing. A specific example of the generation method used when generating the comparison background image and a specific configuration example of the comparison background image supply unit will be described below.

<対比用背景画像供給部の第1構成例>
対比用背景画像供給部の第1構成例について図面を参照して説明する。図8は、図1の対比用背景画像供給部の第1構成例を示すブロック図である。図8に示すように、対比用
背景画像供給部14aの構成は、上述した図4の基本構成と同様である。ただし、対比用背景画像生成部19aが、予測領域合成部191と、非予測領域合成部192と、を備えた構成としている。尚、予測領域合成部191と非予測領域合成部192とを分離せずに一体としても構わないが、説明の都合上分離し、それぞれの動作について以下において説明する。
<First Configuration Example of Comparison Background Image Supply Unit>
A first configuration example of the contrast background image supply unit will be described with reference to the drawings. FIG. 8 is a block diagram illustrating a first configuration example of the comparison background image supply unit of FIG. As shown in FIG. 8, the configuration of the comparison background image supply unit 14a is the same as the basic configuration of FIG. 4 described above. However, the comparison background image generation unit 19 a includes a prediction region synthesis unit 191 and a non-prediction region synthesis unit 192. Note that the prediction region synthesis unit 191 and the non-prediction region synthesis unit 192 may be integrated without being separated, but are separated for convenience of explanation, and each operation will be described below.

図8に示した対比用背景画像供給部14aの動作について図9を用いて説明する。図9は、図8の対比用背景画像供給部の第1構成例の動作を説明するための模式図である。特に、t−1番目フレーム画像300の対象物検出処理によって差分結果画像301及びマスク画像302が得られている場合の、t番目フレーム画像310に対する対比用背景画像314を生成する方法について示すものである。   The operation of the comparison background image supply unit 14a shown in FIG. 8 will be described with reference to FIG. FIG. 9 is a schematic diagram for explaining the operation of the first configuration example of the comparison background image supply unit in FIG. 8. In particular, it shows a method for generating a comparison background image 314 for the t-th frame image 310 when the difference result image 301 and the mask image 302 are obtained by the object detection processing of the t-1th frame image 300. is there.

図9に示すように、t−1番目フレーム画像300の対象物検出処理によってマスク画像302が得られると、マスク画像302の非予測領域303によってt番目フレーム画像の非予測領域311(以下、t番目フレーム画像[非予測領域]とする)と、予測領域(以下、t番目フレーム画像[予測領域]とする)と、が特定される。そして、非予測領域合成部192が、t番目フレーム画像[非予測領域]311に基づいて、後の差分処理でt番目フレーム画像[非予測領域]311と差分が求められる対比用背景画像中の領域312(以下、対比用背景画像[非予測領域]とする)を生成する。   As shown in FIG. 9, when the mask image 302 is obtained by the object detection process of the (t−1) -th frame image 300, the non-prediction region 311 (hereinafter, “t”) of the t-th frame image is obtained by the non-prediction region 303 of the mask image 302. And the prediction region (hereinafter referred to as the t-th frame image [prediction region]) are specified. Then, the non-predictive region synthesizing unit 192 is based on the t-th frame image [non-predictive region] 311, and the difference between the non-predictive region image and the t-th frame image [non-predictive region] 311 is obtained in the subsequent difference processing A region 312 (hereinafter referred to as a contrast background image [non-predicted region]) is generated.

このとき、非予測領域合成部192は、小ブロック毎に、t番目フレーム画像[非予測領域]311に最も類似する小ブロック背景モデル画像(図7)をそれぞれ選択する生成方式によって、対比用背景画像[非予測領域]312を生成する。そして、小ブロック毎に、P個の小ブロック背景モデル画像の中から一つが選択されることとなる。尚、図9に示す対比用背景画像[非予測領域]312は、選択された小ブロック背景モデル画像を組み合わせて示したものである。尚、「類似する」とは、比較する二つの画像のそれぞれの画素の画素値(例えば、輝度信号や色差信号、RGB信号などの各種信号値)が近いことを意味するものとする。例えば、比較する二つの画素の画素値の差分と或る閾値とを比較して、差分が或る閾値よりも小さい場合に画素値が近いものとする。即ち、類似するものとする。   At this time, the non-predictive region synthesizing unit 192 selects a small block background model image (FIG. 7) that is most similar to the t-th frame image [non-predictive region] 311 for each small block. An image [non-predicted region] 312 is generated. Then, one of the P small block background model images is selected for each small block. The comparison background image [non-predicted region] 312 shown in FIG. 9 is a combination of the selected small block background model images. Note that “similar” means that the pixel values of the respective pixels of the two images to be compared (for example, various signal values such as a luminance signal, a color difference signal, and an RGB signal) are close. For example, a difference between pixel values of two pixels to be compared is compared with a certain threshold value, and when the difference is smaller than a certain threshold value, the pixel values are close. That is, it shall be similar.

一方、予測領域合成部191は、t番目フレーム画像[非予測領域]311に基づいて、後の差分処理でt番目フレーム画像[予測領域]と差分が求められる対比用背景画像中の領域313(以下、対比用背景画像[予測領域]とする)を生成する。特に、予測領域合成部191は、t番目フレーム画像[非予測領域]311と最も類似する背景モデル画像(図6)を選択する生成方式によって、対比用背景画像[予測領域]313を生成する。このとき、背景モデル画像の非予測領域303と等しい位置の領域と、t番目フレーム画像[非予測領域]311と、について類似の判定が行われ、N個の背景モデル画像の中から最も類似する一つが選択されることとなる。尚、図9に示す対比用背景画像[予測領域]313は、選択された背景モデル画像の、予測領域304と等しい位置の領域を抽出したものを示したものである。   On the other hand, based on the t-th frame image [non-predicted region] 311, the prediction region synthesis unit 191 determines a region 313 (in the background image for comparison in which a difference from the t-th frame image [prediction region] is obtained in the subsequent difference processing. Hereinafter, a contrast background image [prediction area] is generated. In particular, the prediction region synthesis unit 191 generates the comparison background image [prediction region] 313 by a generation method of selecting a background model image (FIG. 6) that is most similar to the t-th frame image [non-prediction region] 311. At this time, a similar determination is made for the region at the same position as the non-predicted region 303 of the background model image and the t-th frame image [non-predicted region] 311, and the most similar among the N background model images. One will be selected. A comparison background image [prediction area] 313 shown in FIG. 9 shows an extracted area of the selected background model image at a position equal to the prediction area 304.

上記のように、異なる生成方式によって得られる対比用背景画像[非予測領域]312と、対比用背景画像[予測領域]313と、を組み合わせることによって、対比用背景画像314が得られる。そして、差分処理部12において、この対比用背景画像314とt番目フレーム画像310とが差分処理されることにより、対象物検出処理が行われる。そして、抽出結果として差分結果画像315が差分処理部12で生成されるとともに出力され、マスク生成部15が差分結果画像315に基づいてマスク画像316を生成する。   As described above, the background image for comparison 314 is obtained by combining the background image for comparison [non-prediction region] 312 and the background image for prediction [prediction region] 313 obtained by different generation methods. Then, the difference processing unit 12 performs a difference process between the comparison background image 314 and the t-th frame image 310, thereby performing an object detection process. Then, a difference result image 315 is generated and output by the difference processing unit 12 as an extraction result, and the mask generation unit 15 generates a mask image 316 based on the difference result image 315.

t+1番目フレーム画像320の対象物検出処理も、t番目フレーム画像310に対する対象物検出処理と同様のものとなる。そして、t+1番目フレーム画像320の対象物検出処理においては、前回(t番目)のマスク画像316の予測領域318と、非予測領域317と、が用いられる。   The object detection process for the t + 1-th frame image 320 is the same as the object detection process for the t-th frame image 310. In the object detection process of the (t + 1) -th frame image 320, the prediction area 318 and the non-prediction area 317 of the previous (t-th) mask image 316 are used.

対比用背景画像[非予測領域]312は、小ブロック毎に、t番目フレーム画像[非予測領域]311に最も類似した小ブロック背景モデル画像を選択して組み合わせたものとなる。そのため、対象物検出処理を行ったときに、この領域から対象物が誤検出されることを抑制することが可能となる。例えば、カメラの周辺環境条件が変化して部分的に明るくなるような場合が生じたとしても、その部分に対して最も類似した小ブロック背景モデル画像が充てられるため、カメラの周辺環境条件の変化を対象物であると誤検出することが抑制される。したがって、この方法で生成される対比用背景画像314を用いることで、カメラの周辺環境条件の部分的な変化に対しても対応することが可能となる。   The comparison background image [non-prediction area] 312 is obtained by selecting and combining the small block background model images most similar to the t-th frame image [non-prediction area] 311 for each small block. For this reason, it is possible to prevent the object from being erroneously detected from this region when the object detection process is performed. For example, even if the surrounding environment conditions of the camera change and become partially bright, the most similar small block background model image is allocated to that portion, so the changes in the surrounding environment conditions of the camera Is erroneously detected as an object. Therefore, by using the comparison background image 314 generated by this method, it is possible to cope with a partial change in the ambient environmental conditions of the camera.

一方、対比用背景画像[予測領域]313は、t番目フレーム画像[非予測領域]311に最も類似した統計モデルを選択することによって得られる。換言すると、対象物が存在する可能性があるため上述のように類似する小ブロック統計モデルを選択して用いることができない領域(予測領域)に対しては、t番目フレーム画像310の対象物が存在しないと予測される領域(非予測領域)からt番目フレーム画像310の背景の状態を推測し、それに見合った統計モデルを選択することで対応する。そのため、対比用背景画像[予測領域]313として、t番目フレーム画像310に適した背景モデル画像を充てることが可能となる。したがって、精度の高い対象物検出を行うことができる対比用背景画像314を生成することが可能となる。   On the other hand, the contrast background image [prediction region] 313 is obtained by selecting the statistical model most similar to the t-th frame image [non-prediction region] 311. In other words, since there is a possibility that an object exists, the object of the t-th frame image 310 is selected for an area (predicted area) in which a similar small block statistical model cannot be selected and used as described above. This is achieved by estimating the background state of the t-th frame image 310 from a region that is predicted not to exist (non-predicted region) and selecting a statistical model corresponding to the estimated state. Therefore, a background model image suitable for the t-th frame image 310 can be used as the comparison background image [prediction region] 313. Therefore, it is possible to generate a comparison background image 314 that can perform highly accurate object detection.

<対比用背景画像供給部の第2構成例>
次に、対比用背景画像供給部の第2構成例について図面を参照して説明する。図10は、図1の対比用背景画像供給部の第2構成例を示すブロック図である。図10に示すように、対比用背景画像供給部14bの構成は、上述した図4の基本構成や図8の第1構成例と同様である。ただし、本構成例では、モデル合成履歴保持部20を備えている。尚、対比用背景画像生成部19bの非予測領域合成部192は、第1構成例と同様の動作を行うため、同じ符号を付している。一方、予測領域合成部193は、第1構成例の予測領域合成部191と異なる動作をするため、異なる番号を付している。
<Second Configuration Example of Comparison Background Image Supply Unit>
Next, a second configuration example of the comparison background image supply unit will be described with reference to the drawings. FIG. 10 is a block diagram illustrating a second configuration example of the comparison background image supply unit of FIG. As shown in FIG. 10, the configuration of the comparison background image supply unit 14b is the same as the basic configuration of FIG. 4 and the first configuration example of FIG. However, in this configuration example, the model synthesis history holding unit 20 is provided. Note that the non-predictive region synthesis unit 192 of the comparison background image generation unit 19b performs the same operation as that in the first configuration example, and thus is denoted by the same reference numeral. On the other hand, since the prediction region synthesis unit 193 operates differently from the prediction region synthesis unit 191 of the first configuration example, different numbers are assigned.

モデル合成履歴保持部20は、対比用背景画像生成部19bから出力される対比用背景画像の構成の履歴(以下、合成履歴とする)を保持するものである。そして、予測領域合成部193は、このモデル合成履歴保持部20に保持された合成履歴に基づいて、差分処理において被検出画像の予測領域と差分が求められる対比用背景画像の領域を生成する。この動作の詳細について、以下に図11を参照して説明する。   The model synthesis history holding unit 20 holds a history of the configuration of the comparison background image output from the comparison background image generation unit 19b (hereinafter referred to as a synthesis history). Then, based on the synthesis history held in the model synthesis history holding unit 20, the prediction area synthesis unit 193 generates a comparison background image area in which the difference between the prediction area of the detected image and the difference is obtained. Details of this operation will be described below with reference to FIG.

図11は、図10の対比用背景画像供給部14bの第2構成例の動作を説明するための模式図であり、第1構成例に示した図9に相当するものである。尚、図9と図11とは、対比用背景画像の生成に使用される生成方式が異なるだけであるため、この部分について中心に説明する。また、他の部分の詳細な説明については同様のものであるとして省略する。   FIG. 11 is a schematic diagram for explaining the operation of the second configuration example of the comparison background image supply unit 14b of FIG. 10, and corresponds to FIG. 9 shown in the first configuration example. Since FIG. 9 and FIG. 11 are different only in the generation method used for generating the background image for comparison, this portion will be mainly described. Further, the detailed description of other parts is omitted because it is the same.

上述したように、非予測領域合成部192の動作は、第1構成例で示したものと同様となる。一方、予測領域合成部193は、対比用背景画像[非予測領域]312で選択された小ブロック背景モデル画像の組み合わせに基づいて、対比用背景画像[予測領域]413の小ブロック背景モデル画像を選択する生成方式によって、対比用背景画像[予測領域]413を生成する。さらに、モデル合成履歴保持部20には以前に出力された対比用背景画像の小ブロック背景モデル画像の組み合わせの履歴(合成履歴)が保持されており、予測領域合成部193は合成履歴も参照する。例えば、予測領域合成部193は、対比用背景画像[非予測領域]312で選択された小ブロック背景モデル画像の組み合わせを認識するとともに合成履歴を参照して、ブランクとなっている予測領域に対して生起確率が最も大きくなるような組み合わせの小ブロック背景モデル画像を選択する生成方式を使用する。   As described above, the operation of the non-predictive region synthesis unit 192 is the same as that shown in the first configuration example. On the other hand, the prediction region synthesis unit 193 selects the small block background model image of the comparison background image [prediction region] 413 based on the combination of the small block background model images selected in the comparison background image [non-prediction region] 312. The comparison background image [prediction region] 413 is generated according to the generation method to be selected. Further, the model synthesis history holding unit 20 holds a history (combination history) of the combination of the small block background model images of the background image for comparison output previously, and the prediction region synthesis unit 193 also refers to the synthesis history. . For example, the prediction region synthesis unit 193 recognizes the combination of the small block background model images selected in the comparison background image [non-prediction region] 312 and refers to the synthesis history to generate a blank prediction region. Then, a generation method for selecting a combination of small block background model images that has the highest occurrence probability is used.

上記の生成方式によって得られる対比用背景画像[予測領域]413と、対比用背景画像[非予測領域]312と、を組み合わせることによって、対比用背景画像414が得られる。尚、この方法によって得られる対比用背景画像414は、小ブロック背景モデル画像によって構成されるものとなる。そして、第1構成例と同様に、この対比用背景画像414を用いて対象物検出処理が行われる。   The comparison background image 414 is obtained by combining the comparison background image [prediction area] 413 obtained by the above generation method and the comparison background image [non-prediction area] 312. The comparison background image 414 obtained by this method is constituted by a small block background model image. Then, similarly to the first configuration example, the object detection process is performed using the comparison background image 414.

非予測領域合成部192による対比用背景画像[非予測領域]312の生成方式については、第1構成例と同様であるため、本構成例でも同様の効果を得ることができる。即ち、この方法で生成される対比用背景画像414を用いることで、カメラの周辺環境条件の部分的な変化に対しても対応することが可能となる。   Since the method of generating the comparison background image [non-predictive region] 312 by the non-predictive region synthesis unit 192 is the same as that in the first configuration example, the same effect can be obtained in this configuration example. That is, by using the comparison background image 414 generated by this method, it is possible to cope with a partial change in the ambient environment conditions of the camera.

一方、対比用背景画像[予測領域]413は、t番目より前に出力された対比用背景画像の合成履歴と、t番目フレーム画像[非予測領域]411に基づいて得られる対比用背景画像[非予測領域]412の小ブロック背景モデル画像と、に基づいて生成される。そのため、第1構成例と同様に、t番目フレーム画像310の対象物が存在しないと予測される領域(非予測領域)に基づいて、対比用背景画像[予測領域]413を得るものとなる。したがって、t番目フレーム画像310に適した対比用背景画像[予測領域]413を得ることが可能となる。   On the other hand, the comparison background image [prediction region] 413 is a comparison background image [based on the synthesis history of the comparison background image output before the t-th image and the t-th frame image [non-prediction region] 411. Non-prediction area] 412 and a small block background model image. Therefore, as in the first configuration example, the comparison background image [predicted region] 413 is obtained based on the region (non-predicted region) where the target object of the t-th frame image 310 is predicted not to exist. Therefore, it is possible to obtain a comparison background image [prediction region] 413 suitable for the t-th frame image 310.

さらに、対比用背景画像[予測領域]413は、合成履歴を参照して最も可能性が高い(生起確率が大きい)組み合わせとなるように、小ブロック背景モデル画像が選択されて成る。そのため、予測領域においても、小ブロック背景モデル画像を組み合わせて生成することが可能となる。そして、履歴を蓄えることによって、よりt番目フレーム画像310に適した対比用背景画像414を得る可能性を高くすることができる。   Further, the background image for comparison [prediction region] 413 is formed by selecting the small block background model image so that the combination is most likely (with a high occurrence probability) with reference to the synthesis history. Therefore, it is possible to generate a combination of small block background model images even in the prediction region. Then, by accumulating the history, it is possible to increase the possibility of obtaining the comparison background image 414 more suitable for the t-th frame image 310.

尚、本構成例では、対比用背景画像[予測領域]413の或る小ブロックに或る小ブロック背景モデル画像が選択されたことに基づいて、対比用背景画像[予測領域]413の他の小ブロックの小ブロック背景モデル画像が選択されることも含まれることとする。このような場合であっても、対比用背景画像[非予測領域]312で選択された小ブロック背景モデル画像の組み合わせと、合成履歴と、に基づいて順次選択されていくものとなるため、これらに基づいて選択されたものであると言える。   In this configuration example, based on the fact that a certain small block background model image is selected for a certain small block of the comparison background image [prediction region] 413, It is assumed that the small block background model image of the small block is selected. Even in such a case, these are sequentially selected based on the combination of the small block background model images selected in the comparison background image [non-prediction area] 312 and the synthesis history. It can be said that it was selected based on.

また、合成履歴に、対比用背景画像[非予測領域]312で用いられた小ブロック背景モデル画像の組み合わせのみを記録しても構わないし、推定されて選択されたものを含む対比用背景画像414に用いられた小ブロック背景モデル画像の組み合わせを全て記録しても構わない。前者であれば、実際に得られた画像に直接対比させることで得られた組み合わせのみを記録することができるため、合成履歴に蓄えられる情報をより精度の高いものとすることができる。一方、後者では、常にフレーム画像全体に対応するデータが蓄えられるため、欠落した組み合わせがないものとなる。そのため、小ブロック同士の相互関係をもれなく合成履歴に蓄えることが可能となるとともに、短期間に合成履歴のデータ量を増やすことが可能となる。   Further, only the combination of the small block background model images used in the comparison background image [non-prediction area] 312 may be recorded in the synthesis history, and the comparison background image 414 including the estimated and selected ones may be recorded. All combinations of the small block background model images used in the above may be recorded. In the former case, since only the combination obtained by directly comparing with the actually obtained image can be recorded, the information stored in the synthesis history can be made more accurate. On the other hand, in the latter, since data corresponding to the entire frame image is always stored, there is no missing combination. Therefore, it is possible to store all the mutual relationships between the small blocks in the synthesis history, and to increase the data amount of the synthesis history in a short time.

<<実施例>>
以下、上述した対象物検出システムのより詳細な動作や構成を説明する実施例として、第1〜第6実施例を説明する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用可能である。
<< Example >>
Hereinafter, first to sixth examples will be described as examples for explaining more detailed operations and configurations of the above-described object detection system. The matters described in one embodiment can be applied to other embodiments as long as no contradiction arises.

<第1実施例>
まず、第1実施例を説明する。第1実施例では、図5に示したマスク画像210の予測領域212の設定方法の一例について説明する。
<First embodiment>
First, the first embodiment will be described. In the first embodiment, an example of a method for setting the prediction region 212 of the mask image 210 illustrated in FIG. 5 will be described.

例えば、図2示した差分結果画像から図5に示したマスク画像210を作成する場合、まず、差分結果画像内において対象物を検出したことを示す領域(例えば、或る画素値となる画素群から形成される領域そのもの、又は、その領域を例えば矩形領域などでとり囲んだ領域)の位置を、対象物領域の位置として特定する。そして、一方でその対象物領域以外の領域の位置を背景領域の位置として特定する。そして、このように特定した対象物領域及び背景領域の位置に基づいて、予測領域212及び非予測領域211を設定する。特に、予測領域212を、上述したように特定した対象物領域を若干大きくした領域として設定する。   For example, when the mask image 210 shown in FIG. 5 is created from the difference result image shown in FIG. 2, first, an area (for example, a pixel group having a certain pixel value) indicating that an object is detected in the difference result image. The position of the area itself or the area surrounding the area with a rectangular area or the like is specified as the position of the object area. On the other hand, the position of the area other than the object area is specified as the position of the background area. And the prediction area | region 212 and the non-prediction area | region 211 are set based on the position of the target object area | region and background area which were identified in this way. In particular, the prediction area 212 is set as an area obtained by slightly increasing the object area specified as described above.

予測領域212は、対象物(例えば、人)の移動速度(例えば、歩く速度)を考慮して設定することができる。この場合、現フレーム画像で特定された対象物領域から、対象物が所定の移動速度で移動したとしても存在し得る領域を、予測領域212として設定する。また、オプティカルフロー(画面上のみかけの速度)を用いて予測領域212を設定することも可能である。対象物が含まれる領域のオプティカルフローは、例えば、時間的に連続する複数のフレーム画像において対象物の一部(または、全部)の領域のマッチングを行うことや、差分処理部12が出力する抽出結果を用いることなどによって得ることができる。そして、現フレーム画像(または、現フレーム画像及び過去のフレーム画像)の対象物のオプティカルフローによって次回のフレーム画像中に対象物が存在し得る領域を求め、予測領域212として設定する。尚、これらの予測領域212の設定方法は一例に過ぎず、他の方法で予測領域212を設定しても構わない。   The prediction area 212 can be set in consideration of the moving speed (for example, walking speed) of an object (for example, a person). In this case, an area that can exist even if the object moves at a predetermined moving speed from the object area specified in the current frame image is set as the prediction area 212. It is also possible to set the prediction region 212 using an optical flow (apparent speed on the screen). The optical flow of the region including the target object is, for example, matching a part (or all) of the target object in a plurality of temporally continuous frame images, or extraction output from the difference processing unit 12 It can be obtained by using the result. Then, an area where the object can exist in the next frame image is obtained by the optical flow of the object of the current frame image (or the current frame image and the past frame image), and set as the prediction area 212. In addition, the setting method of these prediction area | regions 212 is only an example, and you may set the prediction area | region 212 by another method.

以上のような方法によって予測領域212を設定することとすると、次回のフレーム画像の予測領域212に対象物が存在し得る可能性を高めることができる。また、無用に予測領域212を大きくして非予測領域211が小さくなることを抑制することができる。   If the prediction region 212 is set by the method as described above, it is possible to increase the possibility that an object may exist in the prediction region 212 of the next frame image. Also, it is possible to prevent the prediction region 212 from being unnecessarily enlarged and the non-prediction region 211 from becoming small.

尚、対象物処理装置の起動時には、マスク画像210が生成されていないことになる。この場合、例えば、起動して最初に入力されるフレーム画像については、全ての領域を非予測領域としてもよい。ただし、このように設定する場合、起動時にカメラ1の撮影領域内に対象物が入っていないものとする。   Note that the mask image 210 is not generated when the object processing apparatus is activated. In this case, for example, for a frame image that is input first after activation, all regions may be set as non-predicted regions. However, when setting in this way, it is assumed that there is no object in the imaging area of the camera 1 at the time of activation.

<第2実施例>
次に、第2実施例について説明する。第2実施例では、図6及び図7に示した統計モデル、小ブロック統計モデルの生成方法の一例について説明する。
<Second embodiment>
Next, a second embodiment will be described. In the second embodiment, an example of a method for generating the statistical model and the small block statistical model shown in FIGS. 6 and 7 will be described.

上述したように、事前に多数のサンプル背景画像がカメラ1によって取得される。モデル生成部17は、クラスタリングを行って、この多数のサンプル背景画像をクラス分けすることによって、図6に示す統計モデルを得る。一方、サンプル背景画像を小ブロック毎に分類し、小ブロック毎になったサンプル背景画像をそれぞれ対応する小ブロック毎にクラス分けすることによって、図7に示す小ブロック統計モデルを得る。   As described above, a large number of sample background images are acquired in advance by the camera 1. The model generation unit 17 performs clustering and classifies the large number of sample background images to obtain the statistical model shown in FIG. On the other hand, by classifying the sample background image for each small block and classifying the sample background image for each small block for each corresponding small block, the small block statistical model shown in FIG. 7 is obtained.

クラスタリングの方法として、例えば、階層的クラスタリングを採用することができる。つまり、類似したサンプル背景画像をまとめてクラスタを形成し、更に、総クラスタ数が、統計モデルであればN個、小ブロック統計モデルであればP個となるまで、類似するクラスタを併合する処理を繰り返していく。これにより、各サンプル背景画像がN個(P個)のクラスタの何れかに分類される。尚、統計モデルの生成元となるサンプル背景画像の集まりを、総称して、サンプル背景画像群ともよぶ。また、小ブロック統計モデルの生成元となる小ブロック毎に分類したサンプル背景画像の集まりを、小ブロック毎サンプル背景画像群ともよぶ。尚、統計モデルも小ブロック統計モデルも同様の方法によってクラスタリングをすることができる。そのため、以下では小ブロック統計モデルについて主に説明し、統計モデルの詳細な説明については省略する。   As a clustering method, for example, hierarchical clustering can be employed. In other words, processing is performed in which similar sample background images are grouped to form clusters, and similar clusters are merged until the total number of clusters is N for a statistical model and P for a small block statistical model. Repeat. Thereby, each sample background image is classified into one of N (P) clusters. A collection of sample background images from which a statistical model is generated is collectively referred to as a sample background image group. A collection of sample background images classified for each small block that is a generation source of the small block statistical model is also referred to as a sample background image group for each small block. Note that the statistical model and the small block statistical model can be clustered by the same method. Therefore, the small block statistical model will be mainly described below, and the detailed description of the statistical model will be omitted.

クラスタリングの手法として公知の任意の手法を用いることできるが、以下に、一手法を例示する。図12に、小ブロックサンプル背景画像が小ブロック毎にそれぞれ10枚備えられ且つP=4である場合の或る小ブロック統計モデルのクラスタリングの様子を示す。まず、10枚の所定の小ブロックサンプル背景画像のそれぞれを1つの要素から成るクラスタと考えて、異なるクラスタ間の類似度を評価する。画像特徴によってベクトル値が定まる多次元ベクトル空間におけるクラスタ間の距離を類似度の指標として取り扱い、クラスタ間の距離が最も短いクラスタ同士(即ち、類似度の最も高いクラスタ同士)を順次併合していくことによって、クラスタリングを進める。類似度を、第3実施例にて後述する特徴ベクトルに基づいて評価することも可能であるし、公知の任意の、画像間の類似度評価方法を採用して評価することも可能である。   Although any known method can be used as the clustering method, one method is exemplified below. FIG. 12 shows a clustering state of a certain small block statistical model when ten small block sample background images are provided for each small block and P = 4. First, each of ten predetermined small block sample background images is considered as a cluster composed of one element, and the similarity between different clusters is evaluated. Treats the distance between clusters in a multidimensional vector space whose vector values are determined by image features as an index of similarity, and sequentially merges the clusters with the shortest distance between clusters (that is, clusters with the highest similarity). The clustering is advanced. The degree of similarity can be evaluated based on a feature vector, which will be described later in the third embodiment, or can be evaluated by employing any known method for evaluating the degree of similarity between images.

例えば、ウォード法を用いてクラスタリングを行う。ウォード法は、クラスタ同士の類似度の評価の際、着目したクラスタが要素として内包しているクラスタの要素数に重みをつける方法である。例えば、クラスタA及びクラスタBを要素として内包するクラスタCとクラスタXとの類似度dxcは、下記式(1)に従って算出される。ここで、dxa、dxb及びdabは、それぞれ、クラスタXとクラスタAの類似度、クラスタXとクラスタBの類似度及びクラスタAとクラスタBの類似度を表し、nx、na、nb及びncは、それぞれ、クラスタXが要素として内包しているクラスタの要素数、クラスタAが要素として内包しているクラスタの要素数、クラスタBが要素として内包しているクラスタの要素数及びクラスタCが要素として内包しているクラスタの要素数(今の例において、2)を表す。 For example, clustering is performed using the Ward method. The Ward method is a method of assigning a weight to the number of elements of a cluster included in the focused cluster as an element when evaluating the degree of similarity between the clusters. For example, the similarity d xc between the cluster C and the cluster X including the cluster A and the cluster B as elements is calculated according to the following equation (1). Here, d xa, d xb and d ab represent respectively, the similarity of the clusters X and cluster A, the similarity of the similarity and the cluster A and the cluster B of the cluster X and Cluster B, n x, n a, n b and n c are the number of cluster elements included in the cluster X, the number of cluster elements included in the cluster A, and the number of cluster elements included in the cluster B, respectively. And the number of cluster elements included in the cluster C as elements (in this example, 2).

総クラスタ数がP個になるまでクラスタリングが進んだ時点でクラスタリングを終了して、P個の小ブロック統計モデルを作成する。例えば、P=4であって、最終的に第1〜第4のクラスタが生成された場合、第kのクラスタに内包される全ての小ブロックサンプル背景画像に基づいて第kの小ブロック統計モデルを生成する(ここで、kは1以上4以下の整数)。各小ブロック統計モデルは、図7を示して説明したように、1枚の小ブロック背景モデル画像と偏差リストを有している。   When the clustering advances until the total number of clusters reaches P, the clustering is terminated and P small block statistical models are created. For example, when P = 4 and the first to fourth clusters are finally generated, the kth small block statistical model is based on all small block sample background images included in the kth cluster. (Where k is an integer from 1 to 4). Each small block statistical model has one small block background model image and a deviation list as described with reference to FIG.

或る1つの小ブロック統計モデルに着目し、小ブロック統計モデルを形成する小ブロック背景モデル画像と偏差リストの生成方法について説明する。説明の具体化のため、着目した小ブロック統計モデルに対応するクラスタに内包される全ての小ブロックサンプル背景画像が、第1〜第3の小ブロックサンプル背景画像から成るものとする。着目した小ブロック統計モデルの小ブロック背景モデル画像は、第1〜第3の小ブロックサンプル背景画像を平均化した画像とされる。即ち、図13に示す如く、第1の小ブロックサンプル背景画像内の或る着目した座標位置における画素のR、G及びB信号値を、それぞれ、R1、G1及びB1で表し、且つ、それと同一の座標位置における第2の小ブロックサンプル背景画像内の画素のR、G及びB信号値を、それぞれ、R2、G2及びB2で表し、且つ、それと同一の座標位置における第3の小ブロックサンプル背景画像内の画素のR、G及びB信号値を、それぞれ、R3、G3及びB3で表した場合、それと同一の座標位置における背景モデル画像内の画素のR、G及びB信号値は、それぞれ(R1+R2+R3)/3、(G1+G2+G3)/3及び(B1+B2+B3)/3、とされる。 A method for generating a small block background model image and a deviation list forming a small block statistical model will be described by focusing on one small block statistical model. For the sake of concrete explanation, it is assumed that all the small block sample background images included in the cluster corresponding to the focused small block statistical model are composed of the first to third small block sample background images. The small block background model image of the focused small block statistical model is an image obtained by averaging the first to third small block sample background images. That is, as shown in FIG. 13, the R, G, and B signal values of the pixel at a certain coordinate position in the first small block sample background image are represented by R 1 , G 1, and B 1 , respectively, and , The R, G, and B signal values of the pixels in the second small block sample background image at the same coordinate position are denoted by R 2 , G 2, and B 2 , respectively, and at the same coordinate position, When the R, G, and B signal values of the pixels in the three small block sample background images are represented by R 3 , G 3, and B 3 , respectively, the R, G, and B of the pixels in the background model image at the same coordinate position The G and B signal values are (R 1 + R 2 + R 3 ) / 3, (G 1 + G 2 + G 3 ) / 3 and (B 1 + B 2 + B 3 ) / 3, respectively.

モデル生成部17は、小ブロック背景モデル画像の生成に合わせて、第1〜第3の小ブロックサンプル背景画像の画素値の標準偏差を、画素ごとに且つR、G及びB信号値のそれぞれに対して算出する。例えば、上述の着目した座標位置の画素に対しては、下記式(2a)、(2b)及び(2c)に従って、R、G及びB信号値についての標準偏差σR、σG及びσBが算出される。 In accordance with the generation of the small block background model image, the model generation unit 17 sets the standard deviation of the pixel values of the first to third small block sample background images for each pixel and each of the R, G, and B signal values. To calculate. For example, for the pixel at the coordinate position noted above, the standard deviations σ R , σ G, and σ B for the R, G, and B signal values are determined according to the following equations (2a), (2b), and (2c). Calculated.

標準偏差σR、σG及びσBを小ブロック内の全画素に対して(換言すれば、小ブロック内の全座標位置に対して)算出してリスト化したものを、偏差リストと呼ぶ。第1〜第3の小ブロックサンプル背景画像に基づく小ブロック背景モデル画像と偏差リストを併せたものが小ブロック統計モデルとして生成される(図7参照)。尚、説明を省略した統計モデルに備えられる、背景モデル画像及び標準偏差についても、上述した方法と同様の方法で生成することができる。 A list obtained by calculating and listing the standard deviations σ R , σ G, and σ B for all the pixels in the small block (in other words, for all the coordinate positions in the small block) is called a deviation list. A combination of a small block background model image based on the first to third small block sample background images and a deviation list is generated as a small block statistical model (see FIG. 7). It should be noted that the background model image and the standard deviation provided in the statistical model whose description is omitted can also be generated by the same method as described above.

<第3実施例>
次に、第3実施例について説明する。第3実施例では、例えば、図9及び図11に示した、t番目フレーム画像[非予測領域]311のそれぞれの小ブロックに対して、最も類似する小ブロック背景モデル画像を選択する場合に用いることができる比較方法の例について説明する。また、図9に示した、t番目フレーム画像[非予測領域]311に対して、最も類似する背景モデル画像を選択する場合にも、以下の比較方法を用いることができる。また、以下では小ブロック背景モデル画像を用いた比較方法について主に説明し、背景モデル画像を用いた比較方法の詳細な説明については同様のものとして省略する。
<Third embodiment>
Next, a third embodiment will be described. In the third embodiment, for example, it is used when the most similar small block background model image is selected for each small block of the t-th frame image [non-predicted region] 311 shown in FIGS. 9 and 11. An example of a comparison method that can be used will be described. The following comparison method can also be used when selecting the most similar background model image for the t-th frame image [non-predicted region] 311 shown in FIG. In the following, the comparison method using the small block background model image will be mainly described, and the detailed description of the comparison method using the background model image will be omitted as the same thing.

『第1比較方法』
第1比較方法について説明する。図9及び図11に示すように、対比用背景画像[非予測領域]312を生成する際に、t番目フレーム画像[非予測領域]311と、モデル保持部18に保持されたP個の小ブロック背景モデル画像のそれぞれと、が小ブロック毎に比較される。今、或る小ブロックの1つの小ブロック統計モデルに着目し、その着目した小ブロック統計モデルと、これに対応するt番目フレーム画像[非予測領域]311中の或る小ブロックの画像と、の比較方法について説明する。
"First comparison method"
The first comparison method will be described. As shown in FIGS. 9 and 11, when generating the comparison background image [non-predicted region] 312, the t-th frame image [non-predicted region] 311 and the P small images held in the model holding unit 18 are used. Each of the block background model images is compared for each small block. Now, paying attention to one small block statistical model of a certain small block, the focused small block statistical model, and an image of a certain small block in the t-th frame image [non-predicted region] 311 corresponding thereto, A comparison method will be described.

まず、t番目フレーム画像[非予測領域]311中の或る小ブロックの画像と、着目した小ブロック統計モデルの小ブロック背景モデル画像と、を画素ごとに且つR、G及びB信号値ごとに比較する。そして、比較された両画像間で画素値の相違が比較的大きい画素(即ち、相違画素)と相違が比較的小さい画素(即ち、非相違画素)とを画素ごとに判別する。   First, an image of a certain small block in the t-th frame image [non-predicted region] 311 and a small block background model image of the focused small block statistical model are displayed for each pixel and for each R, G, and B signal value. Compare. Then, a pixel having a relatively large difference in pixel value (that is, a different pixel) and a pixel having a relatively small difference (that is, a non-different pixel) are discriminated for each pixel.

具体的には、t番目フレーム画像[非予測領域]311中の或る小ブロックの或る着目した座標位置における画素のR、G及びB信号値を、それぞれ、RCF、GCF及びBCFで表し、それと同一の座標位置における小ブロック統計モデルの小ブロック背景モデル画像内の画素のR、G及びB信号値を、それぞれ、RBM、GBM及びBBMで表した場合、下記の3つの不等式(3a)、(3b)及び(3c)が成立するか否かを判断する。そして、その3つの不等式が全て満たされる場合は、その着目した座標位置における画素は非相違画素であると判断し、3つの不等式の何れか1つでも満たされない場合は、その着目した座標位置における画素は相違画素であると判断する。この際、不等式(3a)、(3b)及び(3c)におけるσR、σG及びσBは、着目した小ブロック統計モデルの偏差リストに基づく、着目した座標座標についてのR、G及びB信号値の標準偏差とする。また、α1は、所定の正の係数である。上述のようにして、全ての画素を相違画素と非相違画素のどちらかに分類した後、相違画素の個数を計数する。 Specifically, the R, G, and B signal values of the pixel at a certain coordinate position of a certain small block in the t-th frame image [non-predicted region] 311 are respectively R CF , G CF, and B CF. When the R, G and B signal values of the pixels in the small block background model image of the small block statistical model at the same coordinate position are represented by R BM , G BM and B BM , respectively, the following 3 It is determined whether or not two inequalities (3a), (3b), and (3c) hold. If all the three inequalities are satisfied, it is determined that the pixel at the focused coordinate position is a non-difference pixel. If any one of the three inequalities is not satisfied, the pixel at the focused coordinate position is determined. It is determined that the pixel is a different pixel. At this time, σ R , σ G, and σ B in the inequalities (3a), (3b), and (3c) are R, G, and B signals for the coordinate coordinates of interest based on the deviation list of the focused small block statistical model. The standard deviation of values. Α 1 is a predetermined positive coefficient. As described above, after classifying all the pixels into different pixels or non-different pixels, the number of different pixels is counted.

この相違画素の個数の計数を、t番目フレーム画像[非予測領域]311中の或る小ブロックと、モデル生成部17に保持されたP個の小ブロック統計モデルのそれぞれと、の間で行い、その個数が最も小さくなる小ブロック統計モデルを、t番目フレーム画像[非予測領域]311中の或る小ブロックに対して最も類似する小ブロック背景モデル画像を備える小ブロック統計モデルである、と判断する。   The number of different pixels is counted between a certain small block in the t-th frame image [non-predicted region] 311 and each of the P small block statistical models held in the model generation unit 17. The small block statistical model having the smallest number is a small block statistical model including a small block background model image that is most similar to a certain small block in the t-th frame image [non-predicted region] 311. to decide.

尚、背景モデル画像の比較をする場合も、同様の方法で対応する画素毎に比較を行うことができる。この場合、上述のような小ブロック毎で比較をする方法には限られない。また、フレーム画像全体の比較を行うことも可能である。また、差分処理部12における現フレーム画像と対比用背景画像との差分処理にも適用することができる。差分処理部12が行う差分処理に適用する場合、不等式(3a)、(3b)及び(3c)に示したα1の値を異なるものとしてもよい。また、小ブロック背景モデル画像内の画素の信号値を示すRBM、GBM及びBBMや、小ブロック統計モデルの標準偏差σR、σG及びσBを、適宜読み替えて使用することとする。 In addition, also when comparing a background model image, it can compare for every corresponding pixel by the same method. In this case, it is not restricted to the method of comparing for every small block as mentioned above. It is also possible to compare the entire frame images. Also, the present invention can be applied to the difference processing between the current frame image and the contrast background image in the difference processing unit 12. When applied to the difference processing performed by the difference processing unit 12, the value of α 1 shown in the inequalities (3a), (3b), and (3c) may be different. Further, R BM , G BM and B BM indicating the signal values of the pixels in the small block background model image, and the standard deviations σ R , σ G and σ B of the small block statistical model are used as appropriate. .

『第2比較方法』
第2比較方法について説明する。尚、第2比較方法を採用する場合は、図6及び図7に示す統計モデルや小ブロック統計モデル内の偏差リストは利用されない。尚、第1比較方法と同様に、本比較方法でも小ブロック統計モデルについて主に説明し、統計モデルについての詳細な説明は同様のものとして省略する。また、第1比較方法の説明に用いた例と同じ例を用いて第2比較方法について説明する。
"Second comparison method"
The second comparison method will be described. Note that when the second comparison method is adopted, the statistical model shown in FIGS. 6 and 7 and the deviation list in the small block statistical model are not used. Similar to the first comparison method, the small block statistical model is mainly described in this comparison method, and the detailed description of the statistical model is omitted as it is the same. In addition, the second comparison method will be described using the same example as that used in the description of the first comparison method.

第2比較方法では、t番目フレーム画像[非予測領域]311中の或る小ブロックと、モデル保持部18に保持されたP個の小ブロック統計モデルのそれぞれと、を被演算画像として取り扱い、被演算画像の特徴量及び特徴ベクトルを以下のように算出する。図14を参照する。また、説明の具体化のため、図14に示す如く小ブロックが8×8の画素から形成されることとする。   In the second comparison method, a certain small block in the t-th frame image [non-predicted region] 311 and each of the P small block statistical models held in the model holding unit 18 are handled as an operation image. The feature amount and feature vector of the image to be computed are calculated as follows. Refer to FIG. For the sake of concrete explanation, it is assumed that a small block is formed of 8 × 8 pixels as shown in FIG.

まず、小ブロック内のR信号値のヒストグラム、G信号値のヒストグラム及びB信号値のヒストグラムを求める。256段階のヒストグラムにおける各度数から特徴量を定義することも可能であるが、微小な信号値差異を無視し且つ演算量の低減を図るため、ヒストグラムにおける解像度を低下させて64段階のヒストグラム(即ち、0〜255の信号値を64段階に分類したヒストグラム)を求めるようにする。尚、図14及び後述の図15の各ヒストグラムにおいて、横軸はヒストグラムにおける分類段階番号を表し縦軸は度数を表している。このようにして小ブロックごとに且つR、G及びB信号値ごとに求められた64段階のヒストグラムの各度数を被演算画像の特徴量として定義し、全ての特徴量を要素とするベクトルを、被演算画像の特徴ベクトルとして求める。   First, an R signal value histogram, a G signal value histogram, and a B signal value histogram in a small block are obtained. Although it is possible to define the feature amount from each frequency in the 256-level histogram, in order to ignore a small signal value difference and reduce the amount of calculation, the resolution in the histogram is lowered to reduce the 64-level histogram (that is, , A histogram obtained by classifying signal values of 0 to 255 into 64 levels). 14 and FIG. 15 described later, the horizontal axis represents the classification step number in the histogram, and the vertical axis represents the frequency. In this way, each frequency of the 64-stage histogram obtained for each small block and for each R, G, and B signal value is defined as a feature amount of the operation image, and a vector having all feature amounts as elements is defined as: It is obtained as a feature vector of the operation image.

尚、小ブロック背景モデル画像の比較を行う場合、必要となる特徴ベクトルは64×3=192次元のベクトルになる。一方、背景モデル画像の比較を行う場合、図9のt番目フレーム画像[非予測領域]311に含まれる小ブロックの数をβとすると、必要となる特徴ベクトルはβ×64×3=192β次元のベクトルになる。また、上述した例でも示したように、フレーム画像が320×240の画素から成る場合であり、フレーム画像全体と背景モデル画像とを比較するような場合では、必要となる特徴ベクトルは1200×64×3=230400次元のベクトルとなる。   When comparing the small block background model images, the necessary feature vectors are 64 × 3 = 192 dimensional vectors. On the other hand, when comparing the background model images, if the number of small blocks included in the t-th frame image [non-predicted region] 311 in FIG. 9 is β, the required feature vector is β × 64 × 3 = 192 β dimension. It becomes a vector. Further, as shown in the above-described example, the frame image is composed of 320 × 240 pixels, and in the case where the entire frame image is compared with the background model image, the necessary feature vector is 1200 × 64. × 3 = 230 400-dimensional vector.

上述のようにして、t番目フレーム画像[非予測領域]311中の或る小ブロックと、小ブロック背景モデル画像と、のそれぞれの特徴ベクトルを算出した後、類似度を特徴ベクトルに基づいて評価する。以下に、t番目フレーム画像[非予測領域]311中の或る小ブロックと、1つの着目した小ブロック背景モデル画像と、の類似度の評価方法を説明する。   As described above, after calculating the feature vectors of a certain small block in the t-th frame image [non-predicted region] 311 and the small block background model image, the similarity is evaluated based on the feature vector. To do. Hereinafter, a method for evaluating the similarity between a certain small block in the t-th frame image [non-predicted region] 311 and one focused small block background model image will be described.

まず、t番目フレーム画像[非予測領域]311中の或る小ブロックの64段階のヒストグラムと、着目した小ブロック背景モデル画像の小ブロックについての64段階のヒストグラムと、を対比する。前者の小ブロックについての、R、G及びB信号値のヒストグラムをそれぞれ符号251R、251G及び251Bによって参照し、後者の小ブロックについての、R、G及びB信号値のヒストグラムをそれぞれ符号252R、252G及び252Bによって参照する。図15には、それらのヒストグラムが示されている。   First, a 64-step histogram of a small block in the t-th frame image [non-predicted region] 311 is compared with a 64-step histogram of a small block of the focused small block background model image. The histograms of R, G, and B signal values for the former small block are referred to by reference numerals 251R, 251G, and 251B, respectively, and the histograms of the R, G, and B signal values for the latter small block are respectively reference numerals 252R, 252G. And 252B. FIG. 15 shows these histograms.

そして、同色の信号値に関するヒストグラムを重ね合わせた時に重複した面積が大きいほど、対比される小ブロック内の画像の類似度が高いと判断する。具体的には、ヒストグラム251R及び252Rの第i段階の度数をそれぞれXRi及びYRiで表し、ヒストグラム251G及び252Gの第i段階の度数をそれぞれXGi及びYGiで表し、ヒストグラム251B及び252Bの第i段階の度数をそれぞれXBi及びYBiで表した場合、ブロック評価値db 2を、下記式(4)によって算出する。ブロック評価値db 2は、比較する小ブロック同士の類似度を表し、比較する小ブロック内の画像の類似度が高いほど、ブロック評価値db 2は小さくなる。 And it is judged that the similarity of the image in the compared small block is so high that the area which overlapped when the histogram regarding the signal value of the same color was overlapped is large. Specifically, the frequencies of the i-th stage of the histograms 251R and 252R are represented by X Ri and Y Ri , respectively, the frequencies of the i-th stage of the histograms 251G and 252G are represented by X Gi and Y Gi , respectively, and the histograms 251B and 252B When the frequency at the i-th stage is expressed by X Bi and Y Bi , the block evaluation value d b 2 is calculated by the following formula (4). The block evaluation value d b 2 represents the similarity between the small blocks to be compared, and the block evaluation value d b 2 decreases as the similarity between the images in the small blocks to be compared increases.

t番目フレーム画像[非予測領域]311中の或る小ブロックと、各小ブロック背景モデル画像と、のブロック評価値db 2を順次算出する。そして、最小のブロック評価値db 2となる小ブロック背景モデル画像を、或る小ブロックに最も類似する小ブロック背景モデル画像であると判断する。 Block evaluation values d b 2 for a certain small block in the t-th frame image [non-predicted region] 311 and each small block background model image are sequentially calculated. Then, it is determined that the small block background model image having the minimum block evaluation value d b 2 is the small block background model image most similar to a certain small block.

尚、図9に示した、t番目フレーム画像[非予測領域]311と、背景モデル画像と、を比較する場合であり、t番目フレーム画像[非予測領域]311が複数の小ブロックを備える場合、これらの比較にはそれぞれのブロック評価値db 2の総和である類似性評価値Sを用いる。そして、各統計モデルの背景モデル画像について類似性評価値Sをそれぞれ求め、最小の類似性評価値Sとなる背景モデル画像を、最も類似する背景モデル画像であると判断する。 Note that the t-th frame image [non-predicted region] 311 shown in FIG. 9 is compared with the background model image, and the t-th frame image [non-predicted region] 311 includes a plurality of small blocks. The comparison uses a similarity evaluation value S that is the sum of the block evaluation values d b 2 . Then, the similarity evaluation value S is obtained for each statistical model background model image, and the background model image having the minimum similarity evaluation value S is determined to be the most similar background model image.

また、上述の例のように、フレーム画像が40×30=1200個の小ブロックに細分化でき、フレーム画像全体と各背景モデル画像とを比較する場合は、式(5)に示す類似性評価値Sを求める。式(5)中では、上述したブロック評価値db 2をdxy 2として示している。このx、yは、フレーム画像中の小ブロックの位置を示すものであり、1≦x≦40、1≦y≦30を満たすものとする。また、xはフレーム画像の水平方向おける位置、yは垂直方向の位置をそれぞれ表し、xが大きくなるほど、その水平位置は右方向に向かい、yが大きくなるほど、その垂直位置は下方向に向かうものとする。 Further, as in the above example, the frame image can be subdivided into 40 × 30 = 1200 small blocks, and when comparing the entire frame image and each background model image, the similarity evaluation shown in Expression (5) is performed. The value S is determined. In the equation (5), the block evaluation value d b 2 described above is shown as d xy 2 . These x and y indicate the position of the small block in the frame image, and satisfy 1 ≦ x ≦ 40 and 1 ≦ y ≦ 30. In addition, x represents a position in the horizontal direction of the frame image, and y represents a position in the vertical direction. As x increases, the horizontal position moves to the right, and as y increases, the vertical position moves downward. And

<第4実施例>
次に、第4実施例について説明する。第4実施例では、図11に示した、対比用背景画像[予測領域]413に充てる小ブロック背景モデル画像の選択方法の例について図16を参照して説明する。図16には、選択方法を説明するための、簡単な例を示している。図16を用いて、小ブロックA,Bで選択された小ブロック背景モデル画像に基づいて、小ブロックEに充てる小ブロック背景モデル画像を選択する場合について説明する。尚、説明の具体化のために、図16や以降の説明において、モデル保持部18に保持される小ブロック背景モデル画像がそれぞれの小ブロックについて3つずつであり、1〜3のIDで示されるものとする。また、合成履歴には、10回分の合成結果が記録されているものとし、現在A=1、B=3であることが得られているものとする。
<Fourth embodiment>
Next, a fourth embodiment will be described. In the fourth embodiment, an example of a method of selecting a small block background model image used for the comparison background image [prediction region] 413 illustrated in FIG. 11 will be described with reference to FIG. FIG. 16 shows a simple example for explaining the selection method. The case where the small block background model image used for the small block E is selected based on the small block background model image selected in the small blocks A and B will be described with reference to FIG. For the sake of specific description, in FIG. 16 and the following description, there are three small block background model images held in the model holding unit 18 for each small block, which are indicated by IDs 1 to 3. Shall be. In addition, it is assumed that the synthesis results are recorded in the synthesis history, and that A = 1 and B = 3 are currently obtained.

図16に示す如く、小ブロックA,B及びEに用いられた小ブロック背景モデル画像の10回分の組み合わせ(モデル合成履歴リスト)から、小ブロックA及びBに用いられる小ブロック背景モデル画像の組み合わせと小ブロックEに用いられる小ブロック背景モデル画像との相関関係(組み合わせ出現確率リスト)と、小ブロックA、B及びEのそれぞれに用いられた小ブロック背景モデル画像の確率(事前確率リストP(A)、P(B)及びP(E))と、が得られる。尚、これらの表の全てを合成履歴としてモデル合成履歴保持部20に保持しても構わないし、一部(例えば、モデル合成履歴リストや、組み合わせ出現確率リスト)を保持し、残りを必要に応じて算出することとしても構わない。   As shown in FIG. 16, combinations of small block background model images used for small blocks A and B from 10 combinations (model synthesis history list) of small block background model images used for small blocks A, B, and E. And the small block background model image used for the small block E (combination appearance probability list) and the probability of the small block background model image used for each of the small blocks A, B, and E (prior probability list P ( A), P (B) and P (E)). Note that all of these tables may be held in the model synthesis history holding unit 20 as a synthesis history, or a part (for example, a model synthesis history list or a combination appearance probability list) is held, and the rest are stored as needed. It is also possible to calculate as follows.

第4実施例では、これらの値を用いて、以下の式(6)に示すようなベイズ推定を行う。尚、式(6)中、例えばP(E1)とは、E=1である場合の確率を示すものとする。この確率は、例えば図16の事前確率リストから得ることができる。また、例えば、P(A1,B3|E1)とは、E=1であるときに、A=1及びB=3である条件付確率を示すものとする。この条件付確率は、例えば図16の組み合わせ出現確率リストから得ることができる。 In the fourth embodiment, Bayesian estimation as shown in the following formula (6) is performed using these values. In Equation (6), for example, P (E 1 ) represents the probability when E = 1. This probability can be obtained from the prior probability list of FIG. 16, for example. For example, P (A 1 , B 3 | E 1 ) indicates a conditional probability of A = 1 and B = 3 when E = 1. This conditional probability can be obtained from, for example, the combined appearance probability list in FIG.

式(6)からは、A=1、B=3である条件の元で、E=1であると推定される確率が求められる。実際に図16に示す値を代入すると、P(E1|A1,B3)=0.03/0.13≒23.1%となる。同様に、P(E2|A1,B3)≒30.8%、P(E3|A1,B3)≒46.1%となり、E=3となる確率が最も高いことがわかる。このようにして、対比用背景画像[予測領域]413に充てる小ブロック背景モデル画像を推定し、選択することができる。 From Equation (6), the probability that E = 1 is estimated under the condition of A = 1 and B = 3 is obtained. When the values shown in FIG. 16 are actually substituted, P (E 1 | A 1 , B 3 ) = 0.03 / 0.13≈23.1%. Similarly, P (E 2 | A 1 , B 3 ) ≈30.8%, P (E 3 | A 1 , B 3 ) ≈46.1%, and it can be seen that the probability of E = 3 is the highest. . In this way, it is possible to estimate and select a small block background model image to be used for the comparison background image [prediction region] 413.

尚、上述の例では簡単のために2つの小ブロックA,Bに基づいて小ブロックEに充てられる小ブロック背景モデル画像を選択することとしたが、小ブロックA,B以外の小ブロックに基づいて小ブロックEに充てられる小ブロック背景モデル画像を選択することも可能である。しかしながら、無制限に参照する小ブロックを増やすと、計算量が増大して円滑な動作が阻害される。また、利用する少ブロックの数をu、1つの小ブロックに対する小ブロック統計モデルの数をPとすると、組み合わせ出現確率リストのセルがPuとなる。そのため、利用する少ブロックの数uを増大させると、保持するデータ量や計算量が指数関数的に増大してしまう。そこで、例えば以下に示す方法によって、求める小ブロックと相関が高い小ブロックを予め求めておくと、無駄なデータを保持することや計算量の増大化を抑制することができるため好ましい。 In the above example, for the sake of simplicity, the small block background model image assigned to the small block E is selected based on the two small blocks A and B. However, based on small blocks other than the small blocks A and B, It is also possible to select a small block background model image to be allocated to the small block E. However, if the number of small blocks to be referred to indefinitely is increased, the amount of calculation increases and smooth operation is hindered. Further, if the number of small blocks to be used is u and the number of small block statistical models for one small block is P, the cell of the combined appearance probability list is Pu . Therefore, if the number u of small blocks to be used is increased, the amount of data to be held and the amount of calculation increase exponentially. Therefore, it is preferable to obtain in advance a small block having a high correlation with the small block to be obtained, for example, by the method described below, because it is possible to hold useless data and suppress an increase in the amount of calculation.

小ブロックの相関を求める方法の一例について、図17を参照して説明する。また、説明の具体化のために、図16に示した小ブロックA及びEの相関を求める場合を例として説明する。図17は、小ブロックAに充てられる小ブロック背景モデル画像と、小ブロックEに充てられる小ブロック背景モデル画像と、の組み合わせを示した相関表である。この相関表を用いて、名義尺度間の相関を求める。具体的には、クラメール係数を求めて評価することによって行う。   An example of a method for obtaining a small block correlation will be described with reference to FIG. Further, for the sake of concrete description, a case where the correlation between the small blocks A and E shown in FIG. 16 is obtained will be described as an example. FIG. 17 is a correlation table showing a combination of a small block background model image allocated to the small block A and a small block background model image allocated to the small block E. Using this correlation table, the correlation between nominal scales is obtained. Specifically, it is performed by obtaining and evaluating the Kramer coefficient.

まず、カテゴリ毎の期待値を以下の式(7)に示すように算出する。尚、以下において、Eijがカテゴリ(i,j)期待値、即ち(Aの小ブロック背景モデル画像のID,Eの小ブロック背景モデル画像のID)の期待値を示すものとする。また、1≦i≦3、1≦j≦3となる。そして、Oijがカテゴリ(i,j)の値、niがA=iである場合の総和、njがE=jである場合の総和、nが全体の総和(即ち、10)を示す。 First, the expected value for each category is calculated as shown in the following equation (7). In the following, E ij represents an expected value of category (i, j), that is, an expected value of (ID of A small block background model image, ID of E small block background model image). Further, 1 ≦ i ≦ 3 and 1 ≦ j ≦ 3. O ij is the value of category (i, j), n i is the sum when A = i, n j is the sum when E = j, and n is the total sum (ie, 10). .

また、得られるEijを用いて、この表におけるカイ二乗分布χ0 2を以下の式(8)を用いて求める。 Also, using the obtained E ij , the chi-square distribution χ 0 2 in this table is obtained using the following equation (8).

得られるカイ二乗分布χ0 2の値を用いて、属性相関係数φを以下の式(9)を用いて求める。 Using the value of the obtained chi-square distribution χ 0 2 , the attribute correlation coefficient φ is obtained using the following equation (9).

得られる属性相関係数φの値を用いて、クラメール係数Vを以下の式(10)を用いて求める。なお、以下の式中、tは表の大きさ(A及びEが取り得る値の数のうち、少ない方の数。本例の場合、A及びEはともに3通りの値をとるためt=3となる)を示すものである。   Using the value of the attribute correlation coefficient φ obtained, the Kramer coefficient V is obtained using the following equation (10). In the following formula, t is the size of the table (the smaller number of values that A and E can take. In this example, A and E take three values, so t = 3).

このようにして得られるクラメール係数Vによって、相関を比較することができる。そして、或る小ブロックに充てる小ブロック背景モデル画像を求める場合、例えば、相関が大きい(クラメール係数Vが大きい)5つの小ブロックに充てられた小ブロック背景モデル画像と、合成履歴と、について上述のように求めることができる。尚、小ブロックを予め5つに限定しておくと、1つの小ブロックに対する小ブロック統計モデルの数Pが30であったとしても、上述したセルを305≒2400万程度とすることができる。 The correlation can be compared by the Kramer coefficient V obtained in this way. When obtaining a small block background model image to be assigned to a certain small block, for example, a small block background model image assigned to five small blocks having a large correlation (a large Kramer coefficient V), and a synthesis history It can be determined as described above. If the number of small blocks is limited to five in advance, even if the number P of small block statistical models for one small block is 30, the above-described cell can be about 30 5 ≈24 million. .

また、上述したような相関の大きい小ブロックの選定は、事前に行うことが好ましい。また、定期的に行って更新することが好ましい。そのため、例えば1日1回、対象物検出システムがあまり操作されずシステムに負荷がかかりにくい時間帯(夜中など)に自動的に行うようにするとさらに好ましい。   Further, it is preferable to select a small block having a large correlation as described above in advance. Moreover, it is preferable to update regularly. For this reason, for example, it is more preferable that the detection is automatically performed once a day in a time zone (such as midnight) in which the object detection system is not operated so much and the system is hardly loaded.

また、上述のように相関が大きい小ブロックを選定することとすると、図16の組み合わせ出現確率リストに示すように、組み合わせによっては確率が0となるものしか含まれない領域(例えば、A=2,B=1である場合)が現れる可能性がある。この場合、この表に基づいて計算したとしても推定することができなくなってしまう。このような場合に対しては、例えば、以下に示すような方法で対処することが可能である。   Further, if a small block having a large correlation is selected as described above, as shown in the combination appearance probability list of FIG. 16, an area that includes only those having a probability of 0 depending on the combination (for example, A = 2 , B = 1) may appear. In this case, even if it is calculated based on this table, it cannot be estimated. Such a case can be dealt with by the following method, for example.

このような現象が発生する場合、2通りの状況が考えられる。1つは、参照する小ブロックの1つに、これまで観測されたことのない小ブロック背景モデル画像が充てられた場合(図16の事前確率リストが0となる小ブロック背景モデル画像が充てられた場合)である。この場合、この小ブロックを外さない限り計算することができないため、例えば、参照している小ブロックの次に相関が高い小ブロックと、この小ブロックとを入れ替えるなどして、この小ブロックを外す。   When such a phenomenon occurs, two situations can be considered. One is a case where a small block background model image that has never been observed is allocated to one of the small blocks to be referred to (a small block background model image in which the prior probability list in FIG. 16 is 0). If). In this case, since it cannot be calculated unless this small block is removed, for example, the small block having the next highest correlation after the small block being referenced is replaced with this small block, and this small block is removed. .

もう1つは、各小ブロックにおいては観測されたことがあるが、組み合わせにするとこれまで観測されていない組み合わせの場合(例えば、上述のA=2,B=1である場合)である。この場合、例えば、参照している小ブロックのうち相関が最も低いものと、参照している小ブロックの次に相関が高い小ブロックと、を入れ替えても構わない。また、相関が最も低い小ブロックを無視しても構わない。そして、上述したベイズ推定を行い、推定できるようになるまでこれらの操作を繰り返すこととしても構わない。   The other case is a combination that has been observed in each small block but has not been observed so far in combination (for example, when A = 2 and B = 1 as described above). In this case, for example, a block having the lowest correlation among the small blocks referred to may be replaced with a small block having the second highest correlation after the small block referred to. Further, the small block having the lowest correlation may be ignored. Then, the above-described Bayesian estimation may be performed, and these operations may be repeated until the estimation can be performed.

尚、以上の対処方法は一例に過ぎず、他の対処方法を用いることとしても構わない。   Note that the above countermeasures are merely examples, and other countermeasures may be used.

<第5実施例>
第5実施例では、上述した統計モデル及び小ブロック統計モデル以外のモデルである、「推定モデル」を用いた対象物検出方法の一例について図面を参照して説明する。まず、図18を参照して推定モデルについて説明する。
<Fifth embodiment>
In the fifth embodiment, an example of an object detection method using an “estimated model” that is a model other than the statistical model and the small block statistical model described above will be described with reference to the drawings. First, the estimation model will be described with reference to FIG.

図18は、推定モデルを説明するための図である。推定モデルは、現フレームから見た直近過去の所定数フレーム分のフレーム画像を用いて生成される。例えば、その所定数が30である場合、現フレームを起点として、30フレーム前から前回フレームまでの合計30フレーム分のフレーム画像を用いて推定モデルが生成される。推定モデルは、上述した統計モデルと同様の構成となり、背景モデル画像と差分処理部12での差分処理にて参照される偏差リストと、から形成される。尚、統計モデルが備える背景モデル画像と、推定モデルが備える背景モデル画像と、は生成方法が異なるが、背景画像をモデル化している点で共通する。そのため、共に背景モデル画像とよび、どのモデルに備えられているかを示すことにより区別する。また、推定モデルも、上述した背景モデルに含まれる。   FIG. 18 is a diagram for explaining the estimation model. The estimation model is generated using frame images for a predetermined number of frames in the latest past viewed from the current frame. For example, when the predetermined number is 30, an estimated model is generated using frame images for a total of 30 frames from 30 frames before to the previous frame starting from the current frame. The estimation model has the same configuration as the statistical model described above, and is formed from a background model image and a deviation list that is referred to in the difference processing in the difference processing unit 12. The background model image included in the statistical model and the background model image included in the estimation model are different in generation method, but are common in that the background image is modeled. For this reason, both are called background model images and are distinguished by indicating which model is provided. The estimation model is also included in the background model described above.

推定モデルの背景モデル画像は、例えば、上記の直近過去の所定数フレーム分のフレーム画像を平均化することによって生成される。平均化の方法としては、上述の第2実施例において、図13を参照して説明したような、複数の画像(直近過去の複数のフレーム画像)の対応する画素を平均化する方法などを用いることができる。偏差リストも同様であり、上述の第2実施例で示した方法などを用いて生成することができる。   The background model image of the estimation model is generated by, for example, averaging the frame images for a predetermined number of frames in the past past. As an averaging method, a method of averaging corresponding pixels of a plurality of images (a plurality of most recent frame images) as described with reference to FIG. 13 in the second embodiment is used. be able to. The deviation list is the same, and can be generated using the method shown in the second embodiment.

また、図19を参照して、上述した統計モデル及び小ブロック統計モデルに加え、推定モデルを用いる構成とした対象物検出システムの一例について説明する。なお、図19は、本発明の実施形態に係る対象物検出システムを示した図1に相当するものであり、同様の構成となる部分については同じ符号を付し、詳細な説明については省略する。   In addition, an example of an object detection system configured to use an estimation model in addition to the statistical model and the small block statistical model described above will be described with reference to FIG. Note that FIG. 19 corresponds to FIG. 1 showing the object detection system according to the embodiment of the present invention, and the same reference numerals are given to parts having the same configuration, and detailed description is omitted. .

本実施例の対象物検出システムは、推定モデルを生成する推定モデル生成部21と、推定モデル生成部21で生成された推定モデルを保持する推定モデル保持部22と、対比用背景画像を差分処理部12に供給する対比用背景画像選択部23と、を備える。対比用背景画像選択部23は、推定モデル保持部22から供給される推定モデルから生成される対比用背景画像と、対比用背景画像供給部14から供給される統計モデル及び小ブロック統計モデルの少なくとも一方から生成される対比用背景画像と、のどちらを使用するかを選択する。そして、選択して得た対比用背景画像を差分処理部12に供給する。このように、本実施例では、推定モデル生成部21で生成される推定モデルに基づいた対比用背景画像が、差分処理部12において用いられる場合がある。また、この対象物検出システムの動作例について、図20のフローチャートを参照して説明する。   The object detection system of the present embodiment includes an estimation model generation unit 21 that generates an estimation model, an estimation model holding unit 22 that holds an estimation model generated by the estimation model generation unit 21, and a differential background image for comparison. A comparison background image selection unit 23 to be supplied to the unit 12. The comparison background image selection unit 23 includes at least a comparison background image generated from the estimation model supplied from the estimation model holding unit 22, and a statistical model and a small block statistical model supplied from the comparison background image supply unit 14. It is selected whether to use a contrasting background image generated from one. The comparison background image obtained by the selection is supplied to the difference processing unit 12. Thus, in the present embodiment, the comparison background image based on the estimation model generated by the estimation model generation unit 21 may be used in the difference processing unit 12. An example of the operation of this object detection system will be described with reference to the flowchart of FIG.

図20に、本実施例に係る対象物検出システムの全体的な動作の流れを表すフローチャートを示す。ステップS1〜S12から成るループ処理を、各フレーム画像に対して実行する。フレーム周期は、例えば、1/3〜1/5秒である。ステップS1の処理は画像取得部11によって実行され、ステップS2〜S6の各処理は対比用背景画像選択部23によって実行され、ステップS7、S8及びS10の各処理は差分処理部12によって実行され、ステップS9の処理は推定モデル生成部21によって実行され、ステップS11の処理は表示制御部13及び表示部3によって実行され、ステップS12の処理は対比用背景画像供給部14に備えられるマスク生成部15によって実行される。   FIG. 20 is a flowchart showing the overall operation flow of the object detection system according to this embodiment. A loop process including steps S1 to S12 is executed for each frame image. The frame period is, for example, 1/3 to 1/5 second. The process of step S1 is executed by the image acquisition unit 11, the processes of steps S2 to S6 are executed by the comparison background image selection unit 23, and the processes of steps S7, S8, and S10 are executed by the difference processing unit 12. The process of step S9 is executed by the estimated model generation unit 21, the process of step S11 is executed by the display control unit 13 and the display unit 3, and the process of step S12 is performed by the mask generation unit 15 provided in the comparison background image supply unit 14. Executed by.

各ステップの概要を説明する。ステップS1において、カメラ1から現フレーム画像を取得する。続くステップS2において、対比用背景画像供給部14のモデル保持部18に保持されたN個の統計モデルのそれぞれと、現フレーム画像とを比較し、ステップS3において、現フレーム画像に対して最も類似する背景モデル画像を含む1つの統計モデルを探索する。   An outline of each step will be described. In step S1, a current frame image is acquired from the camera 1. In subsequent step S2, each of the N statistical models held in the model holding unit 18 of the comparison background image supply unit 14 is compared with the current frame image. In step S3, the most similar to the current frame image is compared. One statistical model including the background model image to be searched is searched.

そして、ステップS4において、現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と同じであるか否かを判断する。即ち、現フレーム画像に対して探索された統計モデルと前回のフレーム画像に対して探索された統計モデルとが同じであるか否かを判断する。同じである場合は、前回のフレーム画像の撮影時における照明条件と今回のそれとが同じであると推測されるため、対象物の検出に推定モデルを用いることができる。そこで、両探索結果が同じである場合は、前回と今回のフレーム間において照明条件が変化していないと推定してステップS5に移行し、ステップS5において推定モデルから対比用背景画像を生成する。一方、現フレーム画像に対する探索結果と前回のフレーム画像に対する探索結果が異なる場合は、前回のフレーム画像の撮影時における照明条件と今回のそれとが異なると推測されるため、対象物の検出に推定モデルを用いるのは適切ではない。そこで、両探索結果が異なる場合は、前回と今回のフレーム間において照明条件が変化したと推定してステップS6に移行し、ステップS6において統計モデル及び小ブロック統計モデルの少なくとも一方から対比用背景画像を生成する。即ち、図9に示す対比用背景画像314や、図11に示す対比用背景画像414を生成する。尚、照明条件に関して、変化がないとは、完全に変化がない状態を含むだけでなく、変化があってもそれが無視できる程度に小さい状態をも含む。   In step S4, it is determined whether the search result for the current frame image is the same as the search result for the previous frame image. That is, it is determined whether the statistical model searched for the current frame image is the same as the statistical model searched for the previous frame image. If they are the same, it is presumed that the illumination condition at the time of capturing the previous frame image is the same as that at this time, so that the estimation model can be used for detection of the object. Therefore, if the two search results are the same, it is estimated that the illumination condition has not changed between the previous and current frames, and the process proceeds to step S5, where a comparison background image is generated from the estimated model in step S5. On the other hand, if the search result for the current frame image is different from the search result for the previous frame image, it is presumed that the illumination condition at the time of shooting the previous frame image is different from that of the current frame image. It is not appropriate to use. Therefore, if the two search results are different, it is presumed that the illumination condition has changed between the previous and current frames, and the process proceeds to step S6. In step S6, the comparison background image is obtained from at least one of the statistical model and the small block statistical model. Is generated. That is, the comparison background image 314 shown in FIG. 9 and the comparison background image 414 shown in FIG. 11 are generated. It should be noted that the fact that there is no change in illumination conditions includes not only a state where there is no change, but also a state where the change is small enough to be ignored.

ステップS5又はS6で対比用背景画像が生成されるとステップS7に移行し、その対比用背景画像と現フレーム画像との間で差分処理を行う。この差分処理の結果に基づき、現フレーム画像の全体領域から対象物領域及び背景領域が抽出される。対象物領域の抽出及び背景領域の抽出は、それぞれ、ステップS10及びS8にて実行される。対象物領域とは、対象物が描画されている領域を意味し、背景領域とは、対象物を含まない背景が描画されている領域を意味する。従って、フレーム画像の全体領域は、対象物領域と背景領域の合成領域に相当する。   When the comparison background image is generated in step S5 or S6, the process proceeds to step S7, and difference processing is performed between the comparison background image and the current frame image. Based on the result of the difference processing, the object area and the background area are extracted from the entire area of the current frame image. The extraction of the object area and the extraction of the background area are executed in steps S10 and S8, respectively. The object area means an area where the object is drawn, and the background area means an area where a background not including the object is drawn. Therefore, the entire area of the frame image corresponds to a composite area of the object area and the background area.

対象物領域及び背景領域が抽出された後、ステップS9において、その抽出結果に基づき推定モデルが更新されると共に、ステップS11において、対象物領域の抽出結果が表示部3の表示画面上に表示される。例えば、対象物領域と背景領域を区別して視認可能なように、図1の表示制御部13が、現フレーム画像に対象物領域を囲む枠を重畳した表示用画像を生成し、これを表示部3の表示画面上に表示させる。即ち、図3に示したような表示用画像を生成する。   After the target area and the background area are extracted, the estimation model is updated based on the extraction result in step S9, and the extraction result of the target area is displayed on the display screen of the display unit 3 in step S11. The For example, the display control unit 13 in FIG. 1 generates a display image in which a frame surrounding the target region is superimposed on the current frame image so that the target region and the background region can be visually recognized separately. 3 is displayed on the display screen. That is, a display image as shown in FIG. 3 is generated.

また、マスク生成部15は、ステップS10で差分処理部12によって抽出されて出力される差分結果画像から、図5に示したようなマスク画像210を生成する。そして、ステップS9、S11及びS12の処理を終えると、ステップS1に戻り、次回のフレーム画像に対してステップS1〜S12の各処理が実行される。   Further, the mask generation unit 15 generates a mask image 210 as shown in FIG. 5 from the difference result image extracted and output by the difference processing unit 12 in step S10. When the processes of steps S9, S11, and S12 are completed, the process returns to step S1, and the processes of steps S1 to S12 are performed on the next frame image.

カメラ1の照明条件(特に、照度)は、日中の太陽光の照度変化等によって比較的緩やかに変化する一方で、照明装置の電源オン/オフ等によって大幅に且つ瞬時に変化しうる。前者の変化の状態は推定モデルに逐次反映されるため、推定モデルを用いれば前者の変化に対して適切な対象物検出を実現可能である。一方、推定モデルを用いたのでは、後者の変化の状態に対応しきれないことがある。そこで、照明条件に大幅な瞬時変化が生じたと推定される場合は、多数のサンプル背景画像から統計的に作成された統計モデルや小ブロック統計モデルを用いて対象物の検出処理を行うこととしている。そのため、本実施例の構成とすることにより、カメラ1の照明条件の変化を推定し、その推定結果に応じて推定モデルと統計モデル及び小ブロック統計モデルを使い分けることが可能となる。したがって、照明条件の緩やかな変化と大幅な瞬時変化の双方に対応した精度の高い対象物検出が可能となる。   While the illumination conditions (particularly the illuminance) of the camera 1 change relatively slowly due to changes in the illuminance of sunlight during the day, the illumination conditions can change drastically and instantaneously by turning on / off the illumination device. Since the former change state is sequentially reflected in the estimation model, it is possible to detect an object suitable for the former change by using the estimation model. On the other hand, when the estimation model is used, the latter change state may not be fully supported. Therefore, when it is estimated that a significant instantaneous change has occurred in the lighting conditions, the object detection processing is performed using a statistical model or a small block statistical model statistically created from a large number of sample background images. . Therefore, by adopting the configuration of the present embodiment, it is possible to estimate a change in the illumination condition of the camera 1 and use the estimation model, the statistical model, and the small block statistical model properly according to the estimation result. Therefore, it is possible to detect an object with high accuracy corresponding to both a gradual change in illumination conditions and a large instantaneous change.

以下、上述の各ステップにおける具体例について説明する。   Hereinafter, specific examples of the above steps will be described.

ステップS2における各統計モデルと現フレーム画像とを比較する際に、第2実施例で示した第1比較方法及び第2比較方法を適用することができる。また、ステップS7における差分処理は、上述したように第2実施例の『第1比較方法』などの方法を適用することが可能である。さらに、それによって得られる差分結果画像から対象物領域や背景領域を抽出する(ステップS8,S10)際に、第1実施例に示したマスク画像を生成する際の、対象物領域及び背景領域の特定方法を用いても構わない。   When comparing each statistical model in step S2 with the current frame image, the first comparison method and the second comparison method shown in the second embodiment can be applied. Further, as described above, a method such as the “first comparison method” of the second embodiment can be applied to the difference processing in step S7. Furthermore, when extracting the object region and the background region from the difference result image obtained thereby (steps S8 and S10), the object region and the background region when generating the mask image shown in the first embodiment are used. A specific method may be used.

また、ステップS9の推定モデルの更新の具体例について図21を参照して説明する。現フレーム画像220から対象物領域を抜き取った時の残りの画像と対比用背景画像221中の対象物領域内の画像とを合成することにより、擬似的に欠損のない現時点の背景画像としてのストック背景画像225を生成する。具体的には、現フレーム画像220から対象物領域(差分結果画像222に基づいて特定された対象物領域)に位置する一部画像を除去し、除去後の残りの画像を対象物除去画像223として生成する。図21において、対象物除去画像223内の破線で囲まれた領域内が除去された領域を表している。一方で、対比用背景画像221から対象物領域(差分結果画像222に基づいて特定された対象物領域)に位置する一部画像を抽出し、この抽出画像を対象物位置背景画像224とする。そして、対象物位置背景画像224を対象物除去画像223に嵌め込むことによって両画像を合成し、その合成画像をストック背景画像225とする。   A specific example of updating the estimation model in step S9 will be described with reference to FIG. By combining the remaining image when the object area is extracted from the current frame image 220 and the image in the object area in the comparison background image 221, a stock as a current background image without a pseudo defect is obtained. A background image 225 is generated. Specifically, the partial image located in the object area (the object area specified based on the difference result image 222) is removed from the current frame image 220, and the remaining image after the removal is used as the object removal image 223. Generate as In FIG. 21, the area surrounded by the broken line in the object removal image 223 represents the removed area. On the other hand, a partial image located in the object area (the object area specified based on the difference result image 222) is extracted from the comparison background image 221, and this extracted image is used as the object position background image 224. Then, both the images are combined by fitting the object position background image 224 into the object removal image 223, and the combined image is used as the stock background image 225.

ストック背景画像225は、ストック背景画像群の構成要素として、推定モデル生成部21に追加されて保持される。保持されるストック背景画像の上限枚数は決まっており、既に上限枚数分のストック背景画像が記憶されている場合は、最も古くに加えられたストック背景画像を消去して新たなストック背景画像225を推定モデル生成部21が保持する。これにより、ストック背景画像群が更新され、その更新されたストック背景画像群に基づいて新たに推定モデルを作成し直す。そして、新たに作成された推定モデル(即ち、今回のステップS9にて更新された推定モデル)は、推定モデル保持部22に保持され、次回のフレーム画像に対する推定モデルとして利用される。   The stock background image 225 is added to the estimated model generation unit 21 and held as a component of the stock background image group. The upper limit number of stock background images to be held is determined. If the upper limit number of stock background images are already stored, the oldest stock background image is deleted and a new stock background image 225 is stored. The estimated model generation unit 21 holds it. As a result, the stock background image group is updated, and a new estimation model is recreated based on the updated stock background image group. The newly created estimated model (that is, the estimated model updated in step S9 this time) is held in the estimated model holding unit 22 and used as an estimated model for the next frame image.

このように、順次取得されるフレーム画像に基づいて推定モデルを更新していくことにより、比較的緩やかな照度変化に適応した対象物検出が可能となる。   In this way, by updating the estimation model based on the sequentially acquired frame images, it is possible to detect an object adapted to a relatively gradual change in illuminance.

尚、ステップS4にて現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と異なると判断されてステップS6に移行した場合、照明条件が急激に変化したと推定されるため、今まで保持していた推定モデルは対象物の検出処理に向かない。そこで、この場合、ステップS9においてストック背景画像群を一旦全て消去してもよい。また、同時に、その時点で保持されている推定モデルを破棄してもよい。   If it is determined in step S4 that the search result for the current frame image is different from the search result for the previous frame image and the process proceeds to step S6, the illumination condition is presumed to have changed abruptly. The estimated model used is not suitable for the object detection process. Therefore, in this case, all the stock background image groups may be once deleted in step S9. At the same time, the estimation model held at that time may be discarded.

この場合、S6において生成される対比用背景画像を用いて、図21の対象物位置背景画像224と同様の画像を生成するとともに、現フレーム画像から対象物除去画像223と同様の画像を生成して、代替となるストック背景画像を生成してもよい。   In this case, an image similar to the object position background image 224 of FIG. 21 is generated using the comparison background image generated in S6, and an image similar to the object removal image 223 is generated from the current frame image. Alternatively, an alternative stock background image may be generated.

さらにこの場合において、現フレーム画像に対する探索結果が前回のフレーム画像に対する探索結果と同じであるという判断条件が、図20のステップS4にて一旦不成立となると、次回以降のフレーム画像に対して該判断条件が満たされていたとしても、例外的処理を行うようにしてもよい。例外的処理とは、ステップS4からステップS5に移行することなく強制的にステップS6に移行し、統計モデルに基づく対比用背景画像を用いて、差分処理、対象物領域及び背景領域の抽出処理並びに代替となるストック背景画像の生成処理を行うことを意味する。例外的処理の実行によって、ストック背景画像の枚数が増加していく。ただし、この例外的処理は、推定モデル保持部22に保持されるストック背景画像の枚数が規定枚数に到達した時点で行われなくなるものとする。逆に言えば、ストック背景画像の枚数が規定枚数に到達していない時には、上記判断条件の充足/不充足に拘らず例外的処理が行われる(従って、対象物検出システムの起動直後は例外的処理が行われる)。ストック背景画像の枚数が規定枚数に到達すると、ステップS9において、図19の推定モデル生成部21は、その規定枚数分のストック背景画像を用いて推定モデルを生成し、その推定モデルを保持する。その後は、上記の判断条件が成立するならば原則どおりステップ4からステップS5に移行して、その推定モデルを用いた対比用背景画像の生成処理及び差分処理等が行われる。   Further, in this case, once the determination condition that the search result for the current frame image is the same as the search result for the previous frame image is not satisfied once in step S4 in FIG. 20, the determination is made for the subsequent frame images. Even if the condition is satisfied, exceptional processing may be performed. The exceptional process is a process forcibly moving to step S6 without moving from step S4 to step S5, and using the contrast background image based on the statistical model, the difference process, the object area and the background area extraction process, and This means that an alternative stock background image generation process is performed. By executing exceptional processing, the number of stock background images increases. However, this exceptional process is not performed when the number of stock background images held in the estimated model holding unit 22 reaches a specified number. In other words, when the number of stock background images has not reached the specified number, exceptional processing is performed regardless of whether or not the above judgment condition is satisfied (thus, exceptionally immediately after the object detection system is activated). Processing is performed). When the number of stock background images reaches the specified number, in step S9, the estimated model generation unit 21 in FIG. 19 generates an estimated model using the stock background images for the specified number of images, and holds the estimated model. After that, if the above judgment condition is satisfied, the process proceeds from step 4 to step S5 as a rule, and the comparison background image generation process and difference process using the estimation model are performed.

例えば、規定回数が30回である場合において、上記の判断条件が一旦不成立となった後、次回以降のフレーム画像に対して継続して該判断条件が満たされた場合を考える。この場合、次回以降の30フレーム分のフレーム画像に対して例外的処理が行われて該30フレーム分のフレーム画像を用いて30枚のストック背景画像が生成され、その30枚のストック背景画像を用いて推定モデルが生成される。その後は、上記の判断条件が成立するならば原則どおりステップS4からステップS5に移行して、その推定モデルを用いた対比用背景画像の生成処理及び差分処理等が行われる。新たに生成された推定モデルは、その時点の照明条件に適合した背景モデルとなる。   For example, in the case where the specified number of times is 30, the case where the above-described determination condition is once satisfied and then the determination condition is continuously satisfied for the subsequent frame images will be considered. In this case, exceptional processing is performed on the frame images for 30 frames after the next time, and 30 stock background images are generated using the frame images for 30 frames. An estimated model is generated. After that, if the above judgment condition is satisfied, the process proceeds from step S4 to step S5 as a rule, and the comparison background image generation process and difference process using the estimation model are performed. The newly generated estimated model is a background model that matches the lighting conditions at that time.

<<第6実施例>>
次に、第6実施例について説明する。第6実施例では、図1の対象物検出システムを、実際のシステムに適用する際のシステム構成の例示などを行う。図22は、第6実施例に係る対象物検出システムの全体ブロック図を表している。図22の対象物検出システムは、撮像モジュール50と及び監視装置60を少なくとも有し、これらに端末機器70及びインターネット網などのネットワーク80が接続されている。端末機器70は、通信機能を備えた端末機器であり、パーソナルコンピュータ、携帯電話機、携帯情報端末などである。端末機器70及びネットワーク80を、対象物検出システムの構成要素として捉えることも可能である。
<< Sixth Example >>
Next, a sixth embodiment will be described. In the sixth embodiment, the system configuration when the object detection system of FIG. 1 is applied to an actual system is illustrated. FIG. 22 is an overall block diagram of the object detection system according to the sixth embodiment. The object detection system of FIG. 22 has at least an imaging module 50 and a monitoring device 60, to which a terminal device 70 and a network 80 such as the Internet network are connected. The terminal device 70 is a terminal device having a communication function, and is a personal computer, a mobile phone, a portable information terminal, or the like. It is also possible to regard the terminal device 70 and the network 80 as components of the object detection system.

撮像モジュール50は、符号51〜53にて参照される各部位を備え、対象物が存在しうる屋内等に設置される。監視装置60は、符号61〜65にて参照される各部位を備え、監視者の居室に設置される。端末機器70は、符号71〜73にて参照される各部位を備える。端末機器70の使用者を、監視者の一人と捉えることもできる。   The imaging module 50 is provided with each part referred by the codes | symbols 51-53, and is installed indoors etc. in which a target object may exist. The monitoring device 60 includes each part referred to by reference numerals 61 to 65 and is installed in the monitoring person's room. The terminal device 70 is provided with each part referred by the codes | symbols 71-73. The user of the terminal device 70 can also be regarded as one of the supervisors.

図22のカメラ51及び表示部63は、それぞれ、図1のカメラ1及び表示部3と同じものであってカメラ1及び表示部3として機能する。通信部53は、撮像モジュール50をネットワーク80に接続するための部位であり、通信部61は、監視装置60をネットワーク80に接続するための部位であり、通信部71は、端末機器70をネットワーク80に接続するための部位である。通信部53、61及び71は、ネットワーク80を介して、通信部53に接続されたモジュール側処理部52と通信部61に接続された監視側処理部62と通信部71に接続された端末側処理部72との間のデータのやり取りを実現する。   The camera 51 and the display unit 63 in FIG. 22 are the same as the camera 1 and the display unit 3 in FIG. 1 and function as the camera 1 and the display unit 3, respectively. The communication unit 53 is a part for connecting the imaging module 50 to the network 80, the communication unit 61 is a part for connecting the monitoring device 60 to the network 80, and the communication unit 71 is a part for connecting the terminal device 70 to the network 80. 80 for connecting to 80. The communication units 53, 61 and 71 are connected via the network 80 to the module side processing unit 52 connected to the communication unit 53, the monitoring side processing unit 62 connected to the communication unit 61, and the terminal side connected to the communication unit 71. Data exchange with the processing unit 72 is realized.

モジュール側処理部52及び監視側処理部62が協働して、図1の検出処理部2が形成される。即ち、検出処理部2にて行うべき処理の一部がモジュール側処理部52にて実行され、検出処理部2にて行うべき残りの処理が監視側処理部62にて実行される。   The module processor 52 and the monitoring processor 62 cooperate to form the detection processor 2 of FIG. That is, a part of processing to be performed by the detection processing unit 2 is executed by the module side processing unit 52, and the remaining processing to be performed by the detection processing unit 2 is executed by the monitoring side processing unit 62.

例えば、図1の符号11、12、14にて参照される各部位をモジュール側処理部52に設け、図1の表示制御部13を監視側処理部62に設ける。尚、説明の便宜上、対比用背景画像供給部14に備えるとした各部材(符号15〜19)を、異なる場所に設けることも可能である。また、統計モデル及び小ブロック統計モデルを生成するためのサンプル背景画像群の画像データを記憶部65に記憶しておくようにし、記憶部65の記憶内容に基づいて監視側処理部62が各統計モデルを生成する。勿論、これは、検出処理部2にて行うべき処理の、モジュール側処理部52と監視側処理部62への割り振り方の一例であり、その割り振り方を任意に変形することが可能である。   For example, each part referred to by reference numerals 11, 12, and 14 in FIG. 1 is provided in the module side processing unit 52, and the display control unit 13 in FIG. 1 is provided in the monitoring side processing unit 62. For convenience of explanation, each member (reference numerals 15 to 19) provided in the comparison background image supply unit 14 may be provided in a different place. Further, the image data of the sample background image group for generating the statistical model and the small block statistical model is stored in the storage unit 65, and the monitoring side processing unit 62 determines each statistical data based on the storage contents of the storage unit 65. Generate a model. Of course, this is an example of how the processing to be performed by the detection processing unit 2 is allocated to the module side processing unit 52 and the monitoring side processing unit 62, and the allocation method can be arbitrarily modified.

また、カメラ51にて得られるフレーム画像の画像データに対する対象物領域の抽出結果を、撮像モジュール50の通信部53又は監視装置60の通信部61からネットワーク80及び通信部71を介して端末側処理部72に伝達することにより、抽出結果を反映した、表示部63にて表示される画像と同等の画像(例えば、図3の表示用画像200)を表示部73で表示させることも可能である。勿論、撮像モジュール50側又は監視装置60側で図3の表示用画像200のような表示用画像を生成し、その表示用画像の画像データを端末機器70に送ることで、その表示用画像を表示部73上で表示させても良い。端末側処理部72は、表示部73の表示内容を制御する表示制御部としても機能し、その表示制御部を図1の表示制御部13と等価なものとすることもできる。   Further, the extraction result of the object region with respect to the image data of the frame image obtained by the camera 51 is processed on the terminal side from the communication unit 53 of the imaging module 50 or the communication unit 61 of the monitoring device 60 via the network 80 and the communication unit 71. By transmitting to the unit 72, an image equivalent to the image displayed on the display unit 63 (for example, the display image 200 in FIG. 3) reflecting the extraction result can be displayed on the display unit 73. . Of course, a display image such as the display image 200 in FIG. 3 is generated on the imaging module 50 side or the monitoring device 60 side, and image data of the display image is sent to the terminal device 70, so that the display image is displayed. You may display on the display part 73. FIG. The terminal-side processing unit 72 also functions as a display control unit that controls the display content of the display unit 73, and the display control unit can be equivalent to the display control unit 13 in FIG.

上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。この他、上述の実施形態の変形例または注釈事項を以下に列記する。   The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. In addition, modifications or annotations of the above-described embodiment are listed below.

上述の対象物検出システムは、カメラ(1又は51)の撮影領域内に対象物としての人物がいるか否かを検出するためのシステムとして利用可能である。特に例えば、カメラ(1又は51)をステレオ画像を生成可能なように形成しておく。そして、ステレオ画像内における対象物領域を検出して、検出した対象物領域の画像を時系列で並べて解析すると対象物としての人物の姿勢をも検出することが可能となる。その姿勢の検出結果から人物が倒れていないか等を判断することも可能である。この他、対象物としての人物を不審者と捉えることにより、上述の対象物検出システムを防犯上の監視システムとすることもできる。また、対象物としての人物の数を計数することにより、カメラ(1又は51)の撮影領域内の人物の数を計数するシステムを形成することもできる。   The above-described object detection system can be used as a system for detecting whether or not there is a person as an object in the imaging region of the camera (1 or 51). In particular, for example, the camera (1 or 51) is formed so that a stereo image can be generated. Then, by detecting an object region in a stereo image and analyzing the detected image of the object region in time series, the posture of a person as the object can also be detected. It is also possible to determine whether or not a person has fallen from the detection result of the posture. In addition, the above-mentioned object detection system can also be used as a security monitoring system by regarding a person as an object as a suspicious person. In addition, a system for counting the number of persons in the photographing region of the camera (1 or 51) can be formed by counting the number of persons as objects.

また、対象物が人物である場合を想定して本発明の実施形態を説明したが、対象物は人物以外の任意の物体となりうる(尚、人物も物体に含まれる)。人物を含む物体は、移動物体と解釈することもできるし、カメラ(1又は51)の撮影領域内への進入物体と解釈することもできる。   Further, although the embodiment of the present invention has been described assuming that the object is a person, the object can be any object other than a person (note that a person is also included in the object). An object including a person can be interpreted as a moving object, or can be interpreted as an object entering the imaging region of the camera (1 or 51).

また、上述の実施形態では対象物の検出結果を表示部を用いて対象物検出システムの外部に位置する監視者に報知するようにしているが、その検出結果を音声によって報知するようにしてもよい。この場合、例えば、対象物が検出されるべきフレーム画像から対象物が検出されたか否かを、図示されない音声出力部を用いて音声出力すればよい。   In the above-described embodiment, the detection result of the object is notified to the monitor located outside the object detection system using the display unit. However, the detection result may be notified by voice. Good. In this case, for example, whether or not the object is detected from the frame image where the object is to be detected may be output as a sound using a sound output unit (not shown).

また、カメラ1の撮影によって得られるフレーム画像の画像特徴(明るさや色合い)は、様々な要因によって変化する。この変化は、主として、カメラ1の照明条件(即ち、カメラ1の撮影領域を照らす光源の状態)の変化によってもたらされる。しかし、例えば、カメラ1の撮影領域内又は撮影領域周辺に位置する物体(部屋の壁など)の色や光沢が異なったり、その物体の配置位置が異なったりすると、光源自体に変化がなかったとしても、得られるフレーム画像の画像特徴は変化しうる。つまり、照明条件は、得られるフレーム画像の画像特徴に影響を与えるカメラ1の周辺環境条件の一種といえ、上記の物体の色や光沢、配置位置も該周辺環境条件の一種といえる。従って、上述の実施形態で述べた照明条件をカメラ1の周辺環境条件と読み替えることもできる。つまり、上述の対象物検出システムは、照明条件を含むカメラ1の周辺環境条件の変化に応じて、適切な差分処理が行われることを可能とする対比用背景画像を出力するシステムであると考えることもできる。   In addition, the image characteristics (brightness and hue) of the frame image obtained by photographing with the camera 1 vary depending on various factors. This change is mainly caused by a change in the illumination condition of the camera 1 (that is, the state of the light source that illuminates the imaging region of the camera 1). However, for example, if the color or gloss of an object (such as a wall of a room) located in or around the shooting area of the camera 1 is different or the arrangement position of the object is different, the light source itself is not changed. However, the image characteristics of the obtained frame image can change. That is, the illumination condition is a kind of ambient environment condition of the camera 1 that affects the image characteristics of the obtained frame image, and the color, gloss, and arrangement position of the object are also a kind of the ambient environment condition. Therefore, the illumination conditions described in the above embodiment can be read as the ambient environment conditions of the camera 1. In other words, the above-described object detection system is considered to be a system that outputs a background image for comparison that allows appropriate difference processing to be performed in accordance with changes in the surrounding environmental conditions of the camera 1 including illumination conditions. You can also

また、図1の検出処理部2は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて検出処理部2を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。検出処理部2にて行う必要のある演算処理の全部又は一部を、プログラムとして記述し、該プログラムをプログラム実行装置上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。   The detection processing unit 2 in FIG. 1 can be realized by hardware or a combination of hardware and software. When the detection processing unit 2 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. All or part of the arithmetic processing that needs to be performed by the detection processing unit 2 is described as a program, and the program is executed on the program execution device to realize all or part of the arithmetic processing. May be.

同様に、図22のモジュール側処理部52及び監視側処理部62のそれぞれは、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いてそれらを構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。モジュール側処理部52及び監視側処理部62にて行う必要のある演算処理の全部又は一部を、プログラムとして記述し、該プログラムをプログラム実行装置上で実行することによって、その演算処理の全部または一部を実現するようにしてもよい。   Similarly, each of the module side processing unit 52 and the monitoring side processing unit 62 in FIG. 22 can be realized by hardware or a combination of hardware and software. When configuring them using software, a block diagram of a part realized by software represents a functional block diagram of the part. By describing all or part of the arithmetic processing that needs to be performed by the module side processing unit 52 and the monitoring side processing unit 62 as a program and executing the program on the program execution device, all of the arithmetic processing or You may make it implement | achieve a part.

例えば、以下のように考えることができる。被検出画像中の予測領域と非予測領域とを特定するマスクを生成する生成部は、図4のマスク生成部15によって形成され、対比用背景画像を生成する対比用背景画像生成部は、図4の対比用背景画像生成部19によって形成される。そして例えば、そのマスク生成部及び対比用背景画像生成部と図1の差分処理部12とを含んで形成される部分が、対象物検出装置(又は物体検出装置)を形成する。この対象物検出装置(又は物体検出装置)に、図1の画像取得部11、表示制御部13、図4のモデル生成部17の全部或いはそれらの内の何れかが更に含まれていると考えることも可能である。   For example, it can be considered as follows. A generation unit that generates a mask for specifying a prediction region and a non-prediction region in the detected image is formed by the mask generation unit 15 in FIG. 4, and the comparison background image generation unit that generates the comparison background image 4 comparison background image generation units 19. For example, a portion formed by including the mask generation unit and the comparison background image generation unit and the difference processing unit 12 of FIG. 1 forms an object detection device (or object detection device). This object detection device (or object detection device) is considered to further include all or any of the image acquisition unit 11, the display control unit 13, and the model generation unit 17 of FIG. It is also possible.

上記の対象物検出装置が実現する機能をプログラムとして記述し、そのプログラムを読み込ませたコンピュータ(不図示)に該機能を実現させる場合は、図1、図4、図8、図10及び図19の差分処理部12、マスク生成部15、及び対比用背景画像生成部19,19a及び19bなどの処理内容や、図9及び図11に示す模式図や図20に示すフローチャートをプログラムとして記述すれば良い。   When the functions realized by the object detection apparatus are described as a program and the computer (not shown) that reads the program realizes the functions, FIG. 1, FIG. 4, FIG. 8, FIG. The processing contents of the difference processing unit 12, the mask generation unit 15, and the comparison background image generation units 19, 19a and 19b, the schematic diagrams shown in FIGS. 9 and 11, and the flowchart shown in FIG. 20 are described as a program. good.

以上、本発明における実施形態についてそれぞれ説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実行することができる。   As mentioned above, although each embodiment in the present invention was described, the range of the present invention is not limited to this, and can be carried out by adding various changes without departing from the gist of the invention.

本発明の実施形態に係る対象物検出システムの全体ブロック図である。1 is an overall block diagram of an object detection system according to an embodiment of the present invention. 図1の対象物検出システムによる対象物の検出方法の原理を説明するための図である。It is a figure for demonstrating the principle of the detection method of the target object by the target object detection system of FIG. 図1の表示部3に表示される画像の例を示す図である。It is a figure which shows the example of the image displayed on the display part 3 of FIG. 図1の対比用背景画像供給部の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the contrast background image supply part of FIG. 図4のマスク生成部から出力されるマスクの模式図である。It is a schematic diagram of the mask output from the mask production | generation part of FIG. 図4のモデル生成部にて生成される統計モデルを説明するための図である。It is a figure for demonstrating the statistical model produced | generated in the model production | generation part of FIG. 図4のモデル生成部にて生成される小ブロック統計モデルを説明するための図である。It is a figure for demonstrating the small block statistical model produced | generated in the model production | generation part of FIG. 図1の対比用背景画像供給部の第1構成例を示すブロック図である。It is a block diagram which shows the 1st structural example of the contrast background image supply part of FIG. 図8の対比用背景画像供給部の第1構成例の動作を説明するための模式図である。It is a schematic diagram for demonstrating operation | movement of the 1st structural example of the contrast background image supply part of FIG. 図1の対比用背景画像供給部の第2構成例を示すブロック図である。It is a block diagram which shows the 2nd structural example of the contrast background image supply part of FIG. 図10の対比用背景画像供給部の第2構成例の動作を説明するための模式図である。It is a schematic diagram for demonstrating operation | movement of the 2nd structural example of the contrast background image supply part of FIG. 多数のサンプル背景画像がクラスタリングされる様子を表す図である。It is a figure showing a mode that many sample background images are clustered. 統計モデルに含まれる背景モデル画像の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the background model image contained in a statistical model. 画像の特徴量及び特徴ベクトルがヒストグラムによって表現されることを示す図である。It is a figure which shows that the feature-value and feature vector of an image are expressed with a histogram. 対比されるべき一方の画像のヒストグラムと、他方の画像のヒストグラムを示す図である。It is a figure which shows the histogram of one image which should be contrasted, and the histogram of the other image. 本発明の第4実施例に係り、対比用画像[非予測領域]と合成履歴とに基づいて、対比用画像[予測領域]に充てる小ブロック背景モデル画像の組み合わせを推定する方法について説明するための図である。To describe a method of estimating a combination of small block background model images used for a comparison image [prediction region] based on a comparison image [non-prediction region] and a synthesis history according to the fourth embodiment of the present invention. FIG. 小ブロックの相関を求める方法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring the correlation of a small block. 推定モデルを説明するための図である。It is a figure for demonstrating an estimation model. 本発明の第5実施例に係る対象物検出システムの全体ブロック図である。It is a whole block diagram of the target object detection system which concerns on 5th Example of this invention. 本発明の第5実施例に係る対象物検出システムの全体的な動作の流れを表すフローチャートである。It is a flowchart showing the flow of the whole operation | movement of the target object detection system which concerns on 5th Example of this invention. 現フレーム画像と推定モデルに基づく対比用背景画像との差分処理の様子を示す図である。It is a figure which shows the mode of the difference process with the background image for a comparison based on the present frame image and an estimation model. 本発明の第6実施例に係る対象物検出システムの全体ブロック図である。It is a whole block diagram of the target object detection system which concerns on 6th Example of this invention.

符号の説明Explanation of symbols

1 カメラ
2 検出処理部
3 表示部
11 画像取得部
12 差分処理部
13 表示制御部
14 対比用背景画像供給部
15 マスク生成部
16 画像保持部
17 モデル生成部
18 モデル保持部
19,19a,19b 対比用背景画像生成部
DESCRIPTION OF SYMBOLS 1 Camera 2 Detection processing part 3 Display part 11 Image acquisition part 12 Difference processing part 13 Display control part 14 Background image supply part 14 for comparison 15 Mask generation part 16 Image holding part 17 Model generation part 18 Model holding part 19, 19a, 19b Comparison Background image generator

Claims (10)

カメラの撮影に基づく被検出画像を順次取得し、前記被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する対象物検出装置であって、
前記被検出画像中の前記対象物が存在すると予測される予測領域と、当該予測領域以外の領域である非予測領域とを特定するマスクを生成するマスク生成部と、
前記マスクによって特定される前記予測領域と差分が求められる領域と、前記非予測領域と差分が求められる領域と、で生成方式を異ならせて前記対比用背景画像を生成する対比用背景画像生成部と、
を備える
ことを特徴とする対象物検出装置。
A target detection apparatus that sequentially acquires detected images based on camera shooting, and detects a target in a shooting region of the camera based on a difference result between the detected image and a contrast background image,
A mask generation unit that generates a mask that identifies a prediction region in which the object in the detected image is predicted to exist and a non-prediction region that is a region other than the prediction region;
A background image generation unit for comparison that generates the background image for comparison by using different generation methods for the region that is different from the prediction region specified by the mask and the region that is different from the non-prediction region. When,
An object detection apparatus comprising:
前記対比用背景画像生成部が、前記被検出画像の前記非予測領域に基づいて、前記対比用背景画像の前記予測領域と差分が求められる領域と、前記非予測領域と差分が求められる領域と、のそれぞれを生成する
ことを特徴とする請求項1に記載の対象物検出装置。
The comparison background image generation unit, based on the non-prediction area of the detected image, an area where the difference from the prediction area of the comparison background image is obtained, and an area where the difference is obtained from the non-prediction area; Each of these is produced | generated, The target object detection apparatus of Claim 1 characterized by the above-mentioned.
前記撮影領域内に前記対象物が含まれない状態で撮影された複数の画像を保持する画像保持部と、
前記画像保持部に保持された前記複数の画像から複数のモデル画像を生成するモデル生成部と、
前記モデル生成部で生成された前記モデル画像を保持するモデル保持部と、
をさらに備え、
前記対比用背景画像生成部が、前記モデル保持部に保持された前記モデル画像を用いて前記対比用背景画像を生成するものであるとともに、前記被検出画像の前記非予測領域と類似する前記モデル画像を用いて、少なくとも前記対比用背景画像の前記非予測領域と差分が求められる領域を生成する生成方式を使用する
ことを特徴とする請求項2に記載の対象物検出装置。
An image holding unit that holds a plurality of images shot in a state where the object is not included in the shooting region;
A model generation unit that generates a plurality of model images from the plurality of images held in the image holding unit;
A model holding unit for holding the model image generated by the model generating unit;
Further comprising
The comparison background image generation unit generates the comparison background image using the model image held in the model holding unit, and is similar to the non-predicted region of the detected image. The object detection apparatus according to claim 2, wherein a generation method is used to generate at least a region in which a difference from the non-predicted region of the comparison background image is obtained using an image.
前記被検出画像を細分化した領域である小ブロックのそれぞれに対応する複数の小ブロック背景モデル画像が、前記モデル保持部に保持され、
前記対比用背景画像生成部が、前記対比用背景画像の前記非予測領域と差分が求められる領域を生成する際に、
前記被検出画像の前記非予測領域の前記小ブロック毎に、最も類似する前記小ブロック背景モデル画像を前記モデル保持部からそれぞれ選択し、選択された当該小ブロック背景モデル画像を用いて前記対比用背景画像の前記非予測領域と差分が求められる領域を生成する生成方式を使用する
ことを特徴とする請求項3に記載の対象物検出装置。
A plurality of small block background model images corresponding to each of the small blocks that are subdivided areas of the detected image are held in the model holding unit,
When the comparison background image generation unit generates an area in which a difference is obtained from the non-predicted area of the comparison background image,
For each small block in the non-predicted region of the detected image, the most similar small block background model image is selected from the model holding unit, and the selected small block background model image is used for the comparison. The object detection apparatus according to claim 3, wherein a generation method for generating an area in which a difference from the non-predicted area of the background image is obtained is used.
前記被検出画像の全体と対応する複数の背景モデル画像が、前記モデル保持部に保持され、
前記対比用背景画像生成部が、前記対比用背景画像の前記予測領域と差分が求められる領域を生成する際に、
記非予測領域と等しい位置の領域が最も類似する前記背景モデル画像を前記モデル保持部から選択し、選択された当該背景モデル画像から前記予測領域と等しい位置の領域を抽出して用いることで、前記対比用背景画像の前記非予測領域と差分が求められる領域を生成する生成方式を使用する
ことを特徴とする請求項4に記載の対象物検出装置。
A plurality of background model images corresponding to the entire detected image are held in the model holding unit,
When the comparison background image generation unit generates an area in which a difference is obtained from the prediction area of the comparison background image,
By selecting the background model image having the most similar region at the same position as the non-predicted region from the model holding unit, and extracting and using the region at the same position as the predicted region from the selected background model image, The object detection apparatus according to claim 4, wherein a generation method for generating an area in which a difference from the non-predicted area of the comparison background image is obtained is used.
前記対比用背景画像が、前記対比用背景画像生成部により前記モデル保持部に保持された複数の前記小ブロック背景モデル画像の中から選択されるとともに組み合わせられて成るものであり、
前記対比用背景画像生成部から出力された前記対比用背景画像に用いられた前記小ブロック背景モデル画像の、組み合わせの履歴である合成履歴を保持するモデル合成履歴保持部をさらに備え、
前記対比用背景画像生成部が、前記対比用背景画像の前記予測領域と差分が求められる領域を生成する際に、
前記合成履歴と、前記対比用背景画像の前記非予測領域と差分が求められる領域を成す前記小ブロック背景モデル画像の組み合わせと、に基づいて、前記対比用背景画像の前記予測領域と差分が求められる領域に用いられる前記小ブロック背景モデル画像を選択して生成する生成方式を使用する
ことを特徴とする請求項4に記載の対象物検出装置。
The comparison background image is selected and combined from the plurality of small block background model images held in the model holding unit by the comparison background image generation unit,
A model synthesis history holding unit that holds a synthesis history that is a combination history of the small block background model image used in the background image for comparison output from the background image generation unit for comparison;
When the comparison background image generation unit generates an area in which a difference is obtained from the prediction area of the comparison background image,
Based on the combination history and the combination of the small block background model image that forms a region where a difference is obtained from the non-predicted region of the comparison background image, the difference between the prediction region and the prediction region of the comparison background image is obtained. The object detection apparatus according to claim 4, wherein a generation method for selecting and generating the small block background model image used for a region to be used is used.
前記モデル合成履歴保持部が、前記合成履歴に基づいて前記小ブロック同士の前記小ブロック背景画像の選択結果についての相関を求め、この情報を前記合成履歴に含ませるとともに、
前記対比用背景画像生成部が、前記対比用背景画像の前記予測領域と差分が求められる領域を生成するために前記小ブロック背景モデル画像を選択する際に、
前記小ブロック背景画像を選択しようとする前記小ブロックと相関が高い前記小ブロックに用いられる前記小ブロック背景モデル画像に基づいて、前記対比用背景画像の前記予測領域と差分が求められる領域の前記小ブロック背景モデル画像を選択して生成する生成方式を使用する
ことを特徴とする請求項6に記載の対象物検出装置。
The model synthesis history holding unit obtains a correlation about the selection result of the small block background image between the small blocks based on the synthesis history, and includes this information in the synthesis history.
When the background image for comparison generation unit selects the small block background model image to generate an area for which a difference is obtained from the prediction area of the background image for comparison,
Based on the small block background model image used for the small block having a high correlation with the small block for which the small block background image is to be selected, the prediction region of the comparison background image and the region in which the difference is obtained. The object detection apparatus according to claim 6, wherein a generation method of selecting and generating a small block background model image is used.
撮影によって被検出画像を得るカメラと、
請求項1〜請求項7の何れかに記載の対象物検出装置と、
を備える
ことを特徴とする対象物検出システム。
A camera for obtaining a detected image by shooting;
The object detection device according to any one of claims 1 to 7,
An object detection system comprising:
撮影によって被検出画像を得るカメラ及び前記被検出画像に基づく画像を表示する表示装置を備えるシステムに用いられ、且つ、前記カメラから前記被検出画像を順次取得し、前記被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する対象物検出方法であって、
前記対比用背景画像を生成する際に、
前記被検出画像中の前記対象物が存在すると予測される予測領域と、当該予測領域以外の領域である非予測領域とを特定し、
前記対比用背景画像の前記非予測領域と差分が求められる領域と、前記予測領域と差分が求められる領域と、で生成方式を異ならせる
ことを特徴とする対象物検出方法。
Used in a system including a camera that obtains an image to be detected by photographing and a display device that displays an image based on the image to be detected, and sequentially acquires the image to be detected from the camera, and a background for comparison with the image to be detected An object detection method for detecting an object in an imaging region of the camera based on a difference result with an image,
When generating the contrast background image,
Identifying a predicted region where the object in the detected image is predicted to exist and a non-predicted region that is a region other than the predicted region;
An object detection method, wherein a generation method is different between a region where a difference from the non-predicted region of the background image for comparison is obtained and a region where a difference is obtained from the prediction region.
カメラの撮影によって順次得られる被検出画像と対比用背景画像との差分結果に基づいて前記カメラの撮影領域内における対象物を検出する機能をコンピュータに実現させるためのプログラムであって、
前記被検出画像中の前記対象物が存在すると予測される予測領域と、当該予測領域以外の領域である非予測領域とを特定する機能と、
前記非予測領域と差分が求められる領域と、前記予測領域と差分が求められる領域と、で生成方式を異なるものとして前記対比用背景画像を生成する機能と、
を前記コンピュータに実現させるためのプログラム。
A program for causing a computer to realize a function of detecting an object in a shooting region of the camera based on a difference result between a detected image sequentially obtained by camera shooting and a background image for comparison,
A function for specifying a prediction region where the object in the detected image is predicted to exist and a non-prediction region other than the prediction region;
A function of generating the comparison background image with different generation methods in the non-predicted region and the region in which the difference is obtained, and in the prediction region and the region in which the difference is obtained;
A program for causing the computer to realize the above.
JP2008112764A 2008-04-23 2008-04-23 Object detection device and method, object detection system, and program Pending JP2009265827A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008112764A JP2009265827A (en) 2008-04-23 2008-04-23 Object detection device and method, object detection system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008112764A JP2009265827A (en) 2008-04-23 2008-04-23 Object detection device and method, object detection system, and program

Publications (1)

Publication Number Publication Date
JP2009265827A true JP2009265827A (en) 2009-11-12

Family

ID=41391625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008112764A Pending JP2009265827A (en) 2008-04-23 2008-04-23 Object detection device and method, object detection system, and program

Country Status (1)

Country Link
JP (1) JP2009265827A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102208016A (en) * 2010-03-30 2011-10-05 索尼公司 Image processing apparatus and method, and program
JP2013254291A (en) * 2012-06-06 2013-12-19 Mega Chips Corp Moving object detection device, moving object detection method and program
JP2016503531A (en) * 2012-10-26 2016-02-04 バクスター・コーポレーション・イングルウッドBaxter Corporation Englewood Improving image acquisition for medical dosage preparation systems
JP2018010621A (en) * 2016-05-16 2018-01-18 アクシス アーベー Method and device for updating background model used for background difference of image
US10275890B2 (en) 2015-11-20 2019-04-30 Sony Interactive Entertainment Inc. Image processing device and method for creating a background image
US10347374B2 (en) 2008-10-13 2019-07-09 Baxter Corporation Englewood Medication preparation system
CN110103820A (en) * 2019-04-24 2019-08-09 深圳市轱辘汽车维修技术有限公司 The method, apparatus and terminal device of the abnormal behaviour of personnel in a kind of detection vehicle
JP2019169144A (en) * 2018-03-22 2019-10-03 キヤノン株式会社 Image processing device, image processing method, and storage medium for storing command
JP2019169145A (en) * 2018-03-22 2019-10-03 キヤノン株式会社 Image processing device, image processing method, and storage medium for storing command
US10646405B2 (en) 2012-10-26 2020-05-12 Baxter Corporation Englewood Work station for medical dose preparation system
US10818387B2 (en) 2014-12-05 2020-10-27 Baxter Corporation Englewood Dose preparation data analytics
US10909379B2 (en) 2018-03-22 2021-02-02 Canon Kabushiki Kaisha Image processing apparatus and method, and storage medium storing instruction
US10929686B2 (en) 2018-03-22 2021-02-23 Canon Kabushiki Kaisha Image processing apparatus and method and storage medium storing instructions
US11107574B2 (en) 2014-09-30 2021-08-31 Baxter Corporation Englewood Management of medication preparation with formulary management
CN113406042A (en) * 2020-03-16 2021-09-17 豪夫迈·罗氏有限公司 Method for determining a property of a sample container in an in vitro diagnostic system, analysis device and in vitro diagnostic system
US11367533B2 (en) 2014-06-30 2022-06-21 Baxter Corporation Englewood Managed medical information exchange
US11575673B2 (en) 2014-09-30 2023-02-07 Baxter Corporation Englewood Central user management in a distributed healthcare information management system
US11948112B2 (en) 2015-03-03 2024-04-02 Baxter Corporation Engelwood Pharmacy workflow management with integrated alerts

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10347374B2 (en) 2008-10-13 2019-07-09 Baxter Corporation Englewood Medication preparation system
CN102208016A (en) * 2010-03-30 2011-10-05 索尼公司 Image processing apparatus and method, and program
JP2013254291A (en) * 2012-06-06 2013-12-19 Mega Chips Corp Moving object detection device, moving object detection method and program
US10971257B2 (en) 2012-10-26 2021-04-06 Baxter Corporation Englewood Image acquisition for medical dose preparation system
JP2016503531A (en) * 2012-10-26 2016-02-04 バクスター・コーポレーション・イングルウッドBaxter Corporation Englewood Improving image acquisition for medical dosage preparation systems
US10646405B2 (en) 2012-10-26 2020-05-12 Baxter Corporation Englewood Work station for medical dose preparation system
US10089444B2 (en) 2012-10-26 2018-10-02 Baxter Corporation Englewood Image acquisition for medical dose preparation system
JP2020044377A (en) * 2012-10-26 2020-03-26 バクスター・コーポレーション・イングルウッドBaxter Corporation Englewood Improved image acquisition for medical dose preparation system
US11367533B2 (en) 2014-06-30 2022-06-21 Baxter Corporation Englewood Managed medical information exchange
US11107574B2 (en) 2014-09-30 2021-08-31 Baxter Corporation Englewood Management of medication preparation with formulary management
US11575673B2 (en) 2014-09-30 2023-02-07 Baxter Corporation Englewood Central user management in a distributed healthcare information management system
US10818387B2 (en) 2014-12-05 2020-10-27 Baxter Corporation Englewood Dose preparation data analytics
US11948112B2 (en) 2015-03-03 2024-04-02 Baxter Corporation Engelwood Pharmacy workflow management with integrated alerts
US10275890B2 (en) 2015-11-20 2019-04-30 Sony Interactive Entertainment Inc. Image processing device and method for creating a background image
US10152645B2 (en) 2016-05-16 2018-12-11 Axis Ab Method and apparatus for updating a background model used for background subtraction of an image
JP2018010621A (en) * 2016-05-16 2018-01-18 アクシス アーベー Method and device for updating background model used for background difference of image
US10909379B2 (en) 2018-03-22 2021-02-02 Canon Kabushiki Kaisha Image processing apparatus and method, and storage medium storing instruction
US10929686B2 (en) 2018-03-22 2021-02-23 Canon Kabushiki Kaisha Image processing apparatus and method and storage medium storing instructions
JP2019169145A (en) * 2018-03-22 2019-10-03 キヤノン株式会社 Image processing device, image processing method, and storage medium for storing command
JP2019169144A (en) * 2018-03-22 2019-10-03 キヤノン株式会社 Image processing device, image processing method, and storage medium for storing command
CN110103820A (en) * 2019-04-24 2019-08-09 深圳市轱辘汽车维修技术有限公司 The method, apparatus and terminal device of the abnormal behaviour of personnel in a kind of detection vehicle
CN113406042A (en) * 2020-03-16 2021-09-17 豪夫迈·罗氏有限公司 Method for determining a property of a sample container in an in vitro diagnostic system, analysis device and in vitro diagnostic system
JP2021148793A (en) * 2020-03-16 2021-09-27 エフ ホフマン−ラ ロッシュ アクチェン ゲゼルシャフト Method for determining characteristics of sample container in in-vitro diagnostics system, analyzing device, and in-vitro diagnostics system
US11645755B2 (en) 2020-03-16 2023-05-09 Roche Diagnostics Operations, Inc. Method for determining characteristics of a sample container in an in-vitro diagnostics system, analyzing device, and in-vitro diagnostics system
JP7358411B2 (en) 2020-03-16 2023-10-10 エフ ホフマン-ラ ロッシュ アクチェン ゲゼルシャフト Methods, analytical devices, and in vitro diagnostic systems for determining characteristics of sample containers in in vitro diagnostic systems

Similar Documents

Publication Publication Date Title
JP2009265827A (en) Object detection device and method, object detection system, and program
US10198823B1 (en) Segmentation of object image data from background image data
CN108876791B (en) Image processing method, device and system and storage medium
US7978936B1 (en) Indicating a correspondence between an image and an object
CN106878668B (en) Movement detection of an object
CN108460362B (en) System and method for detecting human body part
JP5263694B2 (en) Object position estimation information creation apparatus, object position estimation information creation method, and program
WO2016106383A2 (en) First-person camera based visual context aware system
JP6547744B2 (en) Image processing system, image processing method and program
CN110572636B (en) Camera contamination detection method and device, storage medium and electronic equipment
JP2015041383A (en) Object tracking method and object tracking device
JP2006163452A (en) Tracking device and tracking method
JP2007094679A (en) Image analyzing device, image analyzing program and image analyzing program storage medium
JP2014093058A (en) Image management device, image management method, program and integrated circuit
JP4999794B2 (en) Still region detection method and apparatus, program and recording medium
JP2009123150A (en) Object detection apparatus and method, object detection system and program
CN113688820A (en) Stroboscopic stripe information identification method and device and electronic equipment
CN111124863B (en) Intelligent device performance testing method and device and intelligent device
CN113596344B (en) Shooting processing method, shooting processing device, electronic equipment and readable storage medium
JP4751886B2 (en) Image judgment method
CN113779257A (en) Method, device, equipment, medium and product for analyzing text classification model
JP2021007055A (en) Discriminator learning device, discriminator learning method, and computer program
CN112233139A (en) System and method for detecting motion during 3D data reconstruction
CN111753796A (en) Method and device for identifying key points in image, electronic equipment and storage medium
CN116597361A (en) Image recognition tracking method, device and equipment of cleaning machine and readable storage medium