JP4628860B2 - Image sensor - Google Patents
Image sensor Download PDFInfo
- Publication number
- JP4628860B2 JP4628860B2 JP2005137867A JP2005137867A JP4628860B2 JP 4628860 B2 JP4628860 B2 JP 4628860B2 JP 2005137867 A JP2005137867 A JP 2005137867A JP 2005137867 A JP2005137867 A JP 2005137867A JP 4628860 B2 JP4628860 B2 JP 4628860B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- distance
- object candidate
- area
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003860 storage Methods 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000003384 imaging method Methods 0.000 claims description 31
- 230000008859 change Effects 0.000 claims description 30
- 238000012544 monitoring process Methods 0.000 claims description 28
- 238000009434 installation Methods 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 5
- 230000004075 alteration Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 40
- 238000012545 processing Methods 0.000 description 40
- 230000008569 process Effects 0.000 description 31
- 230000005856 abnormality Effects 0.000 description 22
- 238000001514 detection method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像情報に基づいて移動物体を追跡する画像センサに関し、特に、画像中にカメラ近傍から遠方までの情報が含まれる場合において移動物体の追跡精度を向上させた画像センサに関する。 The present invention relates to an image sensor that tracks a moving object based on image information, and more particularly, to an image sensor that improves the tracking accuracy of a moving object when information from the vicinity of the camera to a distance is included in the image.
従来、撮像装置としてのカメラから入力される画像と過去の画像との変化態様から侵入者等の移動物体の特徴を示す領域を検出して異常出力するような画像監視装置が知られている。この画像監視装置としては、例えば、現在撮影した入力画像と予め記憶している過去の画像とを比較して、両画像の差分を変動領域として抽出し、この抽出された領域について面積や移動速度などを演算し、侵入者が存在するか否かを判断するものが知られるところである。 2. Description of the Related Art Conventionally, there is known an image monitoring apparatus that detects a region indicating characteristics of a moving object such as an intruder and abnormally outputs it from a change mode between an image input from a camera as an imaging device and a past image. As this image monitoring apparatus, for example, a currently captured input image is compared with a previously stored past image, a difference between both images is extracted as a variable region, and the area and moving speed of the extracted region are extracted. Such a device is known that determines whether or not an intruder exists by calculating the above.
このような画像監視装置に関して、特に、特許文献1には、カメラの高さや俯角などの設置条件を用いて、侵入物の高さや大きさ、移動速度などの情報を検出し、移動物体を識別する侵入物検出装置が記載されている。この侵入物検出装置では、画面上で抽出された移動物体の位置に基づいて、カメラから当該物体までの距離を測定し、この距離に基づいて移動物体の大きさ、移動速度などを算出し、当該移動物体が侵入者であるか否かを判定している。
上述した従来の侵入物検出装置では、抽出された移動物体を複数フレーム追跡し、カメラから当該物体までの実際の(実空間上の)距離に基づき物体の移動距離を算出して移動速度を求め、侵入者か否かの判定を行っている。
しかしながら、従来の侵入物検出装置では、画像から実空間上の移動距離を求めて移動物体の移動速度を算出するために、遠方に存在する移動物体に対しては移動速度の計測精度が低下するという問題がある。
In the conventional intruder detection apparatus described above, the extracted moving object is tracked for a plurality of frames, and the moving speed of the object is calculated based on the actual (in real space) distance from the camera to the object. Whether or not it is an intruder is determined.
However, in the conventional intruder detection device, since the moving speed of the moving object is calculated by obtaining the moving distance in real space from the image, the accuracy of measuring the moving speed is lowered for a moving object that exists far away. There is a problem.
一般に、撮像画像には、近くの物体は大きく(画素数大)、遠くの物体は小さく(画素数小)写り込む。即ち、遠方に存在する移動物体は画像上の1画素当たりの距離分解能が低く(1画素当たりの実空間上の距離が大きく)なり移動距離の計測精度が低下する。言い換えれば、撮像画像における1画素当たりの実空間上の距離は、被写体が遠方になる程大きくなるため、遠方の移動物体については算出される実空間上の移動距離が誤差分を多く含むこととなる。 Generally, in a captured image, a nearby object is large (large number of pixels) and a far object is small (small number of pixels). That is, a moving object present in the distance has a low distance resolution per pixel on the image (a large distance in real space per pixel), and the measurement accuracy of the moving distance is lowered. In other words, since the distance in the real space per pixel in the captured image increases as the subject moves further away, the calculated movement distance in the real space for a distant moving object includes a large amount of error. Become.
このため、先行文献では、遠方の移動物体が画像上で数画素ズレただけで、算出される実空間上の移動距離や移動距離に基づき算出される移動速度が、人であると判定するためのしきい値を超えて非常に大きな値となるおそれがある。したがって、従来の侵入物検出装置は、遠方の移動物体に対して実空間上の移動距離や速度に基づき人であることを判定することが困難であり、広範な空間の監視用途には適さないという問題がある。 For this reason, in the prior art document, the moving speed calculated based on the moving distance in the real space and the moving distance is determined to be a person only when the distant moving object is shifted by several pixels on the image. There is a risk of exceeding the threshold value and becoming a very large value. Therefore, it is difficult for the conventional intruder detection device to determine that a distant moving object is a person based on a moving distance or speed in real space, and is not suitable for a wide space monitoring application. There is a problem.
このような実空間上距離の計測精度の低下は、特にカメラ光軸の俯角を小さくした場合に顕著となる。カメラ光軸の俯角がゼロに近い場合、撮影される画像は水平線を含み、理論上距離無限大の点まで見渡すこととなる。
例えば、撮像範囲を広範とするためにカメラ光軸の俯角を小さくするように設置した場合、入力画像にはカメラ近傍から遠方までが含まれることとなるが、従来の侵入物検出装置による手法では、カメラ近傍に存在する侵入者しか検出することができず、遠方に存在する侵入者を検出することが困難となる。
Such a decrease in the measurement accuracy of the real space distance is particularly noticeable when the depression angle of the camera optical axis is reduced. When the depression angle of the camera optical axis is close to zero, the photographed image includes a horizontal line, and the point where the distance is theoretically infinite is overlooked.
For example, when the camera is installed so that the depression angle of the camera optical axis is reduced in order to widen the imaging range, the input image includes from the vicinity of the camera to the distant place. Only intruders in the vicinity of the camera can be detected, and it is difficult to detect intruders in the distance.
そこで、本発明は、画像中にカメラ近傍から遠方までが含まれる場合であっても、精度良く侵入者を検出できる画像センサの提供を目的とする。 Therefore, an object of the present invention is to provide an image sensor that can accurately detect an intruder even when an image includes from the vicinity of the camera to a distance.
上記目的を達成するために本発明よる画像センサは、撮像部にて順次取得される監視空間の撮像画像と過去の画像との差分から変動領域を抽出するとともに該変動領域の移動を追跡する画像センサであって、前記撮像画像において前記監視空間の遠方が写り込んだ領域を遠方領域として設定する遠方領域設定部と、前記撮像部の設置高・俯角・画角を含む設置情報、前記遠方領域、及び抽出した変動領域の位置を記憶する記憶部と、前記変動領域が前記遠方領域に位置しているか否かを判定する存在位置判定部と、前記設置情報に基づいて前記撮像画像上の距離を前記監視空間上の実距離に変換する画像距離算出部と、前記存在位置判定部が時間的に前後して抽出された変動領域の少なくとも一方の位置を前記遠方領域内と判定すれば当該変動領域間の前記撮像画像上の距離を対応付けの条件とし、前記存在位置判定部が時間的に前後して抽出された変動領域の両方の位置を前記遠方領域外と判定すれば当該変動領域間の前記実距離を対応付けの条件として変動領域の移動を追跡する追跡部と、を備え、前記遠方領域設定部は、前記撮像画像において隣接画素間の前記実距離が予め設定された基準を超える領域を前記遠方領域として設定することを特徴としている。 In order to achieve the above object, an image sensor according to the present invention extracts a variation area from a difference between a captured image of a monitoring space sequentially acquired by an imaging unit and a past image and tracks the movement of the variation area. A distant area setting unit that sets an area in which the distant area of the monitoring space is reflected in the captured image as a distant area; installation information including an installation height, depression angle, and angle of view of the image capturing unit; and the distant area And a storage unit for storing the position of the extracted variation area, a presence position determination unit for determining whether or not the variation region is located in the far region, and a distance on the captured image based on the installation information an image distance calculating unit that converts into an actual distance on the monitor space, the be determined at least one of the position of the present position determining unit is extracted with temporally preceding variations region and the distal region variant The distance on the captured image between the regions as a condition of correspondence, the present position determining unit if the it is determined both the position outside the distal region of the variation region extracted by chronologically successive between the variable domain A tracking unit that tracks the movement of the variable region using the actual distance as a condition for association, and the far region setting unit has the actual distance between adjacent pixels in the captured image exceeding a preset reference. A region is set as the far region .
撮像画像に写り込む物体の位置が遠方となる程、画像上での物体は小さくなり、物体の形状が粗く写り込む。また、遠方となる程距離分解能が低くなり、一画素あたりに算出される実空間上の距離の信頼性が低くなる。このため、撮像画像に写り込む物体の位置が遠方となる程、画像上での移動距離は短くなるが、変動領域に写り込む物体の姿勢や変動領域として抽出された形状によっては、画像上での移動距離を変換して得られた実空間上の距離が、誤差を多分に含んで非常に大きな値となることがある。したがって、遠方の物体に関しては、実空間上の距離により対応付けを行っていると、対応付けできない可能性がある。
他方、撮像画像に写り込む物体の位置が近傍となる程、画像上での移動距離は長くなるが、画像上での移動距離を変換して得られた実空間上の距離は、信頼性の高い値となる。
The farther the position of the object reflected in the captured image is, the smaller the object on the image becomes, and the object shape is roughly reflected. Further, the distance resolution becomes lower as the distance increases, and the reliability of the distance in real space calculated per pixel becomes lower. For this reason, the farther the position of the object reflected in the captured image is, the shorter the moving distance on the image becomes.However, depending on the posture of the object reflected in the fluctuation area and the shape extracted as the fluctuation area, The distance in the real space obtained by converting the movement distance may be a very large value including a lot of errors. Therefore, if a distant object is associated with a distance in real space, it may not be associated.
On the other hand, the closer the position of the object reflected in the captured image is, the longer the moving distance on the image becomes. However, the distance in the real space obtained by converting the moving distance on the image is reliable. High value.
そこで、本発明の画像センサは、遠方の物体は、画像上での移動距離となる画素数で対応付けを行い追跡して、遠方でない場所から写り込む物体については、実空間上の距離で対応付けを行い追跡する。
本発明によれば、実空間上の距離の信頼性が低くなる遠方の領域については、実空間上の距離に依存することなく移動物体を追跡(トラッキング)することが可能となり、遠方の移動物体であっても追跡することが可能となる。
Therefore, the image sensor of the present invention associates and tracks a distant object with the number of pixels that is the moving distance on the image, and corresponds to an object reflected from a place that is not far away by a distance in real space. Track and track.
According to the present invention, it is possible to track (track) a moving object without depending on the distance in the real space for a distant area where the reliability of the distance in the real space is low. Even so, it becomes possible to track.
好ましくは、前記遠方領域設定部は、前記設置情報に基づき前記撮像画像における消失線の位置を算出し、該消失線の周囲を前記遠方領域として設定することを特徴とする。これにより、消失点の集合となる消失線の位置を算出することで、簡易な計算により撮像画像において遠方を写し込む領域を設定することが可能となる。 Preferably, the far area setting unit calculates a position of a vanishing line in the captured image based on the installation information, and sets a periphery of the vanishing line as the far area. As a result, by calculating the position of the vanishing line that is a set of vanishing points, it is possible to set a region in which a distant image is captured in the captured image by simple calculation.
また、好ましくは、前記遠方領域設定部は、前記隣接画素間の実距離が第一のしきい値以上である領域を前記遠方領域として設定することを特徴とする。これにより、実空間上の距離がしきい以上として算出された、距離分解能が低い領域を遠方の領域として設定することができる。 In a preferred embodiment, the far region setting unit sets, as the far region , a region where an actual distance between the adjacent pixels is equal to or greater than a first threshold value. As a result, it is possible to set a region with a low distance resolution calculated as the distance in the real space is greater than or equal to the threshold as the far region.
また、好ましくは前記遠方領域設定部は、前記隣接画素間の実距離の変化率を算出し、該変化率が第二のしきい値以上である領域を前記遠方領域として設定することを特徴とする。これにより、監視空間の奥行き方向の画素列に対して、実空間上の距離の変化率がしきい以上として算出された、距離分解能が低い領域を遠方の領域として設定することができる。
Further, preferably said far region setting unit includes a wherein calculating the actual distance rate of change between adjacent pixels, said alteration rate sets a region is the second threshold or more as the far region To do. Accordingly, an area with a low distance resolution, which is calculated as a change rate of the distance in the real space with respect to the pixel row in the depth direction of the monitoring space, can be set as a far area.
その他、本発明は上述の画像センサに限定されない。本発明は、方法、プログラムまたはシステムの態様で表現及び特定されてもよい。例えば、本発明の別の態様は、上記構成の動作を行う画像センサの制御方法である。また本発明の別の態様は、そのような方法をコンピュータに実行させるプログラムである。 In addition, the present invention is not limited to the above-described image sensor. The present invention may be expressed and specified in the form of a method, program or system. For example, another aspect of the present invention is a method for controlling an image sensor that performs the operation of the above configuration. Another aspect of the present invention is a program that causes a computer to execute such a method.
本発明によれば、監視空間を撮影した画像に写り込んだ遠方の領域については、実空間上の距離に依存することなく移動物体を追跡(トラッキング)することが可能となり、遠方の物体であっても追跡できる。 According to the present invention, it is possible to track (track) a moving object without depending on the distance in the real space for a distant area reflected in an image obtained by photographing the monitoring space. Can track.
以下、本発明の実施の形態を図面を参照して説明する。
本発明の画像センサは、監視空間を撮像した画像において、撮像画像に写り込んだ遠方の領域を抽出し、この遠方の領域とそれ以外の領域とで異なるロジックにより移動物体のトラッキング処理を実行して、移動物体を検出するものである。
本実施の形態では、検出対象となる移動物体として監視空間内に侵入した人間(侵入者)を検出する例について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The image sensor of the present invention extracts a distant area reflected in a captured image from an image captured in a monitoring space, and executes tracking processing of a moving object by using different logic in the distant area and other areas. Thus, a moving object is detected.
In the present embodiment, an example will be described in which a human (intruder) who has entered the monitoring space as a moving object to be detected is detected.
図1は、画像センサ1の構成を示すブロック図である。
画像センサ1は、図1に示すように、撮像部10、記憶部20、画像処理部30、出力部40を含んで構成される。以下に各部を説明する。
FIG. 1 is a block diagram showing the configuration of the
As shown in FIG. 1, the
撮像部10は、カメラなどの撮像装置を含んで構成される。撮像部10は、監視空間の光学的な映像を、離散的な画素群からなるデジタル化された画像に変換して、各画素が輝度値で表現された撮像画像として画像処理部30に出力する。撮像部10は、所定の時間間隔(例えば1/5秒毎)で1フレームの撮像画像を取得して画像処理部30に出力する。
The
記憶部20は、画像センサ1の各種処理に使用される情報を記憶している。記憶部20が記憶する情報には、設置情報が含まれる。
設置情報とは、撮像部10の設置環境を示す情報で、撮像部10の設置高Hと撮像部10の俯角Φと、撮像部10より得られる画像の垂直方向(Y軸)画素数Y及び水平方向(X軸)画素数Xと、垂直画角θh及び水平画角θvとを含んでいる。画素数Y及び画素数Xは、撮像部10が出力する撮像画像から得てもよく、また、垂直画角θh及び水平画角θvは撮像部10に含まれる撮像装置の焦点距離から算出してもよい。
遠方領域情報とは、画像中の消失線周りに広がる遠方を写し込んだ領域を特定する情報である。遠方領域情報は、設置情報に基づき遠方領域設定部31によって算出されて記憶される。
The
The installation information is information indicating the installation environment of the
The far region information is information for specifying a region in which a distant region spreading around the vanishing line in the image is captured. The far area information is calculated and stored by the far
画像処理部30は、CPU等を備えたコンピュータで構成され、デジタル化された撮像画像の入力を受けて、差分処理、2値化処理、ラベリング(物体候補の検出)処理、トラッキング(物体候補の追跡)処理、特徴算出処理、異常判定処理を行う。
画像処理部30は、遠方領域設定部31と、変動領域抽出部32と、物体候補検出部33と、存在位置判定部34と、物体候補追跡部35と、画像距離算出部36と、特徴算出部37と、異常判定部38とを含んで構成される。物体候補追跡部35は、実距離追跡部351と画素距離追跡部352とを含んでいる。
The
The
遠方領域設定部31は、撮像画像に写り込んだ遠方の領域を抽出して遠方領域を設定する。図2は、撮像画像に設定された遠方領域を示す図である。図2では、説明のため遠方領域をハッチングして示している。
遠方領域設定部31は、記憶部20に記憶された設置情報に基づき、撮像部10が撮像する画像において、消失点(無限遠点)の集合となる消失線の周りに広がる領域を遠方領域として算出し、この遠方領域を特定するための座標情報を遠方領域情報として記憶部20に記憶する。遠方領域の算出方法の詳細については後述する。
The far
Based on the installation information stored in the
変動領域抽出部32は、図3に示すように、撮像部10から入力された撮像画像と基準となる背景画像とにおいて互いに対応する画素同士の差分値を算出し差分画像を生成する。背景画像は、監視空間に侵入者等が存在しない状態で撮像された画像であり、過去に予め取得され、記憶部20に記憶されている。変動領域抽出部32は、生成した差分画像に含まれる各画素の輝度値と所定のしきい値との大小に基づいて差分画像を2値化して、輝度値の変動がしきい値以上となる変動画素を抽出した差分2値画像を生成する。これにより、輝度値の変動がしきい値以上であった変動画素からなる変動領域が抽出される。このとき、膨張・収縮や微小面積除外のフィルタリングによりノイズを除去した2値画像を生成することが好ましい。算出された差分2値画像は、次回の撮像画像に対するトラッキング処理の基準とするために記憶部20に記憶される。
なお、背景画像は、所定時間毎に撮像された画像で更新する構成としてもよい。また、所定フレーム前に取得された撮像画像を背景画像として用いることにより、フレーム間における差分画像を求めてもよい。
As illustrated in FIG. 3, the fluctuation region extraction unit 32 calculates a difference value between pixels corresponding to each other in the captured image input from the
The background image may be updated with an image captured every predetermined time. Further, a difference image between frames may be obtained by using a captured image acquired before a predetermined frame as a background image.
物体候補検出部33は、変動領域抽出部32で生成した差分2値画像に含まれる略連続した変動画素群を1つの変動領域としてグループ化し、各変動領域に固有のラベルでラベリングする。そして、ラベリングされた各変動領域と、各変動領域に対応する背景画像(又は所定フレーム前の撮像画像)の領域とで濃淡パターンマッチング(正規化相関)処理を行い、テクスチャ類似度を算出する。算出されたテクスチャ類似度が所定値以下の変動領域を物体候補領域として判定し、それ以外の場合は外乱として除外する。
The object
存在位置判定部34は、物体候補領域と判定された変動領域が、記憶部20に記憶した遠方領域情報で特定される遠方領域に含まれているか否かを判定する。存在位置判定部34は、物体候補領域を構成する画素群の所定割合以上が遠方領域上に位置する場合に、この物体候補領域は遠方領域上に存在すると判定する。所定割合としては、例えば過半数が設定され、物体候補領域を構成する画素群の過半数が遠方領域上に位置する場合に、遠方領域上に存在すると判定される。例えば、図2の例では、物体候補領域A及び物体候補領域Bは遠方領域上に存在すると判定され、物体候補領域Cは遠方領域外に存在すると判定される。
なお、物体候補領域の重心座標を算出し、この重心座標が遠方領域上に位置する場合に物体候補領域が遠方領域上に存在すると判定してもよく、他、物体候補領域が遠方領域上に完全に含まれる場合にのみ物体候補領域が遠方領域上に存在すると判定してもよい。
The presence position determination unit 34 determines whether or not the variable region determined as the object candidate region is included in the far region specified by the far region information stored in the
Note that the centroid coordinates of the object candidate area may be calculated, and if the centroid coordinates are located on the far area, it may be determined that the object candidate area exists on the far area. It may be determined that the object candidate region exists on the far region only when it is completely included.
物体候補追跡部35は、今回の撮像で取得されたフレーム(現フレーム)で物体候補領域と判定された変動領域と直前回(数周期前でもよい)のフレーム(直前フレーム)で物体候補領域と判定された変動領域との比較により物体候補領域のトラッキング処理を行う。現フレームにおいて、直前フレームの物体候補領域の周囲に設定されたトラッキングの検索範囲に対応する領域に物体候補領域が存在すれば、その領域のサイズ、形状等の特徴量の類似度に基づいて互いに同一の物体を撮像した領域であると推定される物体候補領域同士が対応付けられる。直前フレームの物体候補領域と同一の物体を撮像した領域であると対応付けられた物体候補領域には同一のラベルが付与される。ラベリングの情報は記憶部20に記憶される。
また、直前フレームの物体候補領域と対応付けがなされない場合、現フレームで抽出された物体候補領域は監視空間に新規に出現した物体候補領域として判定される。新規に出現した物体候補領域は、その重心点の座標が出現位置座標として記憶部20に記憶される。
The object candidate tracking unit 35 determines the object candidate area and the change area determined as the object candidate area in the frame (current frame) acquired by the current imaging and the object candidate area in the immediately preceding frame (may be several cycles ago). Object candidate region tracking processing is performed by comparison with the determined variation region. In the current frame, if an object candidate area exists in an area corresponding to the tracking search range set around the object candidate area in the immediately preceding frame, each other is based on the similarity of feature quantities such as the size and shape of the area. Object candidate regions estimated to be regions obtained by imaging the same object are associated with each other. The same label is assigned to the object candidate region associated with the same object imaged as the object candidate region of the immediately preceding frame. The labeling information is stored in the
When the object candidate area in the immediately previous frame is not associated with the object candidate area, the object candidate area extracted in the current frame is determined as an object candidate area newly appearing in the monitoring space. The coordinates of the barycentric point of the newly appearing object candidate area are stored in the
トラッキングの検索範囲は、存在位置判定部34にて判定された物体候補領域が遠方領域上に位置しているか否かによって、異なるロジックにより算出される。
まず、物体候補領域が遠方領域上に位置していない場合について説明する。図4は、連続するフレームの差分2値画像であり、物体候補領域が遠方領域外で抽出された例を説明する図である。
図4に示すように、直前フレームの物体候補領域及び現フレームの物体候補領域の何れも遠方領域上に位置していない(遠方領域外に位置している)場合、実距離追跡部351によりトラッキング処理が行われる。実距離追跡部351は、トラッキングの検索範囲を、監視空間における実空間上の距離(実距離)に基づき設定して、検索範囲内の物体候補領域を探索する。即ち、物体候補領域が移動した(両フレームにおける物体候補領域間の)実距離に基づきトラッキング処理を行う。実距離追跡部351は、現フレームにおいて、直前フレームの物体候補領域の重心座標と現フレームの物体候補領域の重心座標との間の実距離が、トラッキングの検索範囲内となる物体候補領域を探索する。トラッキングの検索範囲として設定される実距離は、人の移動速度に基づき設定され、例えば、5フレーム/秒で撮像画像を取得している場合は200cmなどに設定される。実距離追跡部351にてトラッキング処理に用いられる実距離は、画像距離算出部36にて算出される。
The tracking search range is calculated by different logic depending on whether or not the object candidate region determined by the presence position determination unit 34 is located on the far region.
First, a case where the object candidate region is not located on the far region will be described. FIG. 4 is a diagram illustrating an example in which a binary image of consecutive frames is extracted, and an object candidate area is extracted outside a far area.
As shown in FIG. 4, when neither the object candidate area of the previous frame nor the object candidate area of the current frame is located on the far area (is located outside the far area), tracking is performed by the real
画像距離算出部36は、撮像画像上の任意座標間の距離を実距離に変換する。ここでは、直前フレームの物体候補領域に撮像された物体と、現フレームの物体候補領域に撮像された物体との間の実距離を算出する場合について説明する。監視空間の床面が平坦であり、物体候補領域に写し込まれた物体が床面に接地しているものと仮定することにより、記憶部20の設置情報及び各物体候補領域の撮像画像内の位置に基づいて、物体候補領域に写し込まれた物体から撮像装置までの直線距離を推定でき、これにより各物体候補領域に写し込まれる物体間の直線距離を推定することができる。
The image
以下、画像距離算出部36による実距離の算出方法について説明する。
本実施の形態では、物体間の実距離を重心間距離で算出する例について説明する。ここで、物体候補領域の重心位置は、床面からHman/2の位置にあると仮定している。Hmanは検出対象の物体となる人間の身長に基づき設定された値で、予め記憶部20に記憶されている。
図5は、撮像部と物体との間を側面から見たときの説明図である。
まず、物体が写り込んだ物体候補領域の重心座標を(xg,yg)とすると、図5に示すように、撮像部10に含まれる撮像装置と物体間を側面から見たときの床面上の距離dgは、記憶部20に記憶された設置情報に基づき数1の式を用いて算出することができる。
Hereinafter, a method for calculating the actual distance by the image
In this embodiment, an example in which the actual distance between objects is calculated using the distance between the centers of gravity will be described. Here, it is assumed that the gravity center position of the object candidate region is at a position of Hman / 2 from the floor surface. Hman is a value set based on the height of the person who is the object to be detected, and is stored in the
FIG. 5 is an explanatory diagram when the space between the imaging unit and the object is viewed from the side.
First, assuming that the center of gravity coordinates of an object candidate area in which an object is reflected is (x g , y g ), as shown in FIG. 5, the floor when the space between the imaging device included in the
図6は、撮像部と物体との間を鉛直方向から見たときの説明図である。
次に、図6に示すように、撮像装置と物体間を鉛直方向(図5中矢印Q方向)から見た床面上の距離agは、記憶部20に記憶された設置情報に基づき数2の式を用いて算出することができる。
FIG. 6 is an explanatory diagram when the space between the imaging unit and the object is viewed from the vertical direction.
Next, as shown in FIG. 6, the distance ag on the floor when the imaging apparatus and the object are viewed from the vertical direction (the direction of the arrow Q in FIG. 5) is based on the installation information stored in the
数1及び数2より、2つの物体候補領域の重心座標(xg1,yg1)(xg2,yg2)が与えられたときの2点(xg1,yg1)(xg2,yg2)間の実距離Dは、数3の式を用いて算出することができる。
From
実距離追跡部351は、画像距離算出部36により算出された実距離に基づき、直前フレームの物体候補領域の検索範囲内に存在する現フレームの物体候補領域を探索する。そして、検索範囲内に物体候補領域が検出されると、直前フレームの物体候補領域と現フレームの物体候補領域との間で、物体候補領域に含まれる画素数の変化率や物体候補領域の外接矩形の縦横比変化率などに基づき類似度を算出して、類似度が最も高い物体候補領域を、互いに同一の物体を撮像した領域として対応付けてラベリングする。ここで、類似度が所定しきい値以下の物体候補領域、例えば、5フレーム/秒で撮像画像を取得している場合、構成画素数変化率ΔSは1/10≦ΔS≦10、縦横比変化率ΔPは1/4≦ΔP≦4の各条件を満たさない物体候補領域は、同一の物体を撮像した領域でないと判定して、対応付けを行わない。
Based on the actual distance calculated by the image
次に、物体候補領域が遠方領域上に位置している場合について説明する。図7は、連続するフレームの差分2値画像であり、物体候補領域が遠方領域上で抽出された例を説明する図である。
図7に示すように、直前フレームの物体候補領域又は現フレームの物体候補領域の少なくとも何れか一方が遠方領域上に位置している場合、画素距離追跡部352によりトラッキング処理が行われる。画素距離追跡部352は、両フレーム間におけるトラッキングの検索範囲を、撮像画像上における画素数(画素距離)に基づき設定して、検索範囲内の物体候補領域を探索する。即ち、物体候補領域が移動した(両フレームにおける物体候補領域間の)画素距離に基づきトラッキング処理を行う。画素距離追跡部352は、直前フレームの物体候補領域の重心座標と現フレームの物体候補領域の重心座標との間の画素距離が、トラッキングの検索範囲内となる物体候補領域を探索する。検索範囲として設定される画素距離は、外乱を除去できる程度の値に設定され、例えば、5フレーム/秒で撮像画像を取得している場合は70pixelなどに設定される。
Next, the case where the object candidate region is located on the far region will be described. FIG. 7 is a diagram illustrating an example in which a binary image of consecutive frames is extracted, and an object candidate region is extracted on a far region.
As shown in FIG. 7, when at least one of the object candidate region of the immediately preceding frame or the object candidate region of the current frame is located on the far region, the pixel
画素距離追跡部352は、このように、直前フレームの物体候補領域の検索範囲内に存在する現フレームの物体候補領域を探索する。そして、検索範囲内に物体候補領域が検出されると、直前フレームの物体候補領域と現フレームの物体候補領域との間で、物体候補領域に含まれる画素数の変化率や物体候補領域の外接矩形の縦横比変化率などに基づき類似度を算出して、類似度が最も高い物体候補領域を、互いに同一の物体を撮像した領域として対応付けてラベリングする。類似度の算出については、実距離追跡部351と同様である。
In this way, the pixel
ここで、遠方領域設定部31による遠方領域の算出方法について説明する。
遠方領域設定部31は、画像距離算出部36により撮像画像上の座標(画素)に対応する実距離の変化率を算出し、算出された実距離の変化率に基づき遠方領域を設定する。
画像の垂直方向(Y軸)の画素列には、監視空間の奥行き方向の情報が表れている。そこで、撮像画像のY軸上における物体候補領域の重心座標yg1に対する実距離の変化率、詳しく言えば、Y軸上の座標yg1の値が1画素ずれたときに座標yg1に関して計算される実距離Dがどの程度変化するか、を調べるには実距離Dの導関数を計算すればよい。この結果、導関数の値が大きい箇所は座標yg1の値が変化したときに実距離Dの変化が大きく距離分解能が低いところ、その逆は座標yg1の値が変化したときに実距離Dの変化が小さく距離分解能が高いところとなる。
今、任意の2つの物体候補領域の重心座標(xg1,yg1)(xg2,yg2)間の実距離DをY軸上の座標yg1の関数としてみたときに、座標yg1に対する実距離Dの変化率(導関数)rgは、数4の式を用いて算出することができる。
Here, a method of calculating the far region by the far
The far
Information in the depth direction of the monitoring space appears in the pixel column in the vertical direction (Y-axis) of the image. Therefore, the rate of change of the actual distance with respect to the barycentric coordinate y g1 of the object candidate region on the Y axis of the captured image, specifically, the coordinate y g1 is calculated when the value of the coordinate y g1 on the Y axis is shifted by one pixel. To find out how much the actual distance D changes, the derivative of the actual distance D can be calculated. As a result, where the value of the derivative is large, the change in the actual distance D is large when the value of the coordinate y g1 changes, and the distance resolution is low, and vice versa, the opposite is true when the value of the coordinate y g1 changes. The change in the distance is small and the distance resolution is high.
Now, the actual distance D between any two barycentric coordinates of the object candidate region (x g1, y g1) ( x g2, y g2) when viewed as a function of the coordinates y g1 on the Y axis, with respect to the coordinate y g1 the rate of change (derivative) r g of actual distance D can be calculated using
数4は、yg1に関する二次の分数関数であり、その概形は図8に示すようになる。図8は、Y軸上の座標yg1と、座標yg1に対応する実距離Dの変化率rgとの関係を示す図である。図8において、実距離Dの変化率rgは、座標yg1の値が1画素ずれたときの実距離Dを示している。また、実距離Dの変化率rgが大きくなる程1画素当たりの距離分解能は低くなるため、図8は、Y軸上の座標yg1と、座標yg1に対する距離分解能(の逆数)を示す図としても見ることができる。
図8において、漸近線は、Y軸上の座標yg1に対して実距離Dの変化率rgが無限大となる位置を示しており、消失線を表している。即ち、図8における漸近線のyg1軸座標は、撮像画像のY軸上における消失線の座標となる。
Equation 4 is a quadratic fractional function with respect to y g1 , and its outline is as shown in FIG. FIG. 8 is a diagram showing the relationship between the coordinate y g1 on the Y axis and the rate of change r g of the actual distance D corresponding to the coordinate y g1 . 8, the change rate r g of actual distance D indicates the actual distance D when the value of the coordinate y g1 is shifted 1 pixel. Further, since the rate of change r g of actual distance D is the lower range resolution of 1 pixel per degree becomes greater, FIG. 8 shows the coordinate y g1 on the Y-axis, the distance resolution with respect to the coordinate y g1 (the inverse of) It can also be seen as a diagram.
8, asymptote, the change rate r g of actual distance D with respect to the coordinate y g1 on the Y axis represents the position becomes infinite, represents the vanishing line. That is, the y g1 axis coordinate of the asymptotic line in FIG. 8 is the coordinate of the disappearance line on the Y axis of the captured image.
図8より、撮像画像のY軸に対する実距離Dの依存性が劇的に変化する点α、βが存在することがわかる。即ち、物体候補領域のY軸上の重心座標が、点α又はβよりも消失線に近い場合は、重心座標が数画素ずれただけで実距離Dが大幅に変化することとなり、実距離Dの信頼性が低くなる。点α、βは、図8に示すように、実距離Dの変化率rgにしきい値Thを設定し、曲線rg(yg1)上でrg=Thとなる点から求める。また、同様に、Y軸上の各座標における1画素当たりの実距離Dや距離分解能にしきい値を設定し、実距離Dがしきい値以上となる点又は距離分解能点がしきい値以下となる点から点α、βを求めてもよい。また、点α、βは、曲線rg(yg1)の傾きから求めてもよく、この場合微分係数が1となる点(接線が±45°となる点)から点α、βを求める。 FIG. 8 shows that there are points α and β at which the dependence of the actual distance D on the Y axis of the captured image changes dramatically. That is, if the center of gravity coordinates on the Y axis of the object candidate region are closer to the disappearance line than the point α or β, the actual distance D will change drastically when the center of gravity coordinates are shifted by only a few pixels. The reliability becomes low. Point alpha, beta, as shown in FIG. 8, to set the threshold Th in the rate of change r g of actual distance D, obtained from the point at which r g = Th on curve r g (y g1). Similarly, a threshold is set for the actual distance D per pixel and the distance resolution at each coordinate on the Y axis, and the point where the actual distance D is equal to or greater than the threshold or the distance resolution point is equal to or less than the threshold. The points α and β may be obtained from the following points. The points α and β may be obtained from the slope of the curve r g (y g1 ). In this case, the points α and β are obtained from the point where the differential coefficient is 1 (the point where the tangent is ± 45 °).
遠方領域設定部31は、画像距離算出部36にて座標yg1における実距離Dの変化率rgを算出して、rg=Thとなる場合のyg1の値を求める。即ち、図8におけるα、βのyg1軸の値αyとβyを算出する。そして、αyとβyを撮像画像のY軸上の座標として得て、図2に示すように、Y軸上のαy−βy間に存在する画素、即ちY軸上αy−βy間のX軸(水平)方向に連続する画素群を遠方領域として設定し、記憶部20に遠方領域情報として記憶する。これにより、撮像画像の解像度に応じて異なる距離分解能に対応して、撮像画像中において実距離の信頼性が低くなる遠方を写し込んだ領域を抽出し、消失線周りに帯状に広がる遠方領域として設定することができる。
Far
なお、遠方領域の算出方法は上述の方法に限定されるものではなく、記憶部20に記憶された設置情報に基づき、撮像部10が撮像する画像における消失線の位置を抽出し、この消失線周りの所定領域を遠方領域として算出してもよい。一般に消失点は水平線上に存在するため、設置情報から監視空間における水平線の位置を算出することで撮像画像において消失点の集合となる消失線を抽出することができる。この場合、遠方領域設定部31は、撮像画像に対する消失線のY軸座標を算出し、この消失線のY軸座標から予め設定された画素数分Y軸上で移動した点をαyとβyとして設定し、αy−βy間に存在する画素群を遠方領域として設定して、この遠方領域を特定するための座標情報を遠方領域情報として記憶部20に記憶する。
The far region calculation method is not limited to the above-described method. Based on the installation information stored in the
このように、物体候補追跡部35は、実距離の信頼性が高い領域に物体候補領域が位置する場合は実距離に基づき物体をトラッキングし、他方、実距離の信頼性が低くなる遠方領域に物体候補領域が位置する場合は画素距離に基づき物体をトラッキングすることによって、物体の存在位置に応じて検索範囲を設定するためのロジックを異ならせて適切にトラッキング処理を行うことが可能となる。 As described above, the object candidate tracking unit 35 tracks an object based on the actual distance when the object candidate area is located in an area where the reliability of the actual distance is high, and on the far area where the reliability of the actual distance is low. When the object candidate area is located, tracking the object based on the pixel distance makes it possible to appropriately perform the tracking process by changing the logic for setting the search range according to the position where the object exists.
特徴算出部37は、物体候補追跡部35により同一の物体であるとラベリングされた物体候補領域の人らしさを示すパラメータである物体特徴量を算出する。
本実施の形態では、物体特徴量として、物体候補領域に写り込んだ物体の移動量を算出する例について説明する。移動量は、異なる時刻に取得された撮像画像において、物体候補追跡部35により同一の物体であると対応付けられた物体候補領域同士の距離に基づくものである。
The feature calculation unit 37 calculates an object feature amount that is a parameter indicating the humanity of the object candidate region labeled as the same object by the object candidate tracking unit 35.
In the present embodiment, an example will be described in which the amount of movement of an object reflected in an object candidate region is calculated as the object feature amount. The amount of movement is based on the distance between object candidate regions associated with the same object by the object candidate tracking unit 35 in captured images acquired at different times.
特徴算出部37は、実距離追跡部351により同一の物体であるとラベリングされた物体候補領域について記憶されている出現位置座標を記憶部20から読み出して、この出現位置座標と、対応する現フレームの物体候補領域の重心座標との間の実距離を物体の実距離移動量として算出する。
また、特徴算出部37は、画素距離追跡部352により同一の物体であるとラベリングされた物体候補領域について記憶されている出現位置座標を記憶部20から読み出して、この出現位置座標と、対応する現フレームの物体候補領域の重心座標との間の画素距離を物体の画素距離移動量として算出する。
The feature calculation unit 37 reads the appearance position coordinates stored for the object candidate area labeled as the same object by the real
In addition, the feature calculation unit 37 reads out the appearance position coordinates stored for the object candidate region labeled as the same object by the pixel
なお、物体特徴量は、上述の移動量に限定されるものではなく、物体候補領域の画像特徴量(輝度平均値や輝度分散値)、幾何特徴量(面積や縦横比、重心位置)、背景画像との比較値(正規化相関、差分平均値)などから算出してもよい。 Note that the object feature amount is not limited to the above-described movement amount, and the image feature amount (luminance average value and luminance dispersion value), geometric feature amount (area, aspect ratio, barycentric position) of the object candidate region, background You may calculate from the comparison value (normalization correlation, difference average value), etc. with an image.
異常判定部38は、移動体判定部として機能し、特徴算出部37が算出した物体特徴量に基づき物体候補領域に写り込んだ物体が侵入者か否かを判定する。異常判定部38は、侵入者の存在を検出すると、異常発生と判定して出力部40に異常信号を出力する。
The
異常判定部38は、特徴算出部37から入力された実距離移動量が所定実距離以上となる場合に、対応する物体候補領域は侵入者であると判定し、異常発生と判定する。ここで、所定実距離は、実距離追跡部351にてトラッキングした物体候補領域が人であるか否かを判定するしきい値であり、監視空間内を人が移動する際の実距離などを基準として外乱を除去できる程度の所定距離に設定され、例えば100cm等に任意に設定される。
また、異常判定部38は、特徴算出部37から入力された画素距離移動量が所定画素距離以上となる場合に、対応する物体候補領域は侵入者であると判定し、異常発生と判定する。所定画素距離は、画素距離追跡部352にてトラッキングした物体候補領域が人であるか否かを判定するしきい値であり、監視空間内の遠方領域を人が移動する際の画素距離などを基準として外乱を除去できる程度の所定画素数に設定され、例えば50pixel等に任意に設定される。
The
Further, the
なお、異常判定部38では、上記しきい値による判定処理に加えて、物体候補領域の面積が所定面積以上となる場合に、異常判定することが好ましい。このとき、物体候補領域の面積としては、遠方領域上に位置する物体候補領域については物体候補領域に含まれる画素数を物体の面積として算出し、遠方領域外に位置する物体候補領域については物体候補領域の外接矩形の頂点座標間の実距離を求めて、この実距離から実空間における面積を求めてもよい。これにより、外乱を除去して侵入者の検出精度を向上させることができる。
In addition, in addition to the determination process using the threshold value, the
出力部40は、画像処理部30にて判定された異常を外部に出力するための手段であって、LEDやブザーなどで構成される。出力部40は、画像処理部30から異常信号の入力があると、LEDやブザーを駆動して異常の発生を報知する。
なお、出力部40は、警備装置や遠隔の監視センタなどと通信線により接続され、画像処理部30から入力された異常信号を通信線に送出する通信I/Fとして構成されてもよい。
The
Note that the
以下、図9に示すフローチャートを用いて、画像センサ1が撮像部10において取得された撮像画像から監視空間の侵入者を検出する処理について説明する。図9に示すフローチャートの各工程をコンピュータで実行可能な制御プログラムとすることによって、コンピュータの処理装置で実行させることができる。
Hereinafter, a process of detecting an intruder in the monitoring space from the captured image acquired by the
まず、遠方領域設定部31は、記憶部20に記憶された設置情報から撮像画像における遠方領域を算出して遠方領域情報に記憶する(ST1)。ここで、遠方領域は、上述したように、撮像画像のY軸座標に対する実距離の変化率を算出して、消失線の周囲に位置し実距離の変化率がしきい値以上となるY軸座標に基づき、消失線周りに帯状に広がる領域として設定される。
次に、撮像部10により監視空間の画像が取得される。撮像画像は、画像処理部30に出力される(ST2)。
First, the far
Next, an image of the monitoring space is acquired by the
変動領域抽出部32は、撮像画像と背景画像との差分値をとって差分画像を生成し、2値化して、撮像画像から変動領域を抽出する(ST3)。撮像画像に変動領域が含まれていなければ(ST3−No)、ステップST2へ戻り、次の撮像画像取得タイミングにて次のフレームとなる撮像画像を取得する。
他方、撮像画像に変動領域が含まれていれば(ST3−Yes)、物体候補検出部33にて各変動領域に固有のラベルが付与されるとともに背景画像とのテクスチャ類似度が算出され、テクスチャ類似度が所定値以下の変動領域が物体候補領域として検出される(ST4)。
The variation area extraction unit 32 takes a difference value between the captured image and the background image, generates a difference image, binarizes, and extracts a variation area from the captured image (ST3). If the picked-up image does not include the fluctuation region (ST3-No), the process returns to step ST2, and the picked-up image that becomes the next frame is acquired at the next picked-up image acquisition timing.
On the other hand, if the captured image includes a variation region (ST3-Yes), the object
ステップST5では、物体候補領域の時間的な移動を追跡するトラッキング処理が行われる。このステップST5はサブルーチン化されており、存在位置判定部34及び物体候補追跡部35において、図10に示すフローチャートに沿って実行される。 In step ST5, a tracking process for tracking the temporal movement of the object candidate area is performed. This step ST5 is made into a subroutine, and is executed by the presence position determination unit 34 and the object candidate tracking unit 35 according to the flowchart shown in FIG.
トラッキング処理が開始されると、まず現フレームの差分2値画像を記憶部20から読み出して(ST501)、物体候補領域が存在するか否かが判定される(ST502)。現フレームに、物体候補領域が存在しなければ(ST502−No)、ステップST523へと進む。 When the tracking process is started, first, a differential binary image of the current frame is read from the storage unit 20 (ST501), and it is determined whether or not an object candidate area exists (ST502). If an object candidate area does not exist in the current frame (ST502-No), the process proceeds to step ST523.
他方、現フレームに物体候補領域が存在すれば(ST502−Yes)、カウンタmが1に初期化される(ST503)。カウンタmは、現フレームにおいて物体候補領域を特定するためのラベルとして用いられ、以下の処理において現フレームの物体候補領域と直前フレームの物体候補領域とを対応付けるために用いられる。 On the other hand, if an object candidate region exists in the current frame (ST502-Yes), the counter m is initialized to 1 (ST503). The counter m is used as a label for specifying the object candidate area in the current frame, and is used to associate the object candidate area in the current frame with the object candidate area in the immediately preceding frame in the following processing.
次に、直前フレームの差分2値画像を記憶部20から読み出して(ST504)、物体候補領域が存在するか否かが判定される(ST505)。直前フレームに、物体候補領域が存在しなければ(ST505−No)、ステップST525へと進む。 Next, the difference binary image of the immediately preceding frame is read from the storage unit 20 (ST504), and it is determined whether or not an object candidate area exists (ST505). If an object candidate area does not exist in the immediately preceding frame (ST505-No), the process proceeds to step ST525.
現フレームに物体候補領域が存在すれば(ST505−Yes)、カウンタnが1に初期化される(ST506)。カウンタnは、直前フレームにおいて物体候補領域を特定するためのラベルとして用いられ、以下の処理において直前フレームの物体候補領域と、カウンタmで特定される現フレームの物体候補領域とを対応付けるために用いられる。 If an object candidate area exists in the current frame (ST505-Yes), the counter n is initialized to 1 (ST506). The counter n is used as a label for specifying the object candidate area in the immediately preceding frame, and is used to associate the object candidate area in the immediately preceding frame with the object candidate area in the current frame specified in the counter m in the following processing. It is done.
次に、現フレームの物体候補領域mと、直前フレームの物体候補領域nの存在位置が判定される(ST507)。
物体候補領域m及び物体候補領域nの双方が、ステップST1で算出された遠方領域の領域上に存在しない場合、即ち遠方領域外に位置する場合(図4参照)(ST507−Yes)、実距離追跡部351にて実距離によるトラッキング処理が行われる(ST508)。
Next, the existence positions of the object candidate area m of the current frame and the object candidate area n of the immediately preceding frame are determined (ST507).
When both the object candidate region m and the object candidate region n are not present on the far region calculated in step ST1, that is, when located outside the far region (see FIG. 4) (ST507-Yes), the actual distance Tracking processing by actual distance is performed in the tracking unit 351 (ST508).
実距離追跡部351は、現フレームにおいて、直前フレームの物体候補領域nの存在位置に対応する位置の周囲に、実空間における距離(実距離)に基づきトラッキングの検索範囲を設定する(ST509)。トラッキングの検索範囲として設定される実距離(第一の所定実距離)は、人の移動速度に基づき設定され、例えば、5フレーム/秒で撮像画像を取得している場合は200cmなどに設定される。
The actual
次に、実距離追跡部351は、画像距離算出部36にて算出される物体候補領域nと物体候補領域mとの重心座標間の実距離に基づき、現フレームの物体候補領域mが直前フレームの物体候補領域nの検索範囲内に位置するか否かを判定する(ST510)。
検索範囲内に物体候補領域mが存在すれば、即ち、物体候補領域nと物体候補領域mとの間の実距離が検索範囲以内であれば(ST510−Yes)、物体候補領域nと物体候補領域mとの類似度が算出される(ST511)。
Next, based on the actual distance between the barycentric coordinates of the object candidate region n and the object candidate region m calculated by the image
If the object candidate area m exists in the search range, that is, if the actual distance between the object candidate area n and the object candidate area m is within the search range (ST510-Yes), the object candidate area n and the object candidate The degree of similarity with the area m is calculated (ST511).
類似度は、両物体候補領域間の距離、両物体候補領域の大きさの変化率や縦横比の変化率に基づき算出され、距離が短い程、また、大きさや縦横比の変化率が1に近似する程(変化が少ない程)高い類似度が算出される。算出された類似度が、しきい値以下の場合(ST511−No)、や、物体候補領域nの検索範囲に物体候補領域mが存在しない場合(ST510−No)は、ステップST518に進む。他方、算出された類似度がしきい値以上であれば(ST511−Yes)、算出された類似度を記憶部20に記憶して(ST512)、ステップST518に進む。 The similarity is calculated based on the distance between the object candidate areas, the change rate of the size of both object candidate areas, and the change rate of the aspect ratio. The shorter the distance, the more the change rate of the size and aspect ratio becomes 1. The higher the degree of approximation (the smaller the change), the higher the similarity is calculated. When the calculated similarity is equal to or less than the threshold value (ST511-No), or when the object candidate region m does not exist in the search range of the object candidate region n (ST510-No), the process proceeds to step ST518. On the other hand, if the calculated similarity is greater than or equal to the threshold (ST511-Yes), the calculated similarity is stored in storage unit 20 (ST512), and the process proceeds to step ST518.
また、ステップST507において、物体候補領域m及び物体候補領域nの少なくとも何れか一方が、ステップST1で算出された遠方領域の領域内に存在する場合(図7参照)(ST507−No)、画素距離追跡部352にて画素距離によるトラッキング処理が行われる(ST513)。
In step ST507, if at least one of the object candidate region m and the object candidate region n exists in the far region calculated in step ST1 (see FIG. 7) (ST507-No), the pixel distance The
画素距離追跡部352は、現フレームにおいて、直前フレームの物体候補領域nの存在位置に対応する位置の周囲に、画素数(画素距離)に基づきトラッキングの検索範囲を設定する(ST514)。トラッキングの検索範囲として設定される画素距離(第一の所定画素距離)は、外乱を除去できる程度の値に設定され、例えば、5フレーム/秒で撮像画像を取得している場合は70pixelなどに設定される。
The pixel
次に、画素距離追跡部352は、物体候補領域nと物体候補領域mとの重心間の画素距離に基づき、現フレームの物体候補領域mが直前フレームの物体候補領域nの検索範囲内に位置するか否かを判定する(ST515)。
検索範囲内に物体候補領域mが存在すれば、即ち、物体候補領域nと物体候補領域mとの間の画素距離が検索範囲以内であれば(ST515−Yes)、物体候補領域nと物体候補領域mとの類似度が算出される(ST516)。
Next, the pixel
If the object candidate area m exists in the search range, that is, if the pixel distance between the object candidate area n and the object candidate area m is within the search range (ST515-Yes), the object candidate area n and the object candidate The similarity with the area m is calculated (ST516).
類似度は、ステップST511と同様に算出され、算出された類似度がしきい値以下の場合(ST516−No)、や、物体候補領域nの検索範囲に物体候補領域mが存在しない場合(ST515−No)は、ステップST518に進む。他方、算出された類似度がしきい値以上であれば(ST516−Yes)、算出された類似度を記憶部20に記憶して(ST517)、ステップST518に進む。 The similarity is calculated in the same manner as in step ST511, and when the calculated similarity is equal to or less than the threshold value (ST516-No), or when the object candidate area m does not exist in the search range of the object candidate area n (ST515). -No) progresses to step ST518. On the other hand, if the calculated similarity is greater than or equal to the threshold value (ST516-Yes), the calculated similarity is stored in storage unit 20 (ST517), and the process proceeds to step ST518.
ST518では、現フレームの物体候補領域mに対して、直前フレームでトラッキング処理していない物体候補領域が存在するか否かが判断される。そして、物体候補領域mに対して、直前フレームでトラッキング処理していない物体候補領域が存在する場合、即ち、カウンタnの値が直前フレームにおける物体候補領域の総数に満たない場合(ST518−Yes)、nの値を1増加させて(ST519)、ステップST507以降の処理を繰り返す。 In ST518, it is determined whether or not there is an object candidate region that has not been subjected to tracking processing in the immediately preceding frame, with respect to the object candidate region m of the current frame. Then, when there is an object candidate area that has not been subjected to tracking processing in the immediately preceding frame with respect to the object candidate area m, that is, when the value of the counter n is less than the total number of object candidate areas in the immediately preceding frame (ST518-Yes). , N is incremented by 1 (ST519), and the processes after step ST507 are repeated.
現フレームの物体候補領域mに対して、直前フレームにおける全ての物体候補領域とのトラッキング処理が完了すると(ST518−No)、ステップST520へと進む。ステップST520では、直前フレームの物体候補領域のなかで、最も高い類似度が算出された物体候補領域nmを記憶部20に記憶された類似度を参照して判別し、この物体候補領域nmと現フレームの物体候補領域mとを、互いに同じ物体を撮像した領域として対応付けてラベリングする。
When the object candidate region m in the current frame has been tracked with all the object candidate regions in the immediately preceding frame (ST518-No), the process proceeds to step ST520. In step ST520, the object candidate area n m having the highest similarity calculated in the object candidate areas of the immediately preceding frame is determined with reference to the similarity stored in the
次に、ステップST521へと進み、現フレームにおいてトラッキング処理していない物体候補領域が存在するか否かが判断される。現フレームでトラッキング処理していない物体候補領域が存在する場合、即ち、カウンタmの値が現フレームにおける物体候補領域の総数に満たない場合(ST521−Yes)、mの値を1増加させて(ST522)、ステップST506以降の処理を繰り返す。そして、現フレームにおいて、全ての物体候補領域のトラッキング処理が完了すると(ST521−No)、ステップST523へと進む。 Next, the process proceeds to step ST521, where it is determined whether or not there is an object candidate area that has not been subjected to tracking processing in the current frame. When there is an object candidate area that is not tracked in the current frame, that is, when the value of the counter m is less than the total number of object candidate areas in the current frame (ST521-Yes), the value of m is increased by 1 ( (ST522), the process after step ST506 is repeated. When the tracking processing for all object candidate areas is completed in the current frame (ST521-No), the process proceeds to step ST523.
ここで、直前フレームにおいて、現フレームの物体候補領域と対応付けがなされなかった物体候補領域nlostが存在する場合(ST523−Yes)、物体候補領域nlostに写り込んだ物体は監視空間から消失したと判定して記憶部20に記憶する(ST524)。
次に、現フレームにおいて、直前フレームの何れの物体候補領域とも対応付けがなされなかった物体候補領域mnewが存在する場合(ST525−Yes)、物体候補領域mnewに写り込んだ物体は監視空間に新規に出現した物体と判定して、物体候補領域mnewの重心座標を出現位置座標として記憶部20に記憶する。
サブルーチン内の処理が終了すると、メインルーチンに処理を戻す。
If there is an object candidate area n lost that has not been associated with the object candidate area of the current frame in the previous frame (ST523-Yes), the object reflected in the object candidate area n lost disappears from the monitoring space. It determines with having carried out and it memorize | stores in the memory | storage part 20 (ST524).
Next, when there is an object candidate area m new that has not been associated with any object candidate area in the previous frame in the current frame (ST525-Yes), the object reflected in the object candidate area m new is monitored space. The center of gravity coordinates of the object candidate area m new are stored in the
When the processing in the subroutine is completed, the processing is returned to the main routine.
ステップST6では、ステップST5にて同一の物体であるとラベリングされた物体候補領域の人らしさを示す特徴量の算出処理が行われる。このステップST6はサブルーチン化されており、特徴算出部37において、図11に示すフローチャートに沿って実行される。 In step ST6, a feature amount calculation process indicating the humanity of the object candidate area labeled as the same object in step ST5 is performed. This step ST6 is converted into a subroutine, and is executed by the feature calculation unit 37 along the flowchart shown in FIG.
特徴量算出処理が開始されると、まず、カウンタmが1に初期化される(ST601)。カウンタmは、現フレームにおいて物体候補領域を特定するためのラベルとして用いられる。
次に、物体候補領域mが、監視空間に新規に出現した物体(物体候補領域mnew)であるか否かが判定される(ST602)。新規に出現した物体であれば(ST602−Yes)、ST607へと進む。
When the feature amount calculation process is started, first, the counter m is initialized to 1 (ST601). The counter m is used as a label for specifying an object candidate area in the current frame.
Next, it is determined whether or not the object candidate area m is an object (object candidate area m new ) that has newly appeared in the monitoring space (ST602). If it is a newly appearing object (ST602-Yes), the process proceeds to ST607.
他方、物体候補領域mが現フレームにて新規に出現した物体でなければ(ST602−No)、当該物体候補領域mの出現位置座標を記憶部20から読み出す(ST603)。そして、現フレームと直前フレームとのトラッキング処理において、物体候補領域mは実距離又は画素距離何れの距離でトラッキング処理されたかを判別する(ST604)。 On the other hand, if the object candidate area m is not an object newly appearing in the current frame (ST602-No), the appearance position coordinates of the object candidate area m are read from the storage unit 20 (ST603). Then, in the tracking process between the current frame and the immediately preceding frame, it is determined whether the object candidate region m has been tracked at an actual distance or a pixel distance (ST604).
実距離でトラッキング処理されていれば(ST604−Yes)、物体候補領域mの現在の重心座標と出現位置座標との間の実距離を算出し、実距離移動量として記憶部20に記憶する(ST605)。
他方、画素距離でトラッキング処理されていれば(ST604−No)、物体候補領域mの現在の重心座標と出現位置座標との間の画素距離を算出し、画素距離移動量として記憶部20に記憶する(ST605)。
If tracking processing is performed at the actual distance (ST604-Yes), the actual distance between the current center-of-gravity coordinates and the appearance position coordinates of the object candidate region m is calculated and stored in the
On the other hand, if tracking processing is performed using the pixel distance (ST604-No), the pixel distance between the current center-of-gravity coordinates and the appearance position coordinates of the object candidate region m is calculated and stored in the
次に、ST607において、現フレームで特徴量の算出処理をしていない物体候補領域が存在するか否かが判断される。現フレームで特徴量算出処理していない物体候補領域が存在する場合、即ち、カウンタmの値が現フレームにおける物体候補領域の総数に満たない場合(ST607−Yes)、mの値を1増加させて(ST608)、ステップST602以降の処理を繰り返す。そして、現フレームにおいて、全ての物体候補領域の特徴量算出処理が完了すると(ST607−No)、サブルーチン内の処理を終了して、メインルーチンに処理を戻す。 Next, in ST607, it is determined whether or not there is an object candidate region that has not been subjected to feature amount calculation processing in the current frame. If there is an object candidate area that has not been subjected to feature quantity calculation processing in the current frame, that is, if the value of the counter m is less than the total number of object candidate areas in the current frame (ST607-Yes), the value of m is increased by 1. (ST608), and the processes after step ST602 are repeated. When the feature amount calculation processing for all object candidate regions is completed in the current frame (ST607-No), the processing in the subroutine is terminated and the processing is returned to the main routine.
ステップST7では、異常判定部38により、特徴量算出処理で算出された特徴量に基づき物体候補領域に写り込んだ物体が侵入者か否かが判定される。異常判定部38は、特徴量算出処理で算出された実距離移動量が所定の実距離(第二の所定実距離)以上となる場合に、対応する物体候補領域が侵入者であると判定する(ST7−Yes)。所定の実距離は、実距離追跡部351にてトラッキングした物体候補領域が人であるか否かを判定するしきい値であり、監視空間内を人が移動する際の実距離などを基準として外乱を除去できる程度の値に設定され、例えば100cm等に任意に設定される。
In step ST7, the
また、異常判定部38は、特徴量算出処理で算出された画素距離移動量が所定の画素距離(第二の所定画素距離)以上となる場合に、対応する物体候補領域が侵入者であると判定する(ST7−Yes)。所定の画素距離は、画素距離追跡部352にてトラッキングした物体候補領域が人であるか否かを判定するしきい値であり、監視空間内の遠方領域を人が移動する際の画素距離などを基準として外乱を除去できる程度の値に設定され、例えば50pixel等に任意に設定される。
In addition, the
ST8では、異常判定部38の判定に基づき出力部40が作動して異常の発生を報知する。
異常判定部38が侵入者なしと判定した場合(ST7−No)、又は、出力部40が異常発生を報知した後には、ステップST2へ戻り、次の撮像画像取得タイミングにて次のフレームとなる撮像画像を取得する。
In ST8, based on the determination of the
When the
以上のように、本実施の形態によれば、撮像画像に写り込む遠方の領域においては、算出される実空間上の距離の信頼性が低くなるという知見に基づき、撮像画像に写り込んだ遠方の領域を算出して、この遠方領域で抽出された変動領域に対しては画素数に基づき移動距離を判定し、遠方領域以外で抽出された変動領域に対しては実空間上の距離に基づき移動距離を判定することにより、撮像装置の近傍から遠方までを監視空間とする場合においても侵入者の検出精度を向上させることができる。 As described above, according to the present embodiment, in the distant area reflected in the captured image, the far distance reflected in the captured image is based on the knowledge that the reliability of the calculated distance in the real space is low. The movement distance is calculated based on the number of pixels for the fluctuation area extracted in the far area, and based on the distance in the real space for the fluctuation area extracted outside the far area. By determining the moving distance, it is possible to improve the detection accuracy of an intruder even when the vicinity of the imaging apparatus to the far side is used as a monitoring space.
1 画像センサ、10 撮像部、20 記憶部、30 画像処理部、31 遠方領域設定部、32 変動領域抽出部、33 物体候補検出部、34 存在位置判定部、35、物体候補追跡部、351 実距離追跡部、352 画素距離追跡部、36 画像距離算出部、37 特徴算出部、38 異常判定部、40 出力部。
DESCRIPTION OF
Claims (3)
前記撮像画像において前記監視空間の遠方が写り込んだ領域を遠方領域として設定する遠方領域設定部と、
前記撮像部の設置高・俯角・画角を含む設置情報、前記遠方領域、及び抽出した変動領域の位置を記憶する記憶部と、
前記変動領域が前記遠方領域に位置しているか否かを判定する存在位置判定部と、
前記設置情報に基づいて前記撮像画像上の距離を前記監視空間上の実距離に変換する画像距離算出部と、
前記存在位置判定部が時間的に前後して抽出された変動領域の少なくとも一方の位置を前記遠方領域内と判定すれば当該変動領域間の前記撮像画像上の距離を対応付けの条件とし、前記存在位置判定部が時間的に前後して抽出された変動領域の両方の位置を前記遠方領域外と判定すれば当該変動領域間の前記実距離を対応付けの条件として変動領域の移動を追跡する追跡部と、
を備え、
前記遠方領域設定部は、前記撮像画像において隣接画素間の前記実距離が予め設定された基準を超える領域を前記遠方領域として設定することを特徴とした画像センサ。 An image sensor that extracts a fluctuation region from a difference between a captured image of a monitoring space sequentially acquired by an imaging unit and a past image and tracks the movement of the fluctuation region,
A distant area setting unit for setting an area in which the distant part of the monitoring space is reflected in the captured image as a distant area;
A storage unit that stores installation information including the installation height, depression angle, and angle of view of the imaging unit, the far region, and the position of the extracted variation region;
A presence position determination unit that determines whether or not the variable region is located in the far region;
An image distance calculation unit that converts a distance on the captured image into an actual distance on the monitoring space based on the installation information;
If the presence position determination unit determines that at least one position of the fluctuation area extracted before and after in time is within the far area, the distance on the captured image between the fluctuation areas is set as a matching condition, If the presence position determination unit determines that both positions of the variable region extracted before and after in time are outside the far region, the movement of the variable region is tracked using the actual distance between the variable regions as a matching condition. A tracking unit;
Equipped with a,
The far region setting unit sets the region where the actual distance between adjacent pixels exceeds a preset reference in the captured image as the far region .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005137867A JP4628860B2 (en) | 2005-05-10 | 2005-05-10 | Image sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005137867A JP4628860B2 (en) | 2005-05-10 | 2005-05-10 | Image sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006318064A JP2006318064A (en) | 2006-11-24 |
JP4628860B2 true JP4628860B2 (en) | 2011-02-09 |
Family
ID=37538720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005137867A Active JP4628860B2 (en) | 2005-05-10 | 2005-05-10 | Image sensor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4628860B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009295063A (en) * | 2008-06-09 | 2009-12-17 | Meidensha Corp | Intrusion object detection device |
JP5261331B2 (en) * | 2009-09-11 | 2013-08-14 | 富士フイルム株式会社 | Image analysis apparatus, image analysis method, and program |
JP5877722B2 (en) * | 2012-01-18 | 2016-03-08 | セコム株式会社 | Image monitoring device |
JP6614611B2 (en) * | 2016-02-29 | 2019-12-04 | Kddi株式会社 | Apparatus, program, and method for tracking object in consideration of similarity between images |
JP6866581B2 (en) * | 2016-06-30 | 2021-04-28 | 株式会社ニコン | Imaging equipment and electronic components |
JP6996353B2 (en) * | 2018-03-06 | 2022-01-17 | トヨタ自動車株式会社 | Object recognition device and vehicle travel control system |
JP7511540B2 (en) | 2021-12-22 | 2024-07-05 | 三菱重工業株式会社 | Object detection device, object detection method, and object detection program |
CN116170693B (en) * | 2023-04-25 | 2023-07-21 | 山西乐宸科技有限公司 | Security monitoring system control method and device, electronic equipment and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3083918B2 (en) * | 1992-06-26 | 2000-09-04 | 本田技研工業株式会社 | Image processing device |
JP3153718B2 (en) * | 1994-11-07 | 2001-04-09 | ニッタン株式会社 | Intruder detection device and intruder detection method |
JPH11222882A (en) * | 1998-02-05 | 1999-08-17 | Komatsu Ltd | Dangerous zone monitoring device |
JPH11252587A (en) * | 1998-03-03 | 1999-09-17 | Matsushita Electric Ind Co Ltd | Object tracking device |
-
2005
- 2005-05-10 JP JP2005137867A patent/JP4628860B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2006318064A (en) | 2006-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4628860B2 (en) | Image sensor | |
KR102213328B1 (en) | Video processing apparatus, video processing method, and program | |
KR100519782B1 (en) | Method and apparatus for detecting people using a stereo camera | |
JP4429298B2 (en) | Object number detection device and object number detection method | |
US20170154424A1 (en) | Position detection device, position detection method, and storage medium | |
JP6806188B2 (en) | Information processing system, information processing method and program | |
JPWO2010140578A1 (en) | Image processing apparatus, image processing method, and image processing program | |
KR20080020595A (en) | Human detection and tracking for security applications | |
JP5262705B2 (en) | Motion estimation apparatus and program | |
JP2002024807A (en) | Object movement tracking technique and recording medium | |
JP7354767B2 (en) | Object tracking device and object tracking method | |
KR101972582B1 (en) | Development for Displacement Measurement System Based on a PTZ Camera and Method thereof | |
KR102295183B1 (en) | object tracking method for CCTV video by use of CCTV projection model | |
JP6659095B2 (en) | Image processing apparatus, image processing method, and program | |
KR101290517B1 (en) | Photographing apparatus for tracking object and method thereof | |
CN111553342B (en) | Visual positioning method, visual positioning device, computer equipment and storage medium | |
JP4887540B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP5877725B2 (en) | Image monitoring device | |
JP7243372B2 (en) | Object tracking device and object tracking method | |
JP4918615B2 (en) | Object number detection device and object number detection method | |
JP2010009236A (en) | Plane area estimation device and program | |
JP4070558B2 (en) | Image tracking apparatus and method | |
JP5419925B2 (en) | Passing object number measuring method, passing object number measuring apparatus, and program | |
JP2009076094A (en) | Moving object monitoring device | |
JP4674920B2 (en) | Object number detection device and object number detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080229 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101109 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101110 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131119 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4628860 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |