JP4628860B2 - Image sensor - Google Patents

Image sensor Download PDF

Info

Publication number
JP4628860B2
JP4628860B2 JP2005137867A JP2005137867A JP4628860B2 JP 4628860 B2 JP4628860 B2 JP 4628860B2 JP 2005137867 A JP2005137867 A JP 2005137867A JP 2005137867 A JP2005137867 A JP 2005137867A JP 4628860 B2 JP4628860 B2 JP 4628860B2
Authority
JP
Japan
Prior art keywords
region
distance
object candidate
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005137867A
Other languages
Japanese (ja)
Other versions
JP2006318064A (en
Inventor
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2005137867A priority Critical patent/JP4628860B2/en
Publication of JP2006318064A publication Critical patent/JP2006318064A/en
Application granted granted Critical
Publication of JP4628860B2 publication Critical patent/JP4628860B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像情報に基づいて移動物体を追跡する画像センサに関し、特に、画像中にカメラ近傍から遠方までの情報が含まれる場合において移動物体の追跡精度を向上させた画像センサに関する。   The present invention relates to an image sensor that tracks a moving object based on image information, and more particularly, to an image sensor that improves the tracking accuracy of a moving object when information from the vicinity of the camera to a distance is included in the image.

従来、撮像装置としてのカメラから入力される画像と過去の画像との変化態様から侵入者等の移動物体の特徴を示す領域を検出して異常出力するような画像監視装置が知られている。この画像監視装置としては、例えば、現在撮影した入力画像と予め記憶している過去の画像とを比較して、両画像の差分を変動領域として抽出し、この抽出された領域について面積や移動速度などを演算し、侵入者が存在するか否かを判断するものが知られるところである。 2. Description of the Related Art Conventionally, there is known an image monitoring apparatus that detects a region indicating characteristics of a moving object such as an intruder and abnormally outputs it from a change mode between an image input from a camera as an imaging device and a past image. As this image monitoring apparatus, for example, a currently captured input image is compared with a previously stored past image, a difference between both images is extracted as a variable region, and the area and moving speed of the extracted region are extracted. Such a device is known that determines whether or not an intruder exists by calculating the above.

このような画像監視装置に関して、特に、特許文献1には、カメラの高さや俯角などの設置条件を用いて、侵入物の高さや大きさ、移動速度などの情報を検出し、移動物体を識別する侵入物検出装置が記載されている。この侵入物検出装置では、画面上で抽出された移動物体の位置に基づいて、カメラから当該物体までの距離を測定し、この距離に基づいて移動物体の大きさ、移動速度などを算出し、当該移動物体が侵入者であるか否かを判定している。
特開平8−136251号公報
With regard to such an image monitoring device, in particular, Patent Document 1 uses information on installation conditions such as the height and depression angle of a camera to detect information such as the height and size of an intruder and the moving speed, and identifies the moving object. An intruder detection device is described. In this intruder detection device, based on the position of the moving object extracted on the screen, measure the distance from the camera to the object, calculate the size of the moving object, the moving speed, etc. based on this distance, It is determined whether or not the moving object is an intruder.
JP-A-8-136251

上述した従来の侵入物検出装置では、抽出された移動物体を複数フレーム追跡し、カメラから当該物体までの実際の(実空間上の)距離に基づき物体の移動距離を算出して移動速度を求め、侵入者か否かの判定を行っている。
しかしながら、従来の侵入物検出装置では、画像から実空間上の移動距離を求めて移動物体の移動速度を算出するために、遠方に存在する移動物体に対しては移動速度の計測精度が低下するという問題がある。
In the conventional intruder detection apparatus described above, the extracted moving object is tracked for a plurality of frames, and the moving speed of the object is calculated based on the actual (in real space) distance from the camera to the object. Whether or not it is an intruder is determined.
However, in the conventional intruder detection device, since the moving speed of the moving object is calculated by obtaining the moving distance in real space from the image, the accuracy of measuring the moving speed is lowered for a moving object that exists far away. There is a problem.

一般に、撮像画像には、近くの物体は大きく(画素数大)、遠くの物体は小さく(画素数小)写り込む。即ち、遠方に存在する移動物体は画像上の1画素当たりの距離分解能が低く(1画素当たりの実空間上の距離が大きく)なり移動距離の計測精度が低下する。言い換えれば、撮像画像における1画素当たりの実空間上の距離は、被写体が遠方になる程大きくなるため、遠方の移動物体については算出される実空間上の移動距離が誤差分を多く含むこととなる。 Generally, in a captured image, a nearby object is large (large number of pixels) and a far object is small (small number of pixels). That is, a moving object present in the distance has a low distance resolution per pixel on the image (a large distance in real space per pixel), and the measurement accuracy of the moving distance is lowered. In other words, since the distance in the real space per pixel in the captured image increases as the subject moves further away, the calculated movement distance in the real space for a distant moving object includes a large amount of error. Become.

このため、先行文献では、遠方の移動物体が画像上で数画素ズレただけで、算出される実空間上の移動距離や移動距離に基づき算出される移動速度が、人であると判定するためのしきい値を超えて非常に大きな値となるおそれがある。したがって、従来の侵入物検出装置は、遠方の移動物体に対して実空間上の移動距離や速度に基づき人であることを判定することが困難であり、広範な空間の監視用途には適さないという問題がある。 For this reason, in the prior art document, the moving speed calculated based on the moving distance in the real space and the moving distance is determined to be a person only when the distant moving object is shifted by several pixels on the image. There is a risk of exceeding the threshold value and becoming a very large value. Therefore, it is difficult for the conventional intruder detection device to determine that a distant moving object is a person based on a moving distance or speed in real space, and is not suitable for a wide space monitoring application. There is a problem.

このような実空間上距離の計測精度の低下は、特にカメラ光軸の俯角を小さくした場合に顕著となる。カメラ光軸の俯角がゼロに近い場合、撮影される画像は水平線を含み、理論上距離無限大の点まで見渡すこととなる。
例えば、撮像範囲を広範とするためにカメラ光軸の俯角を小さくするように設置した場合、入力画像にはカメラ近傍から遠方までが含まれることとなるが、従来の侵入物検出装置による手法では、カメラ近傍に存在する侵入者しか検出することができず、遠方に存在する侵入者を検出することが困難となる。
Such a decrease in the measurement accuracy of the real space distance is particularly noticeable when the depression angle of the camera optical axis is reduced. When the depression angle of the camera optical axis is close to zero, the photographed image includes a horizontal line, and the point where the distance is theoretically infinite is overlooked.
For example, when the camera is installed so that the depression angle of the camera optical axis is reduced in order to widen the imaging range, the input image includes from the vicinity of the camera to the distant place. Only intruders in the vicinity of the camera can be detected, and it is difficult to detect intruders in the distance.

そこで、本発明は、画像中にカメラ近傍から遠方までが含まれる場合であっても、精度良く侵入者を検出できる画像センサの提供を目的とする。 Therefore, an object of the present invention is to provide an image sensor that can accurately detect an intruder even when an image includes from the vicinity of the camera to a distance.

上記目的を達成するために本発明よる画像センサは、撮像部にて順次取得される監視空間の撮像画像と過去の画像との差分から変動領域を抽出するとともに該変動領域の移動を追跡する画像センサであって、前記撮像画像において前記監視空間の遠方が写り込んだ領域を遠方領域として設定する遠方領域設定部と、前記撮像部の設置高・俯角・画角を含む設置情報、前記遠方領域、及び抽出した変動領域の位置を記憶する記憶部と、前記変動領域が前記遠方領域に位置しているか否かを判定する存在位置判定部と、前記設置情報に基づいて前記撮像画像上の距離を前記監視空間上の実距離に変換する画像距離算出部と、前記存在位置判定部が時間的に前後して抽出された変動領域の少なくとも一方の位置を前記遠方領域内と判定すれば当該変動領域間の前記撮像画像上の距離を対応付けの条件とし、前記存在位置判定部が時間的に前後して抽出された変動領域の両方の位置を前記遠方領域外と判定すれば当該変動領域間の前記実距離を対応付けの条件として変動領域の移動を追跡する追跡部と、を備え、前記遠方領域設定部は、前記撮像画像において隣接画素間の前記実距離が予め設定された基準を超える領域を前記遠方領域として設定することを特徴としている。 In order to achieve the above object, an image sensor according to the present invention extracts a variation area from a difference between a captured image of a monitoring space sequentially acquired by an imaging unit and a past image and tracks the movement of the variation area. A distant area setting unit that sets an area in which the distant area of the monitoring space is reflected in the captured image as a distant area; installation information including an installation height, depression angle, and angle of view of the image capturing unit; and the distant area And a storage unit for storing the position of the extracted variation area, a presence position determination unit for determining whether or not the variation region is located in the far region, and a distance on the captured image based on the installation information an image distance calculating unit that converts into an actual distance on the monitor space, the be determined at least one of the position of the present position determining unit is extracted with temporally preceding variations region and the distal region variant The distance on the captured image between the regions as a condition of correspondence, the present position determining unit if the it is determined both the position outside the distal region of the variation region extracted by chronologically successive between the variable domain A tracking unit that tracks the movement of the variable region using the actual distance as a condition for association, and the far region setting unit has the actual distance between adjacent pixels in the captured image exceeding a preset reference. A region is set as the far region .

撮像画像に写り込む物体の位置が遠方となる程、画像上での物体は小さくなり、物体の形状が粗く写り込む。また、遠方となる程距離分解能が低くなり、一画素あたりに算出される実空間上の距離の信頼性が低くなる。このため、撮像画像に写り込む物体の位置が遠方となる程、画像上での移動距離は短くなるが、変動領域に写り込む物体の姿勢や変動領域として抽出された形状によっては、画像上での移動距離を変換して得られた実空間上の距離が、誤差を多分に含んで非常に大きな値となることがある。したがって、遠方の物体に関しては、実空間上の距離により対応付けを行っていると、対応付けできない可能性がある。
他方、撮像画像に写り込む物体の位置が近傍となる程、画像上での移動距離は長くなるが、画像上での移動距離を変換して得られた実空間上の距離は、信頼性の高い値となる。
The farther the position of the object reflected in the captured image is, the smaller the object on the image becomes, and the object shape is roughly reflected. Further, the distance resolution becomes lower as the distance increases, and the reliability of the distance in real space calculated per pixel becomes lower. For this reason, the farther the position of the object reflected in the captured image is, the shorter the moving distance on the image becomes.However, depending on the posture of the object reflected in the fluctuation area and the shape extracted as the fluctuation area, The distance in the real space obtained by converting the movement distance may be a very large value including a lot of errors. Therefore, if a distant object is associated with a distance in real space, it may not be associated.
On the other hand, the closer the position of the object reflected in the captured image is, the longer the moving distance on the image becomes. However, the distance in the real space obtained by converting the moving distance on the image is reliable. High value.

そこで、本発明の画像センサは、遠方の物体は、画像上での移動距離となる画素数で対応付けを行い追跡して、遠方でない場所から写り込む物体については、実空間上の距離で対応付けを行い追跡する。
本発明によれば、実空間上の距離の信頼性が低くなる遠方の領域については、実空間上の距離に依存することなく移動物体を追跡(トラッキング)することが可能となり、遠方の移動物体であっても追跡することが可能となる。
Therefore, the image sensor of the present invention associates and tracks a distant object with the number of pixels that is the moving distance on the image, and corresponds to an object reflected from a place that is not far away by a distance in real space. Track and track.
According to the present invention, it is possible to track (track) a moving object without depending on the distance in the real space for a distant area where the reliability of the distance in the real space is low. Even so, it becomes possible to track.

好ましくは、前記遠方領域設定部は、前記設置情報に基づき前記撮像画像における消失線の位置を算出し、該消失線の周囲を前記遠方領域として設定することを特徴とする。これにより、消失点の集合となる消失線の位置を算出することで、簡易な計算により撮像画像において遠方を写し込む領域を設定することが可能となる。 Preferably, the far area setting unit calculates a position of a vanishing line in the captured image based on the installation information, and sets a periphery of the vanishing line as the far area. As a result, by calculating the position of the vanishing line that is a set of vanishing points, it is possible to set a region in which a distant image is captured in the captured image by simple calculation.

また、好ましくは、前記遠方領域設定部は、前記隣接画素間の実距離が第一のしきい値以上である領域を前記遠方領域として設定することを特徴とする。これにより、実空間上の距離がしきい以上として算出された、距離分解能が低い領域を遠方の領域として設定することができる。 In a preferred embodiment, the far region setting unit sets, as the far region , a region where an actual distance between the adjacent pixels is equal to or greater than a first threshold value. As a result, it is possible to set a region with a low distance resolution calculated as the distance in the real space is greater than or equal to the threshold as the far region.

また、好ましくは前記遠方領域設定部は、前記隣接画素間の実距離の変化率を算出し、該変化率が第二のしきい値以上である領域を前記遠方領域として設定することを特徴とする。これにより、監視空間の奥行き方向の画素列に対して、実空間上の距離の変化率がしきい以上として算出された、距離分解能が低い領域を遠方の領域として設定することができる。
Further, preferably said far region setting unit includes a wherein calculating the actual distance rate of change between adjacent pixels, said alteration rate sets a region is the second threshold or more as the far region To do. Accordingly, an area with a low distance resolution, which is calculated as a change rate of the distance in the real space with respect to the pixel row in the depth direction of the monitoring space, can be set as a far area.

その他、本発明は上述の画像センサに限定されない。本発明は、方法、プログラムまたはシステムの態様で表現及び特定されてもよい。例えば、本発明の別の態様は、上記構成の動作を行う画像センサの制御方法である。また本発明の別の態様は、そのような方法をコンピュータに実行させるプログラムである。 In addition, the present invention is not limited to the above-described image sensor. The present invention may be expressed and specified in the form of a method, program or system. For example, another aspect of the present invention is a method for controlling an image sensor that performs the operation of the above configuration. Another aspect of the present invention is a program that causes a computer to execute such a method.

本発明によれば、監視空間を撮影した画像に写り込んだ遠方の領域については、実空間上の距離に依存することなく移動物体を追跡(トラッキング)することが可能となり、遠方の物体であっても追跡できる。 According to the present invention, it is possible to track (track) a moving object without depending on the distance in the real space for a distant area reflected in an image obtained by photographing the monitoring space. Can track.

以下、本発明の実施の形態を図面を参照して説明する。
本発明の画像センサは、監視空間を撮像した画像において、撮像画像に写り込んだ遠方の領域を抽出し、この遠方の領域とそれ以外の領域とで異なるロジックにより移動物体のトラッキング処理を実行して、移動物体を検出するものである。
本実施の形態では、検出対象となる移動物体として監視空間内に侵入した人間(侵入者)を検出する例について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The image sensor of the present invention extracts a distant area reflected in a captured image from an image captured in a monitoring space, and executes tracking processing of a moving object by using different logic in the distant area and other areas. Thus, a moving object is detected.
In the present embodiment, an example will be described in which a human (intruder) who has entered the monitoring space as a moving object to be detected is detected.

図1は、画像センサ1の構成を示すブロック図である。
画像センサ1は、図1に示すように、撮像部10、記憶部20、画像処理部30、出力部40を含んで構成される。以下に各部を説明する。
FIG. 1 is a block diagram showing the configuration of the image sensor 1.
As shown in FIG. 1, the image sensor 1 includes an imaging unit 10, a storage unit 20, an image processing unit 30, and an output unit 40. Each part will be described below.

撮像部10は、カメラなどの撮像装置を含んで構成される。撮像部10は、監視空間の光学的な映像を、離散的な画素群からなるデジタル化された画像に変換して、各画素が輝度値で表現された撮像画像として画像処理部30に出力する。撮像部10は、所定の時間間隔(例えば1/5秒毎)で1フレームの撮像画像を取得して画像処理部30に出力する。   The imaging unit 10 includes an imaging device such as a camera. The imaging unit 10 converts the optical image of the monitoring space into a digitized image composed of discrete pixel groups, and outputs the image to the image processing unit 30 as a captured image in which each pixel is expressed by a luminance value. . The imaging unit 10 acquires a captured image of one frame at a predetermined time interval (for example, every 1/5 second) and outputs it to the image processing unit 30.

記憶部20は、画像センサ1の各種処理に使用される情報を記憶している。記憶部20が記憶する情報には、設置情報が含まれる。
設置情報とは、撮像部10の設置環境を示す情報で、撮像部10の設置高Hと撮像部10の俯角Φと、撮像部10より得られる画像の垂直方向(Y軸)画素数Y及び水平方向(X軸)画素数Xと、垂直画角θh及び水平画角θvとを含んでいる。画素数Y及び画素数Xは、撮像部10が出力する撮像画像から得てもよく、また、垂直画角θh及び水平画角θvは撮像部10に含まれる撮像装置の焦点距離から算出してもよい。
遠方領域情報とは、画像中の消失線周りに広がる遠方を写し込んだ領域を特定する情報である。遠方領域情報は、設置情報に基づき遠方領域設定部31によって算出されて記憶される。
The storage unit 20 stores information used for various processes of the image sensor 1. The information stored in the storage unit 20 includes installation information.
The installation information is information indicating the installation environment of the imaging unit 10, the installation height H of the imaging unit 10, the depression angle Φ of the imaging unit 10, the vertical direction (Y-axis) number of pixels Y of the image obtained from the imaging unit 10, and It includes the number of pixels X in the horizontal direction (X axis), the vertical field angle θh, and the horizontal field angle θv. The number of pixels Y and the number of pixels X may be obtained from the captured image output by the imaging unit 10, and the vertical field angle θh and the horizontal field angle θv are calculated from the focal length of the imaging device included in the imaging unit 10. Also good.
The far region information is information for specifying a region in which a distant region spreading around the vanishing line in the image is captured. The far area information is calculated and stored by the far area setting unit 31 based on the installation information.

画像処理部30は、CPU等を備えたコンピュータで構成され、デジタル化された撮像画像の入力を受けて、差分処理、2値化処理、ラベリング(物体候補の検出)処理、トラッキング(物体候補の追跡)処理、特徴算出処理、異常判定処理を行う。
画像処理部30は、遠方領域設定部31と、変動領域抽出部32と、物体候補検出部33と、存在位置判定部34と、物体候補追跡部35と、画像距離算出部36と、特徴算出部37と、異常判定部38とを含んで構成される。物体候補追跡部35は、実距離追跡部351と画素距離追跡部352とを含んでいる。
The image processing unit 30 is configured by a computer having a CPU and the like, receives input of a digitized captured image, performs difference processing, binarization processing, labeling (object candidate detection) processing, tracking (object candidate detection). Tracking) processing, feature calculation processing, and abnormality determination processing.
The image processing unit 30 includes a far region setting unit 31, a fluctuation region extraction unit 32, an object candidate detection unit 33, an existence position determination unit 34, an object candidate tracking unit 35, an image distance calculation unit 36, and a feature calculation. A unit 37 and an abnormality determination unit 38 are included. The object candidate tracking unit 35 includes an actual distance tracking unit 351 and a pixel distance tracking unit 352.

遠方領域設定部31は、撮像画像に写り込んだ遠方の領域を抽出して遠方領域を設定する。図2は、撮像画像に設定された遠方領域を示す図である。図2では、説明のため遠方領域をハッチングして示している。
遠方領域設定部31は、記憶部20に記憶された設置情報に基づき、撮像部10が撮像する画像において、消失点(無限遠点)の集合となる消失線の周りに広がる領域を遠方領域として算出し、この遠方領域を特定するための座標情報を遠方領域情報として記憶部20に記憶する。遠方領域の算出方法の詳細については後述する。
The far region setting unit 31 extracts a far region reflected in the captured image and sets the far region. FIG. 2 is a diagram illustrating a far region set in the captured image. In FIG. 2, the distant area is hatched for explanation.
Based on the installation information stored in the storage unit 20, the far region setting unit 31 uses, as a far region, a region that extends around the vanishing line that is a set of vanishing points (infinity points) in the image captured by the imaging unit 10. Coordinate information for calculating and specifying this far region is stored in the storage unit 20 as far region information. The details of the far region calculation method will be described later.

変動領域抽出部32は、図3に示すように、撮像部10から入力された撮像画像と基準となる背景画像とにおいて互いに対応する画素同士の差分値を算出し差分画像を生成する。背景画像は、監視空間に侵入者等が存在しない状態で撮像された画像であり、過去に予め取得され、記憶部20に記憶されている。変動領域抽出部32は、生成した差分画像に含まれる各画素の輝度値と所定のしきい値との大小に基づいて差分画像を2値化して、輝度値の変動がしきい値以上となる変動画素を抽出した差分2値画像を生成する。これにより、輝度値の変動がしきい値以上であった変動画素からなる変動領域が抽出される。このとき、膨張・収縮や微小面積除外のフィルタリングによりノイズを除去した2値画像を生成することが好ましい。算出された差分2値画像は、次回の撮像画像に対するトラッキング処理の基準とするために記憶部20に記憶される。
なお、背景画像は、所定時間毎に撮像された画像で更新する構成としてもよい。また、所定フレーム前に取得された撮像画像を背景画像として用いることにより、フレーム間における差分画像を求めてもよい。
As illustrated in FIG. 3, the fluctuation region extraction unit 32 calculates a difference value between pixels corresponding to each other in the captured image input from the imaging unit 10 and the reference background image, and generates a difference image. The background image is an image captured in a state where no intruder or the like exists in the monitoring space, and is acquired in advance in the past and stored in the storage unit 20. The variation area extraction unit 32 binarizes the difference image based on the magnitude of the luminance value of each pixel included in the generated difference image and a predetermined threshold value, and the variation of the luminance value becomes equal to or greater than the threshold value. A differential binary image is generated by extracting the fluctuation pixels. As a result, a fluctuation region composed of fluctuation pixels whose luminance value fluctuation is equal to or greater than the threshold value is extracted. At this time, it is preferable to generate a binary image from which noise has been removed by filtering for expansion / contraction and micro-area exclusion. The calculated binary difference image is stored in the storage unit 20 to serve as a reference for tracking processing for the next captured image.
The background image may be updated with an image captured every predetermined time. Further, a difference image between frames may be obtained by using a captured image acquired before a predetermined frame as a background image.

物体候補検出部33は、変動領域抽出部32で生成した差分2値画像に含まれる略連続した変動画素群を1つの変動領域としてグループ化し、各変動領域に固有のラベルでラベリングする。そして、ラベリングされた各変動領域と、各変動領域に対応する背景画像(又は所定フレーム前の撮像画像)の領域とで濃淡パターンマッチング(正規化相関)処理を行い、テクスチャ類似度を算出する。算出されたテクスチャ類似度が所定値以下の変動領域を物体候補領域として判定し、それ以外の場合は外乱として除外する。   The object candidate detection unit 33 groups substantially continuous variation pixel groups included in the binary difference image generated by the variation region extraction unit 32 as one variation region, and labels each variation region with a unique label. Then, a grayscale pattern matching (normalized correlation) process is performed on each labeled variation region and a background image (or a captured image before a predetermined frame) corresponding to each variation region to calculate a texture similarity. A fluctuation area in which the calculated texture similarity is equal to or less than a predetermined value is determined as an object candidate area, and is excluded as a disturbance in other cases.

存在位置判定部34は、物体候補領域と判定された変動領域が、記憶部20に記憶した遠方領域情報で特定される遠方領域に含まれているか否かを判定する。存在位置判定部34は、物体候補領域を構成する画素群の所定割合以上が遠方領域上に位置する場合に、この物体候補領域は遠方領域上に存在すると判定する。所定割合としては、例えば過半数が設定され、物体候補領域を構成する画素群の過半数が遠方領域上に位置する場合に、遠方領域上に存在すると判定される。例えば、図2の例では、物体候補領域A及び物体候補領域Bは遠方領域上に存在すると判定され、物体候補領域Cは遠方領域外に存在すると判定される。
なお、物体候補領域の重心座標を算出し、この重心座標が遠方領域上に位置する場合に物体候補領域が遠方領域上に存在すると判定してもよく、他、物体候補領域が遠方領域上に完全に含まれる場合にのみ物体候補領域が遠方領域上に存在すると判定してもよい。
The presence position determination unit 34 determines whether or not the variable region determined as the object candidate region is included in the far region specified by the far region information stored in the storage unit 20. The presence position determination unit 34 determines that the object candidate region exists on the far region when a predetermined ratio or more of the pixel group constituting the object candidate region is located on the far region. As the predetermined ratio, for example, a majority is set, and when the majority of the pixel group constituting the object candidate region is located on the far region, it is determined that the pixel exists on the far region. For example, in the example of FIG. 2, it is determined that the object candidate area A and the object candidate area B exist on the far area, and the object candidate area C is determined to exist outside the far area.
Note that the centroid coordinates of the object candidate area may be calculated, and if the centroid coordinates are located on the far area, it may be determined that the object candidate area exists on the far area. It may be determined that the object candidate region exists on the far region only when it is completely included.

物体候補追跡部35は、今回の撮像で取得されたフレーム(現フレーム)で物体候補領域と判定された変動領域と直前回(数周期前でもよい)のフレーム(直前フレーム)で物体候補領域と判定された変動領域との比較により物体候補領域のトラッキング処理を行う。現フレームにおいて、直前フレームの物体候補領域の周囲に設定されたトラッキングの検索範囲に対応する領域に物体候補領域が存在すれば、その領域のサイズ、形状等の特徴量の類似度に基づいて互いに同一の物体を撮像した領域であると推定される物体候補領域同士が対応付けられる。直前フレームの物体候補領域と同一の物体を撮像した領域であると対応付けられた物体候補領域には同一のラベルが付与される。ラベリングの情報は記憶部20に記憶される。
また、直前フレームの物体候補領域と対応付けがなされない場合、現フレームで抽出された物体候補領域は監視空間に新規に出現した物体候補領域として判定される。新規に出現した物体候補領域は、その重心点の座標が出現位置座標として記憶部20に記憶される。
The object candidate tracking unit 35 determines the object candidate area and the change area determined as the object candidate area in the frame (current frame) acquired by the current imaging and the object candidate area in the immediately preceding frame (may be several cycles ago). Object candidate region tracking processing is performed by comparison with the determined variation region. In the current frame, if an object candidate area exists in an area corresponding to the tracking search range set around the object candidate area in the immediately preceding frame, each other is based on the similarity of feature quantities such as the size and shape of the area. Object candidate regions estimated to be regions obtained by imaging the same object are associated with each other. The same label is assigned to the object candidate region associated with the same object imaged as the object candidate region of the immediately preceding frame. The labeling information is stored in the storage unit 20.
When the object candidate area in the immediately previous frame is not associated with the object candidate area, the object candidate area extracted in the current frame is determined as an object candidate area newly appearing in the monitoring space. The coordinates of the barycentric point of the newly appearing object candidate area are stored in the storage unit 20 as the appearance position coordinates.

トラッキングの検索範囲は、存在位置判定部34にて判定された物体候補領域が遠方領域上に位置しているか否かによって、異なるロジックにより算出される。
まず、物体候補領域が遠方領域上に位置していない場合について説明する。図4は、連続するフレームの差分2値画像であり、物体候補領域が遠方領域外で抽出された例を説明する図である。
図4に示すように、直前フレームの物体候補領域及び現フレームの物体候補領域の何れも遠方領域上に位置していない(遠方領域外に位置している)場合、実距離追跡部351によりトラッキング処理が行われる。実距離追跡部351は、トラッキングの検索範囲を、監視空間における実空間上の距離(実距離)に基づき設定して、検索範囲内の物体候補領域を探索する。即ち、物体候補領域が移動した(両フレームにおける物体候補領域間の)実距離に基づきトラッキング処理を行う。実距離追跡部351は、現フレームにおいて、直前フレームの物体候補領域の重心座標と現フレームの物体候補領域の重心座標との間の実距離が、トラッキングの検索範囲内となる物体候補領域を探索する。トラッキングの検索範囲として設定される実距離は、人の移動速度に基づき設定され、例えば、5フレーム/秒で撮像画像を取得している場合は200cmなどに設定される。実距離追跡部351にてトラッキング処理に用いられる実距離は、画像距離算出部36にて算出される。
The tracking search range is calculated by different logic depending on whether or not the object candidate region determined by the presence position determination unit 34 is located on the far region.
First, a case where the object candidate region is not located on the far region will be described. FIG. 4 is a diagram illustrating an example in which a binary image of consecutive frames is extracted, and an object candidate area is extracted outside a far area.
As shown in FIG. 4, when neither the object candidate area of the previous frame nor the object candidate area of the current frame is located on the far area (is located outside the far area), tracking is performed by the real distance tracking unit 351. Processing is performed. The real distance tracking unit 351 sets a tracking search range based on a distance (real distance) in the real space in the monitoring space, and searches for an object candidate region within the search range. That is, the tracking process is performed based on the actual distance that the object candidate area has moved (between the object candidate areas in both frames). The actual distance tracking unit 351 searches the current frame for an object candidate area in which the actual distance between the centroid coordinates of the object candidate area of the immediately preceding frame and the centroid coordinates of the object candidate area of the current frame is within the tracking search range. To do. The actual distance set as the tracking search range is set based on the moving speed of the person. For example, when the captured image is acquired at 5 frames / second, the actual distance is set to 200 cm. The actual distance used for the tracking process by the actual distance tracking unit 351 is calculated by the image distance calculating unit 36.

画像距離算出部36は、撮像画像上の任意座標間の距離を実距離に変換する。ここでは、直前フレームの物体候補領域に撮像された物体と、現フレームの物体候補領域に撮像された物体との間の実距離を算出する場合について説明する。監視空間の床面が平坦であり、物体候補領域に写し込まれた物体が床面に接地しているものと仮定することにより、記憶部20の設置情報及び各物体候補領域の撮像画像内の位置に基づいて、物体候補領域に写し込まれた物体から撮像装置までの直線距離を推定でき、これにより各物体候補領域に写し込まれる物体間の直線距離を推定することができる。   The image distance calculation unit 36 converts the distance between arbitrary coordinates on the captured image into an actual distance. Here, a case will be described in which the actual distance between the object imaged in the object candidate area of the immediately preceding frame and the object imaged in the object candidate area of the current frame is calculated. By assuming that the floor surface of the monitoring space is flat and the object imaged in the object candidate area is in contact with the floor surface, the installation information of the storage unit 20 and the captured image of each object candidate area Based on the position, it is possible to estimate the linear distance from the object imaged in the object candidate area to the imaging device, and thereby estimate the linear distance between the objects imaged in each object candidate area.

以下、画像距離算出部36による実距離の算出方法について説明する。
本実施の形態では、物体間の実距離を重心間距離で算出する例について説明する。ここで、物体候補領域の重心位置は、床面からHman/2の位置にあると仮定している。Hmanは検出対象の物体となる人間の身長に基づき設定された値で、予め記憶部20に記憶されている。
図5は、撮像部と物体との間を側面から見たときの説明図である。
まず、物体が写り込んだ物体候補領域の重心座標を(xg,yg)とすると、図5に示すように、撮像部10に含まれる撮像装置と物体間を側面から見たときの床面上の距離dgは、記憶部20に記憶された設置情報に基づき数1の式を用いて算出することができる。
Hereinafter, a method for calculating the actual distance by the image distance calculation unit 36 will be described.
In this embodiment, an example in which the actual distance between objects is calculated using the distance between the centers of gravity will be described. Here, it is assumed that the gravity center position of the object candidate region is at a position of Hman / 2 from the floor surface. Hman is a value set based on the height of the person who is the object to be detected, and is stored in the storage unit 20 in advance.
FIG. 5 is an explanatory diagram when the space between the imaging unit and the object is viewed from the side.
First, assuming that the center of gravity coordinates of an object candidate area in which an object is reflected is (x g , y g ), as shown in FIG. 5, the floor when the space between the imaging device included in the imaging unit 10 and the object is viewed from the side. The distance dg on the surface can be calculated using Formula 1 based on the installation information stored in the storage unit 20.

Figure 0004628860
Figure 0004628860

図6は、撮像部と物体との間を鉛直方向から見たときの説明図である。
次に、図6に示すように、撮像装置と物体間を鉛直方向(図5中矢印Q方向)から見た床面上の距離agは、記憶部20に記憶された設置情報に基づき数2の式を用いて算出することができる。
FIG. 6 is an explanatory diagram when the space between the imaging unit and the object is viewed from the vertical direction.
Next, as shown in FIG. 6, the distance ag on the floor when the imaging apparatus and the object are viewed from the vertical direction (the direction of the arrow Q in FIG. 5) is based on the installation information stored in the storage unit 20. It can be calculated using the following formula.

Figure 0004628860
Figure 0004628860

数1及び数2より、2つの物体候補領域の重心座標(xg1,yg1)(xg2,yg2)が与えられたときの2点(xg1,yg1)(xg2,yg2)間の実距離Dは、数3の式を用いて算出することができる。 From Equations 1 and 2, the center coordinates of the two object candidate region (x g1, y g1) ( x g2, y g2) 2 points when the given (x g1, y g1) ( x g2, y g2 ) Can be calculated using the equation (3).

Figure 0004628860
Figure 0004628860

実距離追跡部351は、画像距離算出部36により算出された実距離に基づき、直前フレームの物体候補領域の検索範囲内に存在する現フレームの物体候補領域を探索する。そして、検索範囲内に物体候補領域が検出されると、直前フレームの物体候補領域と現フレームの物体候補領域との間で、物体候補領域に含まれる画素数の変化率や物体候補領域の外接矩形の縦横比変化率などに基づき類似度を算出して、類似度が最も高い物体候補領域を、互いに同一の物体を撮像した領域として対応付けてラベリングする。ここで、類似度が所定しきい値以下の物体候補領域、例えば、5フレーム/秒で撮像画像を取得している場合、構成画素数変化率ΔSは1/10≦ΔS≦10、縦横比変化率ΔPは1/4≦ΔP≦4の各条件を満たさない物体候補領域は、同一の物体を撮像した領域でないと判定して、対応付けを行わない。 Based on the actual distance calculated by the image distance calculation unit 36, the actual distance tracking unit 351 searches for the object candidate region of the current frame that exists within the search range of the object candidate region of the immediately preceding frame. When an object candidate area is detected within the search range, the rate of change in the number of pixels included in the object candidate area and the circumscribing of the object candidate area between the object candidate area in the previous frame and the object candidate area in the current frame are detected. The similarity is calculated based on the aspect ratio change rate of the rectangle, and the object candidate regions with the highest similarity are labeled in association with the same object imaged region. Here, when a captured image is acquired at an object candidate area whose similarity is equal to or less than a predetermined threshold, for example, 5 frames / second, the change rate of the number of constituent pixels ΔS is 1/10 ≦ ΔS ≦ 10, and the aspect ratio change The object candidate area that does not satisfy each condition of 1/4 ≦ ΔP ≦ 4 for the rate ΔP is determined not to be an area in which the same object is imaged, and is not associated.

次に、物体候補領域が遠方領域上に位置している場合について説明する。図7は、連続するフレームの差分2値画像であり、物体候補領域が遠方領域上で抽出された例を説明する図である。
図7に示すように、直前フレームの物体候補領域又は現フレームの物体候補領域の少なくとも何れか一方が遠方領域上に位置している場合、画素距離追跡部352によりトラッキング処理が行われる。画素距離追跡部352は、両フレーム間におけるトラッキングの検索範囲を、撮像画像上における画素数(画素距離)に基づき設定して、検索範囲内の物体候補領域を探索する。即ち、物体候補領域が移動した(両フレームにおける物体候補領域間の)画素距離に基づきトラッキング処理を行う。画素距離追跡部352は、直前フレームの物体候補領域の重心座標と現フレームの物体候補領域の重心座標との間の画素距離が、トラッキングの検索範囲内となる物体候補領域を探索する。検索範囲として設定される画素距離は、外乱を除去できる程度の値に設定され、例えば、5フレーム/秒で撮像画像を取得している場合は70pixelなどに設定される。
Next, the case where the object candidate region is located on the far region will be described. FIG. 7 is a diagram illustrating an example in which a binary image of consecutive frames is extracted, and an object candidate region is extracted on a far region.
As shown in FIG. 7, when at least one of the object candidate region of the immediately preceding frame or the object candidate region of the current frame is located on the far region, the pixel distance tracking unit 352 performs tracking processing. The pixel distance tracking unit 352 sets a tracking search range between both frames based on the number of pixels (pixel distance) on the captured image, and searches for an object candidate region within the search range. That is, tracking processing is performed based on the pixel distance to which the object candidate area has moved (between the object candidate areas in both frames). The pixel distance tracking unit 352 searches for an object candidate region in which the pixel distance between the centroid coordinate of the object candidate region in the previous frame and the centroid coordinate of the object candidate region in the current frame is within the tracking search range. The pixel distance set as the search range is set to a value that can remove disturbance, and is set to 70 pixels, for example, when a captured image is acquired at 5 frames / second.

画素距離追跡部352は、このように、直前フレームの物体候補領域の検索範囲内に存在する現フレームの物体候補領域を探索する。そして、検索範囲内に物体候補領域が検出されると、直前フレームの物体候補領域と現フレームの物体候補領域との間で、物体候補領域に含まれる画素数の変化率や物体候補領域の外接矩形の縦横比変化率などに基づき類似度を算出して、類似度が最も高い物体候補領域を、互いに同一の物体を撮像した領域として対応付けてラベリングする。類似度の算出については、実距離追跡部351と同様である。 In this way, the pixel distance tracking unit 352 searches for the object candidate region of the current frame that exists within the search range of the object candidate region of the immediately preceding frame. When an object candidate area is detected within the search range, the rate of change in the number of pixels included in the object candidate area and the circumscribing of the object candidate area between the object candidate area in the previous frame and the object candidate area in the current frame are detected. The similarity is calculated based on the aspect ratio change rate of the rectangle, and the object candidate regions with the highest similarity are labeled in association with the same object imaged region. The calculation of the similarity is the same as that of the actual distance tracking unit 351.

ここで、遠方領域設定部31による遠方領域の算出方法について説明する。
遠方領域設定部31は、画像距離算出部36により撮像画像上の座標(画素)に対応する実距離の変化率を算出し、算出された実距離の変化率に基づき遠方領域を設定する。
画像の垂直方向(Y軸)の画素列には、監視空間の奥行き方向の情報が表れている。そこで、撮像画像のY軸上における物体候補領域の重心座標yg1に対する実距離の変化率、詳しく言えば、Y軸上の座標yg1の値が1画素ずれたときに座標yg1に関して計算される実距離Dがどの程度変化するか、を調べるには実距離Dの導関数を計算すればよい。この結果、導関数の値が大きい箇所は座標yg1の値が変化したときに実距離Dの変化が大きく距離分解能が低いところ、その逆は座標yg1の値が変化したときに実距離Dの変化が小さく距離分解能が高いところとなる。
今、任意の2つの物体候補領域の重心座標(xg1,yg1)(xg2,yg2)間の実距離DをY軸上の座標yg1の関数としてみたときに、座標yg1に対する実距離Dの変化率(導関数)rは、数4の式を用いて算出することができる。
Here, a method of calculating the far region by the far region setting unit 31 will be described.
The far region setting unit 31 calculates the change rate of the actual distance corresponding to the coordinates (pixels) on the captured image by the image distance calculation unit 36, and sets the far region based on the calculated change rate of the actual distance.
Information in the depth direction of the monitoring space appears in the pixel column in the vertical direction (Y-axis) of the image. Therefore, the rate of change of the actual distance with respect to the barycentric coordinate y g1 of the object candidate region on the Y axis of the captured image, specifically, the coordinate y g1 is calculated when the value of the coordinate y g1 on the Y axis is shifted by one pixel. To find out how much the actual distance D changes, the derivative of the actual distance D can be calculated. As a result, where the value of the derivative is large, the change in the actual distance D is large when the value of the coordinate y g1 changes, and the distance resolution is low, and vice versa, the opposite is true when the value of the coordinate y g1 changes. The change in the distance is small and the distance resolution is high.
Now, the actual distance D between any two barycentric coordinates of the object candidate region (x g1, y g1) ( x g2, y g2) when viewed as a function of the coordinates y g1 on the Y axis, with respect to the coordinate y g1 the rate of change (derivative) r g of actual distance D can be calculated using equation 4 expression.

Figure 0004628860
Figure 0004628860

数4は、yg1に関する二次の分数関数であり、その概形は図8に示すようになる。図8は、Y軸上の座標yg1と、座標yg1に対応する実距離Dの変化率rとの関係を示す図である。図8において、実距離Dの変化率rは、座標yg1の値が1画素ずれたときの実距離Dを示している。また、実距離Dの変化率rが大きくなる程1画素当たりの距離分解能は低くなるため、図8は、Y軸上の座標yg1と、座標yg1に対する距離分解能(の逆数)を示す図としても見ることができる。
図8において、漸近線は、Y軸上の座標yg1に対して実距離Dの変化率rが無限大となる位置を示しており、消失線を表している。即ち、図8における漸近線のyg1軸座標は、撮像画像のY軸上における消失線の座標となる。
Equation 4 is a quadratic fractional function with respect to y g1 , and its outline is as shown in FIG. FIG. 8 is a diagram showing the relationship between the coordinate y g1 on the Y axis and the rate of change r g of the actual distance D corresponding to the coordinate y g1 . 8, the change rate r g of actual distance D indicates the actual distance D when the value of the coordinate y g1 is shifted 1 pixel. Further, since the rate of change r g of actual distance D is the lower range resolution of 1 pixel per degree becomes greater, FIG. 8 shows the coordinate y g1 on the Y-axis, the distance resolution with respect to the coordinate y g1 (the inverse of) It can also be seen as a diagram.
8, asymptote, the change rate r g of actual distance D with respect to the coordinate y g1 on the Y axis represents the position becomes infinite, represents the vanishing line. That is, the y g1 axis coordinate of the asymptotic line in FIG. 8 is the coordinate of the disappearance line on the Y axis of the captured image.

図8より、撮像画像のY軸に対する実距離Dの依存性が劇的に変化する点α、βが存在することがわかる。即ち、物体候補領域のY軸上の重心座標が、点α又はβよりも消失線に近い場合は、重心座標が数画素ずれただけで実距離Dが大幅に変化することとなり、実距離Dの信頼性が低くなる。点α、βは、図8に示すように、実距離Dの変化率rにしきい値Thを設定し、曲線r(yg1)上でr=Thとなる点から求める。また、同様に、Y軸上の各座標における1画素当たりの実距離Dや距離分解能にしきい値を設定し、実距離Dがしきい値以上となる点又は距離分解能点がしきい値以下となる点から点α、βを求めてもよい。また、点α、βは、曲線r(yg1)の傾きから求めてもよく、この場合微分係数が1となる点(接線が±45°となる点)から点α、βを求める。 FIG. 8 shows that there are points α and β at which the dependence of the actual distance D on the Y axis of the captured image changes dramatically. That is, if the center of gravity coordinates on the Y axis of the object candidate region are closer to the disappearance line than the point α or β, the actual distance D will change drastically when the center of gravity coordinates are shifted by only a few pixels. The reliability becomes low. Point alpha, beta, as shown in FIG. 8, to set the threshold Th in the rate of change r g of actual distance D, obtained from the point at which r g = Th on curve r g (y g1). Similarly, a threshold is set for the actual distance D per pixel and the distance resolution at each coordinate on the Y axis, and the point where the actual distance D is equal to or greater than the threshold or the distance resolution point is equal to or less than the threshold. The points α and β may be obtained from the following points. The points α and β may be obtained from the slope of the curve r g (y g1 ). In this case, the points α and β are obtained from the point where the differential coefficient is 1 (the point where the tangent is ± 45 °).

遠方領域設定部31は、画像距離算出部36にて座標yg1における実距離Dの変化率rを算出して、r=Thとなる場合のyg1の値を求める。即ち、図8におけるα、βのyg1軸の値αとβを算出する。そして、αとβを撮像画像のY軸上の座標として得て、図2に示すように、Y軸上のα−β間に存在する画素、即ちY軸上α−β間のX軸(水平)方向に連続する画素群を遠方領域として設定し、記憶部20に遠方領域情報として記憶する。これにより、撮像画像の解像度に応じて異なる距離分解能に対応して、撮像画像中において実距離の信頼性が低くなる遠方を写し込んだ領域を抽出し、消失線周りに帯状に広がる遠方領域として設定することができる。 Far region setting unit 31 calculates the rate of change r g of actual distance D in the coordinate y g1 at image distance calculating unit 36 calculates the value of y g1 when the r g = Th. That, alpha in FIG. 8, calculates the value alpha y and beta y of y g1 axes beta. Then, alpha and y and beta y are obtained as coordinates on Y axis of the captured image, as shown in FIG. 2, a pixel that exists between alpha y-beta y on the Y-axis, or Y on axis alpha y-beta A pixel group continuous in the X-axis (horizontal) direction between y is set as a far region and stored in the storage unit 20 as far region information. As a result, in response to distance resolutions that differ depending on the resolution of the captured image, an area in which the reliability of the actual distance is reduced in the captured image is extracted, and a distant area that spreads in a band around the disappearance line Can be set.

なお、遠方領域の算出方法は上述の方法に限定されるものではなく、記憶部20に記憶された設置情報に基づき、撮像部10が撮像する画像における消失線の位置を抽出し、この消失線周りの所定領域を遠方領域として算出してもよい。一般に消失点は水平線上に存在するため、設置情報から監視空間における水平線の位置を算出することで撮像画像において消失点の集合となる消失線を抽出することができる。この場合、遠方領域設定部31は、撮像画像に対する消失線のY軸座標を算出し、この消失線のY軸座標から予め設定された画素数分Y軸上で移動した点をαとβとして設定し、α−β間に存在する画素群を遠方領域として設定して、この遠方領域を特定するための座標情報を遠方領域情報として記憶部20に記憶する。 The far region calculation method is not limited to the above-described method. Based on the installation information stored in the storage unit 20, the position of the vanishing line in the image captured by the imaging unit 10 is extracted, and this vanishing line is extracted. The surrounding predetermined area may be calculated as a far area. Since vanishing points generally exist on the horizon, vanishing lines that are a set of vanishing points can be extracted from the captured image by calculating the position of the horizon in the monitoring space from the installation information. In this case, the far region setting unit 31 calculates the Y-axis coordinates of the vanishing line for the captured image, and sets the points y y and β moved from the Y-axis coordinates of the vanishing line on the Y axis by a preset number of pixels. The pixel group existing between α y and β y is set as a far region, and coordinate information for specifying this far region is stored in the storage unit 20 as the far region information.

このように、物体候補追跡部35は、実距離の信頼性が高い領域に物体候補領域が位置する場合は実距離に基づき物体をトラッキングし、他方、実距離の信頼性が低くなる遠方領域に物体候補領域が位置する場合は画素距離に基づき物体をトラッキングすることによって、物体の存在位置に応じて検索範囲を設定するためのロジックを異ならせて適切にトラッキング処理を行うことが可能となる。   As described above, the object candidate tracking unit 35 tracks an object based on the actual distance when the object candidate area is located in an area where the reliability of the actual distance is high, and on the far area where the reliability of the actual distance is low. When the object candidate area is located, tracking the object based on the pixel distance makes it possible to appropriately perform the tracking process by changing the logic for setting the search range according to the position where the object exists.

特徴算出部37は、物体候補追跡部35により同一の物体であるとラベリングされた物体候補領域の人らしさを示すパラメータである物体特徴量を算出する。
本実施の形態では、物体特徴量として、物体候補領域に写り込んだ物体の移動量を算出する例について説明する。移動量は、異なる時刻に取得された撮像画像において、物体候補追跡部35により同一の物体であると対応付けられた物体候補領域同士の距離に基づくものである。
The feature calculation unit 37 calculates an object feature amount that is a parameter indicating the humanity of the object candidate region labeled as the same object by the object candidate tracking unit 35.
In the present embodiment, an example will be described in which the amount of movement of an object reflected in an object candidate region is calculated as the object feature amount. The amount of movement is based on the distance between object candidate regions associated with the same object by the object candidate tracking unit 35 in captured images acquired at different times.

特徴算出部37は、実距離追跡部351により同一の物体であるとラベリングされた物体候補領域について記憶されている出現位置座標を記憶部20から読み出して、この出現位置座標と、対応する現フレームの物体候補領域の重心座標との間の実距離を物体の実距離移動量として算出する。
また、特徴算出部37は、画素距離追跡部352により同一の物体であるとラベリングされた物体候補領域について記憶されている出現位置座標を記憶部20から読み出して、この出現位置座標と、対応する現フレームの物体候補領域の重心座標との間の画素距離を物体の画素距離移動量として算出する。
The feature calculation unit 37 reads the appearance position coordinates stored for the object candidate area labeled as the same object by the real distance tracking unit 351 from the storage unit 20, and the appearance position coordinates and the corresponding current frame The actual distance between the object candidate area and the barycentric coordinate is calculated as the actual distance movement amount of the object.
In addition, the feature calculation unit 37 reads out the appearance position coordinates stored for the object candidate region labeled as the same object by the pixel distance tracking unit 352 from the storage unit 20, and corresponds to the appearance position coordinates. The pixel distance between the object candidate area of the current frame and the barycentric coordinate is calculated as the pixel distance movement amount of the object.

なお、物体特徴量は、上述の移動量に限定されるものではなく、物体候補領域の画像特徴量(輝度平均値や輝度分散値)、幾何特徴量(面積や縦横比、重心位置)、背景画像との比較値(正規化相関、差分平均値)などから算出してもよい。 Note that the object feature amount is not limited to the above-described movement amount, and the image feature amount (luminance average value and luminance dispersion value), geometric feature amount (area, aspect ratio, barycentric position) of the object candidate region, background You may calculate from the comparison value (normalization correlation, difference average value), etc. with an image.

異常判定部38は、移動体判定部として機能し、特徴算出部37が算出した物体特徴量に基づき物体候補領域に写り込んだ物体が侵入者か否かを判定する。異常判定部38は、侵入者の存在を検出すると、異常発生と判定して出力部40に異常信号を出力する。 The abnormality determination unit 38 functions as a moving body determination unit, and determines whether the object reflected in the object candidate area is an intruder based on the object feature amount calculated by the feature calculation unit 37. When detecting the presence of an intruder, the abnormality determination unit 38 determines that an abnormality has occurred and outputs an abnormality signal to the output unit 40.

異常判定部38は、特徴算出部37から入力された実距離移動量が所定実距離以上となる場合に、対応する物体候補領域は侵入者であると判定し、異常発生と判定する。ここで、所定実距離は、実距離追跡部351にてトラッキングした物体候補領域が人であるか否かを判定するしきい値であり、監視空間内を人が移動する際の実距離などを基準として外乱を除去できる程度の所定距離に設定され、例えば100cm等に任意に設定される。
また、異常判定部38は、特徴算出部37から入力された画素距離移動量が所定画素距離以上となる場合に、対応する物体候補領域は侵入者であると判定し、異常発生と判定する。所定画素距離は、画素距離追跡部352にてトラッキングした物体候補領域が人であるか否かを判定するしきい値であり、監視空間内の遠方領域を人が移動する際の画素距離などを基準として外乱を除去できる程度の所定画素数に設定され、例えば50pixel等に任意に設定される。
The abnormality determination unit 38 determines that the corresponding object candidate region is an intruder when the actual distance movement amount input from the feature calculation unit 37 is equal to or greater than the predetermined actual distance, and determines that an abnormality has occurred. Here, the predetermined actual distance is a threshold value for determining whether or not the object candidate area tracked by the actual distance tracking unit 351 is a person, such as an actual distance when a person moves in the monitoring space. As a reference, it is set to a predetermined distance that can remove disturbance, and is arbitrarily set to 100 cm, for example.
Further, the abnormality determination unit 38 determines that the corresponding object candidate region is an intruder when the pixel distance movement amount input from the feature calculation unit 37 is equal to or greater than the predetermined pixel distance, and determines that an abnormality has occurred. The predetermined pixel distance is a threshold value for determining whether or not the object candidate area tracked by the pixel distance tracking unit 352 is a person, such as a pixel distance when a person moves in a distant area in the monitoring space. As a reference, the number of pixels is set such that disturbance can be removed, and is arbitrarily set to, for example, 50 pixels.

なお、異常判定部38では、上記しきい値による判定処理に加えて、物体候補領域の面積が所定面積以上となる場合に、異常判定することが好ましい。このとき、物体候補領域の面積としては、遠方領域上に位置する物体候補領域については物体候補領域に含まれる画素数を物体の面積として算出し、遠方領域外に位置する物体候補領域については物体候補領域の外接矩形の頂点座標間の実距離を求めて、この実距離から実空間における面積を求めてもよい。これにより、外乱を除去して侵入者の検出精度を向上させることができる。 In addition, in addition to the determination process using the threshold value, the abnormality determination unit 38 preferably performs abnormality determination when the area of the object candidate region is equal to or larger than a predetermined area. At this time, as the area of the object candidate region, the number of pixels included in the object candidate region is calculated as the object area for the object candidate region located on the far region, and the object candidate region located outside the far region is the object The actual distance between the vertex coordinates of the circumscribed rectangle of the candidate area may be obtained, and the area in the real space may be obtained from this actual distance. Thereby, disturbance can be removed and intruder detection accuracy can be improved.

出力部40は、画像処理部30にて判定された異常を外部に出力するための手段であって、LEDやブザーなどで構成される。出力部40は、画像処理部30から異常信号の入力があると、LEDやブザーを駆動して異常の発生を報知する。
なお、出力部40は、警備装置や遠隔の監視センタなどと通信線により接続され、画像処理部30から入力された異常信号を通信線に送出する通信I/Fとして構成されてもよい。
The output unit 40 is a unit for outputting the abnormality determined by the image processing unit 30 to the outside, and includes an LED, a buzzer, or the like. When an abnormal signal is input from the image processing unit 30, the output unit 40 drives the LED and the buzzer to notify the occurrence of the abnormality.
Note that the output unit 40 may be configured as a communication I / F that is connected to a security device, a remote monitoring center, or the like via a communication line and that sends an abnormal signal input from the image processing unit 30 to the communication line.

以下、図9に示すフローチャートを用いて、画像センサ1が撮像部10において取得された撮像画像から監視空間の侵入者を検出する処理について説明する。図9に示すフローチャートの各工程をコンピュータで実行可能な制御プログラムとすることによって、コンピュータの処理装置で実行させることができる。 Hereinafter, a process of detecting an intruder in the monitoring space from the captured image acquired by the imaging unit 10 using the image sensor 1 will be described with reference to a flowchart illustrated in FIG. 9. By making each step of the flowchart shown in FIG. 9 a control program that can be executed by a computer, it can be executed by a processing device of the computer.

まず、遠方領域設定部31は、記憶部20に記憶された設置情報から撮像画像における遠方領域を算出して遠方領域情報に記憶する(ST1)。ここで、遠方領域は、上述したように、撮像画像のY軸座標に対する実距離の変化率を算出して、消失線の周囲に位置し実距離の変化率がしきい値以上となるY軸座標に基づき、消失線周りに帯状に広がる領域として設定される。
次に、撮像部10により監視空間の画像が取得される。撮像画像は、画像処理部30に出力される(ST2)。
First, the far region setting unit 31 calculates a far region in the captured image from the installation information stored in the storage unit 20 and stores it in the far region information (ST1). Here, as described above, the far region calculates the change rate of the actual distance with respect to the Y-axis coordinate of the captured image, and is located around the vanishing line and the change rate of the actual distance is equal to or greater than the threshold value. Based on the coordinates, it is set as a region extending in a band around the vanishing line.
Next, an image of the monitoring space is acquired by the imaging unit 10. The captured image is output to the image processing unit 30 (ST2).

変動領域抽出部32は、撮像画像と背景画像との差分値をとって差分画像を生成し、2値化して、撮像画像から変動領域を抽出する(ST3)。撮像画像に変動領域が含まれていなければ(ST3−No)、ステップST2へ戻り、次の撮像画像取得タイミングにて次のフレームとなる撮像画像を取得する。
他方、撮像画像に変動領域が含まれていれば(ST3−Yes)、物体候補検出部33にて各変動領域に固有のラベルが付与されるとともに背景画像とのテクスチャ類似度が算出され、テクスチャ類似度が所定値以下の変動領域が物体候補領域として検出される(ST4)。
The variation area extraction unit 32 takes a difference value between the captured image and the background image, generates a difference image, binarizes, and extracts a variation area from the captured image (ST3). If the picked-up image does not include the fluctuation region (ST3-No), the process returns to step ST2, and the picked-up image that becomes the next frame is acquired at the next picked-up image acquisition timing.
On the other hand, if the captured image includes a variation region (ST3-Yes), the object candidate detection unit 33 assigns a unique label to each variation region and calculates the texture similarity with the background image. A variation area having a similarity of not more than a predetermined value is detected as an object candidate area (ST4).

ステップST5では、物体候補領域の時間的な移動を追跡するトラッキング処理が行われる。このステップST5はサブルーチン化されており、存在位置判定部34及び物体候補追跡部35において、図10に示すフローチャートに沿って実行される。 In step ST5, a tracking process for tracking the temporal movement of the object candidate area is performed. This step ST5 is made into a subroutine, and is executed by the presence position determination unit 34 and the object candidate tracking unit 35 according to the flowchart shown in FIG.

トラッキング処理が開始されると、まず現フレームの差分2値画像を記憶部20から読み出して(ST501)、物体候補領域が存在するか否かが判定される(ST502)。現フレームに、物体候補領域が存在しなければ(ST502−No)、ステップST523へと進む。 When the tracking process is started, first, a differential binary image of the current frame is read from the storage unit 20 (ST501), and it is determined whether or not an object candidate area exists (ST502). If an object candidate area does not exist in the current frame (ST502-No), the process proceeds to step ST523.

他方、現フレームに物体候補領域が存在すれば(ST502−Yes)、カウンタmが1に初期化される(ST503)。カウンタmは、現フレームにおいて物体候補領域を特定するためのラベルとして用いられ、以下の処理において現フレームの物体候補領域と直前フレームの物体候補領域とを対応付けるために用いられる。 On the other hand, if an object candidate region exists in the current frame (ST502-Yes), the counter m is initialized to 1 (ST503). The counter m is used as a label for specifying the object candidate area in the current frame, and is used to associate the object candidate area in the current frame with the object candidate area in the immediately preceding frame in the following processing.

次に、直前フレームの差分2値画像を記憶部20から読み出して(ST504)、物体候補領域が存在するか否かが判定される(ST505)。直前フレームに、物体候補領域が存在しなければ(ST505−No)、ステップST525へと進む。 Next, the difference binary image of the immediately preceding frame is read from the storage unit 20 (ST504), and it is determined whether or not an object candidate area exists (ST505). If an object candidate area does not exist in the immediately preceding frame (ST505-No), the process proceeds to step ST525.

現フレームに物体候補領域が存在すれば(ST505−Yes)、カウンタnが1に初期化される(ST506)。カウンタnは、直前フレームにおいて物体候補領域を特定するためのラベルとして用いられ、以下の処理において直前フレームの物体候補領域と、カウンタmで特定される現フレームの物体候補領域とを対応付けるために用いられる。 If an object candidate area exists in the current frame (ST505-Yes), the counter n is initialized to 1 (ST506). The counter n is used as a label for specifying the object candidate area in the immediately preceding frame, and is used to associate the object candidate area in the immediately preceding frame with the object candidate area in the current frame specified in the counter m in the following processing. It is done.

次に、現フレームの物体候補領域mと、直前フレームの物体候補領域nの存在位置が判定される(ST507)。
物体候補領域m及び物体候補領域nの双方が、ステップST1で算出された遠方領域の領域上に存在しない場合、即ち遠方領域外に位置する場合(図4参照)(ST507−Yes)、実距離追跡部351にて実距離によるトラッキング処理が行われる(ST508)。
Next, the existence positions of the object candidate area m of the current frame and the object candidate area n of the immediately preceding frame are determined (ST507).
When both the object candidate region m and the object candidate region n are not present on the far region calculated in step ST1, that is, when located outside the far region (see FIG. 4) (ST507-Yes), the actual distance Tracking processing by actual distance is performed in the tracking unit 351 (ST508).

実距離追跡部351は、現フレームにおいて、直前フレームの物体候補領域nの存在位置に対応する位置の周囲に、実空間における距離(実距離)に基づきトラッキングの検索範囲を設定する(ST509)。トラッキングの検索範囲として設定される実距離(第一の所定実距離)は、人の移動速度に基づき設定され、例えば、5フレーム/秒で撮像画像を取得している場合は200cmなどに設定される。 The actual distance tracking unit 351 sets a tracking search range based on the distance in the real space (actual distance) around the position corresponding to the position where the object candidate region n in the previous frame exists in the current frame (ST509). The actual distance (first predetermined actual distance) set as the tracking search range is set based on the movement speed of the person, and is set to 200 cm, for example, when a captured image is acquired at 5 frames / second. The

次に、実距離追跡部351は、画像距離算出部36にて算出される物体候補領域nと物体候補領域mとの重心座標間の実距離に基づき、現フレームの物体候補領域mが直前フレームの物体候補領域nの検索範囲内に位置するか否かを判定する(ST510)。
検索範囲内に物体候補領域mが存在すれば、即ち、物体候補領域nと物体候補領域mとの間の実距離が検索範囲以内であれば(ST510−Yes)、物体候補領域nと物体候補領域mとの類似度が算出される(ST511)。
Next, based on the actual distance between the barycentric coordinates of the object candidate region n and the object candidate region m calculated by the image distance calculation unit 36, the actual distance tracking unit 351 determines that the object candidate region m of the current frame is the previous frame. It is determined whether or not the object candidate area n is within the search range (ST510).
If the object candidate area m exists in the search range, that is, if the actual distance between the object candidate area n and the object candidate area m is within the search range (ST510-Yes), the object candidate area n and the object candidate The degree of similarity with the area m is calculated (ST511).

類似度は、両物体候補領域間の距離、両物体候補領域の大きさの変化率や縦横比の変化率に基づき算出され、距離が短い程、また、大きさや縦横比の変化率が1に近似する程(変化が少ない程)高い類似度が算出される。算出された類似度が、しきい値以下の場合(ST511−No)、や、物体候補領域nの検索範囲に物体候補領域mが存在しない場合(ST510−No)は、ステップST518に進む。他方、算出された類似度がしきい値以上であれば(ST511−Yes)、算出された類似度を記憶部20に記憶して(ST512)、ステップST518に進む。 The similarity is calculated based on the distance between the object candidate areas, the change rate of the size of both object candidate areas, and the change rate of the aspect ratio. The shorter the distance, the more the change rate of the size and aspect ratio becomes 1. The higher the degree of approximation (the smaller the change), the higher the similarity is calculated. When the calculated similarity is equal to or less than the threshold value (ST511-No), or when the object candidate region m does not exist in the search range of the object candidate region n (ST510-No), the process proceeds to step ST518. On the other hand, if the calculated similarity is greater than or equal to the threshold (ST511-Yes), the calculated similarity is stored in storage unit 20 (ST512), and the process proceeds to step ST518.

また、ステップST507において、物体候補領域m及び物体候補領域nの少なくとも何れか一方が、ステップST1で算出された遠方領域の領域内に存在する場合(図7参照)(ST507−No)、画素距離追跡部352にて画素距離によるトラッキング処理が行われる(ST513)。 In step ST507, if at least one of the object candidate region m and the object candidate region n exists in the far region calculated in step ST1 (see FIG. 7) (ST507-No), the pixel distance The tracking unit 352 performs tracking processing based on the pixel distance (ST513).

画素距離追跡部352は、現フレームにおいて、直前フレームの物体候補領域nの存在位置に対応する位置の周囲に、画素数(画素距離)に基づきトラッキングの検索範囲を設定する(ST514)。トラッキングの検索範囲として設定される画素距離(第一の所定画素距離)は、外乱を除去できる程度の値に設定され、例えば、5フレーム/秒で撮像画像を取得している場合は70pixelなどに設定される。 The pixel distance tracking unit 352 sets a tracking search range based on the number of pixels (pixel distance) around the position corresponding to the position of the object candidate region n in the previous frame in the current frame (ST514). The pixel distance (first predetermined pixel distance) set as the tracking search range is set to a value that can remove disturbance, and is, for example, 70 pixels when a captured image is acquired at 5 frames / second. Is set.

次に、画素距離追跡部352は、物体候補領域nと物体候補領域mとの重心間の画素距離に基づき、現フレームの物体候補領域mが直前フレームの物体候補領域nの検索範囲内に位置するか否かを判定する(ST515)。
検索範囲内に物体候補領域mが存在すれば、即ち、物体候補領域nと物体候補領域mとの間の画素距離が検索範囲以内であれば(ST515−Yes)、物体候補領域nと物体候補領域mとの類似度が算出される(ST516)。
Next, the pixel distance tracking unit 352 positions the object candidate region m of the current frame within the search range of the object candidate region n of the previous frame based on the pixel distance between the centroids of the object candidate region n and the object candidate region m. It is determined whether or not to perform (ST515).
If the object candidate area m exists in the search range, that is, if the pixel distance between the object candidate area n and the object candidate area m is within the search range (ST515-Yes), the object candidate area n and the object candidate The similarity with the area m is calculated (ST516).

類似度は、ステップST511と同様に算出され、算出された類似度がしきい値以下の場合(ST516−No)、や、物体候補領域nの検索範囲に物体候補領域mが存在しない場合(ST515−No)は、ステップST518に進む。他方、算出された類似度がしきい値以上であれば(ST516−Yes)、算出された類似度を記憶部20に記憶して(ST517)、ステップST518に進む。 The similarity is calculated in the same manner as in step ST511, and when the calculated similarity is equal to or less than the threshold value (ST516-No), or when the object candidate area m does not exist in the search range of the object candidate area n (ST515). -No) progresses to step ST518. On the other hand, if the calculated similarity is greater than or equal to the threshold value (ST516-Yes), the calculated similarity is stored in storage unit 20 (ST517), and the process proceeds to step ST518.

ST518では、現フレームの物体候補領域mに対して、直前フレームでトラッキング処理していない物体候補領域が存在するか否かが判断される。そして、物体候補領域mに対して、直前フレームでトラッキング処理していない物体候補領域が存在する場合、即ち、カウンタnの値が直前フレームにおける物体候補領域の総数に満たない場合(ST518−Yes)、nの値を1増加させて(ST519)、ステップST507以降の処理を繰り返す。 In ST518, it is determined whether or not there is an object candidate region that has not been subjected to tracking processing in the immediately preceding frame, with respect to the object candidate region m of the current frame. Then, when there is an object candidate area that has not been subjected to tracking processing in the immediately preceding frame with respect to the object candidate area m, that is, when the value of the counter n is less than the total number of object candidate areas in the immediately preceding frame (ST518-Yes). , N is incremented by 1 (ST519), and the processes after step ST507 are repeated.

現フレームの物体候補領域mに対して、直前フレームにおける全ての物体候補領域とのトラッキング処理が完了すると(ST518−No)、ステップST520へと進む。ステップST520では、直前フレームの物体候補領域のなかで、最も高い類似度が算出された物体候補領域nを記憶部20に記憶された類似度を参照して判別し、この物体候補領域nと現フレームの物体候補領域mとを、互いに同じ物体を撮像した領域として対応付けてラベリングする。 When the object candidate region m in the current frame has been tracked with all the object candidate regions in the immediately preceding frame (ST518-No), the process proceeds to step ST520. In step ST520, the object candidate area n m having the highest similarity calculated in the object candidate areas of the immediately preceding frame is determined with reference to the similarity stored in the storage unit 20, and this object candidate area n m is determined. And the object candidate area m of the current frame are labeled in association with each other as areas where the same object is imaged.

次に、ステップST521へと進み、現フレームにおいてトラッキング処理していない物体候補領域が存在するか否かが判断される。現フレームでトラッキング処理していない物体候補領域が存在する場合、即ち、カウンタmの値が現フレームにおける物体候補領域の総数に満たない場合(ST521−Yes)、mの値を1増加させて(ST522)、ステップST506以降の処理を繰り返す。そして、現フレームにおいて、全ての物体候補領域のトラッキング処理が完了すると(ST521−No)、ステップST523へと進む。 Next, the process proceeds to step ST521, where it is determined whether or not there is an object candidate area that has not been subjected to tracking processing in the current frame. When there is an object candidate area that is not tracked in the current frame, that is, when the value of the counter m is less than the total number of object candidate areas in the current frame (ST521-Yes), the value of m is increased by 1 ( (ST522), the process after step ST506 is repeated. When the tracking processing for all object candidate areas is completed in the current frame (ST521-No), the process proceeds to step ST523.

ここで、直前フレームにおいて、現フレームの物体候補領域と対応付けがなされなかった物体候補領域nlostが存在する場合(ST523−Yes)、物体候補領域nlostに写り込んだ物体は監視空間から消失したと判定して記憶部20に記憶する(ST524)。
次に、現フレームにおいて、直前フレームの何れの物体候補領域とも対応付けがなされなかった物体候補領域mnewが存在する場合(ST525−Yes)、物体候補領域mnewに写り込んだ物体は監視空間に新規に出現した物体と判定して、物体候補領域mnewの重心座標を出現位置座標として記憶部20に記憶する。
サブルーチン内の処理が終了すると、メインルーチンに処理を戻す。
If there is an object candidate area n lost that has not been associated with the object candidate area of the current frame in the previous frame (ST523-Yes), the object reflected in the object candidate area n lost disappears from the monitoring space. It determines with having carried out and it memorize | stores in the memory | storage part 20 (ST524).
Next, when there is an object candidate area m new that has not been associated with any object candidate area in the previous frame in the current frame (ST525-Yes), the object reflected in the object candidate area m new is monitored space. The center of gravity coordinates of the object candidate area m new are stored in the storage unit 20 as appearance position coordinates.
When the processing in the subroutine is completed, the processing is returned to the main routine.

ステップST6では、ステップST5にて同一の物体であるとラベリングされた物体候補領域の人らしさを示す特徴量の算出処理が行われる。このステップST6はサブルーチン化されており、特徴算出部37において、図11に示すフローチャートに沿って実行される。 In step ST6, a feature amount calculation process indicating the humanity of the object candidate area labeled as the same object in step ST5 is performed. This step ST6 is converted into a subroutine, and is executed by the feature calculation unit 37 along the flowchart shown in FIG.

特徴量算出処理が開始されると、まず、カウンタmが1に初期化される(ST601)。カウンタmは、現フレームにおいて物体候補領域を特定するためのラベルとして用いられる。
次に、物体候補領域mが、監視空間に新規に出現した物体(物体候補領域mnew)であるか否かが判定される(ST602)。新規に出現した物体であれば(ST602−Yes)、ST607へと進む。
When the feature amount calculation process is started, first, the counter m is initialized to 1 (ST601). The counter m is used as a label for specifying an object candidate area in the current frame.
Next, it is determined whether or not the object candidate area m is an object (object candidate area m new ) that has newly appeared in the monitoring space (ST602). If it is a newly appearing object (ST602-Yes), the process proceeds to ST607.

他方、物体候補領域mが現フレームにて新規に出現した物体でなければ(ST602−No)、当該物体候補領域mの出現位置座標を記憶部20から読み出す(ST603)。そして、現フレームと直前フレームとのトラッキング処理において、物体候補領域mは実距離又は画素距離何れの距離でトラッキング処理されたかを判別する(ST604)。   On the other hand, if the object candidate area m is not an object newly appearing in the current frame (ST602-No), the appearance position coordinates of the object candidate area m are read from the storage unit 20 (ST603). Then, in the tracking process between the current frame and the immediately preceding frame, it is determined whether the object candidate region m has been tracked at an actual distance or a pixel distance (ST604).

実距離でトラッキング処理されていれば(ST604−Yes)、物体候補領域mの現在の重心座標と出現位置座標との間の実距離を算出し、実距離移動量として記憶部20に記憶する(ST605)。
他方、画素距離でトラッキング処理されていれば(ST604−No)、物体候補領域mの現在の重心座標と出現位置座標との間の画素距離を算出し、画素距離移動量として記憶部20に記憶する(ST605)。
If tracking processing is performed at the actual distance (ST604-Yes), the actual distance between the current center-of-gravity coordinates and the appearance position coordinates of the object candidate region m is calculated and stored in the storage unit 20 as the actual distance movement amount ( ST605).
On the other hand, if tracking processing is performed using the pixel distance (ST604-No), the pixel distance between the current center-of-gravity coordinates and the appearance position coordinates of the object candidate region m is calculated and stored in the storage unit 20 as the pixel distance movement amount. (ST605).

次に、ST607において、現フレームで特徴量の算出処理をしていない物体候補領域が存在するか否かが判断される。現フレームで特徴量算出処理していない物体候補領域が存在する場合、即ち、カウンタmの値が現フレームにおける物体候補領域の総数に満たない場合(ST607−Yes)、mの値を1増加させて(ST608)、ステップST602以降の処理を繰り返す。そして、現フレームにおいて、全ての物体候補領域の特徴量算出処理が完了すると(ST607−No)、サブルーチン内の処理を終了して、メインルーチンに処理を戻す。   Next, in ST607, it is determined whether or not there is an object candidate region that has not been subjected to feature amount calculation processing in the current frame. If there is an object candidate area that has not been subjected to feature quantity calculation processing in the current frame, that is, if the value of the counter m is less than the total number of object candidate areas in the current frame (ST607-Yes), the value of m is increased by 1. (ST608), and the processes after step ST602 are repeated. When the feature amount calculation processing for all object candidate regions is completed in the current frame (ST607-No), the processing in the subroutine is terminated and the processing is returned to the main routine.

ステップST7では、異常判定部38により、特徴量算出処理で算出された特徴量に基づき物体候補領域に写り込んだ物体が侵入者か否かが判定される。異常判定部38は、特徴量算出処理で算出された実距離移動量が所定の実距離(第二の所定実距離)以上となる場合に、対応する物体候補領域が侵入者であると判定する(ST7−Yes)。所定の実距離は、実距離追跡部351にてトラッキングした物体候補領域が人であるか否かを判定するしきい値であり、監視空間内を人が移動する際の実距離などを基準として外乱を除去できる程度の値に設定され、例えば100cm等に任意に設定される。 In step ST7, the abnormality determination unit 38 determines whether the object reflected in the object candidate area is an intruder based on the feature amount calculated by the feature amount calculation process. The abnormality determination unit 38 determines that the corresponding object candidate region is an intruder when the actual distance movement amount calculated in the feature amount calculation process is equal to or greater than a predetermined actual distance (second predetermined actual distance). (ST7-Yes). The predetermined actual distance is a threshold value for determining whether or not the object candidate area tracked by the actual distance tracking unit 351 is a person, and the actual distance when the person moves in the monitoring space is used as a reference. It is set to a value that can remove the disturbance, and is arbitrarily set to 100 cm, for example.

また、異常判定部38は、特徴量算出処理で算出された画素距離移動量が所定の画素距離(第二の所定画素距離)以上となる場合に、対応する物体候補領域が侵入者であると判定する(ST7−Yes)。所定の画素距離は、画素距離追跡部352にてトラッキングした物体候補領域が人であるか否かを判定するしきい値であり、監視空間内の遠方領域を人が移動する際の画素距離などを基準として外乱を除去できる程度の値に設定され、例えば50pixel等に任意に設定される。 In addition, the abnormality determination unit 38 determines that the corresponding object candidate region is an intruder when the pixel distance movement amount calculated in the feature amount calculation process is equal to or greater than a predetermined pixel distance (second predetermined pixel distance). Determine (ST7-Yes). The predetermined pixel distance is a threshold value for determining whether or not the object candidate area tracked by the pixel distance tracking unit 352 is a person, such as a pixel distance when a person moves in a distant area in the monitoring space. Is set to a value that can remove disturbance, and is arbitrarily set to 50 pixels, for example.

ST8では、異常判定部38の判定に基づき出力部40が作動して異常の発生を報知する。
異常判定部38が侵入者なしと判定した場合(ST7−No)、又は、出力部40が異常発生を報知した後には、ステップST2へ戻り、次の撮像画像取得タイミングにて次のフレームとなる撮像画像を取得する。
In ST8, based on the determination of the abnormality determination unit 38, the output unit 40 operates to notify the occurrence of the abnormality.
When the abnormality determination unit 38 determines that there is no intruder (ST7-No) or after the output unit 40 notifies the occurrence of abnormality, the process returns to step ST2 and becomes the next frame at the next captured image acquisition timing. A captured image is acquired.

以上のように、本実施の形態によれば、撮像画像に写り込む遠方の領域においては、算出される実空間上の距離の信頼性が低くなるという知見に基づき、撮像画像に写り込んだ遠方の領域を算出して、この遠方領域で抽出された変動領域に対しては画素数に基づき移動距離を判定し、遠方領域以外で抽出された変動領域に対しては実空間上の距離に基づき移動距離を判定することにより、撮像装置の近傍から遠方までを監視空間とする場合においても侵入者の検出精度を向上させることができる。   As described above, according to the present embodiment, in the distant area reflected in the captured image, the far distance reflected in the captured image is based on the knowledge that the reliability of the calculated distance in the real space is low. The movement distance is calculated based on the number of pixels for the fluctuation area extracted in the far area, and based on the distance in the real space for the fluctuation area extracted outside the far area. By determining the moving distance, it is possible to improve the detection accuracy of an intruder even when the vicinity of the imaging apparatus to the far side is used as a monitoring space.

本発明の実施の形態に係る画像センサのブロック図。1 is a block diagram of an image sensor according to an embodiment of the present invention. 本発明の実施の形態に係る撮像画像に設定された遠方領域を説明する図。The figure explaining the distant area | region set to the captured image which concerns on embodiment of this invention. 本発明の実施の形態に係る差分画像の生成方法を説明する図。The figure explaining the production | generation method of the difference image which concerns on embodiment of this invention. 本発明の実施の形態に係る遠方領域外の移動物体を示す図。The figure which shows the moving object outside a distant area | region which concerns on embodiment of this invention. 本発明の実施の形態に係る実空間上の距離を算出する方法を説明する図。The figure explaining the method of calculating the distance in real space which concerns on embodiment of this invention. 本発明の実施の形態に係る実空間上の距離を算出する方法を説明する図。The figure explaining the method of calculating the distance in real space which concerns on embodiment of this invention. 本発明の実施の形態に係る遠方領域上の移動物体を示す図。The figure which shows the moving object on the far field which concerns on embodiment of this invention. 本発明の実施の形態に係る遠方領域の算出方法を説明する図。The figure explaining the calculation method of a far field concerning an embodiment of the invention. 本発明の実施の形態に係る侵入者検出のフローチャート。The flowchart of the intruder detection which concerns on embodiment of this invention. 本発明の実施の形態に係るトラッキング処理のフローチャート。The flowchart of the tracking process which concerns on embodiment of this invention. 本発明の実施の形態に係る特徴量算出処理のフローチャート。The flowchart of the feature-value calculation process which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1 画像センサ、10 撮像部、20 記憶部、30 画像処理部、31 遠方領域設定部、32 変動領域抽出部、33 物体候補検出部、34 存在位置判定部、35、物体候補追跡部、351 実距離追跡部、352 画素距離追跡部、36 画像距離算出部、37 特徴算出部、38 異常判定部、40 出力部。
DESCRIPTION OF SYMBOLS 1 Image sensor, 10 Image pick-up part, 20 Storage part, 30 Image processing part, 31 Far area setting part, 32 Fluctuation area extraction part, 33 Object candidate detection part, 34 Existence position determination part, 35, Object candidate tracking part, 351 Distance tracking unit, 352 Pixel distance tracking unit, 36 Image distance calculation unit, 37 Feature calculation unit, 38 Abnormality determination unit, 40 Output unit

Claims (3)

撮像部にて順次取得される監視空間の撮像画像と過去の画像との差分から変動領域を抽出するとともに該変動領域の移動を追跡する画像センサであって、
前記撮像画像において前記監視空間の遠方が写り込んだ領域を遠方領域として設定する遠方領域設定部と、
前記撮像部の設置高・俯角・画角を含む設置情報、前記遠方領域、及び抽出した変動領域の位置を記憶する記憶部と、
前記変動領域が前記遠方領域に位置しているか否かを判定する存在位置判定部と、
前記設置情報に基づいて前記撮像画像上の距離を前記監視空間上の実距離に変換する画像距離算出部と、
前記存在位置判定部が時間的に前後して抽出された変動領域の少なくとも一方の位置を前記遠方領域内と判定すれば当該変動領域間の前記撮像画像上の距離を対応付けの条件とし、前記存在位置判定部が時間的に前後して抽出された変動領域の両方の位置を前記遠方領域外と判定すれば当該変動領域間の前記実距離を対応付けの条件として変動領域の移動を追跡する追跡部と、
を備え
前記遠方領域設定部は、前記撮像画像において隣接画素間の前記実距離が予め設定された基準を超える領域を前記遠方領域として設定することを特徴とした画像センサ。
An image sensor that extracts a fluctuation region from a difference between a captured image of a monitoring space sequentially acquired by an imaging unit and a past image and tracks the movement of the fluctuation region,
A distant area setting unit for setting an area in which the distant part of the monitoring space is reflected in the captured image as a distant area;
A storage unit that stores installation information including the installation height, depression angle, and angle of view of the imaging unit, the far region, and the position of the extracted variation region;
A presence position determination unit that determines whether or not the variable region is located in the far region;
An image distance calculation unit that converts a distance on the captured image into an actual distance on the monitoring space based on the installation information;
If the presence position determination unit determines that at least one position of the fluctuation area extracted before and after in time is within the far area, the distance on the captured image between the fluctuation areas is set as a matching condition, If the presence position determination unit determines that both positions of the variable region extracted before and after in time are outside the far region, the movement of the variable region is tracked using the actual distance between the variable regions as a matching condition. A tracking unit;
Equipped with a,
The far region setting unit sets the region where the actual distance between adjacent pixels exceeds a preset reference in the captured image as the far region .
前記遠方領域設定部は、前記隣接画素間の実距離が第一のしきい値以上である領域を前記遠方領域として設定する請求項1に記載の画像センサ。 The image sensor according to claim 1, wherein the far region setting unit sets a region where an actual distance between the adjacent pixels is equal to or greater than a first threshold value as the far region. 前記遠方領域設定部は、前記隣接画素間の実距離の変化率を算出し、該変化率が第二のしきい値以上である領域を前記遠方領域として設定する請求項1に記載の画像センサ。 The far region setting unit, an image sensor according to claim 1, wherein calculating the actual distance rate of change between adjacent pixels, said alteration rate sets a region is the second threshold or more as the far region .
JP2005137867A 2005-05-10 2005-05-10 Image sensor Active JP4628860B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005137867A JP4628860B2 (en) 2005-05-10 2005-05-10 Image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005137867A JP4628860B2 (en) 2005-05-10 2005-05-10 Image sensor

Publications (2)

Publication Number Publication Date
JP2006318064A JP2006318064A (en) 2006-11-24
JP4628860B2 true JP4628860B2 (en) 2011-02-09

Family

ID=37538720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005137867A Active JP4628860B2 (en) 2005-05-10 2005-05-10 Image sensor

Country Status (1)

Country Link
JP (1) JP4628860B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295063A (en) * 2008-06-09 2009-12-17 Meidensha Corp Intrusion object detection device
JP5261331B2 (en) * 2009-09-11 2013-08-14 富士フイルム株式会社 Image analysis apparatus, image analysis method, and program
JP5877722B2 (en) * 2012-01-18 2016-03-08 セコム株式会社 Image monitoring device
JP6614611B2 (en) * 2016-02-29 2019-12-04 Kddi株式会社 Apparatus, program, and method for tracking object in consideration of similarity between images
JP6866581B2 (en) * 2016-06-30 2021-04-28 株式会社ニコン Imaging equipment and electronic components
JP6996353B2 (en) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 Object recognition device and vehicle travel control system
JP7511540B2 (en) 2021-12-22 2024-07-05 三菱重工業株式会社 Object detection device, object detection method, and object detection program
CN116170693B (en) * 2023-04-25 2023-07-21 山西乐宸科技有限公司 Security monitoring system control method and device, electronic equipment and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3083918B2 (en) * 1992-06-26 2000-09-04 本田技研工業株式会社 Image processing device
JP3153718B2 (en) * 1994-11-07 2001-04-09 ニッタン株式会社 Intruder detection device and intruder detection method
JPH11222882A (en) * 1998-02-05 1999-08-17 Komatsu Ltd Dangerous zone monitoring device
JPH11252587A (en) * 1998-03-03 1999-09-17 Matsushita Electric Ind Co Ltd Object tracking device

Also Published As

Publication number Publication date
JP2006318064A (en) 2006-11-24

Similar Documents

Publication Publication Date Title
JP4628860B2 (en) Image sensor
KR102213328B1 (en) Video processing apparatus, video processing method, and program
KR100519782B1 (en) Method and apparatus for detecting people using a stereo camera
JP4429298B2 (en) Object number detection device and object number detection method
US20170154424A1 (en) Position detection device, position detection method, and storage medium
JP6806188B2 (en) Information processing system, information processing method and program
JPWO2010140578A1 (en) Image processing apparatus, image processing method, and image processing program
KR20080020595A (en) Human detection and tracking for security applications
JP5262705B2 (en) Motion estimation apparatus and program
JP2002024807A (en) Object movement tracking technique and recording medium
JP7354767B2 (en) Object tracking device and object tracking method
KR101972582B1 (en) Development for Displacement Measurement System Based on a PTZ Camera and Method thereof
KR102295183B1 (en) object tracking method for CCTV video by use of CCTV projection model
JP6659095B2 (en) Image processing apparatus, image processing method, and program
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
CN111553342B (en) Visual positioning method, visual positioning device, computer equipment and storage medium
JP4887540B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP5877725B2 (en) Image monitoring device
JP7243372B2 (en) Object tracking device and object tracking method
JP4918615B2 (en) Object number detection device and object number detection method
JP2010009236A (en) Plane area estimation device and program
JP4070558B2 (en) Image tracking apparatus and method
JP5419925B2 (en) Passing object number measuring method, passing object number measuring apparatus, and program
JP2009076094A (en) Moving object monitoring device
JP4674920B2 (en) Object number detection device and object number detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4628860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250