JP2001357489A - Traveling vehicle detector - Google Patents
Traveling vehicle detectorInfo
- Publication number
- JP2001357489A JP2001357489A JP2000178492A JP2000178492A JP2001357489A JP 2001357489 A JP2001357489 A JP 2001357489A JP 2000178492 A JP2000178492 A JP 2000178492A JP 2000178492 A JP2000178492 A JP 2000178492A JP 2001357489 A JP2001357489 A JP 2001357489A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- area
- template
- vehicle
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【発明が属する技術分野】本発明は、監視装置等におい
て、動画像から走行車両を検出して、正確に走行車両を
検出、追跡するための走行車両検出装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a traveling vehicle detection device for detecting a traveling vehicle from a moving image and accurately detecting and tracking the traveling vehicle in a monitoring device or the like.
【0002】[0002]
【従来の技術】近年広域の監視や設備装置等において、
多数のカメラを用いた監視システムが増大している。こ
のため観測者が複数の映像をモニタリングする非効率的
な監視作業を排除して、対象物体の動き等を捉えて状況
把握が行える自動監視システムの開発が待望されてい
る。特に複数のカメラ映像で広域の観測区の移動物体を
追跡する手法としては、映像内での対象物体の領域を正
確に抽出し、その対象物体の足元位置を求めて、その位
置を観測空間の平面位置に変換し、対象物体の追跡を行
ったり、同一の観測区域を2台のカメラで撮影して2つ
の映像に写る同一の物体の対応付けを行い、その2台の
カメラの視差を利用して、対象物体の奥行き距離を求め
るステレオ処理を行うステレオ手法等がある。2. Description of the Related Art In recent years, in wide area monitoring and equipment, etc.,
Surveillance systems using a large number of cameras are increasing. Therefore, development of an automatic monitoring system capable of grasping the situation by capturing the movement or the like of a target object by excluding an inefficient monitoring work in which an observer monitors a plurality of images is desired. In particular, as a method of tracking a moving object in a wide observation area with multiple camera images, the area of the target object in the image is accurately extracted, the foot position of the target object is obtained, and that position is determined in the observation space. Convert to a planar position and track the target object, associate the same object in two images by shooting the same observation area with two cameras, and use the parallax of the two cameras Then, there is a stereo method for performing stereo processing for obtaining a depth distance of the target object.
【0003】このステレオ手法について、「3次元画像
計測」(大田友一、システム/制御/情報、vol.38,N
o.1,pp21〜27、1994)に基づいて詳細に説明する。ス
テレオ手法では、図5に示すように、異なった位置で撮
影された左右一対の画像上で、3次元空間中では同じ点
Psに対応する一対の像PlとPrとを求めれば、3角
測量の原理で画像位置を基準としたときの点Psの位置
を決定することができる。このとき左右の撮像系に固定
した3つの3次元座標系の間の座標変換は、既知である
ことが必要である。[0003] Regarding this stereo technique, "3D image measurement" (Yuichi Ota, System / Control / Information, vol. 38, N
o.1, pp. 21 to 27, 1994). In the stereo method, as shown in FIG. 5, on a pair of left and right images taken at different positions, a pair of images Pl and Pr corresponding to the same point Ps in a three-dimensional space is obtained. The position of the point Ps based on the image position can be determined based on the principle of. At this time, the coordinate conversion between the three three-dimensional coordinate systems fixed to the left and right imaging systems needs to be known.
【0004】ステレオ手法における重要な性質の1つ
に、左右一対の像の画像面上での存在範囲を拘束するエ
ピポーラ拘束がある。これは例えば点Plに対応すべき
右画像上の像は、右画像上で点Plに依存する一本の直
線上に存在しなければならないとする性質であり、この
直線をエピポーラ線と呼ぶ。この拘束は点Plも点rも
2つのレンズ中心Ol,Orと点Psとによって決定さ
れる3次元空間中の平面上に存在しなければならないこ
とから明らかである。エピポーラ線は、実はこの平面
(エピポーラ面と呼ばれる)と画像面との交線出ある。
別の見方をすると、点Pl,点Prとレンズ中心Ol,
Orの4点が、同一面上に載ることが、点Psを決定す
る条件であり、これらの4点が同一平面上に載る条件を
共面条件と呼び、ステレオ手法はじめ動画像等の多重画
像から3次元情報を復元する原理の最も基本となる。One of the important properties of the stereo method is epipolar constraint that restricts the range of the pair of left and right images on the image plane. This is a property that, for example, an image on the right image that should correspond to the point Pl must exist on one straight line depending on the point Pl on the right image, and this straight line is called an epipolar line. This constraint is apparent from the fact that both the point Pl and the point r must be present on a plane in a three-dimensional space determined by the two lens centers Ol, Or and the point Ps. The epipolar line is actually the intersection of this plane (called an epipolar plane) and the image plane.
From another viewpoint, the points Pl and Pr and the lens center Ol and
The condition that the four points Or are placed on the same plane is a condition for determining the point Ps. The condition that these four points are placed on the same plane is called a coplanar condition. This is the most basic principle of restoring three-dimensional information from.
【0005】[0005]
【発明が解決しようとする課題】しかしながら前記のよ
うな従来の技術では、大きな課題が残されている。それ
は例えばステレオ手法における課題は、つぎの4点をあ
げることができる。 (1)左右画像上の対応点を求めることが容易でないこ
と。 (2)対象物体に特徴点が存在しない部分では使用する
ことができないこと。 (3)計測精度が対象物体上のエッジの方向に依存する
こと。 (4)一方では見えているが、他方では見えていないよ
うな隠れ部分では使用することができないこと。However, the prior art as described above has a large problem. For example, the following four points can be raised as problems in the stereo method. (1) It is not easy to find corresponding points on left and right images. (2) The target object cannot be used in a portion where no feature point exists. (3) The measurement accuracy depends on the direction of the edge on the target object. (4) It cannot be used in hidden parts that are visible on the one hand but not visible on the other.
【0006】そこで本発明は、前記のような従来技術の
もつ問題点に鑑みて、複数映像の統合方法として、処理
負荷が少ない自動生成型のテンプレートマッチング法に
基づくテンプレートの位置から多視点的な処理を導入す
ることにより、正確に移動物体を抽出することのできる
走行車両検出装置を提供することを目的とするものであ
る。In view of the above-mentioned problems of the prior art, the present invention proposes a multi-view integration method based on a template position based on an automatically generated template matching method with a small processing load. An object of the present invention is to provide a traveling vehicle detection device that can accurately extract a moving object by introducing processing.
【0007】[0007]
【課題を解決するための手段】カメラ映像を入力する入
力手段と、前記の入力手段から得られた映像データから
動領域を検出する動領域抽出手段と、前記の動領域抽出
手段から得られた動領域から各動領域別に領域の大きさ
や画素数等の動領域の情報を検出するラベリング処理手
段と、前記ラベリング処理手段より検出された各動領域
の情報を用いて、その動領域が対象とする物体にどの程
度似ているかを示す情報を抽出する形状情報抽出手段
と、前記入力手段から得られた映像データと前記形状特
徴抽出手段から得られた動領域の情報に基づいてテンプ
レートの操作を行うテンプレート処理手段とを備えたカ
メラ映像処理系と、前記複数のカメラ映像処理系からの
情報を統合する統合処理手段と、前記統合処理手段から
得られた移動物体の位置や分類情報を処理してディスプ
レイ等に表示する出力処理手段より構成されている。An input means for inputting a camera image, a moving area extracting means for detecting a moving area from the video data obtained from the input means, and a moving area extracting means for obtaining the moving image. Labeling processing means for detecting information on the moving area such as the size of the area and the number of pixels for each moving area from the moving area, and using the information on each moving area detected by the labeling processing means, the moving area is regarded as a target. Shape information extracting means for extracting information indicating how similar the object is to the object to be processed; and operating the template based on video data obtained from the input means and information on a moving region obtained from the shape feature extracting means. A camera image processing system having a template processing unit for performing the processing, an integrated processing unit for integrating information from the plurality of camera image processing systems, and a moving object obtained from the integrated processing unit. Processing the location and classification information is composed from the output processing means for displaying on a display or the like.
【0008】そしてこれにより、本発明では前記のよう
な課題を、動画像処理の特徴を生かすような処理手順で
空間位置と各画像内の画素位置との写像関数が既知の複
数のカメラ映像を用い、対象領域の大まかな足元位置情
報を抽出し、この不安定な情報を多視点的処理と時系列
処理を施すことにより、精度の高い対象領域の運動軌跡
(トレース)を求めることができ正確に移動物体を抽出
することができる。Thus, the present invention solves the above-described problem by converting a plurality of camera images having a known mapping function between a spatial position and a pixel position in each image in a processing procedure utilizing the characteristics of moving image processing. By extracting rough foot position information of the target area, and performing multi-viewpoint processing and time-series processing on this unstable information, a highly accurate motion trajectory (trace) of the target area can be obtained. A moving object can be extracted.
【0009】請求項2に記載の発明は、複数のカメラで
撮影される観測区域は、どの区域も2台以上のカメラ映
像により重複して撮影されていることを特徴とする請求
項1記載の走行車両検出装置としたものであり、簡易な
処理で、精度の高い車両の追跡を行うことがより大きく
できるという作用を有する。According to a second aspect of the present invention, in each of the observation areas photographed by a plurality of cameras, each area is photographed by two or more cameras. This is a traveling vehicle detection device, and has the effect that it is possible to more accurately track a vehicle with simple processing.
【0010】請求項3に記載の発明は、複数のカメラを
設置する場合4台を1組として、これらのカメラをカメ
ラ1、カメラ2、カメラ3、カメラ4とした場合に、カ
メラ1とカメラ2およびカメラ3とカメラ4を並列又は
内側に向いた方向に、カメラ1,2とカメラ3,4は対
向に設置しながら、どの観測区域も2台以上のカメラ映
像により重複して撮影できるようにカメラを増やしてい
くことを特徴とする請求項1,2記載の走行車両検出装
置としたものであり、簡易な処理で、精度の高い車両の
追跡を行うことが高速道路等の長く伸びた領域で行うこ
とができるという作用を有する。According to a third aspect of the present invention, when a plurality of cameras are installed, four cameras constitute one set, and when these cameras are used as a camera 1, a camera 2, a camera 3, and a camera 4, the cameras 1 and 2 and cameras 3 and 4 are arranged side by side or inward, and cameras 1 and 2 and cameras 3 and 4 are installed facing each other, so that any observation area can be photographed with two or more cameras. The traveling vehicle detection device according to claim 1 or 2, characterized in that the number of cameras is increased in a long time. It has the effect that it can be performed in the area.
【0011】請求項4に記載の発明は、入力手段が、可
視カメラや赤外線カメラ又はそれらの組み合わせによる
ことを特徴とする請求項1〜3記載の走行車両検出装置
としたものであり、請求項1乃至3のいずれかに記載の
発明効果をだすための入力手段の限定であり、可視カメ
ラと赤外線カメラの双方の長所・短所を補って効果を引
き出すことができるという作用を有する。According to a fourth aspect of the present invention, there is provided the traveling vehicle detecting apparatus according to the first to third aspects, wherein the input means is a visible camera, an infrared camera, or a combination thereof. This is a limitation of the input means for achieving the effect of the invention described in any one of 1 to 3, and has an effect that the effect can be obtained by compensating for the advantages and disadvantages of both the visible camera and the infrared camera.
【0012】請求項5に記載の発明は、統合処理手段で
は、各カメラの観測空間における設置位置と映像内の画
素と観測空間の平面位置の写像関数が既知であり、各映
像処理系のテンプレートマッチング手段で得られたテン
プレートの矩形領域の対角線を求める。そして、複数の
映像処理系から得られる前記の直線の交点を対象物体の
位置候補とすることを特徴とする請求項1〜4記載の走
行車両検出装置としたものであり、本発明の多視点的な
車両検出情報の統合・同定処理するために統合処理手段
で移動物体の位置精度を高めることができるという作用
を有する。According to a fifth aspect of the present invention, in the integrated processing means, a mapping function of an installation position of each camera in an observation space, a pixel in an image and a plane position of the observation space is known, and a template of each image processing system is provided. The diagonal line of the rectangular area of the template obtained by the matching means is obtained. The traveling vehicle detecting apparatus according to any one of claims 1 to 4, wherein intersections of the straight lines obtained from a plurality of video processing systems are set as position candidates of the target object. There is an effect that the position accuracy of the moving object can be improved by the integration processing means for performing the integration / identification processing of the vehicle detection information.
【0013】請求項6に記載の発明は、統合処理手段か
ら得られた対象物体の位置候補とそれまで得られた車両
の位置情報を用いて観測空間における最短距離処理にて
対応付けを時間軸に従って行う対象の対応付け手段で行
うことを特徴とする請求項5記載の車両検出装置とした
ものであり、本発明の多視点的な車両検出情報の統合・
同定処理するために時間軸での移動物体の誤認識を減少
させることができるという作用を有する。According to a sixth aspect of the present invention, the correspondence is established in the shortest distance process in the observation space using the position candidate of the target object obtained from the integration processing means and the position information of the vehicle obtained up to that time. The vehicle detection apparatus according to claim 5, wherein the object detection is performed by the target association means according to the following.
This has the effect of reducing erroneous recognition of a moving object on the time axis for the identification processing.
【0014】[0014]
【発明の実施の形態】以下に、本発明の実施の形態につ
いて、図1及び図4を用いて説明する。図1は、本発明
の実施の形態における走行車両検出装置のブロック構成
図を示す。図1において、7〜9はカメラ映像処理系を
示し、1はカメラ映像を入力する入力手段、2は入力手
段1から得られた映像データから動領域を検出する動領
域抽出手段、3は動領域抽出手段2から得られた動領域
領域から各動領域別に領域の大きさや画素数等の動領域
の情報を検出するラベリング処理手段、4はラベリング
処理手段3より検出された各動領域の情報を用いて、そ
の動領域が車両であるかどうかの判断を行う車両検出手
段、5は車両検出手段で車両領域と判断された場合に、
テンプレートの生成や既に存在するテンプレートをテン
プレートマッチングを行うテンプレートマッチング手段
とから構成され、6は複数のカメラ映像処理系10〜12か
らの情報を統合する統合処理手段、7は統合処理手段6
から得られた走行車両の位置をディスプレイ等に表示す
る移動物体のトレース手段より構成される。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIGS. FIG. 1 shows a block configuration diagram of a traveling vehicle detection device according to an embodiment of the present invention. In FIG. 1, reference numerals 7 to 9 denote camera image processing systems, 1 denotes an input means for inputting a camera image, 2 denotes a moving area extracting means for detecting a moving area from the video data obtained from the input means 1, and 3 denotes a moving area extracting means. Labeling processing means for detecting information on the moving area such as the size of the area and the number of pixels for each moving area from the moving area obtained from the area extracting means 2, and information on each moving area detected by the labeling processing means 3 The vehicle detecting means 5 for determining whether or not the moving area is a vehicle by using, when the vehicle detecting means determines that the moving area is a vehicle area,
6 is a template matching means for generating a template or performing template matching on an existing template, 6 is an integrated processing means for integrating information from a plurality of camera video processing systems 10 to 12, and 7 is an integrated processing means 6
And a moving object tracing means for displaying the position of the traveling vehicle obtained from the moving object on a display or the like.
【0015】本発明のカメラ映像処理系10〜12である入
力手段1からテンプレートマッチング手段5までの大き
な流れは、車両を検出し、その車両を追跡するためにテ
ンプレートマッチング法を組み合わせた処理である。テ
ンプレートマッチングは、撮影環境の変化に対して安定
した処理であるとともに、計算負荷が比較的軽い処理で
ある。そこで、本発明では走行する車両が検出された場
合に、その車両領域を検索し、テンプレートがない場合
にはテンプレート生成を行い、テンプレートが存在する
場合にはテンプレートマッチングを行い、移動物体の追
跡をする。The large flow from the input means 1 to the template matching means 5, which are the camera image processing systems 10 to 12 of the present invention, is a process in which a template matching method is combined to detect a vehicle and track the vehicle. . The template matching is a process that is stable with respect to a change in the imaging environment and that has a relatively light calculation load. Therefore, in the present invention, when a traveling vehicle is detected, the vehicle area is searched, and if there is no template, a template is generated.If a template exists, template matching is performed, and tracking of a moving object is performed. I do.
【0016】以下に走行車両検出装置について各処理手
段毎に詳細に説明する。入力手段1は、カメラとして例
えば可視カメラまたは赤外線カメラ等を用いるものとす
る。本発明では複数のカメラが混在する場合もある。そ
の用途に応じて選択が可能とする。また、複数のカメラ
で撮影される観測区域は、どの区域も2台以上のカメラ
映像により重複して撮影されていることを条件として、
設置の例としては、図2に示すように4台を1組とし
て、これらのカメラをカメラ1、カメラ2、カメラ3、
カメラ4とした場合に、カメラ1とカメラ2及びカメラ
3とカメラ4を並列又は内側に向いた方向に、カメラ
1,2とカメラ3,4は対向に設置しながら、どの観測
区域も2台以上のカメラ映像により重複して撮影できる
ようにカメラを増やしてゆく方法もある。図2の監視エ
リアとしては、高速道路を含めた自動車道路等が想定さ
れる。Hereinafter, the traveling vehicle detecting device will be described in detail for each processing means. The input means 1 uses, for example, a visible camera or an infrared camera as a camera. In the present invention, a plurality of cameras may be mixed. Selection can be made according to the application. In addition, the observation area photographed by a plurality of cameras is subject to the condition that every area is photographed in duplicate by two or more camera images.
As an example of installation, as shown in FIG. 2, four cameras are set as one set, and these cameras are referred to as camera 1, camera 2, camera 3,
In the case where the camera 4 is used, the cameras 1 and 2 and the cameras 3 and 4 are arranged side by side or inward, and the cameras 1 and 2 and the cameras 3 and 4 are installed facing each other. There is also a method of increasing the number of cameras so that the camera images can be overlapped and photographed. As the monitoring area in FIG. 2, an automobile road including an expressway is assumed.
【0017】動領域抽出処理手段2は、本発明では対象
物体の全体の検出が重要で、足元まで含めた全体領域が
1つの領域として抽出されることが望ましく、このた
め,入力手段1からの映像データから動領域を抽出する
際、対象物体の領域の分離する割合が少ないのであれば
映像の1フレーム間の差分する方法や背景映像を算出し
て、その背景を用いて現時点での映像との差分をとる方
法を用いるものとする。また、前記の方法で対象物体の
領域が分離するような場合には、映像の1フレーム間の
差分結果を数フレームに渡って累積するフレーム間累積
差分を行ってから最適閾値で2値化し、動き領域抽出す
る方法を用いるものとする。In the present invention, it is important for the moving area extraction processing means 2 to detect the entire target object, and it is preferable that the entire area including the foot is extracted as one area. When extracting a moving area from video data, if the rate of separation of the area of the target object is small, a method of subtracting one frame of the video or a background video is calculated, and the background is used to calculate the current video. Is used. Further, in the case where the region of the target object is separated by the above-described method, an inter-frame cumulative difference that accumulates the difference result between one frame of the video over several frames is performed, and then binarized by the optimal threshold. It is assumed that a method of extracting a motion region is used.
【0018】ラベリング処理手段3は、動領域抽出手段
2で検出された2値化された動き領域からラベリング処
理により、例えば人物や車両等の対象物体の領域を区分
するものである。一般的には、動領域抽出手段2で検出
された動き領域には対象物体以外の領域が含まれること
があり、影や映り込みおよび映像に上乗されたノイズが
これらの例である。そこで、本手段では、これらの不要
な部分を除去して実際の対象物体の領域に近い部分を1
つの領域として抽出する領域整形としての役目も含まれ
ている。The labeling processing means 3 separates a target object area such as a person or a vehicle from the binarized moving area detected by the moving area extracting means 2 by labeling processing. In general, the motion area detected by the motion area extraction unit 2 may include an area other than the target object, and examples thereof include a shadow, reflection, and noise added to the video. Therefore, in this means, these unnecessary portions are removed, and a portion close to the actual target object area is set to one.
It also has a role as an area shaping that is extracted as one area.
【0019】車両検出手段4は、ラベリング処理手段3
で検出される動領域には、車両の重なり、分離や影を含
む場合も含まれる。従って、本発明では動領域から車両
が1台であるかどうかを動領域のサイズやフェレ比・全
体の傾きなどの形状特徴を用いて、動領域が追尾すべき
車両であるかどうかの確からしさを示す“類似度”を算
出し、これによって判別を行うルールを設定した。これ
は対象とする車両の実サイズがほぼ決まっていることか
ら判別している。この判別ルールについて以下に説明す
る。The vehicle detecting means 4 includes a labeling processing means 3
The moving area detected by means includes a case where the vehicle overlaps, separates, or contains a shadow. Therefore, in the present invention, it is determined whether or not a vehicle is a vehicle to be tracked by using the shape characteristics such as the size of the moving region, the Feret ratio, and the inclination of the whole, based on the size of the moving region and whether or not there is one vehicle. Is calculated, and a rule for making a determination based on the similarity is set. This is determined from the fact that the actual size of the target vehicle is substantially determined. This determination rule will be described below.
【0020】画像上での人物のサイズSizeはカメラから
距離を介して射影変換によって実サイズと関係づけられ
る。そこで、この射影変換を1次式Size=a×Ybottom
+bで近似できる。ここでYbottomは動領域下端の画像
上の座標であり、人物であれば足元の位置にほぼ対応す
る。長さの次元を持つサイズとしては動領域の外接矩形
の幅w・高さh、動領域領域の面積(画素数)の平方根
rなどがある。w,h,rはいずれも上記の1次式でよ
く近似できる。従ってw,h,rは主成分分析により1
つの量に情報圧縮できる。そこでSizeをSize=αw×w
+αh×h+r×rと定義する。ここで、αw,αh,
αrは第1主成分軸への射影係数でαw2+αh2+α
r2=1を満たす。Sizeは前述の1次式でよく近似でき
るので、適切なフィッティング方法(最小二乗法など)
により前記式の係数a,bを求め、この式によって「車
両の標準サイズ」を決定した。The size Size of the person on the image is related to the actual size by projective transformation via a distance from the camera. Therefore, this projective transformation is represented by a linear expression Size = a × Ybottom
+ B can be approximated. Here, Ybottom is the coordinates on the image of the lower end of the moving area, and almost corresponds to the position of the foot of a person. The size having the dimension of length includes the width w and height h of the circumscribed rectangle of the moving region, the square root r of the area (number of pixels) of the moving region, and the like. Each of w, h, and r can be well approximated by the above linear equation. Therefore, w, h, and r are 1 by the principal component analysis.
Information can be compressed into two quantities. Then, Size is changed to Size = αw × w
+ Αh × h + r × r. Where αw, αh,
αr is a projection coefficient onto the first principal component axis, and αw2 + αh2 + α
r2 = 1 is satisfied. Since the size can be approximated by the above-mentioned linear expression, an appropriate fitting method (least square method, etc.)
The coefficients “a” and “b” of the above equation were obtained by the following equation, and the “standard size of the vehicle” was determined by this equation.
【0021】この標準サイズを用いて判別ルールを次の
ように定めた。動領域の車両類似度LをL=100(1−
|Size−Size0|/Size0)と定義し、L≧Thを満た
す場合に人物とする。ただし、ここでSize0は動領域の
Ybottomから求めた標準サイズ(a×Ybottom+b)、
Thは適切なしきい値である。なお、上記は人物につい
てのルールを示したが、車と人の判断等では、Ybottom
と動領域の面積の平方根rの1次近似式を用いて、その
近似式の上下関係で人か車の判断を行う方法もある。Using the standard size, a discrimination rule is determined as follows. The vehicle similarity L in the moving area is defined as L = 100 (1-
| Size−Size0 | / Size0), and a person is determined when L ≧ Th is satisfied. Here, Size0 is a standard size (a × Ybottom + b) obtained from Ybottom of the moving area,
Th is an appropriate threshold. Note that the above shows the rules for persons, but in the judgment of a car and a person, Ybottom
There is also a method of using a first-order approximation formula of the square root r of the area of the moving region and determining whether a person or a car is in a vertical relationship of the approximation formula.
【0022】テンプレートマッチング手段5では、動領
域が車両であるとの判断が4の車両検出手段で行われる
とテンプレートの作成候補位置を用いてテンプレートの
検索を行い、テンプレートがない場合にはテンプレート
を生成する。また、既に存在するテンプレートについて
は、テンプレートマッチングを実施し、テンプレートの
位置を変更する。In the template matching means 5, when the vehicle detecting means 4 determines that the moving area is a vehicle, a template search is performed using the template creation candidate position. Generate. Further, for an existing template, template matching is performed to change the position of the template.
【0023】図3にテンプレートの検索について示す。
検出された車両領域のテンプレートを生成するべき位置
を探索し、その範囲にテンプレートがない場合に新しく
テンプレートを発生する。また、探索範囲に既にテンプ
レートが存在する場合には、テンプレートマッチングが
実行される。また、その他の既に存在するテンプレート
についてもテンプレートマッチングが実行され位置更新
が行われる。FIG. 3 shows a search for a template.
A position in the detected vehicle area where a template should be generated is searched for, and if no template exists in that range, a new template is generated. If a template already exists in the search range, template matching is performed. In addition, template matching is performed on other already existing templates, and the position is updated.
【0024】テンプレートマッチングは、各フレーム画
像から得られた輝度映像やSobelフィルタ等で抽出した
エッジ画像に対して行う。このため、テンプレートに保
存される画素値は輝度映像の場合と輝度画像から抽出さ
れた値、エッジ画像を用いる場合にはエッジ画像から抽
出された値である。なお、テンプレートマッチング法に
おいて、テンプレートに似たパターンを探索する手法と
しては、最短距離法・SSDA(Sequential Similarit
y Detection Algorithm)・相関法・統計的手法等があ
る。本発明では高速性も兼ねそろえたSSDAを用い
た。The template matching is performed on a luminance image obtained from each frame image and an edge image extracted by a Sobel filter or the like. Therefore, the pixel values stored in the template are the values extracted from the luminance image and the luminance image, and the values extracted from the edge image when the edge image is used. In the template matching method, as a method of searching for a pattern similar to a template, the shortest distance method / SSDA (Sequential Similarit
y Detection Algorithm), correlation method, statistical method, etc. In the present invention, SSDA having high speed is also used.
【0025】統合処理手段6は、各カメラ映像処理系7
〜9を前述した処理にて生成されたテンプレートの位置
を多視点的な手法にて統合を行っている。具体的な例を
図4に示す。図6において、カメラ1とカメラ2は、ほ
ぼ同一の観測エリアを違う角度から撮影している。この
とき、カメラ1の映像とカメラ2の映像はそれぞれテン
プレートマッチングにて車両を追跡している。この追跡
はテンプレートにて行っており、テンプレートの位置は
車両の一部を示す。このため、カメラが実空間に対して
どの様に設置されているか既知の場合でも車両の実空間
上(道路上)の位置が正確に求められない。そこでテン
プレートの矩形領域の対角線を実空間上にマッピングす
る。例えば、図4においては、カメラ映像1(図4
(a))ではテンプレートの矩形領域の対角線AB、カメ
ラ映像2(図4(b))ではカメラ映像1のA,Bに対応
する点としてA′,B′となる。この各映像から抽出さ
れた各点をカメラの設置位置が既知とすると映像歪みが
それ程大きく無い場合には線形の式にて変換できる。The integrated processing means 6 includes a camera video processing system 7
9 are integrated by a multi-viewpoint method of the positions of the templates generated in the above-described processing. A specific example is shown in FIG. In FIG. 6, the camera 1 and the camera 2 photograph substantially the same observation area from different angles. At this time, the image of the camera 1 and the image of the camera 2 track the vehicle by template matching. This tracking is performed by a template, and the position of the template indicates a part of the vehicle. For this reason, even if it is known how the camera is installed in the real space, the position of the vehicle in the real space (on the road) cannot be accurately obtained. Therefore, the diagonal line of the rectangular area of the template is mapped on the real space. For example, in FIG. 4, camera image 1 (FIG.
In (a)), the diagonal line AB of the rectangular area of the template, and in the camera image 2 (FIG. 4B), points A 'and B' correspond to points A and B of the camera image 1. If it is assumed that the camera installation position is known for each point extracted from each image, if the image distortion is not so large, it can be converted by a linear equation.
【0026】図4の右側に対象のトレースを行う実空間
のイメージ図(図6(c))を示す。この実空間において
A,B点およびA′,B′点を繋いだ直線を実空間にプ
ロットする。この場合には、各映像のテンプレート処理
が正確に行われていると仮定すると、対象物体が2台の
カメラを結ぶ線上にある場合を除けば、対応する対象物
体の実空間の位置に交点を持つことが幾何学的に証明で
きる。そこで、この交点を対象物体の実空間の位置とす
ることができる。An image diagram (FIG. 6C) of the real space for tracing the object is shown on the right side of FIG. In this real space, a straight line connecting points A and B and points A 'and B' is plotted in the real space. In this case, assuming that the template processing of each video is correctly performed, an intersection is set at the position of the corresponding target object in the real space except when the target object is on a line connecting the two cameras. It can be proved geometrically to have. Therefore, this intersection can be set as the position of the target object in the real space.
【0027】統合処理手段6における交点算出手段8で
交点を求めた後、時間軸に従って、過去に存在した対象
物体の位置と交点との最短距離をプロットすることによ
り各対象物体のトレースが行える。テンプレートマッチ
ング処理では、必ずしもテンプレートの位置が正確に対
象物体の位置を示していない場合も存在するが、最短距
離による対応付けにてロバスト性を確保している。ま
た、交点が定まらない場合や複数の対象物体が存在した
場合に架空の交点が発生する可能性があるが、過去の履
歴を用いた対応付けにて処理を行っている。車両の追跡
結果は、移動物体のトレース手段にディスプレイ等に表
示する。After the intersection is calculated by the intersection calculating means 8 in the integration processing means 6, the target object can be traced by plotting the shortest distance between the position of the target object which existed in the past and the intersection along the time axis. In the template matching process, there are cases where the position of the template does not always accurately indicate the position of the target object, but robustness is ensured by the correspondence based on the shortest distance. In addition, when an intersection is not determined or a plurality of target objects exist, a fictitious intersection may occur, but the processing is performed by association using past histories. The tracking result of the vehicle is displayed on a display or the like on the moving object tracing means.
【0028】次に、本発明の実施例を以下に説明する。
図1の実施例としては、車両の監視を行うシステムがあ
る。このとき、1台のカメラでは正しく人物を抽出して
追跡するが難しい場合が多々ある。例えば、床面積が大
きかったり、車両の一部が隠蔽したり、実空間上に車両
の映り込みや影があったりする場合である。そこで、2
台以上のカメラを設置し、複数の移動物体の追跡を自動
生成型のテンプレートマッチング法を用いて多視点的な
移動物体情報の統合・同定処理することにより、精度が
高く、簡易なシステムが実現できる。Next, embodiments of the present invention will be described below.
As an example of FIG. 1, there is a system for monitoring a vehicle. At this time, it is often difficult to correctly extract and track a person with one camera. For example, there are cases where the floor area is large, a part of the vehicle is hidden, or a reflection or shadow of the vehicle is present in the real space. So 2
A high-accuracy and simple system is realized by installing multiple cameras and tracking multiple moving objects by integrating and identifying multi-viewpoint moving object information using an automatically generated template matching method. it can.
【0029】また、図2に示したように幅はそれ程広く
無いが、横に広く伸びた高速道路や一般道における監視
システムではカメラの設置を図2に示すようにしながら
規則的に監視エリアを重複して撮影し、その撮影した映
像を用いて複数の車の追跡を自動生成型のテンプレート
マッチング法を用いて多視点的な車情報の統合・同定処
理することにより、精度が高く、簡易なシステムが実現
する。Although the width is not so wide as shown in FIG. 2, a surveillance system on a highway or a general road which extends horizontally has a camera area as shown in FIG. By taking multiple shots and using the shot video to track and track multiple cars, using an auto-generated template matching method to integrate and identify multi-view car information, high accuracy and simple The system is realized.
【0030】[0030]
【発明の効果】以上説明したように、本発明では、自動
監視システムなどにおける車両の追跡をテンプレートマ
ッチング法により多視点的な移動物体情報の統合・同定
処理することにより動画像処理の特徴を生かした簡易な
処理で、精度の高い車両の追跡を行うことができ、車両
の重なりや停止物体の位置を簡単に求められるために簡
易な処理で、精度の高い追跡を行うことができるという
効果がある。As described above, in the present invention, the features of moving image processing are utilized by integrating and identifying multi-viewpoint moving object information by using a template matching method for tracking a vehicle in an automatic monitoring system or the like. It is possible to track the vehicle with high accuracy by simple processing, and it is possible to easily obtain the position of the overlap of the vehicle and the position of the stationary object. is there.
【0031】また、ステレオ処理に見られるパターンマ
ッチングの難しさや非効率性を省略できる。さらに、カ
メラに設置位置を分散させて広い区域の観測ができとい
う効果がある。Further, it is possible to omit the difficulty and inefficiency of pattern matching found in stereo processing. Further, there is an effect that observation positions in a wide area can be observed by dispersing the installation positions of the cameras.
【図1】本発明の実施の形態1における走行車両検出装
置のブロック構成図である。FIG. 1 is a block configuration diagram of a traveling vehicle detection device according to Embodiment 1 of the present invention.
【図2】本発明の実施の形態1における走行車両検出装
置における複数カメラの配置例図である。FIG. 2 is a layout example of a plurality of cameras in the traveling vehicle detection device according to the first embodiment of the present invention.
【図3】本発明の実施の形態1における車両領域のテン
プレートの探索例を示す図である。FIG. 3 is a diagram showing an example of searching for a template in a vehicle area according to Embodiment 1 of the present invention.
【図4】移動物体抽出装置の統合処理手段の処理例を示
す図である。FIG. 4 is a diagram illustrating a processing example of an integrated processing unit of the moving object extraction device.
1 入力手段 2 動領域抽出手段 3 ラベリング処理手段 4 車両検出手段 5 テンプレートマッチング手段 6 統合処理手段 7 移動物体のトレース手段 8 交点算出手段 9 対象の対応付け手段 10,11,12 カメラ映像処理系 DESCRIPTION OF SYMBOLS 1 Input means 2 Moving area extraction means 3 Labeling processing means 4 Vehicle detection means 5 Template matching means 6 Integration processing means 7 Moving object tracing means 8 Intersection calculation means 9 Target association means 10, 11, 12 Camera image processing system
フロントページの続き (72)発明者 成岡 知宣 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 國井 美保子 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B057 AA06 AA16 BA02 CE09 CE12 DA07 DA08 DA16 DC05 DC33 5H180 AA01 CC02 CC04 DD01 5L096 BA02 CA05 EA35 EA43 FA06 FA10 FA54 GA28 GA34 HA05 HA09 JA03 JA09 Continuing from the front page (72) Inventor Tomonori Narioka 1006 Kazuma Kadoma, Osaka Prefecture Inside Matsushita Electric Industrial Co., Ltd. Reference) 5B057 AA06 AA16 BA02 CE09 CE12 DA07 DA08 DA16 DC05 DC33 5H180 AA01 CC02 CC04 DD01 5L096 BA02 CA05 EA35 EA43 FA06 FA10 FA54 GA28 GA34 HA05 HA09 JA03 JA09
Claims (6)
映像で撮影できる観測区域の移動物体を追尾する装置に
おいて、カメラ映像を入力する入力手段と、前記の入力
手段から得られた映像データから動領域を検出する動領
域抽出手段と、前記の動領域抽出手段から得られた動領
域から各動領域別に領域の大きさや画素数等の動領域の
情報を検出するラベリング処理手段と、前記ラベリング
処理手段より検出された各動領域の情報を用いて、その
動領域が車両であるかどうかを判断し、車両領域のみを
抽出する車両検出出手段と車両領域を代表する位置にテ
ンプレートを生成し、既に存在するテンプレートを車両
の動きに合わせてマッチングするテンプレートマッチン
グ手段とを備えたカメラ映像処理系と、前記複数のカメ
ラ映像処理系からの情報を統合する統合処理手段と、前
記統合処理手段から得られた車両の位置や分類情報を処
理してディスプレイ等に表示する移動物体のトレース手
段より構成される走行車両検出装置。1. An apparatus for inputting a plurality of camera images and tracking a moving object in an observation area which can be photographed by the camera images, comprising: an input unit for inputting a camera image; and video data obtained from the input unit. Moving area extracting means for detecting a moving area; labeling processing means for detecting information on the moving area such as the size of the area and the number of pixels for each moving area from the moving area obtained from the moving area extracting means; Using the information of each moving area detected by the processing means, it is determined whether or not the moving area is a vehicle, and a vehicle detection output means for extracting only the vehicle area and a template are generated at a position representative of the vehicle area. A camera image processing system including a template matching unit that matches an already existing template in accordance with the movement of the vehicle; and A traveling vehicle detection device comprising: integrated processing means for integrating information; and moving object tracing means for processing the position and classification information of the vehicle obtained from the integrated processing means and displaying the processed information on a display or the like.
どの区域も2台以上のカメラ映像により重複して撮影さ
れていることを特徴とする請求項1に記載の走行車両検
出装置。2. The observation area photographed by a plurality of cameras,
2. The traveling vehicle detection device according to claim 1, wherein each area is photographed by two or more camera images in an overlapping manner.
組として、これらのカメラをカメラ1、カメラ2、カメ
ラ3、カメラ4とした場合に、カメラ1とカメラ2およ
びカメラ3とカメラ4を並列又は内側に向いた方向に、
カメラ1,2とカメラ3,4は対向に設置しながら、ど
の観測区域も2台以上のカメラ映像により重複して撮影
できるようにカメラを増やしていくことを特徴とする請
求項1又は2に記載の走行車両検出装置。3. When installing a plurality of cameras, four cameras are set to one.
As a set, when these cameras are camera 1, camera 2, camera 3, and camera 4, camera 1 and camera 2 and camera 3 and camera 4 are arranged side by side or inward.
3. The camera according to claim 1, wherein the cameras 1 and 2 and the cameras 3 and 4 are installed opposite to each other, and the number of cameras is increased so that any observation area can be photographed with two or more cameras. The traveling vehicle detection device as described in the above.
またはそれらの組み合わせによることを特徴とする請求
項1乃至3のいずれかに記載の走行車両検出装置。4. The traveling vehicle detection device according to claim 1, wherein the input means is a visible camera, an infrared camera, or a combination thereof.
テンプレートマッチング手段からのテンプレートの位置
を用いてテンプレートの矩形領域を対角線とする線分を
求め、各カメラ映像より求められた前記線分を車両が存
在するに実空間上にマッピングし、その線分の交点から
車両の位置を推定することを特徴とする請求項1乃至3
のいずれかに記載の走行車両検出装置。5. The integrated processing means obtains a line segment having a rectangular area of the template as a diagonal line using the position of the template from the template matching means of each camera image processing system, and obtains the line segment obtained from each camera image. Is mapped onto a real space in the presence of a vehicle, and the position of the vehicle is estimated from the intersection of the line segment.
The traveling vehicle detection device according to any one of the above.
れた対象物体の位置候補とそれまで得られた対象物体の
位置及びテンプレートの対象分類の情報を用いて観測空
間における最短距離処理にて対応付け時間軸に従って行
うことを特徴とする請求項5に記載の走行車両検出装
置。6. The output processing means performs shortest distance processing in the observation space using information on the position candidate of the target object obtained from the integration processing means, the position of the target object obtained so far, and the target classification of the template. The traveling vehicle detection device according to claim 5, wherein the detection is performed according to an association time axis.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000178492A JP2001357489A (en) | 2000-06-14 | 2000-06-14 | Traveling vehicle detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000178492A JP2001357489A (en) | 2000-06-14 | 2000-06-14 | Traveling vehicle detector |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001357489A true JP2001357489A (en) | 2001-12-26 |
Family
ID=18679910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000178492A Pending JP2001357489A (en) | 2000-06-14 | 2000-06-14 | Traveling vehicle detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001357489A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217593A (en) * | 2007-03-06 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Subject area extraction device and subject area extraction program |
CN103914856A (en) * | 2014-04-14 | 2014-07-09 | 贵州电网公司输电运行检修分公司 | Moving object detection method based on entropy |
JP2017503284A (en) * | 2013-11-11 | 2017-01-26 | オスラム・シルバニア・インコーポレイテッド | Human detection technology |
JP7509040B2 (en) | 2020-02-14 | 2024-07-02 | 富士通株式会社 | Apparatus and method for tracking objects in roadway surveillance video |
-
2000
- 2000-06-14 JP JP2000178492A patent/JP2001357489A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217593A (en) * | 2007-03-06 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Subject area extraction device and subject area extraction program |
JP2017503284A (en) * | 2013-11-11 | 2017-01-26 | オスラム・シルバニア・インコーポレイテッド | Human detection technology |
CN103914856A (en) * | 2014-04-14 | 2014-07-09 | 贵州电网公司输电运行检修分公司 | Moving object detection method based on entropy |
JP7509040B2 (en) | 2020-02-14 | 2024-07-02 | 富士通株式会社 | Apparatus and method for tracking objects in roadway surveillance video |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Toulminet et al. | Vehicle detection by means of stereo vision-based obstacles features extraction and monocular pattern analysis | |
JP4970195B2 (en) | Person tracking system, person tracking apparatus, and person tracking program | |
US9275472B2 (en) | Real-time player detection from a single calibrated camera | |
US7769227B2 (en) | Object detector | |
JP4429298B2 (en) | Object number detection device and object number detection method | |
Soheilian et al. | 3D road marking reconstruction from street-level calibrated stereo pairs | |
JPH1166319A (en) | Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person | |
CN108645375B (en) | Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system | |
JP3577875B2 (en) | Moving object extraction device | |
JP2006105661A (en) | Method for estimating plane by stereo image | |
EP2476999B1 (en) | Method for measuring displacement, device for measuring displacement, and program for measuring displacement | |
KR20150074544A (en) | Method of tracking vehicle | |
Fregin et al. | Three ways of using stereo vision for traffic light recognition | |
JP4344860B2 (en) | Road plan area and obstacle detection method using stereo image | |
JPH09218937A (en) | Compartment line detector | |
KR100574227B1 (en) | Apparatus and method for separating object motion from camera motion | |
Tao et al. | Automated processing of mobile mapping image sequences | |
JPH09297849A (en) | Vehicle detector | |
Omar et al. | Detection and localization of traffic lights using YOLOv3 and Stereo Vision | |
Yamaguchi | Three dimensional measurement using fisheye stereo vision | |
JP2001357489A (en) | Traveling vehicle detector | |
JP2007200364A (en) | Stereo calibration apparatus and stereo image monitoring apparatus using the same | |
JP3503543B2 (en) | Road structure recognition method, distance measurement method and distance measurement device | |
JP2011090708A (en) | Apparatus and method for detecting the number of objects | |
JP2006010652A (en) | Object-detecting device |