JPH0894320A - Traveling object-measuring instrument - Google Patents

Traveling object-measuring instrument

Info

Publication number
JPH0894320A
JPH0894320A JP6232753A JP23275394A JPH0894320A JP H0894320 A JPH0894320 A JP H0894320A JP 6232753 A JP6232753 A JP 6232753A JP 23275394 A JP23275394 A JP 23275394A JP H0894320 A JPH0894320 A JP H0894320A
Authority
JP
Japan
Prior art keywords
moving object
information
image
motion
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6232753A
Other languages
Japanese (ja)
Inventor
Naoya Ota
直哉 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP6232753A priority Critical patent/JPH0894320A/en
Publication of JPH0894320A publication Critical patent/JPH0894320A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PURPOSE: To improve the accuracy in a traveling object measuring instrument for measuring the number of passing automobiles and the speed by analyzing a road image. CONSTITUTION: With an inputted animation image 11, a vehicle part is detected by a traveling object detection means 12 and is converted to a three-dimensional position on a road by a 2D/3D conversion means 13 and is retained by a 3D information retention means 15. Based on the three-dimensional position information and the traveling information until that time, the three-dimensional position of the vehicle at the next time is predicted by a prediction/fusion means 16, is inputted to a 3D/2D conversion means 14 via the 3D information retention means 15 and is converted to a position on an image, and then the position is inputted to a traveling object detection means 12. The traveling object detection means 12 detects the vehicle preferentially to reduce detector error.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】
本発明は、移動物体計測装置に関し、特に、道路上に設
置したカメラを用い、そこを通過する車両の台数・車種
・車速などの交通情報を計測する交通監視装置や、建物
内に設置したカメラによってそこを通る人を検出する監
視装置など、画像を用いて移動物体を検出・解析する移
動物体計測装置に関する。
[Industrial applications]
The present invention relates to a moving object measuring device, and in particular, a traffic monitoring device that uses a camera installed on a road and measures traffic information such as the number of vehicles passing through it, vehicle type, vehicle speed, and a camera installed in a building. The present invention relates to a moving object measuring device that detects and analyzes a moving object using an image, such as a monitoring device that detects a person passing therethrough.

【0002】[0002]

【従来の技術】画像を用いた移動物体計測装置の従来例
として、特開平4-313198号公報「移動物体計測装置」に
示されている技術がある。この技術は交通情報の計測を
主な目的としており、次の処理により構成される。図3
に示すように、画像処理により道路画像からエッジを抽
出してエッジ画像31を作り、それに含まれるそのエッジ
点を画像上で道路に沿った投影軸32上に射影して積算デ
ータ33を作る。この後、適当なしきい値で2値化して投
影データ34を得る。道路上で車両が存在する部分では多
くのエッジが観測されるという事実から、この投影デー
タ34はある時刻に道路に沿った線上で車両の存在する部
分が値1を持つデータとなっている。この1次元データ
を時間的に並べ、DTT画像と呼ばれる2次元データを
作る。投影データ34上で車両の位置は刻々と移動してい
くので、DTT画像では1つの車両の軌跡が1つの帯と
して記録されている。しかし、ここまで述べた処理が完
全ではないので車両の軌跡を示す帯には欠けや穴が存在
し、また帯以外のところにも小さな値1の領域が生じ
る。そこで、DTT画像に対して孤立点除去や穴埋めの
画像処理を行うことでノイズ領域の除去と帯の整形を行
う。その後、帯の個数から通過車両の数、帯の傾きから
速度を計算する。
2. Description of the Related Art As a conventional example of a moving object measuring device using an image, there is a technique disclosed in Japanese Patent Laid-Open No. 4-313198, "Movable object measuring device". The main purpose of this technology is to measure traffic information, and it consists of the following processes. Figure 3
As shown in (1), an edge is extracted from the road image by image processing to create an edge image 31, and the edge points included in the edge image are projected on a projection axis 32 along the road on the image to create integrated data 33. After that, the projection data 34 is obtained by binarizing with an appropriate threshold value. Due to the fact that many edges are observed in the part where the vehicle exists on the road, this projection data 34 is data in which the part where the vehicle exists on the line along the road has a value of 1 at a certain time. This one-dimensional data is temporally arranged to create two-dimensional data called a DTT image. Since the position of the vehicle moves every moment on the projection data 34, the trajectory of one vehicle is recorded as one band in the DTT image. However, since the processing described so far is not perfect, there is a chip or a hole in the band that indicates the trajectory of the vehicle, and a small area of value 1 occurs in areas other than the band. Therefore, the noise region is removed and the band is shaped by performing image processing such as isolated point removal or hole filling on the DTT image. After that, the speed is calculated from the number of passing vehicles from the number of belts and the inclination of the belts.

【0003】[0003]

【発明が解決しようとする課題】一般に画像処理の結果
には誤りが含まれ、この誤りに関する対処が画像処理に
よる物体検出装置を作成する上で大きな問題となる。動
画像を用いた処理では、移動物体の位置の時間的な連続
性を用いて画像処理の誤りを検出・訂正することが多
い。前述の例では、一つの軸を時間にとった画像を作る
ことで、移動物体の位置と時間に関する連続性が画像上
の近傍で表されるデータ表現に変換し、この画像に対し
て孤立点除去や穴埋めなどの画像処理分野における近傍
処理を施すことで、結果的に物体の運動の連続性を手が
かりとして、車両の検出のための画像処理の誤りを訂正
している。
Generally, an error is included in the result of image processing, and coping with this error becomes a big problem in making an object detecting device by image processing. In processing using a moving image, an error in image processing is often detected and corrected using temporal continuity of the position of a moving object. In the above example, by creating an image with one axis taken as time, the continuity of the position of the moving object with respect to time is converted into a data representation represented by the neighborhood on the image, and isolated points are set for this image. By performing neighborhood processing in the field of image processing such as removal and hole filling, as a result, the continuity of the motion of the object is used as a clue to correct the error in the image processing for vehicle detection.

【0004】しかし、現実世界での物体の運動はニュー
トンの運動法則に支配されているので、物体の運動の連
続性を正しくモデリングし、画像処理の誤りをより効果
的に検出・訂正するためには、この運動法則を処理の中
に知識として組み込むことが必要である。このために
は、3次元空間内での運動法則を画像上での運動法則に
変換する必要がある。運動方程式は移動物体が存在する
3次元空間内では単純な形をしているが、上記の必要性
から、射影変換によって画像上の関係に変換すると非常
に複雑になる。この複雑性によって事実上運動法則を知
識として処理に生かすことができなかった。
However, since the motion of an object in the real world is governed by Newton's law of motion, in order to correctly model the continuity of the motion of an object and detect and correct errors in image processing more effectively. Needs to incorporate this law of motion as knowledge in the processing. For this purpose, it is necessary to convert the law of motion in the three-dimensional space into the law of motion on the image. The equation of motion has a simple shape in a three-dimensional space in which a moving object exists, but because of the above-mentioned necessity, it becomes very complicated when converted into a relation on an image by projective transformation. Due to this complexity, the law of motion could not be effectively utilized as knowledge in processing.

【0005】[0005]

【課題を解決するための手段】第1の発明は、画像の
各フレームを解析することによって、画像内に存在する
移動物体の領域を検出する移動物体検出手段と、
この移動物体検出手段により検出された領域から移動物
体の空間的位置を復元する2D/3D変換手段と、過去
における移動物体の空間的位置と運動に関する情報から
現在の位置と運動とを予測し、その予測された位置・運
動情報と前記2D/3D変換手段から出力される位置情
報とを融合する予測・融合手段と、
この予測・融合手段により融合された位置・運動情報を
保持し、外部からの要求に従い出力する3D情報保持手
とを具備する移動物体計測装置である。
SUMMARY OF THE INVENTION The first aspect of the present invention, by analyzing each frame of moving image, the moving object detection means for detecting an area of the moving object present in the image,
The 2D / 3D conversion means for restoring the spatial position of the moving object from the area detected by the moving object detecting means, and the current position and the motion are predicted from the information on the spatial position and the motion of the moving object in the past, A prediction / fusion unit that fuses the predicted position / motion information and the position information output from the 2D / 3D conversion unit;
Holding the position and motion information fused by the prediction-fusion means is a moving object measuring apparatus you and a 3D information holding means for outputting in accordance with a request from the outside.

【0006】第2の発明は、第1の発明の移動物体計測
装置において、前記予測・融合手段として物体の運動方
程式を基礎としたカルマンフィルタを用いることを特徴
とするものである。
[0006] The second invention is a moving object measuring apparatus of the first aspect of the invention, is characterized in the use of the Kalman Filter based on the equation of motion of the object as the prediction-fusion means.

【0007】第3の発明は第2の発明の移動物体計測装
置において、前記予測・融合手段として用いられるカル
マンフィルタの入力となる計測値の分散を、画像上の位
置情報に見積もられる誤差の分散から、前記2D/3D
変換手段で用いられる画像上の位置と空間的な位置の関
係の微分値を用いて計算することを特徴とするものであ
る。
A third invention is the moving object measuring apparatus of the second aspect of the invention, the variance of the measurement values as an input of the Kalman filter used as the prediction-fusion means, the dispersion of errors estimated position information on the image , the 2D / 3D
The calculation is performed by using a differential value of the relationship between the position on the image and the spatial position used by the conversion means.

【0008】第4の発明は第1の発明の移動物体計測装
置において、前記予測・融合手段によって予測される運
動に関する情報と、前記2D/3D変換手段によっても
たらされる位置に関する情報を用いて、それらの情報を
融合するか否かの判断を行う機構を持つことを特徴とす
るものである。
[0008] The fourth invention is the moving object measuring apparatus of the first aspect of the invention, by using the information about the motion that is predicted by the prediction-fusion means, information on the position provided by the 2D / 3D conversion unit, they It is characterized by having a mechanism for deciding whether or not to fuse the information.

【0009】第5の発明は、動画像の各フレームを解析
することによって、画像内に存在する移動物体の領域を
検出する移動物体検出手段と、
この移動物体検出手段により検出された領域から移動物
体の空間的位置を復元する2D/3D変換手段と、過去
における移動物体の空間的位置と運動に関する情報から
現在の位置と運動とを予測し、その予測された位置・運
動情報と前記2D/3D変換手段から出力される位置情
報とを融合するとともに、移動物体の未来の位置を予測
する予測・融合手段と、この予測・融合手段によって処
理された移動物体の位置・運動情報を保持し、
外部からの要求に従い出力する3D情報保持手段と、前
記予測・融合手段によって予測された移動物体の位置を
射影変換により画像上の2次元情報に変換する3D/2
D変換手段とを具備し、その予測された2次元情報を前
記移動物体検出手段に入力し、その2次元情報に基づき
前記移動物体検出手段で行われる処理の内容を変更する
ことを特徴とする移動物体計測装置である。
A fifth invention is a moving object detecting means for detecting a region of a moving object existing in the image by analyzing each frame of the moving image,
The 2D / 3D conversion means for restoring the spatial position of the moving object from the area detected by the moving object detecting means, and the current position and the motion are predicted from the information on the spatial position and the motion of the moving object in the past, The predicted position / motion information and the position information output from the 2D / 3D conversion unit are fused, and the prediction / fusion unit that predicts the future position of the moving object is processed by the prediction / fusion unit. Holds the position / motion information of moving objects,
3D information holding means for outputting according to a request from the outside, and 3D / 2 for converting the position of the moving object predicted by the prediction / fusion means into two-dimensional information on the image by projective conversion.
D conversion means, and inputs the predicted two-dimensional information to the moving object detection means, and based on the two-dimensional information
To change the contents of processing performed by the moving object detecting means
A moving object measuring device characterized by the above.

【0010】第6の発明は、第5の発明の移動物体計測
装置において、前記予測・融合手段として物体の運動方
程式を基礎としたカルマンフィルタを用いることを特徴
とするものである。
[0010] According to a sixth aspect, in the moving object measuring apparatus of the fifth invention, it is characterized in the use of the Kalman Filter based on the equation of motion of the object as the prediction-fusion means.

【0011】第7の発明は、第6の発明の移動物体計測
装置において、前記予測・融合手段として用いられるカ
ルマンフィルタの入力となる計測値の分散を、画像上の
位置情報に見積もられる誤差の分散から、前記2D/3
D変換手段で用いられる画像上の位置と空間的な位置の
関係の微分値またはヤコビ行列を用いて計算することを
特徴とするものである。
[0011] A seventh invention is in the sixth moving object measuring apparatus of the invention, the variance of the measurement values as an input of the Kalman filter used as the prediction-fusion means, error variance, estimated in the position information on the image from the 2D / 3
It is characterized in that the calculation is performed by using a differential value or a Jacobian matrix of the relationship between the position on the image and the spatial position used in the D conversion means.

【0012】第8の発明は、第5の発明の移動物体計測
装置において、前記移動物体検出手段を画像エッジ計算
手段と2値化手段によって構成し、前記3D/2D変換
手段によってもたらされる画像上の位置情報によって、
その2値化手段で用いるしきい値を変化させることを特
徴とするものである。
[0012] An eighth invention is the in 5 moving object measuring apparatus of the invention, the moving object detecting means constituted by the image edge calculation means and binarizing means, the image on provided by the 3D / 2D conversion unit Depending on the location information of
It is characterized in that the threshold value used in the binarizing means is changed.

【0013】第9の発明は、第5の発明の移動物体計測
装置において、前記予測・融合手段によって予測される
運動に関する情報と、前記2D/3D変換手段によって
もたらされる位置に関する情報を用いて、それらの情報
を融合するか否かの判断を行う機構を持つことを特徴と
するものである。
[0013] A ninth aspect of the invention, the moving object measuring apparatus of the fifth invention, by using the information about the motion that is predicted by the prediction-fusion means, information on the position provided by the 2D / 3D conversion unit, It is characterized by having a mechanism for determining whether or not to fuse such information.

【0014】[0014]

【実施例】物体の運動法則を画像による移動物体計測の
ための処理に知識として組み入れるために、射影変換に
よって画像上の法則に変換すると複雑な関係になる。そ
こで、逆に画像上での位置を射影変換の逆操作によって
3次元空間内での位置に変換して、3次元空間内で運動
方程式を適用する。もちろん射影変換は縮退変換である
ので逆は存在せず、逆操作を行うためには何らかの拘束
が必要であるが、例えば1993年電子情報通信学会秋
季大会、6−333ページ「実空間特徴量による監視方
式」で報告されているように、物体は地上面に存在する
という拘束を用いることによって、画像上の位置情報を
3次元空間内の情報に変換することができる。
EXAMPLE In order to incorporate the law of motion of an object as a knowledge into the process for measuring a moving object by an image, conversion into a rule on an image by projective transformation results in a complicated relationship. Therefore, conversely, the position on the image is converted into the position in the three-dimensional space by the inverse operation of the projective transformation, and the equation of motion is applied in the three-dimensional space. Of course, since the projective transformation is a degenerate transformation, there is no inverse, and some kind of constraint is required to perform the inverse operation. For example, the 1993 Autumn Meeting of the Institute of Electronics, Information and Communication Engineers, page 6-333, "By Real Space Feature Value" As described in "Surveillance method", by using the constraint that the object exists on the ground surface, the positional information on the image can be converted into the information in the three-dimensional space.

【0015】さて、このようにして動画像の各フレーム
の処理結果より刻々と移動物体の3次元位置が計算でき
るが、次にはこれら多数の位置情報を運動法則と結びつ
けながら統合する何らかの機構が必要である。この機構
の一つとしてカルマンフィルタが適しているので、後述
の実施例ではこれを用いる。
In this way, the three-dimensional position of the moving object can be calculated momentarily from the processing result of each frame of the moving image. Next, some mechanism for integrating these many pieces of positional information with the law of motion is integrated. is necessary. Since the Kalman filter is suitable as one of the mechanisms, this is used in the embodiments described later.

【0016】カルマンフィルタは時間更新処理と観測更
新処理によって構成される。運動法則は時間更新処理の
中で用いられ、この処理によって次の時間ステップでの
物体の位置が予測される。移動物体検出処理における画
像処理の誤りを検出・修正するに留まらず、さらに積極
的に誤りを減らすためにこの予測機構を用いることがで
きる。すなわち、3次元空間内で予測された位置を射影
変換によって画像上の位置に変換し、画像処理において
その部分の移動物体の検出感度を上げることで安定した
検出結果を得ることができる。
The Kalman filter is composed of time update processing and observation update processing. The law of motion is used in the time update process, which predicts the position of the object at the next time step. This prediction mechanism can be used not only to detect and correct an error in image processing in the moving object detection process but also to positively reduce the error. That is, a stable detection result can be obtained by converting the predicted position in the three-dimensional space into a position on the image by projective transformation and increasing the detection sensitivity of the moving object in that portion in the image processing.

【0017】次に、本発明による車両監視装置について
述べる。車両監視装置とは、道路画像から車両を移動物
体として検出・追跡し、その位置、速度を計測する装置
のことである。
Next, the vehicle monitoring device according to the present invention will be described. The vehicle monitoring device is a device that detects and tracks a vehicle as a moving object from a road image and measures the position and speed of the moving object.

【0018】本発明第1の実施例の構成を図2に示
す。動画像11の各フレームは移動物体検出手段2
よって画像処理され、車両の領域が抽出される。次に2
D/3D変換手段1によって道路上の位置に変換さ
れ、3D情報保持手段1によって保持されるととも
に、予測・融合手段1であるカルマンフィルタの観測
値となる。カルマンフィルタにおいては、3D情報保持
手段15に保持されていた一つ前の時間ステップの運動
情報の推定値を用いて時間更新処理を行い、現在の予測
値としてから観測更新処理によって現在の観測値と融合
する。融合された運動情報はふたたび3D情報保持手段
15によって保持され、最終的な計測値として出力され
る。次に、この実施例を構成する各手段について述べ
る。
The configuration of the first embodiment of the present invention is shown in FIG. Each frame of the moving image 11 is the image processing by the moving object detection unit 2 1, area of the vehicle are extracted. Then 2
Converted by D / 3D conversion unit 1 3 in position on the road, is held by the 3D information holding means 1 5, the observed value of the Kalman filter is a prediction-fusion means 1 6. In the Kalman filter, time update processing is performed using the estimated value of the motion information of the previous time step held in the 3D information holding unit 15, and the current observed value is obtained as the current predicted value by the observation update processing. To merge. The fused motion information is again held by the 3D information holding means 15 and output as a final measurement value. Next, each means constituting this embodiment will be described.

【0019】移動物体検出手段21の機能は画像から移
動物体領域を検出することである。入力画像として道路
上から、車両の進行方向に光軸を向けて撮影した画像を
想定する。入力画像はソーベルオペレータ(Sobel oper
ator) などのエッジ検出処理が施された後、適当なしき
い値L1 によって2値化されエッジ画像が作られる(図
3参照)。次に、画像の横方向にエッジ点の個数が積算
することで車線に沿った投影軸32上に投影をとった
後、適当なしきい値L2 によって2値化され、投影デー
タ34となる。投影データ34において値1が連続して
いる部分が車両に対応する。ここでは車両の車尾を追跡
するものとし、値1の連続部分が終わる位置yc(t)を時
刻tでの画像上の車両位置として出力する。
The function of the moving object detecting means 21 is to detect the moving object area from the image. It is assumed that the input image is an image taken from the road with the optical axis directed in the traveling direction of the vehicle. The input image is a Sobel operator
ator) and the like, and then binarized by an appropriate threshold value L1 to form an edge image (see FIG. 3). Next, after the number of edge points is integrated in the horizontal direction of the image to project on the projection axis 32 along the lane, it is binarized by an appropriate threshold value L 2 and becomes projection data 34. The portion of the projection data 34 where the value 1 is continuous corresponds to the vehicle. Here, it is assumed that the tail of the vehicle is tracked, and the position y c (t) at which the continuous portion of the value 1 ends is output as the vehicle position on the image at time t.

【0020】2D/3D変換手段13では画像上の車両
位置yc(t)を道路上の位置に変換する。3次元空間中の
道路を横から眺めると図4のようになる。ここで、Hは
カメラの焦点の道路面41からの高さ、θは道路面41
に対するカメラの俯角、fは焦点距離、Zc(t)はカメラ
の直下を原点としたときの車両の道路上での位置であ
る。車両の画像上での位置yc(t)と道路上の位置Zc(t)
の関係はy0 を画像中心のy座標として次式で表され
る。
The 2D / 3D converting means 13 converts the vehicle position y c (t) on the image into a position on the road. A side view of a road in a three-dimensional space is shown in FIG. Here, H is the height of the focus of the camera from the road surface 41, and θ is the road surface 41.
Is the depression angle of the camera, f is the focal length, and Z c (t) is the position of the vehicle on the road when the point directly below the camera is the origin. Position y c (t) on vehicle image and position Z c (t) on road
The relationship of is expressed by the following equation with y 0 as the y coordinate of the image center.

【0021】 [0021]

【0022】y' = 2yc(t)−y0 この関係式によってZc(t)が計算され、3D情報保持手
段15を経由して予測・融合手段16の入力となる。
Y '= 2y c (t) -y 0 Z c (t) is calculated by this relational expression, and is input to the prediction / fusion unit 16 via the 3D information holding unit 15.

【0023】予測・融合手段16としてカルマンフィル
タを用いる。カルマンフィルタの状態ベクトルxとし
て、ここでは位置Zc(t)、速度v(t) 、加速度a(t) で
構成される3次元ベクトルとし、システムノイズは加速
度a(t) に加わるという運動のモデルを用いる。すると
時間更新処理は次のようになる(片山徹著「応用カルマ
ンフィルタ」朝倉書店(1983)77頁)。
A Kalman filter is used as the prediction / fusion means 16. The state vector x of the Kalman filter is a three-dimensional vector composed of a position Z c (t), a velocity v (t), and an acceleration a (t), and a system noise is added to the acceleration a (t). To use. Then, the time update processing is as follows (Tetsu Katayama, "Applied Kalman Filter", Asakura Shoten (1983), p. 77).

【0024】 x-(t+1) =Fx+(t) (2) P-(t+1) =FP+(t)FT +Q また、観測更新処理は次の通りである。[0024] x - (t + 1) = Fx + (t) (2) P - (t + 1) = FP + (t) F T + Q In addition, the observation update processing is as follows.

【0025】 K(t) = P-(t)HT (HP-(t)HT +pz(t))-1 (3) x+(t) =x-(t)+K(t) (yc(t)−Hx-(t)) P+(t) =P-(t)−K(t) HP-(t) ただし、 x(t) = (Zc(t), v(t),a(t))T, (4)[0025] K (t) = P - ( t) H T (HP - (t) H T + p z (t)) -1 (3) x + (t) = x - (t) + K (t) ( y c (t) −Hx (t)) P + (t) = P (t) −K (t) HP (t) where x (t) = (Z c (t), v (t ), a (t)) T , (4)

【0026】 [0026]

【0027】であり、pa は加速度aのシステムノイズ
の分散、pz(t)は観測値である道路上の位置Zc(t)に含
まれるノイズの分散、P(t) は推定値x(t) の分散であ
り、x(t) とP(t) の肩の+/−はそれぞれ観測更新前
/後の値を表している。また、時間の単位は動画像のフ
レーム間隔にとった。観測値の分散pz(t)は一定値とし
てしまうこともできるが、より正しくは画像上の位置y
c(t)に含まれる誤差の分散py(t)とZc(t)のyc(t)での
微分値を用いて次式で計算する。
Where p a is the variance of the system noise of the acceleration a, p z (t) is the variance of the noise contained in the position Z c (t) on the road, which is the observed value, and P (t) is the estimated value. It is the variance of x (t), and +/- on the shoulders of x (t) and P (t) represent the values before and after the observation update. The unit of time is the frame interval of the moving image. The variance p z (t) of the observation values can be set to a constant value, but more correctly, the position y on the image
The following equation is used to calculate the error variance p y (t) contained in c (t) and the differential value of Z c (t) with respect to y c (t).

【0028】 pz(t) =(dZc /dyc)2y(t) (5) ここで用いられる微分は2D/3D変換手段2で用いら
れる関係から導出されるが、本実施例の場合は式(1) を
c(t)によって微分すればよい。また、実際の計算に使
用される微分値は検出された画像上の物体位置yc(t)で
の値とする。pz(t)の値自体は一定とするか、画像処理
を行った結果より推定する。
P z (t) = (dZ c / dy c ) 2 p y (t) (5) The derivative used here is derived from the relationship used in the 2D / 3D conversion means 2, but in the present embodiment In the case of, the equation (1) may be differentiated by y c (t). The differential value used in the actual calculation is the value at the object position y c (t) on the detected image. The value of p z (t) itself is either constant or estimated from the result of image processing.

【0029】カルマンフィルタが有効に動作するのは観
測値に含まれるノイズがガウスノイズに近い場合であ
る。しかし、画像処理を行って得られる観測値にはしば
しばガウスノイズとしてモデル化できない突発性の値が
含まれる。このような場合には異常値を排除するロバス
トエスティメーションが有効である。これを行うには、
時間更新処理後の予測値x-(t)の第1成分をZc -(t) と
して、 dz(t) =|Zc(t)−Zc-(t) | (6) を計算し、dz(t)がある一定値以上のときは異常値とし
て観測更新処理を行わず、予測値を以てその時刻の推定
値とすることで達成できる。また、観測値と予測値には
その分散が計算されているので、これを上記の判断基準
に反映させることができる。これは、次式によってd
z(t)を計算することで達成される。
The Kalman filter operates effectively when the noise included in the observed value is close to Gaussian noise. However, the observed values obtained by image processing often include sporadic values that cannot be modeled as Gaussian noise. In such a case, robust estimation that eliminates abnormal values is effective. To do this,
Time updating the predicted value after x - a first component (t) Z c - as (t), d z (t ) = | Z c (t) -Z c - (t) | Get (6) However, when d z (t) is a certain value or more, it is achieved by not performing the observation update processing as an abnormal value and using the predicted value as the estimated value at that time. In addition, since the variance is calculated for the observed value and the predicted value, this can be reflected in the above judgment criteria. This is
It is achieved by calculating z (t).

【0030】 dz(t) =|Zc(t)−Zc -(t) |/(pz(t)+pz -(t) )-1/2 (7) ここで、pz -(t) はP-(t)の1行1列成分である。D z (t) = | Z c (t) −Z c (t) | / (p z (t) + p z (t)) −1/2 (7) where p z (t) is a 1-row, 1-column component of P (t).

【0031】3D情報保持手段は2D/3D変換手段に
よって出力された位置に関する情報と予測・融合手段に
よって計算された運動に関する情報を保持し、装置の計
測結果として出力する。一般には、観測更新処理後の推
定値x+(t)の第1成分Zc +(t) および第2成分v+(t)を
それぞれ車両の現在の位置と速度の計測値とする。
The 3D information holding means holds the information on the position output by the 2D / 3D conversion means and the information on the motion calculated by the prediction / fusion means, and outputs it as the measurement result of the device. Generally, the first component Z c + (t) and the second component v + (t) of the estimated value x + (t) after the observation update processing are used as the measured values of the current position and speed of the vehicle, respectively.

【0032】次に本発明の第2の実施例について述べ
る。上述の第1の実施例では、その予測・融合手段16
によって次の時間ステップでの車両の空間的な位置の予
測値Zc -(t) が計算される。そこで、この情報を移動物
体検出手段12にフィードバックすることにより画像処
理の誤りを減らし、さらに安定で精度の良い計測が可能
となる。これを実現した例が図1に示す装置である。第
2の実施例において、その移動物体検出手段12および
3D/2D変換手段1以外の部分は第1の実施例と同
様であるので、次にこれらの部分について述べる。
Next, a second embodiment of the present invention will be described. In the above-mentioned first embodiment, the prediction / fusion unit 16
Predicted values of the spatial position of the vehicle at the next time step by Z c - (t) is computed. Therefore, by feeding back this information to the moving object detection means 12 , it is possible to reduce errors in image processing and to perform stable and accurate measurement. An example of realizing this is the device shown in FIG. In the second embodiment, since the moving object detecting means 12 and 3D / 2D conversion unit 1 4 other parts are the same as those of the first embodiment, described below for these parts.

【0033】3D/2D変換手段14は、予測・融合手
段16のカルマンフィルタの時間更新処理後の予測値x
-(t)の第1成分Zc -(t) を射影変換によって画像上の位
置の予測値yc -(t) に変換する。式(1) をyc(t)につい
て解けばこの射影変換の式が得られる。
The 3D / 2D converting means 14 calculates the prediction value x after the time update process of the Kalman filter of the predicting / fusion means 16.
- to convert (t) - first component Z c of (t) - the predicted value of the position on the image by the projective transformation of the (t) y c. By solving the equation (1) for y c (t), the equation of this projective transformation can be obtained.

【0034】移動物体検出手段12では予測値yc -(t)
を受け取り、この部分で車尾が検出されやすいような処
理を行う。この処理は次のようなものである。図3に示
したように、エッジ画像31のエッジの個数を画像の横
方向に積算して得られた積算データ33から投影データ
34を得る際には2値化が行われるが、この2値化のし
きい値を予測値yc -付近で図5に示すように変化させ
る。すなわちyc -の左側(+方向)の幅wの領域におい
てはしきい値をL2 よりもdL2だけ上げ、右側(−方
向)の幅wの領域においてはdL2だけ下げる。これによ
ってyc -付近での車尾が検出されやすくなる。このよう
なしきい値の変化のさせ方は様々なバリエーションが考
えられ、図6に示すように三角波状に変化させても同様
な効果が得られる。最適な変化のさせ方は、エッジ検出
処理の特性などに応じて決定されるべき性格のものであ
る。
[0034] In the moving object detection unit 12 prediction value y c - (t)
Is received, and processing is performed so that the tail of the vehicle is easily detected at this portion. This process is as follows. As shown in FIG. 3, when the projection data 34 is obtained from the integrated data 33 obtained by integrating the number of edges of the edge image 31 in the horizontal direction of the image, binarization is performed. is changed as shown in FIG. 5 in the vicinity - threshold predicted value y c of reduction. That is, the threshold value is increased by d L2 above L 2 in the area of width w on the left side (+ direction) of y c and decreased by d L2 in the area of width w on the right side (− direction). This y c - car tail around is likely to be detected. A variety of ways of changing the threshold value can be considered, and the same effect can be obtained even when the threshold value is changed as shown in FIG. The optimum way of changing is to be determined according to the characteristics of the edge detection processing.

【0035】本発明を構成する各手段は、マイクロプロ
セッサやメモリなどで構成される電子計算機と、上述の
各手段に対応する計算手順を記述したプログラムによっ
て実現することができる。また、プログラムによらずT
TLなどの論理素子を上述の計算手順を実行するように
結合することで実現することも可能である。
Each means constituting the present invention can be realized by an electronic computer including a microprocessor and a memory, and a program describing a calculation procedure corresponding to each means described above. In addition, T
It can also be realized by combining logic elements such as TL so as to execute the above-mentioned calculation procedure.

【0036】[0036]

【発明の効果】本発明を用いることによって、安定で精
度の良い計測結果の得られる移動物体計測装置を実現す
ることができる。
By using the present invention, it is possible to realize a moving object measuring apparatus which can obtain stable and accurate measurement results.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第2の実施例を示す図である。FIG. 1 is a diagram showing a second embodiment of the present invention.

【図2】本発明の第1の実施例を示す図である。FIG. 2 is a diagram showing a first embodiment of the present invention.

【図3】移動物体検出手段を示す図である。FIG. 3 is a diagram showing moving object detection means.

【図4】道路上の物体と画像上の点との対応関係を示す
図である。
FIG. 4 is a diagram showing a correspondence relationship between an object on a road and a point on an image.

【図5】移動物体検出手段で用いられるしきい値の第1
の例を示す図である。
FIG. 5 is a first threshold value used in the moving object detection means.
It is a figure which shows the example of.

【図6】移動物体検出手段で用いられるしきい値の第2
の例を示す図である。
FIG. 6 is a second threshold value used in the moving object detecting means.
It is a figure which shows the example of.

【符号の説明】[Explanation of symbols]

11 動画像 12 移動物体検出手段 13 2D/3D交換手段 14 3D/2D変換手段 15 3D情報保持手段 16 予測・融合手段 17 位置・運動情報 21 移動物体検出手段 31 エッジ画像 32 投影軸 33 積算データ 34 投影データ 41 道路面 42 撮影像 11 Moving Image 12 Moving Object Detection Means 13 2D / 3D Exchange Means 14 3D / 2D Conversion Means 15 3D Information Holding Means 16 Prediction / Fusion Means 17 Position / Motion Information 21 Moving Object Detection Means 31 Edge Image 32 Projection Axis 33 Integrated Data 34 Projection data 41 Road surface 42 Photographed image

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08G 1/01 C K 1/04 D H04N 7/18 D K ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G08G 1/01 CK 1/04 DH 04N 7/18 DK

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 動画像の各フレームを解析することによ
って、画像内に存在する移動物体の領域を検出する移動
物体検出手段と、この移動物体検出手段により検出され
た領域から移動物体の空間的位置を復元する2D/3D
変換手段と、過去における移動物体の空間的位置と運動
に関する情報から現在の位置と運動とを予測し、その予
測された位置・運動情報と前記2D/3D変換手段から
出力される位置情報とを融合する予測・融合手段と、
この予測・融合手段により融合された位置・運動情報を
保持し、外部からの要求に従い出力する3D情報保持手
とを具備する移動物体計測装置。
1. A moving object detecting means for detecting an area of a moving object existing in an image by analyzing each frame of a moving image, and a spatial movement of the moving object from the area detected by the moving object detecting means. 2D / 3D to restore position
The conversion unit and the current position and motion are predicted from information about the spatial position and motion of the moving object in the past, and the predicted position / motion information and the position information output from the 2D / 3D conversion unit are calculated. Prediction and fusion means to fuse,
The prediction and holds the position and motion information fused by fusion means, moving object measuring apparatus you and a 3D information holding means for outputting in accordance with a request from the outside.
【請求項2】 前記予測・融合手段として物体の運動方
程式を基礎としたカルマンフィルタを用いることを特徴
とする請求項1記載の移動物体計測装置。
2. A moving object measuring apparatus according to claim 1, characterized by using a Kalman Filter based on the equation of motion of the object as the prediction-fusion means.
【請求項3】 前記予測・融合手段として用いられるカ
ルマンフィルタの入力となる計測値の分散を、画像上の
位置情報に見積もられる誤差の分散から、前記2D/3
D変換手段で用いられる画像上の位置と空間的な位置の
関係の微分値を用いて計算することを特徴とする請求項
2記載の移動物体計測装置。
Wherein the variance of the input to become the measurement values of the Kalman filter used as the prediction-fusion means, the dispersion of errors estimated position information on the image, the 2D / 3
The moving object measuring device according to claim 2, wherein the moving object measuring device is calculated by using a differential value of a relationship between a position on an image and a spatial position used by the D conversion means.
【請求項4】 前記予測・融合手段によって予測される
運動に関する情報と、前記2D/3D変換手段によって
もたらされる位置に関する情報を用いて、それらの情報
を融合するか否かの判断を行う機構を持つことを特徴と
する請求項1記載の移動物体計測装置。
4. A information on motion that is predicted by the prediction-fusion means, using said information on the position provided by 2D / 3D conversion unit, a mechanism for judging whether to fuse the information The moving object measuring device according to claim 1, which has.
【請求項5】 動画像の各フレームを解析することによ
って、画像内に存在する移動物体の領域を検出する移動
物体検出手段と、この移動物体検出手段により検出され
た領域から移動物体の空間的位置を復元する2D/3D
変換手段と、過去における移動物体の空間的位置と運動
に関する情報から現在の位置と運動とを予測し、その予
測された位置・運動情報と前記2D/3D変換手段から
出力される位置情報とを融合するとともに、移動物体の
未来の位置を予測する予測・融合手段と、この予測・融
合手段によって処理された移動物体の位置・運動情報を
保持し、外部からの要求に従い出力する3D情報保持手
段と、前記予測・融合手段によって予測された移動物体
の位置を射影変換により画像上の2次元情報に変換する
3D/2D変換手段とを具備し、その予測された2次元
情報を前記移動物体検出手段に入力し、その2次元情報
に基づき前記移動物体検出手段で行われる処理の内容を
変更することを特徴とする移動物体計測装置。
5. A moving object detecting means for detecting an area of the moving object existing in the image by analyzing each frame of the moving image, and a spatial movement of the moving object from the area detected by the moving object detecting means. 2D / 3D to restore position
The conversion unit and the current position and motion are predicted from information about the spatial position and motion of the moving object in the past, and the predicted position / motion information and the position information output from the 2D / 3D conversion unit are calculated. A 3D information holding unit that fuses and holds the position / motion information of the moving object processed by the prediction / fusion unit and the prediction / fusion unit that predicts the future position of the moving object, and outputs according to a request from the outside. And 3D / 2D conversion means for converting the position of the moving object predicted by the prediction / fusion means into two-dimensional information on the image by projective conversion, and detecting the predicted two-dimensional information by the moving object detection. Fill in means, moving object measuring apparatus characterized by changing the contents of the processing performed by the moving object detecting means based on the two-dimensional information.
【請求項6】 前記予測・融合手段として物体の運動方
程式を基礎としたカルマンフィルタを用いることを特徴
とする請求項5記載の移動物体計測装置。
6. The moving object measuring device according to claim 5, wherein a Kalman filter based on an equation of motion of the object is used as the predicting / merging means.
【請求項7】 前記予測・融合手段として用いられるカ
ルマンフィルタの入力となる計測値の分散を、画像上の
位置情報に見積もられる誤差の分散から、前記2D/3
D変換手段で用いられる画像上の位置と空間的な位置の
関係の微分値またはヤコビ行列を用いて計算することを
特徴とする請求項6記載の移動物体計測装置。
7. The dispersion of the input to become the measurement values of the Kalman filter used as the prediction-fusion means, the dispersion of errors estimated position information on the image, the 2D / 3
7. The moving object measuring device according to claim 6, wherein the moving object measuring device is calculated by using a differential value or a Jacobian matrix of a relationship between a position on an image and a spatial position used in the D conversion means.
【請求項8】 前記移動物体検出手段を画像エッジ計算
手段と2値化手段によって構成し、前記3D/2D変換
手段によってもたらされる画像上の位置情報によって、
その2値化手段で用いるしきい値を変化させることを特
徴とする請求項5記載の移動物体計測装置。
8. constituted by the image edge calculation unit moving object detecting means and binarizing means, the position information on the image provided by the 3D / 2D conversion unit,
The moving object measuring device according to claim 5, wherein the threshold value used in the binarizing means is changed.
【請求項9】 前記予測・融合手段によって予測される
運動に関する情報と、前記2D/3D変換手段によって
もたらされる位置に関する情報を用いて、それらの情報
を融合するか否かの判断を行う機構を持つことを特徴と
する請求項5記載の移動物体計測装置。
9. A information on motion that is predicted by the prediction-fusion means, using said information on the position provided by 2D / 3D conversion unit, a mechanism for judging whether to fuse the information The moving object measuring device according to claim 5, which has.
JP6232753A 1994-09-28 1994-09-28 Traveling object-measuring instrument Pending JPH0894320A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6232753A JPH0894320A (en) 1994-09-28 1994-09-28 Traveling object-measuring instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6232753A JPH0894320A (en) 1994-09-28 1994-09-28 Traveling object-measuring instrument

Publications (1)

Publication Number Publication Date
JPH0894320A true JPH0894320A (en) 1996-04-12

Family

ID=16944222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6232753A Pending JPH0894320A (en) 1994-09-28 1994-09-28 Traveling object-measuring instrument

Country Status (1)

Country Link
JP (1) JPH0894320A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085685A (en) * 2001-09-10 2003-03-20 I Transport Lab Co Ltd Vehicle traveling track observing device and method using a plurality of video cameras
US8374392B2 (en) 2009-05-21 2013-02-12 Fujifilm Corporation Person tracking method, person tracking apparatus, and person tracking program storage medium
CN106485920A (en) * 2016-10-21 2017-03-08 合肥哦走信息技术有限公司 Vehicle checking method in a kind of intelligent transportation system
US9767367B2 (en) 2013-08-21 2017-09-19 Denso Corporation Object estimation apparatus and object estimation method
TWI662252B (en) * 2016-09-06 2019-06-11 財團法人工業技術研究院 Roadside detection system, roadside unit and roadside communication method thereof
KR20200030947A (en) * 2018-09-13 2020-03-23 전자부품연구원 4d rig reconstructing device and a method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347265A (en) * 1993-06-07 1994-12-20 N T T Data Tsushin Kk Monitoring apparatus of moving object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347265A (en) * 1993-06-07 1994-12-20 N T T Data Tsushin Kk Monitoring apparatus of moving object

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085685A (en) * 2001-09-10 2003-03-20 I Transport Lab Co Ltd Vehicle traveling track observing device and method using a plurality of video cameras
JP4673521B2 (en) * 2001-09-10 2011-04-20 株式会社アイ・トランスポート・ラボ Vehicle traveling locus observation apparatus and method using a plurality of video cameras
US8374392B2 (en) 2009-05-21 2013-02-12 Fujifilm Corporation Person tracking method, person tracking apparatus, and person tracking program storage medium
US9767367B2 (en) 2013-08-21 2017-09-19 Denso Corporation Object estimation apparatus and object estimation method
TWI662252B (en) * 2016-09-06 2019-06-11 財團法人工業技術研究院 Roadside detection system, roadside unit and roadside communication method thereof
CN106485920A (en) * 2016-10-21 2017-03-08 合肥哦走信息技术有限公司 Vehicle checking method in a kind of intelligent transportation system
KR20200030947A (en) * 2018-09-13 2020-03-23 전자부품연구원 4d rig reconstructing device and a method thereof

Similar Documents

Publication Publication Date Title
US7262710B2 (en) Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
EP1361543B1 (en) Determining object motion from optical flow analysis
EP3576008B1 (en) Image based lane marking classification
Gupte et al. Detection and classification of vehicles
Jung et al. Traffic parameter extraction using video-based vehicle tracking
WO2019116958A1 (en) Onboard environment recognition device
JP4002919B2 (en) Moving body height discrimination device
Dooley et al. A blind-zone detection method using a rear-mounted fisheye camera with combination of vehicle detection methods
US8594378B2 (en) 3D object detecting apparatus and 3D object detecting method
US8406472B2 (en) Method and system for processing image data
US20060115115A1 (en) Vehicle surroundings monitoring apparatus
JPH11252587A (en) Object tracking device
JP2020508501A (en) Method and apparatus for estimating the range of a moving object
Głowacz et al. Video detection algorithm using an optical flow calculation method
JPH06180749A (en) Device for monitoring object on road
JPH0894320A (en) Traveling object-measuring instrument
KR20020053346A (en) Method for detecting curve for road modeling system
CN112861599A (en) Method and device for classifying objects on a road, computer program and storage medium
JPH06325287A (en) Device for detecting traffic flow abnormality
Techmer Real time motion analysis for monitoring the rear and lateral road
KR102467446B1 (en) Ai based collision recognition method and device
CN112513573B (en) Stereo camera device
Klappstein et al. Detectability of moving objects using correspondences over two and three frames
JP2004038760A (en) Traveling lane recognition device for vehicle
JPH05149756A (en) Driving road recognition device for traveling vehicle

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19971014