JP3022330B2 - Moving image recognition device and moving image recognition method - Google Patents

Moving image recognition device and moving image recognition method

Info

Publication number
JP3022330B2
JP3022330B2 JP8179006A JP17900696A JP3022330B2 JP 3022330 B2 JP3022330 B2 JP 3022330B2 JP 8179006 A JP8179006 A JP 8179006A JP 17900696 A JP17900696 A JP 17900696A JP 3022330 B2 JP3022330 B2 JP 3022330B2
Authority
JP
Japan
Prior art keywords
model
white line
spatio
temporal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP8179006A
Other languages
Japanese (ja)
Other versions
JPH1027252A (en
Inventor
和之 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP8179006A priority Critical patent/JP3022330B2/en
Publication of JPH1027252A publication Critical patent/JPH1027252A/en
Application granted granted Critical
Publication of JP3022330B2 publication Critical patent/JP3022330B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は動画像認識装置に関
し、特に画像中のノイズに対してロバストな動画像認識
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image recognition apparatus, and more particularly to a moving image recognition apparatus that is robust against noise in an image.

【0002】[0002]

【従来の技術】従来、この種の動画像認識装置は画像中
に含まれる雑音に対してロバストな認識を実現するため
に、たとえば特開平03−292574号公報に記載さ
れているように、時系列として撮影された画像を画素対
応で加算することによって画像データ中の雑音の影響を
抑えていた。また、同じく画像の時系列を利用する方法
として、たとえば、電子情報通信学会論文誌、1994
年、Vol.J77−D−II、No.10、pp.2
019−2026に示されているような、DDT法と呼
ばれる手法が用いられている。
2. Description of the Related Art Conventionally, this kind of moving image recognition apparatus has been proposed to realize robust recognition against noise contained in an image, for example, as described in Japanese Patent Application Laid-Open No. 03-292574. The influence of noise in the image data has been suppressed by adding the images taken as a series for each pixel. Also, as a method of using a time series of images, for example, the IEICE Transactions, 1994
Year, Vol. J77-D-II, No. 10, pp. 2
A technique called the DDT method as shown in JP-A No. 019-2026 is used.

【0003】図19、図20、図21および図22を参
照して、DTT法の動作について説明する。
The operation of the DTT method will be described with reference to FIG. 19, FIG. 20, FIG. 21 and FIG.

【0004】図19を参照すると、この文献に記載の動
画像認識装置は、CCDカメラ等の画像入力装置191
と、画像内の処理領域を設定する処理領域設定手段19
2と、画像内の処理領域から物体の特徴データを抽出す
る特徴データ抽出手段193と、特徴データを物体の方
向軸に投影し一次元データを得る特徴データ投影手段1
94と、一次元データを時系列方向に並べてDTT画像
を生成するDTT画像生成手段195と、DTT画像を
2値化するDTT画像の2値化手段196と、2値化さ
れたDTT画像から物体像を検出するDTT画像からの
物体検出手段197とを含む。
Referring to FIG. 19, a moving image recognition device described in this document is an image input device 191 such as a CCD camera.
Processing area setting means 19 for setting a processing area in an image
2, a feature data extracting unit 193 for extracting feature data of an object from a processing area in an image, and a feature data projecting unit 1 for projecting feature data on a direction axis of the object to obtain one-dimensional data.
94, a DTT image generating unit 195 for generating a DTT image by arranging one-dimensional data in a time-series direction, a DTT image binarizing unit 196 for binarizing the DTT image, and an object from the binarized DTT image. Means for detecting an object from a DTT image for detecting an image.

【0005】画像入力装置191から与えられた単フレ
ーム画像は処理領域設定手段192に供給される。処理
領域設定手段192は、図20に示すように物体の移動
範囲をカバーするような処理領域201を画像中に設定
する。処理領域201が設定された画像は特徴データ抽
出手段193に供給され、特徴データ抽出手段193は
設定された処理領域201から、検出すべき物体203
に関する特徴データを抽出する。特徴データは特徴デー
タ投影手段194に供給され、特徴データ投影手段19
4は図20に示すように特徴データを物体の移動方向2
02にほぼ平行な方向軸204に投影し、1次元データ
を生成する。各時刻における上記1次元データはDTT
画像生成手段195に供給され、DTT画像生成手段1
95は上記1次元データを時系列に並べることにより、
図21に示されるような方向軸−時間軸からなる2次元
画像(DTT画像)を生成する。DTT画像はDTT画
像の2値化手段196に供給され、DTT画像の2値化
手段196は供給されたDTT画像を2値化する。2値
化されたDTT画像はDTT画像からの物体検出手段1
97に供給され、DTT画像からの物体検出手段197
は供給された2値化DTT画像から一様な領域を検出
し、1つの物体を表す像として出力する。
The single frame image provided from the image input device 191 is supplied to a processing area setting means 192. The processing area setting means 192 sets a processing area 201 covering the moving range of the object in the image as shown in FIG. The image in which the processing area 201 is set is supplied to the feature data extracting means 193, and the feature data extracting means 193 extracts the object 203 to be detected from the set processing area 201.
Extract feature data for The feature data is supplied to the feature data projection unit 194, and the feature data projection unit 19
Reference numeral 4 denotes the moving direction of the object as shown in FIG.
The projection is performed on a direction axis 204 substantially parallel to 02 to generate one-dimensional data. The one-dimensional data at each time is DTT
The DTT image generating means 1
95 arranges the one-dimensional data in time series,
A two-dimensional image (DTT image) including a direction axis and a time axis as shown in FIG. 21 is generated. The DTT image is supplied to the DTT image binarization unit 196, and the DTT image binarization unit 196 binarizes the supplied DTT image. The binarized DTT image is an object detection unit 1 from the DTT image.
97, and an object detection unit 197 from the DTT image.
Detects a uniform area from the supplied binarized DTT image and outputs it as an image representing one object.

【0006】DTT法は図22のように、過去から現在
の各フレーム32、33を時系列方向に並べた時空間画
像において、ある切断平面211を考え、その断面を解
析することによって、物体203の移動の様子を認識し
ている。
In the DTT method, as shown in FIG. 22, in a spatio-temporal image in which past and present frames 32 and 33 are arranged in a time-series direction, a certain cutting plane 211 is considered and its cross section is analyzed to obtain an object 203. Are aware of how they are moving.

【0007】[0007]

【発明が解決しようとする課題】従来の、画像を画像対
応で加算する動画像処理装置においては、フレーム間で
の微小な動きのために、認識対象物の同一特徴を表す特
徴点がフレーム間で異なる位置にずれてしまうために特
徴点がうまく重ね合わなくなってしまい、このままでは
画像中に含まれる雑音と特徴点との区別がつきづらくな
ってしまう。従ってこの場合、同一特徴を表す特徴点を
フレーム間で対応づける必要があるが、フレーム間の対
応づけ問題は本質的に困難な問題であり、認識装置の精
度、信頼性の悪化、認識速度の低下を招く、という問題
点があった。
In a conventional moving image processing apparatus for adding images corresponding to images, a feature point representing the same feature of the object to be recognized is generated between frames because of minute movement between frames. As a result, the feature points do not overlap well because of the shift to different positions, and it is difficult to distinguish between the noise included in the image and the feature points. Therefore, in this case, it is necessary to associate feature points representing the same feature between frames, but the association between frames is essentially a difficult problem, and the accuracy, reliability, and recognition speed of the recognition device deteriorate. There is a problem that it causes a decrease.

【0008】一方、前記DDT法のような時空間画像を
用いた動画像認識装置は、上記のフレーム間の対応づけ
を行わずに動画像中の認識対象を認識するものである
が、この動画像認識装置は元々が物体の大局的な移動の
情報を得るためのものであり、認識対象の形状を認識す
ることは出来ない。
On the other hand, a moving image recognition apparatus using a spatiotemporal image such as the DDT method recognizes a recognition target in a moving image without associating the frames with each other. The image recognition device is originally for obtaining information on global movement of an object, and cannot recognize the shape of a recognition target.

【0009】本発明の目的は、上記課題を解決し、時空
間画像を用いてフレーム間の対応づけをすること無しに
時系列情報を利用することにより、画像中のノイズに対
してロバストであり、また認識対象の形状をも認識し得
る動画像認識装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems and to use a time-series information without associating frames with each other using a spatio-temporal image to be robust against noise in the image. Another object of the present invention is to provide a moving image recognition device capable of recognizing a shape of a recognition target.

【0010】[0010]

【課題を解決するための手段】空間画像を入力してそれ
らを時間軸方向に並べることによって時空間画像を生成
し出力する時空間画像生成手段と、前記時空間画像を入
力し時空間画像から特徴点を抽出し出力する特徴点抽出
手段と、前記特徴点を入力し現フレームまでの認識対象
物の位置、形状及び各フレーム間での認識対象物の微小
な動きをモデル化した対象物の時空間モデルとをマッチ
ングし、前記特徴点と前記時空間モデルとの距離が最小
となるように時空間モデルパラメータ値を修正出力する
時空間モデルマッチング手段と、前記修正された時空間
モデルパラメータ値により定められる時空間モデルと現
フレームとの交差領域として対象物の現フレームでの位
置及び形状を認識する対象物推定手段とを有することを
特徴とする。
A spatio-temporal image generating means for generating and outputting a spatio-temporal image by inputting a spatio-temporal image and arranging them in the time axis direction, and A feature point extracting means for extracting and outputting a feature point; and a recognition target to which the feature point is inputted and up to a current frame.
The position and shape of the object and the spatio-temporal model of the object modeling the minute movement of the recognition object between each frame are matched, and the distance between the feature point and the spatio-temporal model is minimized.
A spatial model matching means when outputting correct the space-time model parameter values so that the space when said corrected
The spatio-temporal model defined by the model parameter values and the current
The position of the object in the current frame as the intersection area with the frame
And having a target object estimating means for recognizing the location and shape.

【0011】本発明の前記手段によれば、時空間モデル
マッチング手段において認識対象物の時空間モデルはフ
レーム間での認識対象物の微小な動きをモデル化したも
のであるので、この時空間対象モデルを直接認識対象物
の特徴点にマッチングさせてフレーム間での認識対象物
の微小な動きをモデルに吸収させることにより、フレー
ム間での特徴点の対応づけをすることなしに時系列情報
を使った動画像認識を実現することが出来る。
According to the means of the present invention, the spatio-temporal model of the object to be recognized in the spatio-temporal model matching means is obtained by modeling a minute movement of the object to be recognized between frames. By matching the model directly to the feature points of the recognition target and absorbing the slight movement of the recognition target between frames into the model, time-series information can be obtained without associating feature points between frames. The used moving image recognition can be realized.

【0012】また本発明の前記手段によれば、認識対象
物の上記時空間モデルに各フレームにおける認識対象物
の形状を組み込むことによって、認識対象物の形状を認
識することが出来る。
According to the means of the present invention, the shape of the recognition target can be recognized by incorporating the shape of the recognition target in each frame into the spatiotemporal model of the recognition target.

【0013】[0013]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。
Next, embodiments of the present invention will be described in detail with reference to the drawings.

【0014】図1は本発明の第1の実施の形態の構成を
示すブロック図である。この第1の実施の形態は自動車
に取り付けたカメラから道路画像を取り込み、その画像
から走行レーンを表す白線の画像中での位置および形状
を推定するものである。ここでは、白線が直線をなす場
合を考えている。
FIG. 1 is a block diagram showing the configuration of the first embodiment of the present invention. In the first embodiment, a road image is fetched from a camera mounted on an automobile, and the position and shape of a white line representing a driving lane in the image are estimated from the image. Here, a case is considered where the white line forms a straight line.

【0015】図1を参照すると、本発明の第1の実施の
形態は、CCDカメラ等の道路画像入力装置11と、一
定期間内に入力された道路画像データを1フレーム単位
で蓄積する道路画像蓄積装置12と、一定期間内に入力
された道路画像を時系列に沿って並べて時空間道路画像
を生成する時空間道路画像生成手段13と、時空間道路
画像において前時刻での白線位置推定結果を基に白線の
候補点を抽出する領域を設定する白線候補点抽出領域設
定手段14と、時空間道路画像から白線の候補点を抽出
する白線候補点抽出手段15と、白線候補点と白線の時
空間モデルとをマッチングする時空間モデルマッチング
手段16と、現フレーム内での白線の位置および形状を
白線の時空間モデルと現フレームとの交線として推定す
る白線推定手段17とを含む。
Referring to FIG. 1, according to a first embodiment of the present invention, a road image input device 11 such as a CCD camera and a road image data for storing road image data input within a certain period in one frame unit are provided. A storage device 12, a spatio-temporal road image generating means 13 for arranging road images input within a certain period in a time series to generate a spatio-temporal road image, and a white line position estimation result at a previous time in the spatio-temporal road image , A white line candidate point extraction area setting means 14 for setting an area for extracting white line candidate points, a white line candidate point extraction means 15 for extracting white line candidate points from a spatiotemporal road image, and a white line candidate point and a white line Spatio-temporal model matching means 16 for matching the spatio-temporal model, and white line estimating means 1 for estimating the position and shape of the white line in the current frame as an intersection of the white line spatio-temporal model and the current frame. Including the door.

【0016】時空間モデルマッチング手段16は図2を
参照すると、各白線候補点と時空間モデルとの距離の総
和を計算する白線候補点モデル間距離計算手段21と、
白線候補点モデル間距離を基にモデルパラメータ更新を
終了するか否かを判定するパラメータ更新終了判定手段
22と、白線候補点モデル間距離のモデルパラメータに
ついての1次微分、2次微分値を計算する距離微分値計
算手段23と、距離の微分値を基にNewton法等の
反復法によってモデルパラメータを更新するモデルパラ
メータ更新手段24とを含む。
Referring to FIG. 2, the spatio-temporal model matching means 16 calculates a sum of distances between each white line candidate point and the spatio-temporal model.
Parameter update end determining means 22 for determining whether to end the model parameter update based on the distance between the white line candidate point models, and calculates the first derivative and the second derivative of the model parameter of the distance between the white line candidate point models And a model parameter updating means 24 for updating model parameters by an iterative method such as the Newton method based on the distance differential value.

【0017】次に、図4を参照して第1の実施の形態の
動作について詳細に説明する。
Next, the operation of the first embodiment will be described in detail with reference to FIG.

【0018】まず、ここでの世界座標およびカメラ座標
を図5のように定める。
First, the world coordinates and camera coordinates are determined as shown in FIG.

【0019】道路画像入力装置11から与えられた道路
画像データは、道路画像蓄積装置12に供給される。道
路画像蓄積装置12は、この道路画像データを時刻情報
と共に一定期間蓄積する(ステップ401および40
2)。道路画像蓄積装置12は現フレームを含む、一定
期間の道路画像Nフレーム(Nは予め定めた数)を時空
間道路画像生成手段13に供給する。時空間道路画像生
成手段13はこの道路画像Nフレームを時系列に並べ
て、図3にあるような3次元的な時空間道路画像を生成
する(ステップ403)。時空間道路画像生成手段13
はこの時空間道路画像を白線候補点抽出領域設定手段1
4に供給する。白線候補点抽出領域設定手段14はこの
時空間道路画像内に、前時刻に推定された白線位置を中
心とした処理領域を設定する(ステップ404)。
The road image data provided from the road image input device 11 is supplied to a road image storage device 12. The road image storage device 12 stores the road image data together with the time information for a certain period (steps 401 and 40).
2). The road image storage device 12 supplies N-frame road images (N is a predetermined number) for a certain period including the current frame to the spatio-temporal road image generation means 13. The spatio-temporal road image generating means 13 arranges the road image N frames in time series to generate a three-dimensional spatio-temporal road image as shown in FIG. 3 (step 403). Spatio-temporal road image generation means 13
Means for extracting the spatiotemporal road image from the white line candidate point extraction area setting means 1
4 The white line candidate point extraction area setting means 14 sets a processing area centered on the white line position estimated at the previous time in the spatiotemporal road image (step 404).

【0020】ただし、道路画像内では、画像上部、すな
わち図6でいうならば−z方向にいくほど、対応する3
次元実空間領域は狭くなるので、処理領域も画像上部に
いくにつれて狭くしていくのが自然である。つまり、各
フレームのサイズをM×N、時空間白線モデルをz=f
(x,t)、画像最下部での処理領域幅をWproc low
白線の各時刻tでの消失点のz座標をZvan (t)とす
ると、各z座標での処理領域幅Wproc(z,t)を、図
6に見られるように、
However, in the road image, the higher the position is in the upper part of the image, that is, in the −z direction in FIG.
Since the dimensional real space region becomes narrow, it is natural that the processing region also becomes narrower toward the upper part of the image. That is, the size of each frame is M × N, and the spatiotemporal white line model is z = f
(X, t), the processing area width at the bottom of the image is W proc low ,
Assuming that the vanishing point z coordinate at each time t of the white line is Z van (t), the processing area width W proc (z, t) at each z coordinate is as shown in FIG.

【0021】[0021]

【数1】 (Equation 1)

【0022】とする。It is assumed that

【0023】白線候補点抽出領域設定手段14は、処理
領域が設定された時空間道路画像を白線候補点抽出手段
15に供給する。白線候補点抽出手段15は、時空間道
路画像の処理領域から白線上の点と思われる白線候補点
を抽出する(ステップ405)。この際、白線候補点が
処理領域内に存在しなければ、白線の推定は不可能とし
て動作を終了する。白線候補点が存在すれば、その座標
値が時空間モデルマッチング手段16に供給される(ス
テップ406)。
The white line candidate point extraction area setting means 14 supplies the spatiotemporal road image in which the processing area has been set to the white line candidate point extraction means 15. The white line candidate point extracting means 15 extracts white line candidate points that are considered to be points on the white line from the processing area of the spatiotemporal road image (step 405). At this time, if the white line candidate point does not exist in the processing area, the operation is terminated because it is impossible to estimate the white line. If a white line candidate point exists, its coordinate value is supplied to the spatiotemporal model matching means 16 (step 406).

【0024】ここで、時空間白線モデルについて説明す
る。画像上の白線は、自車両が図8のように白線に対し
て完全に平行な方向にしか走行していない場合は、各フ
レームで同一位置、同一形状をなし、従って、時空間道
路画像内では平面をなす。ところが、実際には自車両は
走行中に図9のように横ズレや走行方向の変化を起こ
し、また図10のように道路の勾配も変化する。従って
時空間道路画像内では白線は平面ではなくある曲面をな
す。そこで本実施の形態では、2次元画像上での白線の
消失点のx座標、z座標、および白線の傾きが時刻tに
対して線形に変化するとし、時空間白線モデルを、a、
b、c、d、e、fをモデルパラメータとして x−(e+ft)+(a+bt)z−(a+bt)(c+dt)=0 (2) で表される曲面として定義する。また、上記モデルが自
車両の右側にある白線の時空間モデルとすると、左側の
白線については、図7のように消失点は右側の白線と共
通であり、また傾きの時間変化も共通であるので、左側
の時空間白線モデルは、gを新たなモデルパラメータと
して x−(e+ft)+(g+bt)z−(g+bt)(c+dt)=0 (3) と定義される。よって、左右の時空間白線モデルを x−(e+ft)+(a+bt)z−(a+bt)(c+dt)=0 x−(e+ft)+(g+bt)z−(g+bt)(c+dt)=0 (4) として定義する。
Here, the spatiotemporal white line model will be described. The white line on the image has the same position and the same shape in each frame when the own vehicle is traveling only in a direction completely parallel to the white line as shown in FIG. Let's make a plane. However, in actuality, the own vehicle undergoes a lateral shift or a change in the running direction as shown in FIG. 9 during running, and the gradient of the road also changes as shown in FIG. Therefore, in the spatiotemporal road image, the white line is not a plane but a curved surface. Therefore, in the present embodiment, it is assumed that the x-coordinate and z-coordinate of the vanishing point of the white line on the two-dimensional image and the inclination of the white line linearly change with respect to time t.
Define b, c, d, e, and f as model parameters as a curved surface represented by x- (e + ft) + (a + bt) z- (a + bt) (c + dt) = 0 (2). If the above model is a spatio-temporal model of a white line on the right side of the host vehicle, the vanishing point of the white line on the left side is common to the white line on the right side as shown in FIG. Therefore, the spatiotemporal white line model on the left side is defined as x− (e + ft) + (g + bt) z− (g + bt) (c + dt) = 0 (3) using g as a new model parameter. Therefore, the left and right spatiotemporal white line models are expressed as x- (e + ft) + (a + bt) z- (a + bt) (c + dt) = 0 x- (e + ft) + (g + bt) z- (g + bt) (c + dt) = 0 (4) Is defined as

【0025】時空間モデルマッチング手段16は、ま
ず、前時刻に推定されたモデルパラメータを初期パラメ
ータとして、時空間白線モデルにセットする(ステップ
407)。次にステップ408において、パラメータの
セットされた時空間白線モデル(式(4))と、各白線
候補点(xi ,zi ,ti )との距離を次式(5)とし
て計算する。
The spatio-temporal model matching means 16 first sets the model parameters estimated at the previous time as initial parameters in the spatio-temporal white line model (step 407). Next, in step 408, the distance between the spatiotemporal white line model (Equation (4)) in which the parameters are set and each white line candidate point (x i , z i , t i ) is calculated as the following equation (5).

【0026】[0026]

【数2】 (Equation 2)

【0027】ステップ409において各白線候補点毎に
計算した上記距離の総和を次式(6)のように計算す
る。
In step 409, the sum of the distances calculated for each white line candidate point is calculated as in the following equation (6).

【0028】[0028]

【数3】 (Equation 3)

【0029】以下、式(6)の距離総和を最小にするよ
うなモデルパラメータを計算して最適なモデルパラメー
タとし、時空間白線モデルと現フレームとの交線を計算
しその交線を現フレームでの白線として白線の位置、形
状を出力して動作を終える。具体的には、例えば以下の
ような方法をとることが出来る。
In the following, a model parameter that minimizes the sum of distances in the equation (6) is calculated as an optimal model parameter, an intersection line between the spatiotemporal white line model and the current frame is calculated, and the intersection line is defined as the current frame. Then, the position and shape of the white line are output as the white line, and the operation is completed. Specifically, for example, the following method can be used.

【0030】上記ステップ409において上記距離の1
次、2次微分値の重みつきの総和を次式(7)、(8)
のように計算する。
In step 409, the distance 1
Next, the weighted sum of the secondary differential values is expressed by the following equations (7) and (8).
Calculate as follows.

【0031】[0031]

【数4】 (Equation 4)

【0032】この重みwleft,wright は、左右各々の
白線についての総和を計算した際に、左右各々について
白線候補点の数Nleft,Nright に反比例した重みをか
けてから、左右の和をとるものである。すなわち上記重
みwleft,wright は予め定めた定数をvとして次式
(9)のように表される。
The weights w left and w right are weighted in inverse proportion to the number of white line candidate points N left and N right for each of the left and right when calculating the sum of the left and right white lines. Is taken. That is, the weights w left and w right are represented by the following equation (9), where v is a predetermined constant.

【0033】[0033]

【数5】 (Equation 5)

【0034】このような重みをつけることによって、ノ
イズによって左右の処理領域のどちらかにおいて極端に
白線候補点の数が少なくなってしまった際に、もう一方
の白線の方にモデルが引き寄せられすぎるのを防ぐこと
ができる。
By assigning such weights, when the number of white line candidate points is extremely reduced in one of the left and right processing regions due to noise, the model is drawn too much toward the other white line. Can be prevented.

【0035】距離の総和はステップ410で、予め定め
ておいた閾値と比較され、距離の総和が閾値以下だった
ら、時空間白線モデルは時空間道路画像内の白線像と充
分に近いと判断し、時空間白線モデルと現フレームとの
交線を計算し、その交線を現フレームでの白線として、
白線の位置、形状を出力して動作を終える(ステップ4
12および413)。
The sum of the distances is compared with a predetermined threshold value in step 410. If the sum of the distances is equal to or less than the threshold value, it is determined that the spatiotemporal white line model is sufficiently close to the white line image in the spatiotemporal road image. , Calculate the intersection between the spatiotemporal white line model and the current frame, and use that intersection as the white line in the current frame,
Output the position and shape of the white line and end the operation (Step 4)
12 and 413).

【0036】距離の総和が閾値より大きければステップ
411に進み、ステップ411においてステップ409
で計算した距離の1次、2次微分の総和からNewto
n法により時空間道路モデルパラメータを更新し、ステ
ップ408へと戻る。以下、距離の総和が閾値以下にな
るか、もしくはループ回数が予め定めた回数を越えるま
で、ループを繰り返す。
If the sum of the distances is larger than the threshold value, the process proceeds to step 411, and in step 411, the process proceeds to step 409.
Newto from the sum of the first and second derivatives of the distance calculated in
The spatio-temporal road model parameters are updated by the n method, and the process returns to step 408. Hereinafter, the loop is repeated until the sum of the distances becomes equal to or less than the threshold value or the number of loops exceeds a predetermined number.

【0037】ループ回数が予め定めた回数を越えた場合
は、それまでの各ループにおいて、距離の総和が最小で
あるようなループにおける時空間モデルパラメータを最
適なモデルパラメータとして、時空間白線モデルと現フ
レームとの交線を計算し、その交線を現フレームでの白
線として、白線の位置、形状を出力して動作を終える。
If the number of loops exceeds a predetermined number, the spatio-temporal white line model and the spatio-temporal white line model are used as the optimal model parameters in the loops in which the sum of the distances is the minimum in each loop up to that time. The intersection line with the current frame is calculated, the intersection line is set as the white line in the current frame, and the position and shape of the white line are output, and the operation is completed.

【0038】次に、本発明の第2の実施の形態につい
て、図面を参照して詳細に説明する。本実施の形態は、
白線がカーブをなす場合を考えている。
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. In this embodiment,
The case where the white line forms a curve is considered.

【0039】図11を参照すると、本発明の第2の実施
の形態は、CCDカメラ等の道路画像入力装置11と、
一定期間内に入力された道路画像データを1フレーム単
位で蓄積する道路画像蓄積装置12と、一定期間内に入
力された道路画像を時系列に沿って並べて時空間道路画
像を生成する時空間道路画像生成手段13と、時空間道
路画像において前時刻での白線位置推定結果を基に白線
の候補点を抽出する領域を設定する白線候補点抽出領域
設定手段14と、時空間道路画像から白線の候補点を抽
出する白線候補点抽出手段15と、白線候補点と白線カ
ーブの画像下部での接線の時空間モデルとをマッチング
する時空間接線モデルマッチング手段111と、白線候
補点と時空間カーブモデルとをマッチングする時空間カ
ーブモデルマッチング手段112と、白線の現フレーム
内での白線の位置および形状を推定する白線推定手段1
7とを含む。
Referring to FIG. 11, a second embodiment of the present invention includes a road image input device 11 such as a CCD camera and the like.
A road image storage device 12 that stores road image data input within a certain period in units of one frame, and a spatio-temporal road that generates spatio-temporal road images by arranging road images input within a certain period in chronological order An image generation unit 13; a white line candidate point extraction area setting unit 14 for setting an area for extracting a white line candidate point based on a white line position estimation result at a previous time in a spatio-temporal road image; A white line candidate point extracting unit 15 for extracting candidate points; a spatiotemporal tangent model matching unit 111 for matching the white line candidate point with a spatiotemporal model of a tangent line below the white line curve image; a white line candidate point and a spatiotemporal curve model And a white line estimating means 1 for estimating the position and shape of the white line in the current frame of the white line
7 is included.

【0040】時空間カーブモデルマッチング手段112
は図12を参照すると、各白線候補点と時空間カーブモ
デルとの距離の総和を計算する白線候補点モデル間距離
計算手段21と、白線候補点モデル間距離を基にカーブ
モデルパラメータ更新を終了するか否かを判定するパラ
メータ更新終了判定手段22と、白線候補点モデル間距
離のカーブモデルパラメータについての1次微分、2次
微分値を計算する距離微分値計算手段23と、上記距離
の微分値を基にNewton法等の反復法によってカー
ブモデルパラメータを更新するカーブモデルパラメータ
更新手段121とを含む。
Spatiotemporal curve model matching means 112
Referring to FIG. 12, the white line candidate point model distance calculating means 21 for calculating the sum of the distances between each white line candidate point and the spatiotemporal curve model, and updating the curve model parameters based on the white line candidate point model distance Parameter update end determining means 22 for determining whether or not to perform the calculation, distance differential value calculating means 23 for calculating the first derivative and second derivative of the curve model parameter of the distance between the white line candidate point models, and differentiation of the distance. A curve model parameter updating unit 121 for updating the curve model parameters based on the values by an iterative method such as the Newton method.

【0041】次に、図14を参照して第2の実施の形態
の動作について詳細に説明する。
Next, the operation of the second embodiment will be described in detail with reference to FIG.

【0042】白線がカーブをなす場合、時空間白線モデ
ルのパラメータ数が多くなるので、まず、画像最下部、
すなわち自車両付近における白線カーブの接線133に
ついての時空間接線モデルを用いて白線の位置を求め、
次に時空間カーブモデルを使いカーブの曲率半径132
を求める(図13)。ここで時空間接線モデルは白線の
直線部の時空間モデルだから、第1の実施の形態と同様
に x=(e+ft)+(a+bt)z−(a+bt)(c+dt)≡fr (z, t) x=(e+ft)+(g+bt)z−(g+bt)(c+dt)≡fl (z, t) (10) と定義される。このとき、白線カーブの時空間モデル
を、曲率半径に関連した新たなパラメータをmとして、
When the white line forms a curve, the number of parameters of the spatiotemporal white line model increases.
That is, the position of the white line is obtained using the spatiotemporal tangent model of the tangent 133 of the white line curve near the own vehicle,
Next, using the spatiotemporal curve model, the curvature radius 132 of the curve
(FIG. 13). Since here spacetime indirect line model is a space model when the straight portion of the white line, as in the first embodiment x = (e + ft) + (a + bt) z- (a + bt) (c + dt) ≡f r (z, t ) x = (e + ft) + (g + bt) z- (g + bt) (c + dt) ≡f l (z, t) is defined as (10). At this time, the spatio-temporal model of the white line curve is defined as a new parameter related to the radius of curvature, m.

【0043】[0043]

【数6】 (Equation 6)

【0044】と定義する。このように、時空間白線モデ
ルのマッチングを2段階に分けることによって、各マッ
チング段階でのパラメータ空間の次元を小さくし、マッ
チングの簡単化、安定化、高速化を計ることが出来る。
Is defined as In this way, by dividing the spatiotemporal white line model into two stages, it is possible to reduce the dimension of the parameter space at each matching stage, and to simplify, stabilize, and speed up the matching.

【0045】第2の実施の形態では、第1の実施の形態
と同様に白線候補点を抽出し、白線候補点が存在すれ
ば、前時刻に推定された時空間白線モデルパラメータを
初期値として時空間白線モデルにセットし(ステップ4
07)、白線候補点の座標が時空間接線モデルマッチン
グ手段111に供給される。時空間接線モデルマッチン
グ手段111は、時空間接線モデルと画像下部の白線候
補点をマッチングすることにより、前記m以外のモデル
パラメータを推定し、時空間カーブモデルマッチング手
段112に供給する。
In the second embodiment, white line candidate points are extracted as in the first embodiment, and if there are white line candidate points, the spatiotemporal white line model parameters estimated at the previous time are used as initial values. Set to the spatiotemporal white line model (Step 4
07), the coordinates of the white line candidate point are supplied to the spatiotemporal tangent model matching means 111. The spatiotemporal tangent model matching unit 111 estimates a model parameter other than the m by matching the spatiotemporal tangent model with the white line candidate point at the lower part of the image, and supplies the model parameter to the spatiotemporal curve model matching unit 112.

【0046】時空間カーブモデルマッチング手段112
はステップ142において、ステップ141において推
定されたm以外のパラメータ、およびmの初期値がセッ
トされた時空間カーブモデル(式(11))と、各白線
候補点(xi ,zi ,ti )との距離を式(12)とし
て計算する。
Spatiotemporal curve model matching means 112
In step 142, a parameter other than the estimated m, and m space curve model when the initial value is set (Equation (11)) in step 141, the white line candidate point (x i, z i, t i ) Is calculated as Expression (12).

【0047】[0047]

【数7】 (Equation 7)

【0048】ステップ409において各白線候補点毎に
計算した上記距離の総和を次式(13)のように計算す
る。
In step 409, the sum of the distances calculated for each white line candidate point is calculated as in the following equation (13).

【0049】[0049]

【数8】 (Equation 8)

【0050】以下、式(13)の距離総和を最小にする
ようなモデルパラメータを計算して最適なモデルパラメ
ータとし、時空間白線モデルと現フレームとの交線を計
算しその交線を現フレームでの白線として白線の位置、
形状を出力して動作を終える。具体的には、例えば以下
のような方法をとることが出来る。
Hereinafter, a model parameter that minimizes the sum of the distances in the equation (13) is calculated as an optimal model parameter, and an intersection between the spatiotemporal white line model and the current frame is calculated. The position of the white line as the white line in the
Output the shape and finish the operation. Specifically, for example, the following method can be used.

【0051】上記ステップ409において上記距離の1
次、2次微分値の重みつきの総和を次式(14)、(1
5)のように計算する。
In step 409, the distance 1
Next, the weighted sum of the secondary differential values is expressed by the following equations (14) and (1).
Calculate as in 5).

【0052】[0052]

【数9】 (Equation 9)

【0053】式(14)、(15)で総和をとる際の重
みwleft,wright は第1の実施の形態と同一のもので
ある。距離の総和はステップ410で予め定めておいた
閾値と比較され、距離の総和が閾値以下だったら、時空
間カーブモデルは時空間道路画像内の白線像と充分に近
いと判断し、時空間カーブモデルマッチング手段112
はカーブモデルパラメータを白線推定手段17に供給す
る。白線推定手段17は時空間カーブモデルと現フレー
ムとの交線を計算し、その交線を現フレームでの白線と
して、白線の位置、形状を出力して(ステップ413)
動作を終える。
The weights w left and w right used in the summation in equations (14) and (15) are the same as those in the first embodiment. The sum of the distances is compared with a predetermined threshold in step 410, and if the sum of the distances is equal to or less than the threshold, the spatio-temporal curve model determines that the spatio-temporal road image is sufficiently close to the white line image in the spatio-temporal road image. Model matching means 112
Supplies the curve model parameters to the white line estimating means 17. The white line estimating means 17 calculates the line of intersection between the spatiotemporal curve model and the current frame, outputs the position and shape of the white line as the white line in the current frame (step 413).
Finish the operation.

【0054】距離の総和が閾値より大きければステップ
143に進み、ステップ143においてステップ409
で計算した距離の1次、2次微分の総和からNewto
n法によりmを更新し、ステップ142へと戻る。以
下、距離の総和が閾値以下になるか、もしくはループ回
数が予め定めた回数を越えるまで、ループを繰り返す。
If the sum of the distances is larger than the threshold value, the process proceeds to step 143, and in step 143, the process proceeds to step 409.
Newto from the sum of the first and second derivatives of the distance calculated in
m is updated by the n method, and the process returns to step 142. Hereinafter, the loop is repeated until the sum of the distances becomes equal to or less than the threshold value or the number of loops exceeds a predetermined number.

【0055】ループ回数が予め定めた回数を越えた場合
は、それまでの各ループにおいて、距離の総和が最小で
あるようなループにおけるmを最適なパラメータとし
て、時空間カーブモデルマッチング手段112が白線推
定手段17に供給する。白線推定手段17は時空間白線
モデルと現フレームとの交線を計算し、その交線を現フ
レームでの白線として白線の位置、形状を出力して(ス
テップ413)動作を終える。
When the number of loops exceeds a predetermined number, the spatio-temporal curve model matching means 112 sets the m in the loop in which the total sum of the distances is the minimum in each of the loops up to that time as an optimal parameter. It is supplied to the estimating means 17. The white line estimating means 17 calculates the intersection line between the spatiotemporal white line model and the current frame, outputs the position and shape of the white line as the white line in the current frame (step 413), and ends the operation.

【0056】次に、本発明の第3の実施の形態につい
て、図面を参照して詳細に説明する。本実施の形態は、
白線がカーブをなすか、直線をなすか分からない場合を
考えている。
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. In this embodiment,
It is assumed that the user does not know whether the white line forms a curve or a straight line.

【0057】図15を参照すると、本発明の第3の実施
の形態は、CCDカメラ等の道路画像入力装置11と、
一定期間内に入力された道路画像データを1フレーム単
位で蓄積する道路画像蓄積装置12と、一定期間内に入
力された道路画像から時空間道路画像を生成する時空間
道路画像生成手段13と、時空間道路画像において白線
の候補点を抽出する領域を設定する白線候補点抽出領域
設定手段14と、時空間道路画像から白線の候補点を抽
出する白線候補点抽出手段15と、白線候補点と時空間
直線モデルとをマッチングする時空間直線モデルマッチ
ング手段16と、白線候補点とカーブの時空間接線モデ
ルとをマッチングする時空間接線モデルマッチング手段
111と、白線候補点と時空間カーブモデルとをマッチ
ングする時空間カーブモデルマッチング手段112と、
上記2つの時空間モデルマッチング手段におけるマッチ
ングの度合を比較して道路の形状を決定するマッチング
度合比較手段151と、白線の2次元画像内での白線の
位置および形状を推定する白線推定手段17とを含む。
Referring to FIG. 15, a third embodiment of the present invention includes a road image input device 11 such as a CCD camera and the like.
A road image storage device 12 that stores road image data input within a certain period in units of one frame, a spatio-temporal road image generation unit 13 that generates a spatio-temporal road image from a road image input within a certain period, A white line candidate point extraction area setting unit 14 for setting an area for extracting a white line candidate point in the spatiotemporal road image, a white line candidate point extracting unit 15 for extracting a white line candidate point from the spatiotemporal road image, and a white line candidate point. A spatio-temporal straight line model matching unit 16 for matching a spatio-temporal straight line model, a spatio-temporal tangent model matching unit 111 for matching a white line candidate point and a spatio-temporal tangent model of a curve, and a white line candidate point and a spatio-temporal curve model A spatiotemporal curve model matching means 112 for matching;
A matching degree comparing unit 151 that determines the shape of the road by comparing the degrees of matching in the two spatiotemporal model matching units; and a white line estimating unit 17 that estimates the position and shape of the white line in the two-dimensional white line image. including.

【0058】次に、図16を参照して第3の実施の形態
の動作について詳細に説明する。
Next, the operation of the third embodiment will be described in detail with reference to FIG.

【0059】白線候補点を抽出するステップ405まで
は、第1、第2の実施の形態と同じである。ステップ4
07において、時空間直線モデル、時空間カーブモデル
に前時刻推定されたモデルパラメータを初期値としてセ
ットする。次に、時空間直線モデルマッチング手段16
において、白線候補点と時空間直線モデルとをマッチン
グし(ステップ161)、直線モデルパラメータおよび
時空間直線モデルと白線候補点との距離の総和をマッチ
ング度合比較手段151に供給する。次に、時空間接線
モデルマッチング手段111において画像下部の白線候
補点とカーブの時空間接線モデルとをマッチングし(ス
テップ141)、接線モデルパラメータを時空間カーブ
モデルマッチング手段112に供給する。時空間カーブ
モデルマッチング手段112は白線候補点と時空間カー
ブモデルとをマッチングし(ステップ162)、カーブ
モデルパラメータおよび時空間カーブモデルと白線候補
点との距離の総和をマッチング度合比較手段151に供
給する。マッチング度合比較手段151において、時空
間直線モデルマッチング手段16、時空間カーブモデル
マッチング手段112双方から供給された時空間モデル
と白線候補点との距離の総和をマッチングの度合を表す
データとして比較する(ステップ163)。ここで、直
線モデルについての距離の総和がカーブモデルの距離の
総和以下であれば、マッチング度合比較手段151は直
線モデルパラメータを白線推定手段17に供給する。白
線推定手段17はステップ412において時空間直線モ
デルと現フレームとの交線を計算し、この交線を現フレ
ームでの白線として、ステップ413において白線の位
置、形状を出力して動作を終了する。
Steps up to step 405 of extracting a white line candidate point are the same as in the first and second embodiments. Step 4
At 07, the model parameters estimated at the previous time are set as initial values in the spatiotemporal linear model and the spatiotemporal curve model. Next, the spatiotemporal linear model matching means 16
In step 161, the white line candidate point is matched with the spatiotemporal straight line model (step 161), and the sum of the straight line model parameters and the distance between the spatiotemporal straight line model and the white line candidate point is supplied to the matching degree comparing means 151. Next, the spatiotemporal tangent model matching unit 111 matches the white line candidate point at the lower part of the image with the spatiotemporal tangent model of the curve (step 141), and supplies the tangent model parameters to the spatiotemporal curve model matching unit 112. The spatiotemporal curve model matching unit 112 matches the white line candidate point with the spatiotemporal curve model (step 162), and supplies the curve model parameters and the sum of the distances between the spatiotemporal curve model and the white line candidate point to the matching degree comparing unit 151. I do. The matching degree comparing means 151 compares the sum of the distances between the spatiotemporal model supplied from both the spatiotemporal linear model matching means 16 and the spatiotemporal curve model matching means 112 and the white line candidate point as data representing the degree of matching ( Step 163). Here, if the sum of the distances of the straight-line models is equal to or less than the sum of the distances of the curve models, the matching degree comparison unit 151 supplies the straight-line model parameters to the white line estimation unit 17. The white line estimating means 17 calculates an intersection line between the spatiotemporal straight line model and the current frame in step 412, sets this intersection line as a white line in the current frame, outputs the position and shape of the white line in step 413, and ends the operation. .

【0060】また、ステップ163において、カーブモ
デルについての距離の総和の方が小さければ、マッチン
グ度合比較手段151はカーブモデルパラメータを白線
推定手段17に供給する。白線推定手段17はステップ
144において時空間カーブモデルと現フレームとの交
線を計算し、この交線を現フレームでの白線として、ス
テップ413において白線の位置、形状を出力して動作
を終了する。
If the sum of the distances for the curve model is smaller in step 163, the matching degree comparing means 151 supplies the curve model parameters to the white line estimating means 17. The white line estimating means 17 calculates an intersection line between the spatiotemporal curve model and the current frame in step 144, sets this intersection line as a white line in the current frame, outputs the position and shape of the white line in step 413, and ends the operation. .

【0061】次に本発明の第4の実施の形態について、
図面を参照して詳細に説明する。本実施の形態は、モデ
ルパラメータの初期値が与えられていない場合を考えて
いる。
Next, a fourth embodiment of the present invention will be described.
This will be described in detail with reference to the drawings. In the present embodiment, a case is considered in which an initial value of a model parameter is not given.

【0062】図17を参照すると、本発明の第4の実施
の形態は、CCDカメラ等の道路画像入力装置11と、
一定期間内に入力された道路画像データを1フレーム単
位で蓄積する道路画像蓄積装置12と、一定期間内に入
力された道路画像から時空間道路画像を生成する時空間
道路画像生成手段13と、時空間道路画像の下部におい
て処理領域を規定せずに白線の候補点を抽出する第1の
白線候補点抽出手段171と、時空間道路画像下部にお
いて白線候補点と時空間直線モデルとを予め定められた
初期モデルパラメータを基にマッチングする第1の時空
間直線モデルマッチング手段172と、時空間道路画像
において白線の候補点を抽出する領域を設定する白線候
補点抽出領域設定手段14と、時空間道路画像の白線候
補点抽出領域から白線の候補点を抽出する白線候補点抽
出手段15と、白線候補点と時空間直線モデルとを第1
の時空間直線モデルマッチング手段172において計算
されたモデルパラメータを初期モデルパラメータとして
マッチングする第2の時空間直線モデルマッチング手段
16と、白線候補点とカーブの時空間接線モデルとをマ
ッチングする時空間接線モデルマッチング手段111
と、予め適当に決められた複数の曲率半径を初期曲率半
径として出力する初期曲率半径設定手段173と、白線
候補点と時空間カーブモデルとを時空間接続モデルマッ
チング手段111で計算されたモデルパラメータおよび
初期曲率半径設定手段173により供給される初期曲率
半径を初期モデルパラメータとしてマッチングする時空
間カーブモデルマッチング手段112と、上記2つの時
空間モデルマッチング手段におけるマッチングの度合を
比較して道路の形状を決定するマッチング度合比較手段
151と、白線の2次元画像内での白線の位置および形
状を推定する白線推定手段17とを含む。
Referring to FIG. 17, a fourth embodiment of the present invention includes a road image input device 11 such as a CCD camera and the like.
A road image storage device 12 that stores road image data input within a certain period in units of one frame, a spatio-temporal road image generation unit 13 that generates a spatio-temporal road image from a road image input within a certain period, A first white line candidate point extracting means 171 for extracting a white line candidate point without defining a processing area in a lower part of the spatiotemporal road image, and a white line candidate point and a spatiotemporal straight line model are predetermined in the lower part of the spatiotemporal road image. First spatiotemporal linear model matching means 172 for matching based on the obtained initial model parameters, white line candidate point extraction area setting means 14 for setting an area for extracting a white line candidate point in the spatiotemporal road image, A white line candidate point extracting means 15 for extracting a white line candidate point from a white line candidate point extraction region of a road image;
The second spatio-temporal straight-line model matching means 16 for matching the model parameters calculated by the spatio-temporal straight-line model matching means 172 as the initial model parameters, and the spatio-temporal tangent for matching the white line candidate point and the spatio-temporal tangent model of the curve Model matching means 111
Initial curvature radius setting means 173 for outputting a plurality of curvature radii appropriately determined in advance as initial curvature radii; and model parameters calculated by the spatiotemporal connection model matching means 111 for white line candidate points and the spatiotemporal curve model. And a spatio-temporal curve model matching unit 112 that matches the initial curvature radius supplied by the initial curvature radius setting unit 173 as an initial model parameter, and a degree of matching between the two spatio-temporal model matching units to determine the shape of the road. It includes a matching degree comparison unit 151 to be determined, and a white line estimation unit 17 for estimating the position and shape of the white line in the two-dimensional image of the white line.

【0063】以下、本発明の第3の実施の形態と同じ構
成である。
Hereinafter, the configuration is the same as that of the third embodiment of the present invention.

【0064】次に、図18を参照して第4の実施の形態
の動作について詳細に説明する。第1、第2、第3の実
施の形態と同様にステップ403までで、時空間道路画
像を生成する。次に、適当に予め定めた時空間画像の下
部領域全域から、白線候補点を抽出し(ステップ18
1)、ステップ182において、この白線候補点と時空
間直線モデルとをマッチングする。ただし、このマッチ
ングにおける初期パラメータは第1、第2、第3の実施
例と違い、予め定めた値を用いる。このステップで計算
した時空間モデルパラメータを、以下のステップにおい
て初期モデルパラメータとして用いる。
Next, the operation of the fourth embodiment will be described in detail with reference to FIG. As in the first, second, and third embodiments, up to step 403, a spatio-temporal road image is generated. Next, white line candidate points are extracted from the entire lower region of the spatiotemporal image appropriately determined (step 18).
1) In step 182, the white line candidate point is matched with the spatiotemporal linear model. However, unlike the first, second and third embodiments, the initial parameters in this matching use predetermined values. The spatiotemporal model parameters calculated in this step are used as initial model parameters in the following steps.

【0065】時空間直線モデルについては、上記のよう
に初期モデルパラメータが得られたので、以下、第3の
実施の形態と同様に白線候補点とのマッチングを行い、
計算された直線モデルパラメータおよび時空間直線モデ
ルと白線候補点との距離の総和をマッチング度合比較手
段151に供給する。
Since the initial model parameters of the spatiotemporal linear model have been obtained as described above, matching with the white line candidate point is performed in the same manner as in the third embodiment.
The calculated sum of the straight line model parameters and the distance between the spatiotemporal straight line model and the white line candidate point are supplied to the matching degree comparing means 151.

【0066】時空間カーブモデルについては、初期曲率
半径設定手段173において予め複数の初期曲率半径を
用意しておき、上記初期モデルパラメータを基に、各初
期曲率半径についてそれぞれ処理領域の設定、白線候補
点の抽出および白線候補点と時空間カーブモデルとのマ
ッチングを行い、各初期曲率半径に対するカーブモデル
パラメータおよび時空間カーブモデルと白線候補点との
距離の総和をマッチング度合比較手段151に供給する
(ステップ184および185、162)。
For the spatiotemporal curve model, a plurality of initial curvature radii are prepared in advance in the initial curvature radius setting means 173, and a processing area is set for each initial curvature radius based on the above initial model parameters, and a white line candidate is set. The points are extracted and the white line candidate points are matched with the spatiotemporal curve model, and the curve model parameters for each initial radius of curvature and the sum of the distances between the spatiotemporal curve model and the white line candidate points are supplied to the matching degree comparing means 151 ( Steps 184 and 185, 162).

【0067】マッチング度合比較手段151において、
時空間直線モデルマッチング手段16、時空間カーブモ
デルマッチング手段112双方から供給された時空間モ
デルと白線候補点との距離の総和をマッチングの度合を
表すデータとして比較する(ステップ163)。ここ
で、直線モデルについての距離の総和が各初期曲率半径
に対するカーブモデルについての距離の総和のすべて以
下であれば、マッチング度合比較手段151は直線モデ
ルパラメータを白線推定手段17に供給する。白線推定
手段17はステップ412において時空間直線モデルと
現フレームとの交線を計算し、この交線を現フレームで
の白線として、ステップ413において白線の位置、形
状を出力して動作を終了する。
In the matching degree comparing means 151,
The sum of the distances between the spatiotemporal model and the white line candidate points supplied from both the spatiotemporal straight line model matching means 16 and the spatiotemporal curve model matching means 112 is compared as data representing the degree of matching (step 163). Here, if the sum of the distances for the straight line model is equal to or less than all of the sums of the distances for the curve model with respect to the respective initial radii of curvature, the matching degree comparison unit 151 supplies the straight line model parameters to the white line estimation unit 17. The white line estimating means 17 calculates an intersection line between the spatiotemporal straight line model and the current frame in step 412, sets this intersection line as a white line in the current frame, outputs the position and shape of the white line in step 413, and ends the operation. .

【0068】またステップ163において、ある初期曲
率半径に対するカーブモデルが最小の距離の総和を与え
るのであれば、マッチング度合比較手段151はその初
期曲率半径に対するカーブモデルパラメータを白線推定
手段17に供給する。白線推定手段17はステップ14
4において時空間カーブモデルと現フレームとの交線を
計算し、この交線を現フレームでの白線として、ステッ
プ413において白線の位置、形状を出力して動作を終
了する。
In step 163, if the curve model for a certain initial radius of curvature gives the minimum sum of distances, the matching degree comparing means 151 supplies the curve model parameters for the initial radius of curvature to the white line estimating means 17. The white line estimating means 17 performs step 14
In step 4, the intersection line between the spatiotemporal curve model and the current frame is calculated, and this intersection line is set as a white line in the current frame. In step 413, the position and shape of the white line are output, and the operation ends.

【0069】[0069]

【発明の効果】第1の効果は、時系列情報を使った画像
内のノイズに対してロバストな動画像認識を、フレーム
間の対応づけをしないで実現したことにある。
The first effect is that a moving image recognition robust to noise in an image using time-series information is realized without associating frames.

【0070】その理由は、時空間画像内で認識対象物の
特徴点と時空間対象モデルとをマッチングすることによ
って時系列情報を使った認識対象物の認識を実現し、ま
たその際の時空間対象モデルにフレーム間での認識対象
物の微小な動きを組み込むことにより、フレーム間での
特徴点のずれを時空間対象モデルに吸収させつつ特徴点
と時空間対象モデルとのマッチングをすることが出来る
ことにある。
The reason is that the recognition of the recognition object using the time-series information is realized by matching the feature points of the recognition object with the spatio-temporal object model in the spatio-temporal image. By incorporating small movements of the recognition target between frames into the target model, matching between the feature points and the spatio-temporal target model can be performed while absorbing the shift of the feature points between frames into the spatio-temporal target model. What you can do.

【0071】第2の効果は、対象の形状をも認識し得る
動画像認識装置を提供することにある。
A second effect is to provide a moving image recognition device capable of recognizing the shape of an object.

【0072】その理由は、時空間対象モデルが、対象の
各フレームでの形状を組み込むことが出来ることにあ
る。
The reason is that the spatiotemporal object model can incorporate the shape of each object frame.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係わる第1の実施の形態を示す構成図
である。
FIG. 1 is a configuration diagram showing a first embodiment according to the present invention.

【図2】時空間モデルマッチング手段を示す構成図であ
る。
FIG. 2 is a configuration diagram showing a spatiotemporal model matching unit.

【図3】時空間画像および時空間モデルを説明する図で
ある。
FIG. 3 is a diagram illustrating a spatio-temporal image and a spatio-temporal model.

【図4】本発明に係わる第1の実施の形態の動作を示す
フローチャートである。
FIG. 4 is a flowchart showing the operation of the first embodiment according to the present invention.

【図5】世界座標およびカメラ座標を示す図である。FIG. 5 is a diagram showing world coordinates and camera coordinates.

【図6】白線候補点抽出領域設定手段を示す図である。FIG. 6 is a diagram showing a white line candidate point extraction area setting unit.

【図7】左右白線と消失点の関係を示す図である。FIG. 7 is a diagram showing the relationship between left and right white lines and vanishing points.

【図8】白線と自車両との位置関係を示す図である。FIG. 8 is a diagram showing a positional relationship between a white line and a host vehicle.

【図9】白線と自車両との位置関係を示す図である。FIG. 9 is a diagram showing a positional relationship between a white line and a host vehicle.

【図10】地面の勾配を示す図である。FIG. 10 is a diagram showing a gradient of the ground.

【図11】本発明に係わる第2の実施の形態を示す構成
図である。
FIG. 11 is a configuration diagram showing a second embodiment according to the present invention.

【図12】時空間カーブモデルマッチング手段を示す構
成図である。
FIG. 12 is a configuration diagram showing a spatiotemporal curve model matching unit.

【図13】カーブをなす白線と自車両との位置関係を示
す図である。
FIG. 13 is a diagram showing a positional relationship between a white line forming a curve and the host vehicle.

【図14】本発明に係わる第2の実施の形態の動作を示
すフローチャートである。
FIG. 14 is a flowchart showing the operation of the second embodiment according to the present invention.

【図15】本発明に係わる第3の実施の形態を示す構成
図である。
FIG. 15 is a configuration diagram showing a third embodiment according to the present invention.

【図16】本発明に係わる第3の実施の形態の動作を示
すフローチャートである。
FIG. 16 is a flowchart showing the operation of the third embodiment according to the present invention.

【図17】本発明に係わる第4の実施の形態を示す構成
図である。
FIG. 17 is a configuration diagram showing a fourth embodiment according to the present invention.

【図18】本発明に係わる第4の実施の形態の動作を示
すフローチャートである。
FIG. 18 is a flowchart showing the operation of the fourth embodiment according to the present invention.

【図19】従来の発明の構成を示す構成図である。FIG. 19 is a configuration diagram showing a configuration of a conventional invention.

【図20】従来の発明の処理を説明する図である。FIG. 20 is a diagram illustrating a process according to a conventional invention.

【図21】従来の発明の物体認識法を示す図である。FIG. 21 is a diagram showing an object recognition method according to a conventional invention.

【図22】従来の発明の特徴を示す図である。FIG. 22 is a diagram showing features of the conventional invention.

【符号の説明】 11 道路画像入力装置 12 道路画像蓄積装置 13 時空間道路画像生成手段 14 白線候補点抽出領域設定手段 15 白線候補点抽出手段 16 時空間モデルマッチング手段 17 白線推定手段 21 白線候補点モデル間距離計算手段 22 パラメータ更新終了判定手段 23 距離微分値計算手段 24 モデルパラメータ更新手段 31 白線の時空間モデル 32 現フレーム 33 過去のフレーム 51 カメラ焦点 52 地面 53 カメラ焦点距離 71 消失点 72 地平線 73 白線 81 自車両 101 水平線 111 時空間接線モデルマッチング手段 112 時空間カーブモデルマッチング手段 121 カーブモデルパラメータ更新手段 131 走行方向 132 曲率半径 133 白線の接線 151 マッチング度合比較手段 171 第1の白線候補点抽出手段 172 第1の時空間直線モデルマッチング手段 173 初期曲率半径設定手段 191 画像入力手段 192 処理領域設定手段 193 特徴データ抽出手段 194 特徴データ投影手段 195 DTT画像生成手段 196 DTT画像の二値化手段 197 DTT画像からの物体検出手段 201 処理領域 202 物体の移動方向 203 物体 204 方向軸 211 切断平面 212 物体像[Description of Signs] 11 Road image input device 12 Road image storage device 13 Spatio-temporal road image generation means 14 White line candidate point extraction area setting means 15 White line candidate point extraction means 16 Spatio-temporal model matching means 17 White line estimation means 21 White line candidate points Model distance calculation means 22 Parameter update end determination means 23 Distance differential value calculation means 24 Model parameter update means 31 Spatiotemporal model of white line 32 Current frame 33 Past frame 51 Camera focus 52 Ground 53 Camera focal length 71 Vanishing point 72 Horizon 73 White line 81 Own vehicle 101 Horizontal line 111 Spatio-temporal tangent model matching means 112 Spatio-temporal curve model matching means 121 Curve model parameter updating means 131 Running direction 132 Curvature radius 133 Tangent line of white line 151 Matching degree comparing means 171 First White line candidate point extracting means 172 first spatio-temporal linear model matching means 173 initial curvature radius setting means 191 image input means 192 processing area setting means 193 feature data extracting means 194 feature data projecting means 195 DTT image generating means 196 Binarization means 197 Object detection means from DTT image 201 Processing area 202 Object movement direction 203 Object 204 Direction axis 211 Cutting plane 212 Object image

フロントページの続き (51)Int.Cl.7 識別記号 FI H04N 7/18 H04N 7/18 G (58)調査した分野(Int.Cl.7,DB名) G06T 7/20 H04N 7/18 B60R 21/00 JICSTファイル(JOIS)Continuation of the front page (51) Int.Cl. 7 identification symbol FI H04N 7/18 H04N 7/18 G (58) Investigation field (Int.Cl. 7 , DB name) G06T 7/20 H04N 7/18 B60R 21 / 00 JICST file (JOIS)

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】空間画像を時間軸方向に並べることによっ
て時空間画像を生成し、現時点までの時空間画像から抽
出した特徴点と、現フレームまでの認識対象物の位置、
形状及び各フレーム間での認識対象物の微少な動きをモ
デル化した対象物の時空間モデルとをマッチングし、
記特徴点と前記時空間モデルとの距離が最小となるよう
な時空間モデルパラメータ値を修正出力し、前記修正さ
れた時空間モデルパラメータ値により定められる時空間
モデルと現フレームとの交差領域を求めることにより、
対象物の現フレームでの位置及び形状を認識することを
特徴とする動画像認識方法
1. A spatio-temporal image is generated by arranging a spatio-temporal image in a time axis direction, a feature point extracted from the spatio-temporal image up to the present time , a position of a recognition target object up to a current frame,
Shape and matching a spatial model when slight motion modeled objects recognition object between frames, before
The distance between the feature point and the spatiotemporal model is minimized.
And output the modified spatio-temporal model parameter values.
Spatio-temporal model defined by specified spatio-temporal model parameter values
By finding the intersection area between the model and the current frame,
A moving image recognition method comprising recognizing a position and a shape of an object in a current frame .
【請求項2】空間画像を入力しそれらを時間軸方向に並
べることによって時空間画像を生成し出力する時空間画
像生成手段と、前記時空間画像を入力し時空間画像から
特徴点を抽出し出力する特徴点抽出手段と、前記特徴点
を入力し現フレームまでの認識対象物の位置、形状及び
フレーム間での認識対象物の微少な動きをモデル化し
た対象物の時空間モデルとをマッチングし前記特徴点と
前記時空間モデルとの距離が最小となるような時空間モ
デルパラメータ値を修正出力する時空間モデルマッチン
グ手段と、前記修正された時空間モデルパラメータ値に
より定められる時空間モデルと現フレームとの交差領域
として対象物の現フレームでの位置及び形状を認識する
対象物推定手段とを有することを特徴とする動画像認識
装置。
2. A spatio-temporal image generating means for generating and outputting a spatio-temporal image by inputting a spatio-temporal image and arranging them in a time axis direction, and extracting a feature point from the spatio-temporal image by inputting the spatio-temporal image. A feature point extracting means for outputting , and the position, shape and position of the recognition target object up to the current frame after inputting the feature point
Matching the spatio-temporal model of the object modeling the minute movement of the recognition object between each frame and the feature points
A spatio-temporal model that minimizes the distance from the spatio-temporal model
A spatial model matching means when modifying outputting del parameter values, the spatial model parameter values when said corrected
Intersection area of the current frame and the spatiotemporal model defined by
Video recognition apparatus characterized by having a target object estimating means for recognizing the position and shape of the current frame of the object as a.
【請求項3】前記空間画像が車両内から撮影された道路
の空間画像であり、前記認識対象物が道路内の走行レー
ンをあらわす白線であり、前記時空間モデルが現フレー
ムでの白線の位置、形状及び各フレーム間での白線の微
少な動きをモデル化した時空間画像内での時空間白線モ
デルである請求項1に記載の動画像認識方法
3. The spatial image is a spatial image of a road taken from inside a vehicle, the recognition target is a white line representing a driving lane on the road, and the spatiotemporal model is a current frame.
Position and shape of the white line in the
A spatio-temporal white line model in a spatio-temporal image modeling small movements
The moving image recognition method according to claim 1, wherein the moving image is a Dell .
【請求項4】前記空間画像が車両内から撮影された道路
の空間画像であり、前記認識対象物が道路内の走行レー
ンをあらわす白線であり、前記時空間モデルが現フレー
ムでの白線の位置、形状及び各フレーム間での白線の微
少な動きをモデル化した時空 間画像内での時空間白線モ
デルであり、前記特徴点抽出手段が時空間道路画像を入
力し白線上の点と思われる白線候補点を抽出して出力
し、前記時空間モデルマッチング手段が白線候補点を入
力し前記時空間白線モデルとマッチングし時空間白線モ
デルパラメータを出力する請求項2に記載の動画像認識
装置。
4. The spatial image is a spatial image of a road taken from inside a vehicle, the object to be recognized is a white line representing a driving lane in the road, and the spatiotemporal model is a current frame.
Position and shape of the white line in the
Space white mode when the small movements in the modeled space-time image
The feature point extracting means inputs a spatio-temporal road image, extracts and outputs white line candidate points considered to be points on a white line, and the spatio-temporal model matching means inputs a white line candidate point and outputs the spatio-temporal image. Spatio-temporal white line model matching with white line model
The moving image recognition device according to claim 2, wherein the moving image recognition device outputs a Dell parameter .
【請求項5】前記時空間モデルマッチング手段が白線候
補点を入力し、フレーム間での車両の微小な動きおよび
道路勾配の変化を時間に対しての線形関数でモデル化し
た白線の時空間モデルとマッチングしモデルパラメータ
を出力する請求項4に記載の動画像認識装置。
5. A spatio-temporal model of a white line, wherein the spatio-temporal model matching means inputs a white line candidate point, and models a minute movement of a vehicle and a change of a road gradient between frames by a linear function with respect to time. 5. The moving image recognition device according to claim 4, wherein the moving image recognition device outputs the model parameter by matching with the following.
【請求項6】前記時空間モデルマッチング手段が時空間
画像内における白線候補点を入力し、各フレームにおい
白線が直線をなすとして時空間画像内でモデル化した
時空間白線モデルとマッチングし時空間直線モデルパラ
メータを出力する請求項4または5に記載の動画像認識
装置。
6. The spatio-temporal model matching means includes:
Enter the white line candidate points in the image, each frame odor
Modeled in a spatiotemporal image assuming that the white line forms a straight line
The moving image recognition device according to claim 4 or 5, wherein the moving image recognition device outputs a spatiotemporal linear model parameter by matching with the spatiotemporal white line model.
【請求項7】前記時空間モデルマッチング手段が時空間
画像内における白線候補点を入力し、各フレームにおい
白線がカーブをなすとして時空間画像内でモデル化し
時空間白線モデルとマッチングし時空間カーブモデル
パラメータを出力する請求項4または5に記載の動画像
認識装置。
7. The spatio-temporal model matching means includes:
Enter the white line candidate points in the image, each frame odor
The moving image recognition apparatus according to claim 4 or 5, wherein the moving image recognition apparatus outputs a spatiotemporal curve model parameter by matching with a spatiotemporal white line model modeled in the spatiotemporal image assuming that the white line forms a curve.
【請求項8】前記白線候補点を入力し画像下部における
白線の接線の時空間モデルとマッチングし接線モデルパ
ラメータを出力する時空間接線モデルマッチング手段を
備え、前記時空間モデルマッチング手段が白線候補点と
前記接線モデルパラメータを入力し前記白線候補点と白
線がカーブを成すとしてモデル化した白線の時空間モデ
ルとをマッチングしカーブモデルパラメータを出力する
請求項4または5に記載の動画像認識装置。
8. A spatiotemporal tangent model matching means for inputting the white line candidate point, matching the spatiotemporal model of the tangent of the white line at the lower part of the image, and outputting a tangent model parameter, wherein the spatiotemporal model matching means comprises 6. The moving image recognition apparatus according to claim 4, wherein the moving image recognition device outputs the curve model parameters by matching the white line candidate points with the spatiotemporal model of the white line that is modeled as forming a curve.
【請求項9】前記白線候補点を入力し白線が直線を成す
としてモデル化した白線の時空間モデルとマッチングし
直線モデルパラメータを出力する時空間モデルマッチン
グ手段と、前記カーブモデルパラメータと前記直線モデ
ルパラメータを入力し前記2つのモデルパラメータにお
ける白線候補点と時空間モデルとのマッチングの度合を
比較しマッチングの度合の大きい方のモデルパラメータ
を出力するマッチング度合比較手段とを備えた、請求項
7または8に記載の動画像認識装置。
9. A spatio-temporal model matching means for inputting the white line candidate points, matching the spatio-temporal model of the white line modeled as a white line forming a straight line, and outputting a straight line model parameter, and the curve model parameter and the straight line model 8. A matching degree comparing means for inputting a parameter, comparing a matching degree between a white line candidate point and a spatiotemporal model in the two model parameters, and outputting a model parameter having a larger matching degree. 9. The moving image recognition device according to 8.
【請求項10】前記時空間道路画像を入力し前記白線候
補点のうち画像下部にある下部白線候補点を出力する下
部特徴点抽出手段と、前記下部白線候補点を入力し画像
下部における白線の接線の時空間モデルとマッチングし
初期モデルパラメータを出力する初期時空間モデルマッ
チング手段とを備え、前記時空間モデルマッチング手段
が前記白線候補点と前記初期モデルパラメータを入力し
前記初期モデルパラメータを初期値として白線候補点と
白線の時空間モデルとをマッチングしモデルパラメータ
を出力する請求項4、5、6、7、8または9に記載の
動画像認識装置。
10. A lower feature point extracting means for inputting the spatiotemporal road image and outputting a lower white line candidate point at the lower part of the image among the white line candidate points, and inputting the lower white line candidate point to form a white line at a lower part of the image. An initial spatio-temporal model matching means for matching with a tangent spatio-temporal model and outputting initial model parameters, wherein the spatio-temporal model matching means inputs the white line candidate points and the initial model parameters and sets the initial model parameters to initial values. 10. The moving image recognition apparatus according to claim 4, wherein the white line candidate point is matched with a spatiotemporal model of the white line to output model parameters.
JP8179006A 1996-07-09 1996-07-09 Moving image recognition device and moving image recognition method Expired - Fee Related JP3022330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8179006A JP3022330B2 (en) 1996-07-09 1996-07-09 Moving image recognition device and moving image recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8179006A JP3022330B2 (en) 1996-07-09 1996-07-09 Moving image recognition device and moving image recognition method

Publications (2)

Publication Number Publication Date
JPH1027252A JPH1027252A (en) 1998-01-27
JP3022330B2 true JP3022330B2 (en) 2000-03-21

Family

ID=16058474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8179006A Expired - Fee Related JP3022330B2 (en) 1996-07-09 1996-07-09 Moving image recognition device and moving image recognition method

Country Status (1)

Country Link
JP (1) JP3022330B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008500640A (en) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド Graphical object model for detection and tracking

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7804980B2 (en) 2005-08-24 2010-09-28 Denso Corporation Environment recognition device
CN104143089B (en) * 2014-07-28 2017-07-07 东南大学 The critical point detection method based on space-time Energy Decomposition in human action identification

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2765270B2 (en) * 1991-05-29 1998-06-11 日本電気株式会社 Video presentation method
JPH07334690A (en) * 1994-06-14 1995-12-22 Nec Corp Tracking method for contour of object
JP3424334B2 (en) * 1994-06-21 2003-07-07 日産自動車株式会社 Roadway detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008500640A (en) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド Graphical object model for detection and tracking

Also Published As

Publication number Publication date
JPH1027252A (en) 1998-01-27

Similar Documents

Publication Publication Date Title
US10049277B2 (en) Method and apparatus for tracking object, and method and apparatus for calculating object pose information
US7308112B2 (en) Sign based human-machine interaction
US6301370B1 (en) Face recognition from video images
Nedevschi et al. Stereo-based pedestrian detection for collision-avoidance applications
US7058205B2 (en) Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
EP2061008B1 (en) Method and device for continuous figure-ground segmentation in images from dynamic visual scenes
JP2915894B2 (en) Target tracking method and device
US7149327B2 (en) Image processing apparatus and method
EP2192549A1 (en) Target tracking device and target tracking method
US20050031166A1 (en) Visual tracking using depth data
JP2016029557A (en) Three-dimensional object detector, three-dimensional object detection method, three-dimensional object detection program, and movable body apparatus control system
CN101147159A (en) Fast method of object detection by statistical template matching
US10460472B2 (en) System and method for model adaptation
CN111209770A (en) Lane line identification method and device
Smith ASSET-2: Real-time motion segmentation and object tracking
JP5048609B2 (en) Object tracking device and program
JP3538476B2 (en) Recognition device for vehicle lane markings
EP1580684B1 (en) Face recognition from video images
JP3022330B2 (en) Moving image recognition device and moving image recognition method
KR101350387B1 (en) Method for detecting hand using depth information and apparatus thereof
JPH06138137A (en) Moving-object extraction apparatus
CN111862147A (en) Method for tracking multiple vehicles and multiple human targets in video
Gallego et al. Joint multi-view foreground segmentation and 3d reconstruction with tolerance loop
US20230021591A1 (en) Model generation method, model generation apparatus, non-transitory storage medium, mobile object posture estimation method, and mobile object posture estimation apparatus
JP2000132692A (en) Method for extracting feature point of curve and recording medium recording the method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19991214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100114

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees