JPH1027252A - 動画像認識装置 - Google Patents

動画像認識装置

Info

Publication number
JPH1027252A
JPH1027252A JP8179006A JP17900696A JPH1027252A JP H1027252 A JPH1027252 A JP H1027252A JP 8179006 A JP8179006 A JP 8179006A JP 17900696 A JP17900696 A JP 17900696A JP H1027252 A JPH1027252 A JP H1027252A
Authority
JP
Japan
Prior art keywords
white line
model
spatio
temporal
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8179006A
Other languages
English (en)
Other versions
JP3022330B2 (ja
Inventor
Kazuyuki Sakurai
和之 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP8179006A priority Critical patent/JP3022330B2/ja
Publication of JPH1027252A publication Critical patent/JPH1027252A/ja
Application granted granted Critical
Publication of JP3022330B2 publication Critical patent/JP3022330B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 時系列情報を使ったノイズにロバストな動画
像認識を、フレーム間の対応づけをしないで実現するこ
とである。また、対象の位置だけでなく、形状の認識を
も実現することである。 【解決手段】 11より入力された画像は12に一定期
間蓄積される。13において、蓄積された画像を時系列
に並べて時空間道路画像を生成する。14において処理
領域を設定し、15によって時空間道路画像から白線候
補点を抽出する。16によって、道路上の走行レーンを
表す白線の、フレーム間の微小な動きを考慮した時空間
白線モデルと白線候補点とをマッチングする。マッチン
グの残差が閾値以内なら、17によって時空間白線モデ
ルと現フレームとの交差領域を計算し、これを現フレー
ムにおける白線の推定として位置、形状の推定値を出力
する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は動画像認識装置に関
し、特に画像中のノイズに対してロバストな動画像認識
装置に関する。
【0002】
【従来の技術】従来、この種の動画像認識装置は画像中
に含まれる雑音に対してロバストな認識を実現するため
に、たとえば特開平03−292574号公報に記載さ
れているように、時系列として撮影された画像を画素対
応で加算することによって画像データ中の雑音の影響を
抑えていた。また、同じく画像の時系列を利用する方法
として、たとえば、電子情報通信学会論文誌、1994
年、Vol.J77−D−II、No.10、pp.2
019−2026に示されているような、DDT法と呼
ばれる手法が用いられている。
【0003】図19、図20、図21および図22を参
照して、DTT法の動作について説明する。
【0004】図19を参照すると、この文献に記載の動
画像認識装置は、CCDカメラ等の画像入力装置191
と、画像内の処理領域を設定する処理領域設定手段19
2と、画像内の処理領域から物体の特徴データを抽出す
る特徴データ抽出手段193と、特徴データを物体の方
向軸に投影し一次元データを得る特徴データ投影手段1
94と、一次元データを時系列方向に並べてDTT画像
を生成するDTT画像生成手段195と、DTT画像を
2値化するDTT画像の2値化手段196と、2値化さ
れたDTT画像から物体像を検出するDTT画像からの
物体検出手段197とを含む。
【0005】画像入力装置191から与えられた単フレ
ーム画像は処理領域設定手段192に供給される。処理
領域設定手段192は、図20に示すように物体の移動
範囲をカバーするような処理領域201を画像中に設定
する。処理領域201が設定された画像は特徴データ抽
出手段193に供給され、特徴データ抽出手段193は
設定された処理領域201から、検出すべき物体203
に関する特徴データを抽出する。特徴データは特徴デー
タ投影手段194に供給され、特徴データ投影手段19
4は図20に示すように特徴データを物体の移動方向2
02にほぼ平行な方向軸204に投影し、1次元データ
を生成する。各時刻における上記1次元データはDTT
画像生成手段195に供給され、DTT画像生成手段1
95は上記1次元データを時系列に並べることにより、
図21に示されるような方向軸−時間軸からなる2次元
画像(DTT画像)を生成する。DTT画像はDTT画
像の2値化手段196に供給され、DTT画像の2値化
手段196は供給されたDTT画像を2値化する。2値
化されたDTT画像はDTT画像からの物体検出手段1
97に供給され、DTT画像からの物体検出手段197
は供給された2値化DTT画像から一様な領域を検出
し、1つの物体を表す像として出力する。
【0006】DTT法は図22のように、過去から現在
の各フレーム32、33を時系列方向に並べた時空間画
像において、ある切断平面211を考え、その断面を解
析することによって、物体203の移動の様子を認識し
ている。
【0007】
【発明が解決しようとする課題】従来の、画像を画像対
応で加算する動画像処理装置においては、フレーム間で
の微小な動きのために、認識対象物の同一特徴を表す特
徴点がフレーム間で異なる位置にずれてしまうために特
徴点がうまく重ね合わなくなってしまい、このままでは
画像中に含まれる雑音と特徴点との区別がつきづらくな
ってしまう。従ってこの場合、同一特徴を表す特徴点を
フレーム間で対応づける必要があるが、フレーム間の対
応づけ問題は本質的に困難な問題であり、認識装置の精
度、信頼性の悪化、認識速度の低下を招く、という問題
点があった。
【0008】一方、前記DDT法のような時空間画像を
用いた動画像認識装置は、上記のフレーム間の対応づけ
を行わずに動画像中の認識対象を認識するものである
が、この動画像認識装置は元々が物体の大局的な移動の
情報を得るためのものであり、認識対象の形状を認識す
ることは出来ない。
【0009】本発明の目的は、上記課題を解決し、時空
間画像を用いてフレーム間の対応づけをすること無しに
時系列情報を利用することにより、画像中のノイズに対
してロバストであり、また認識対象の形状をも認識し得
る動画像認識装置を提供することにある。
【0010】
【課題を解決するための手段】空間画像を入力してそれ
らを時間軸方向に並べることによって時空間画像を生成
し出力する時空間画像生成手段と、前記時空間画像を入
力し時空間画像から特徴点を抽出し出力する特徴点抽出
手段と、前記特徴点を入力しフレーム間での認識対象物
の微小な動きをモデル化した対象物の時空間モデルとマ
ッチングしモデルパラメータを出力する時空間モデルマ
ッチング手段と、前記時空間モデルパラメータを入力し
時空間モデルと現フレームとの交差領域として現在の対
象物を推定する対象推定手段とを備えたことを特徴とす
るものである。
【0011】本発明の前記手段によれば、時空間モデル
マッチング手段において認識対象物の時空間モデルはフ
レーム間での認識対象物の微小な動きをモデル化したも
のであるので、この時空間対象モデルを直接認識対象物
の特徴点にマッチングさせてフレーム間での認識対象物
の微小な動きをモデルに吸収させることにより、フレー
ム間での特徴点の対応づけをすることなしに時系列情報
を使った動画像認識を実現することが出来る。
【0012】また本発明の前記手段によれば、認識対象
物の上記時空間モデルに各フレームにおける認識対象物
の形状を組み込むことによって、認識対象物の形状を認
識することが出来る。
【0013】
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。
【0014】図1は本発明の第1の実施の形態の構成を
示すブロック図である。この第1の実施の形態は自動車
に取り付けたカメラから道路画像を取り込み、その画像
から走行レーンを表す白線の画像中での位置および形状
を推定するものである。ここでは、白線が直線をなす場
合を考えている。
【0015】図1を参照すると、本発明の第1の実施の
形態は、CCDカメラ等の道路画像入力装置11と、一
定期間内に入力された道路画像データを1フレーム単位
で蓄積する道路画像蓄積装置12と、一定期間内に入力
された道路画像を時系列に沿って並べて時空間道路画像
を生成する時空間道路画像生成手段13と、時空間道路
画像において前時刻での白線位置推定結果を基に白線の
候補点を抽出する領域を設定する白線候補点抽出領域設
定手段14と、時空間道路画像から白線の候補点を抽出
する白線候補点抽出手段15と、白線候補点と白線の時
空間モデルとをマッチングする時空間モデルマッチング
手段16と、現フレーム内での白線の位置および形状を
白線の時空間モデルと現フレームとの交線として推定す
る白線推定手段17とを含む。
【0016】時空間モデルマッチング手段16は図2を
参照すると、各白線候補点と時空間モデルとの距離の総
和を計算する白線候補点モデル間距離計算手段21と、
白線候補点モデル間距離を基にモデルパラメータ更新を
終了するか否かを判定するパラメータ更新終了判定手段
22と、白線候補点モデル間距離のモデルパラメータに
ついての1次微分、2次微分値を計算する距離微分値計
算手段23と、距離の微分値を基にNewton法等の
反復法によってモデルパラメータを更新するモデルパラ
メータ更新手段24とを含む。
【0017】次に、図4を参照して第1の実施の形態の
動作について詳細に説明する。
【0018】まず、ここでの世界座標およびカメラ座標
を図5のように定める。
【0019】道路画像入力装置11から与えられた道路
画像データは、道路画像蓄積装置12に供給される。道
路画像蓄積装置12は、この道路画像データを時刻情報
と共に一定期間蓄積する(ステップ401および40
2)。道路画像蓄積装置12は現フレームを含む、一定
期間の道路画像Nフレーム(Nは予め定めた数)を時空
間道路画像生成手段13に供給する。時空間道路画像生
成手段13はこの道路画像Nフレームを時系列に並べ
て、図3にあるような3次元的な時空間道路画像を生成
する(ステップ403)。時空間道路画像生成手段13
はこの時空間道路画像を白線候補点抽出領域設定手段1
4に供給する。白線候補点抽出領域設定手段14はこの
時空間道路画像内に、前時刻に推定された白線位置を中
心とした処理領域を設定する(ステップ404)。
【0020】ただし、道路画像内では、画像上部、すな
わち図6でいうならば−z方向にいくほど、対応する3
次元実空間領域は狭くなるので、処理領域も画像上部に
いくにつれて狭くしていくのが自然である。つまり、各
フレームのサイズをM×N、時空間白線モデルをz=f
(x,t)、画像最下部での処理領域幅をWproc low
白線の各時刻tでの消失点のz座標をZvan (t)とす
ると、各z座標での処理領域幅Wproc(z,t)を、図
6に見られるように、
【0021】
【数1】
【0022】とする。
【0023】白線候補点抽出領域設定手段14は、処理
領域が設定された時空間道路画像を白線候補点抽出手段
15に供給する。白線候補点抽出手段15は、時空間道
路画像の処理領域から白線上の点と思われる白線候補点
を抽出する(ステップ405)。この際、白線候補点が
処理領域内に存在しなければ、白線の推定は不可能とし
て動作を終了する。白線候補点が存在すれば、その座標
値が時空間モデルマッチング手段16に供給される(ス
テップ406)。
【0024】ここで、時空間白線モデルについて説明す
る。画像上の白線は、自車両が図8のように白線に対し
て完全に平行な方向にしか走行していない場合は、各フ
レームで同一位置、同一形状をなし、従って、時空間道
路画像内では平面をなす。ところが、実際には自車両は
走行中に図9のように横ズレや走行方向の変化を起こ
し、また図10のように道路の勾配も変化する。従って
時空間道路画像内では白線は平面ではなくある曲面をな
す。そこで本実施の形態では、2次元画像上での白線の
消失点のx座標、z座標、および白線の傾きが時刻tに
対して線形に変化するとし、時空間白線モデルを、a、
b、c、d、e、fをモデルパラメータとして x−(e+ft)+(a+bt)z−(a+bt)(c+dt)=0 (2) で表される曲面として定義する。また、上記モデルが自
車両の右側にある白線の時空間モデルとすると、左側の
白線については、図7のように消失点は右側の白線と共
通であり、また傾きの時間変化も共通であるので、左側
の時空間白線モデルは、gを新たなモデルパラメータと
して x−(e+ft)+(g+bt)z−(g+bt)(c+dt)=0 (3) と定義される。よって、左右の時空間白線モデルを x−(e+ft)+(a+bt)z−(a+bt)(c+dt)=0 x−(e+ft)+(g+bt)z−(g+bt)(c+dt)=0 (4) として定義する。
【0025】時空間モデルマッチング手段16は、ま
ず、前時刻に推定されたモデルパラメータを初期パラメ
ータとして、時空間白線モデルにセットする(ステップ
407)。次にステップ408において、パラメータの
セットされた時空間白線モデル(式(4))と、各白線
候補点(xi ,zi ,ti )との距離を次式(5)とし
て計算する。
【0026】
【数2】
【0027】ステップ409において各白線候補点毎に
計算した上記距離の総和を次式(6)のように計算す
る。
【0028】
【数3】
【0029】以下、式(6)の距離総和を最小にするよ
うなモデルパラメータを計算して最適なモデルパラメー
タとし、時空間白線モデルと現フレームとの交線を計算
しその交線を現フレームでの白線として白線の位置、形
状を出力して動作を終える。具体的には、例えば以下の
ような方法をとることが出来る。
【0030】上記ステップ409において上記距離の1
次、2次微分値の重みつきの総和を次式(7)、(8)
のように計算する。
【0031】
【数4】
【0032】この重みwleft,wright は、左右各々の
白線についての総和を計算した際に、左右各々について
白線候補点の数Nleft,Nright に反比例した重みをか
けてから、左右の和をとるものである。すなわち上記重
みwleft,wright は予め定めた定数をvとして次式
(9)のように表される。
【0033】
【数5】
【0034】このような重みをつけることによって、ノ
イズによって左右の処理領域のどちらかにおいて極端に
白線候補点の数が少なくなってしまった際に、もう一方
の白線の方にモデルが引き寄せられすぎるのを防ぐこと
ができる。
【0035】距離の総和はステップ410で、予め定め
ておいた閾値と比較され、距離の総和が閾値以下だった
ら、時空間白線モデルは時空間道路画像内の白線像と充
分に近いと判断し、時空間白線モデルと現フレームとの
交線を計算し、その交線を現フレームでの白線として、
白線の位置、形状を出力して動作を終える(ステップ4
12および413)。
【0036】距離の総和が閾値より大きければステップ
411に進み、ステップ411においてステップ409
で計算した距離の1次、2次微分の総和からNewto
n法により時空間道路モデルパラメータを更新し、ステ
ップ408へと戻る。以下、距離の総和が閾値以下にな
るか、もしくはループ回数が予め定めた回数を越えるま
で、ループを繰り返す。
【0037】ループ回数が予め定めた回数を越えた場合
は、それまでの各ループにおいて、距離の総和が最小で
あるようなループにおける時空間モデルパラメータを最
適なモデルパラメータとして、時空間白線モデルと現フ
レームとの交線を計算し、その交線を現フレームでの白
線として、白線の位置、形状を出力して動作を終える。
【0038】次に、本発明の第2の実施の形態につい
て、図面を参照して詳細に説明する。本実施の形態は、
白線がカーブをなす場合を考えている。
【0039】図11を参照すると、本発明の第2の実施
の形態は、CCDカメラ等の道路画像入力装置11と、
一定期間内に入力された道路画像データを1フレーム単
位で蓄積する道路画像蓄積装置12と、一定期間内に入
力された道路画像を時系列に沿って並べて時空間道路画
像を生成する時空間道路画像生成手段13と、時空間道
路画像において前時刻での白線位置推定結果を基に白線
の候補点を抽出する領域を設定する白線候補点抽出領域
設定手段14と、時空間道路画像から白線の候補点を抽
出する白線候補点抽出手段15と、白線候補点と白線カ
ーブの画像下部での接線の時空間モデルとをマッチング
する時空間接線モデルマッチング手段111と、白線候
補点と時空間カーブモデルとをマッチングする時空間カ
ーブモデルマッチング手段112と、白線の現フレーム
内での白線の位置および形状を推定する白線推定手段1
7とを含む。
【0040】時空間カーブモデルマッチング手段112
は図12を参照すると、各白線候補点と時空間カーブモ
デルとの距離の総和を計算する白線候補点モデル間距離
計算手段21と、白線候補点モデル間距離を基にカーブ
モデルパラメータ更新を終了するか否かを判定するパラ
メータ更新終了判定手段22と、白線候補点モデル間距
離のカーブモデルパラメータについての1次微分、2次
微分値を計算する距離微分値計算手段23と、上記距離
の微分値を基にNewton法等の反復法によってカー
ブモデルパラメータを更新するカーブモデルパラメータ
更新手段121とを含む。
【0041】次に、図14を参照して第2の実施の形態
の動作について詳細に説明する。
【0042】白線がカーブをなす場合、時空間白線モデ
ルのパラメータ数が多くなるので、まず、画像最下部、
すなわち自車両付近における白線カーブの接線133に
ついての時空間接線モデルを用いて白線の位置を求め、
次に時空間カーブモデルを使いカーブの曲率半径132
を求める(図13)。ここで時空間接線モデルは白線の
直線部の時空間モデルだから、第1の実施の形態と同様
に x=(e+ft)+(a+bt)z−(a+bt)(c+dt)≡fr (z, t) x=(e+ft)+(g+bt)z−(g+bt)(c+dt)≡fl (z, t) (10) と定義される。このとき、白線カーブの時空間モデル
を、曲率半径に関連した新たなパラメータをmとして、
【0043】
【数6】
【0044】と定義する。このように、時空間白線モデ
ルのマッチングを2段階に分けることによって、各マッ
チング段階でのパラメータ空間の次元を小さくし、マッ
チングの簡単化、安定化、高速化を計ることが出来る。
【0045】第2の実施の形態では、第1の実施の形態
と同様に白線候補点を抽出し、白線候補点が存在すれ
ば、前時刻に推定された時空間白線モデルパラメータを
初期値として時空間白線モデルにセットし(ステップ4
07)、白線候補点の座標が時空間接線モデルマッチン
グ手段111に供給される。時空間接線モデルマッチン
グ手段111は、時空間接線モデルと画像下部の白線候
補点をマッチングすることにより、前記m以外のモデル
パラメータを推定し、時空間カーブモデルマッチング手
段112に供給する。
【0046】時空間カーブモデルマッチング手段112
はステップ142において、ステップ141において推
定されたm以外のパラメータ、およびmの初期値がセッ
トされた時空間カーブモデル(式(11))と、各白線
候補点(xi ,zi ,ti )との距離を式(12)とし
て計算する。
【0047】
【数7】
【0048】ステップ409において各白線候補点毎に
計算した上記距離の総和を次式(13)のように計算す
る。
【0049】
【数8】
【0050】以下、式(13)の距離総和を最小にする
ようなモデルパラメータを計算して最適なモデルパラメ
ータとし、時空間白線モデルと現フレームとの交線を計
算しその交線を現フレームでの白線として白線の位置、
形状を出力して動作を終える。具体的には、例えば以下
のような方法をとることが出来る。
【0051】上記ステップ409において上記距離の1
次、2次微分値の重みつきの総和を次式(14)、(1
5)のように計算する。
【0052】
【数9】
【0053】式(14)、(15)で総和をとる際の重
みwleft,wright は第1の実施の形態と同一のもので
ある。距離の総和はステップ410で予め定めておいた
閾値と比較され、距離の総和が閾値以下だったら、時空
間カーブモデルは時空間道路画像内の白線像と充分に近
いと判断し、時空間カーブモデルマッチング手段112
はカーブモデルパラメータを白線推定手段17に供給す
る。白線推定手段17は時空間カーブモデルと現フレー
ムとの交線を計算し、その交線を現フレームでの白線と
して、白線の位置、形状を出力して(ステップ413)
動作を終える。
【0054】距離の総和が閾値より大きければステップ
143に進み、ステップ143においてステップ409
で計算した距離の1次、2次微分の総和からNewto
n法によりmを更新し、ステップ142へと戻る。以
下、距離の総和が閾値以下になるか、もしくはループ回
数が予め定めた回数を越えるまで、ループを繰り返す。
【0055】ループ回数が予め定めた回数を越えた場合
は、それまでの各ループにおいて、距離の総和が最小で
あるようなループにおけるmを最適なパラメータとし
て、時空間カーブモデルマッチング手段112が白線推
定手段17に供給する。白線推定手段17は時空間白線
モデルと現フレームとの交線を計算し、その交線を現フ
レームでの白線として白線の位置、形状を出力して(ス
テップ413)動作を終える。
【0056】次に、本発明の第3の実施の形態につい
て、図面を参照して詳細に説明する。本実施の形態は、
白線がカーブをなすか、直線をなすか分からない場合を
考えている。
【0057】図15を参照すると、本発明の第3の実施
の形態は、CCDカメラ等の道路画像入力装置11と、
一定期間内に入力された道路画像データを1フレーム単
位で蓄積する道路画像蓄積装置12と、一定期間内に入
力された道路画像から時空間道路画像を生成する時空間
道路画像生成手段13と、時空間道路画像において白線
の候補点を抽出する領域を設定する白線候補点抽出領域
設定手段14と、時空間道路画像から白線の候補点を抽
出する白線候補点抽出手段15と、白線候補点と時空間
直線モデルとをマッチングする時空間直線モデルマッチ
ング手段16と、白線候補点とカーブの時空間接線モデ
ルとをマッチングする時空間接線モデルマッチング手段
111と、白線候補点と時空間カーブモデルとをマッチ
ングする時空間カーブモデルマッチング手段112と、
上記2つの時空間モデルマッチング手段におけるマッチ
ングの度合を比較して道路の形状を決定するマッチング
度合比較手段151と、白線の2次元画像内での白線の
位置および形状を推定する白線推定手段17とを含む。
【0058】次に、図16を参照して第3の実施の形態
の動作について詳細に説明する。
【0059】白線候補点を抽出するステップ405まで
は、第1、第2の実施の形態と同じである。ステップ4
07において、時空間直線モデル、時空間カーブモデル
に前時刻推定されたモデルパラメータを初期値としてセ
ットする。次に、時空間直線モデルマッチング手段16
において、白線候補点と時空間直線モデルとをマッチン
グし(ステップ161)、直線モデルパラメータおよび
時空間直線モデルと白線候補点との距離の総和をマッチ
ング度合比較手段151に供給する。次に、時空間接線
モデルマッチング手段111において画像下部の白線候
補点とカーブの時空間接線モデルとをマッチングし(ス
テップ141)、接線モデルパラメータを時空間カーブ
モデルマッチング手段112に供給する。時空間カーブ
モデルマッチング手段112は白線候補点と時空間カー
ブモデルとをマッチングし(ステップ162)、カーブ
モデルパラメータおよび時空間カーブモデルと白線候補
点との距離の総和をマッチング度合比較手段151に供
給する。マッチング度合比較手段151において、時空
間直線モデルマッチング手段16、時空間カーブモデル
マッチング手段112双方から供給された時空間モデル
と白線候補点との距離の総和をマッチングの度合を表す
データとして比較する(ステップ163)。ここで、直
線モデルについての距離の総和がカーブモデルの距離の
総和以下であれば、マッチング度合比較手段151は直
線モデルパラメータを白線推定手段17に供給する。白
線推定手段17はステップ412において時空間直線モ
デルと現フレームとの交線を計算し、この交線を現フレ
ームでの白線として、ステップ413において白線の位
置、形状を出力して動作を終了する。
【0060】また、ステップ163において、カーブモ
デルについての距離の総和の方が小さければ、マッチン
グ度合比較手段151はカーブモデルパラメータを白線
推定手段17に供給する。白線推定手段17はステップ
144において時空間カーブモデルと現フレームとの交
線を計算し、この交線を現フレームでの白線として、ス
テップ413において白線の位置、形状を出力して動作
を終了する。
【0061】次に本発明の第4の実施の形態について、
図面を参照して詳細に説明する。本実施の形態は、モデ
ルパラメータの初期値が与えられていない場合を考えて
いる。
【0062】図17を参照すると、本発明の第4の実施
の形態は、CCDカメラ等の道路画像入力装置11と、
一定期間内に入力された道路画像データを1フレーム単
位で蓄積する道路画像蓄積装置12と、一定期間内に入
力された道路画像から時空間道路画像を生成する時空間
道路画像生成手段13と、時空間道路画像の下部におい
て処理領域を規定せずに白線の候補点を抽出する第1の
白線候補点抽出手段171と、時空間道路画像下部にお
いて白線候補点と時空間直線モデルとを予め定められた
初期モデルパラメータを基にマッチングする第1の時空
間直線モデルマッチング手段172と、時空間道路画像
において白線の候補点を抽出する領域を設定する白線候
補点抽出領域設定手段14と、時空間道路画像の白線候
補点抽出領域から白線の候補点を抽出する白線候補点抽
出手段15と、白線候補点と時空間直線モデルとを第1
の時空間直線モデルマッチング手段172において計算
されたモデルパラメータを初期モデルパラメータとして
マッチングする第2の時空間直線モデルマッチング手段
16と、白線候補点とカーブの時空間接線モデルとをマ
ッチングする時空間接線モデルマッチング手段111
と、予め適当に決められた複数の曲率半径を初期曲率半
径として出力する初期曲率半径設定手段173と、白線
候補点と時空間カーブモデルとを時空間接続モデルマッ
チング手段111で計算されたモデルパラメータおよび
初期曲率半径設定手段173により供給される初期曲率
半径を初期モデルパラメータとしてマッチングする時空
間カーブモデルマッチング手段112と、上記2つの時
空間モデルマッチング手段におけるマッチングの度合を
比較して道路の形状を決定するマッチング度合比較手段
151と、白線の2次元画像内での白線の位置および形
状を推定する白線推定手段17とを含む。
【0063】以下、本発明の第3の実施の形態と同じ構
成である。
【0064】次に、図18を参照して第4の実施の形態
の動作について詳細に説明する。第1、第2、第3の実
施の形態と同様にステップ403までで、時空間道路画
像を生成する。次に、適当に予め定めた時空間画像の下
部領域全域から、白線候補点を抽出し(ステップ18
1)、ステップ182において、この白線候補点と時空
間直線モデルとをマッチングする。ただし、このマッチ
ングにおける初期パラメータは第1、第2、第3の実施
例と違い、予め定めた値を用いる。このステップで計算
した時空間モデルパラメータを、以下のステップにおい
て初期モデルパラメータとして用いる。
【0065】時空間直線モデルについては、上記のよう
に初期モデルパラメータが得られたので、以下、第3の
実施の形態と同様に白線候補点とのマッチングを行い、
計算された直線モデルパラメータおよび時空間直線モデ
ルと白線候補点との距離の総和をマッチング度合比較手
段151に供給する。
【0066】時空間カーブモデルについては、初期曲率
半径設定手段173において予め複数の初期曲率半径を
用意しておき、上記初期モデルパラメータを基に、各初
期曲率半径についてそれぞれ処理領域の設定、白線候補
点の抽出および白線候補点と時空間カーブモデルとのマ
ッチングを行い、各初期曲率半径に対するカーブモデル
パラメータおよび時空間カーブモデルと白線候補点との
距離の総和をマッチング度合比較手段151に供給する
(ステップ184および185、162)。
【0067】マッチング度合比較手段151において、
時空間直線モデルマッチング手段16、時空間カーブモ
デルマッチング手段112双方から供給された時空間モ
デルと白線候補点との距離の総和をマッチングの度合を
表すデータとして比較する(ステップ163)。ここ
で、直線モデルについての距離の総和が各初期曲率半径
に対するカーブモデルについての距離の総和のすべて以
下であれば、マッチング度合比較手段151は直線モデ
ルパラメータを白線推定手段17に供給する。白線推定
手段17はステップ412において時空間直線モデルと
現フレームとの交線を計算し、この交線を現フレームで
の白線として、ステップ413において白線の位置、形
状を出力して動作を終了する。
【0068】またステップ163において、ある初期曲
率半径に対するカーブモデルが最小の距離の総和を与え
るのであれば、マッチング度合比較手段151はその初
期曲率半径に対するカーブモデルパラメータを白線推定
手段17に供給する。白線推定手段17はステップ14
4において時空間カーブモデルと現フレームとの交線を
計算し、この交線を現フレームでの白線として、ステッ
プ413において白線の位置、形状を出力して動作を終
了する。
【0069】
【発明の効果】第1の効果は、時系列情報を使った画像
内のノイズに対してロバストな動画像認識を、フレーム
間の対応づけをしないで実現したことにある。
【0070】その理由は、時空間画像内で認識対象物の
特徴点と時空間対象モデルとをマッチングすることによ
って時系列情報を使った認識対象物の認識を実現し、ま
たその際の時空間対象モデルにフレーム間での認識対象
物の微小な動きを組み込むことにより、フレーム間での
特徴点のずれを時空間対象モデルに吸収させつつ特徴点
と時空間対象モデルとのマッチングをすることが出来る
ことにある。
【0071】第2の効果は、対象の形状をも認識し得る
動画像認識装置を提供することにある。
【0072】その理由は、時空間対象モデルが、対象の
各フレームでの形状を組み込むことが出来ることにあ
る。
【図面の簡単な説明】
【図1】本発明に係わる第1の実施の形態を示す構成図
である。
【図2】時空間モデルマッチング手段を示す構成図であ
る。
【図3】時空間画像および時空間モデルを説明する図で
ある。
【図4】本発明に係わる第1の実施の形態の動作を示す
フローチャートである。
【図5】世界座標およびカメラ座標を示す図である。
【図6】白線候補点抽出領域設定手段を示す図である。
【図7】左右白線と消失点の関係を示す図である。
【図8】白線と自車両との位置関係を示す図である。
【図9】白線と自車両との位置関係を示す図である。
【図10】地面の勾配を示す図である。
【図11】本発明に係わる第2の実施の形態を示す構成
図である。
【図12】時空間カーブモデルマッチング手段を示す構
成図である。
【図13】カーブをなす白線と自車両との位置関係を示
す図である。
【図14】本発明に係わる第2の実施の形態の動作を示
すフローチャートである。
【図15】本発明に係わる第3の実施の形態を示す構成
図である。
【図16】本発明に係わる第3の実施の形態の動作を示
すフローチャートである。
【図17】本発明に係わる第4の実施の形態を示す構成
図である。
【図18】本発明に係わる第4の実施の形態の動作を示
すフローチャートである。
【図19】従来の発明の構成を示す構成図である。
【図20】従来の発明の処理を説明する図である。
【図21】従来の発明の物体認識法を示す図である。
【図22】従来の発明の特徴を示す図である。
【符号の説明】
11 道路画像入力装置 12 道路画像蓄積装置 13 時空間道路画像生成手段 14 白線候補点抽出領域設定手段 15 白線候補点抽出手段 16 時空間モデルマッチング手段 17 白線推定手段 21 白線候補点モデル間距離計算手段 22 パラメータ更新終了判定手段 23 距離微分値計算手段 24 モデルパラメータ更新手段 31 白線の時空間モデル 32 現フレーム 33 過去のフレーム 51 カメラ焦点 52 地面 53 カメラ焦点距離 71 消失点 72 地平線 73 白線 81 自車両 101 水平線 111 時空間接線モデルマッチング手段 112 時空間カーブモデルマッチング手段 121 カーブモデルパラメータ更新手段 131 走行方向 132 曲率半径 133 白線の接線 151 マッチング度合比較手段 171 第1の白線候補点抽出手段 172 第1の時空間直線モデルマッチング手段 173 初期曲率半径設定手段 191 画像入力手段 192 処理領域設定手段 193 特徴データ抽出手段 194 特徴データ投影手段 195 DTT画像生成手段 196 DTT画像の二値化手段 197 DTT画像からの物体検出手段 201 処理領域 202 物体の移動方向 203 物体 204 方向軸 211 切断平面 212 物体像

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】空間画像を時間軸方向に並べることによっ
    て時空間画像を生成し、時空間画像から抽出した特徴点
    とフレーム間での認識対象物の微小な動きをモデル化し
    た対象物の時空間モデルとをマッチングすることによ
    り、対象物を認識することを特徴とする動画像認識装
    置。
  2. 【請求項2】空間画像を入力しそれらを時間軸方向に並
    べることによって時空間画像を生成し出力する時空間画
    像生成手段と、前記時空間画像を入力し時空間画像から
    特徴点を抽出し出力する特徴点抽出手段と、前記特徴点
    を入力しフレーム間での認識対象物の微小な動きをモデ
    ル化した対象物の時空間モデルとマッチングしモデルパ
    ラメータを出力する時空間モデルマッチング手段と、前
    記時空間モデルパラメータを入力し時空間モデルと現フ
    レームとの交差領域として現在の対象物を推定する対象
    推定手段とを有することを特徴とする動画像認識装置。
  3. 【請求項3】前記空間画像が車両内から撮影された道路
    の空間画像であり、前記認識対象物が道路内の走行レー
    ンを表す白線である請求項1に記載の動画像認識装置。
  4. 【請求項4】前記空間画像が車両内から撮影された道路
    の空間画像であり、前記認識対象物が道路内の走行レー
    ンを表す白線であり、前記特徴点抽出手段が時空間道路
    画像を入力し白線上の点と思われる白線候補点を抽出し
    て出力し、前記時空間モデルマッチング手段が白線候補
    点を入力しフレーム間での車両の微小な動きをモデル化
    した白線の時空間モデルとマッチングしモデルパラメー
    タを出力する請求項2に記載の動画像認識装置。
  5. 【請求項5】前記時空間モデルマッチング手段が白線候
    補点を入力し、フレーム間での車両の微小な動きおよび
    道路勾配の変化を時間に対しての線形関数でモデル化し
    た白線の時空間モデルとマッチングしモデルパラメータ
    を出力する請求項4に記載の動画像認識装置。
  6. 【請求項6】前記時空間モデルマッチング手段が白線候
    補点を入力し、白線が直線を成すとしてモデル化した白
    線の時空間モデルとマッチングし直線モデルパラメータ
    を出力する請求項4または5に記載の動画像認識装置。
  7. 【請求項7】前記時空間モデルマッチング手段が白線候
    補点を入力し、白線がカーブを成すとしてモデル化した
    白線の時空間モデルとマッチングしカーブモデルパラメ
    ータを出力する請求項4または5に記載の動画像認識装
    置。
  8. 【請求項8】前記白線候補点を入力し画像下部における
    白線の接線の時空間モデルとマッチングし接線モデルパ
    ラメータを出力する時空間接線モデルマッチング手段を
    備え、前記時空間モデルマッチング手段が白線候補点と
    前記接線モデルパラメータを入力し前記白線候補点と白
    線がカーブを成すとしてモデル化した白線の時空間モデ
    ルとをマッチングしカーブモデルパラメータを出力する
    請求項4または5に記載の動画像認識装置。
  9. 【請求項9】前記白線候補点を入力し白線が直線を成す
    としてモデル化した白線の時空間モデルとマッチングし
    直線モデルパラメータを出力する時空間モデルマッチン
    グ手段と、前記カーブモデルパラメータと前記直線モデ
    ルパラメータを入力し前記2つのモデルパラメータにお
    ける白線候補点と時空間モデルとのマッチングの度合を
    比較しマッチングの度合の大きい方のモデルパラメータ
    を出力するマッチング度合比較手段とを備えた、請求項
    7または8に記載の動画像認識装置。
  10. 【請求項10】前記時空間道路画像を入力し前記白線候
    補点のうち画像下部にある下部白線候補点を出力する下
    部特徴点抽出手段と、前記下部白線候補点を入力し画像
    下部における白線の接線の時空間モデルとマッチングし
    初期モデルパラメータを出力する初期時空間モデルマッ
    チング手段とを備え、前記時空間モデルマッチング手段
    が前記白線候補点と前記初期モデルパラメータを入力し
    前記初期モデルパラメータを初期値として白線候補点と
    白線の時空間モデルとをマッチングしモデルパラメータ
    を出力する請求項4、5、6、7、8または9に記載の
    動画像認識装置。
JP8179006A 1996-07-09 1996-07-09 動画像認識装置および動画像認識方法 Expired - Fee Related JP3022330B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8179006A JP3022330B2 (ja) 1996-07-09 1996-07-09 動画像認識装置および動画像認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8179006A JP3022330B2 (ja) 1996-07-09 1996-07-09 動画像認識装置および動画像認識方法

Publications (2)

Publication Number Publication Date
JPH1027252A true JPH1027252A (ja) 1998-01-27
JP3022330B2 JP3022330B2 (ja) 2000-03-21

Family

ID=16058474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8179006A Expired - Fee Related JP3022330B2 (ja) 1996-07-09 1996-07-09 動画像認識装置および動画像認識方法

Country Status (1)

Country Link
JP (1) JP3022330B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7804980B2 (en) 2005-08-24 2010-09-28 Denso Corporation Environment recognition device
CN104143089A (zh) * 2014-07-28 2014-11-12 东南大学 人体动作识别中的基于空时能量分解的关键点检测方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7436980B2 (en) * 2004-05-27 2008-10-14 Siemens Corporate Research, Inc. Graphical object models for detection and tracking

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04352076A (ja) * 1991-05-29 1992-12-07 Nec Corp 動画像提示方法
JPH07334690A (ja) * 1994-06-14 1995-12-22 Nec Corp 物体の輪郭追跡方法
JPH085388A (ja) * 1994-06-21 1996-01-12 Nissan Motor Co Ltd 走行路検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04352076A (ja) * 1991-05-29 1992-12-07 Nec Corp 動画像提示方法
JPH07334690A (ja) * 1994-06-14 1995-12-22 Nec Corp 物体の輪郭追跡方法
JPH085388A (ja) * 1994-06-21 1996-01-12 Nissan Motor Co Ltd 走行路検出装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7804980B2 (en) 2005-08-24 2010-09-28 Denso Corporation Environment recognition device
CN104143089A (zh) * 2014-07-28 2014-11-12 东南大学 人体动作识别中的基于空时能量分解的关键点检测方法

Also Published As

Publication number Publication date
JP3022330B2 (ja) 2000-03-21

Similar Documents

Publication Publication Date Title
US10049277B2 (en) Method and apparatus for tracking object, and method and apparatus for calculating object pose information
US6301370B1 (en) Face recognition from video images
JP6200989B2 (ja) 物体姿勢認識
Nedevschi et al. Stereo-based pedestrian detection for collision-avoidance applications
US7058205B2 (en) Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
JP2915894B2 (ja) ターゲット追跡方法及び装置
EP2061008B1 (en) Method and device for continuous figure-ground segmentation in images from dynamic visual scenes
CN109598781B (zh) 通过回归分析从2d边界框获取伪3d框的方法以及使用该方法的学习装置和测试装置
US7149327B2 (en) Image processing apparatus and method
US20050271279A1 (en) Sign based human-machine interaction
EP2192549A1 (en) Target tracking device and target tracking method
JP2016029557A (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
EP3404583A1 (en) System and method for model adaptation
JP5048609B2 (ja) 対象物追跡装置及びプログラム
JP4836065B2 (ja) エッジトラッキング方法及びそのコンピュータプログラム
JPH0981734A (ja) 画像処理装置
JP3538476B2 (ja) 車両の走行路区分線などの認識装置
EP1580684B1 (en) Face recognition from video images
JPH06138137A (ja) 動物体抽出装置
JP3022330B2 (ja) 動画像認識装置および動画像認識方法
Gallego et al. Joint multi-view foreground segmentation and 3d reconstruction with tolerance loop
JP4787424B2 (ja) 映像オブジェクト検出・追跡装置
Yin et al. Real-time head pose estimation for driver assistance system using low-cost on-board computer
KR20150109868A (ko) 깊이정보를 사용한 바닥영역 처리방법과 이를 위한 처리장치 및 프로그램을 기록한 컴퓨터 판독 가능 기록 매체
Laptev Road extraction based on line extraction and snakes

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19991214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100114

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees