JPH10222665A - 画像認識装置 - Google Patents

画像認識装置

Info

Publication number
JPH10222665A
JPH10222665A JP9018524A JP1852497A JPH10222665A JP H10222665 A JPH10222665 A JP H10222665A JP 9018524 A JP9018524 A JP 9018524A JP 1852497 A JP1852497 A JP 1852497A JP H10222665 A JPH10222665 A JP H10222665A
Authority
JP
Japan
Prior art keywords
image
area
optical flow
image recognition
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9018524A
Other languages
English (en)
Inventor
Hisanori Yasuki
寿教 安木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP9018524A priority Critical patent/JPH10222665A/ja
Publication of JPH10222665A publication Critical patent/JPH10222665A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 誤検出等の少ない、検出能力の高い、自動車
等の周囲の状況を把握するための画像処理装置を提供す
ること。 【解決手段】 撮影時間に時間差のある第1画像と第2
画像との画像データを比較し、その差から物体の移動状
態を検出するオプティカルフロー手段と、撮影位置の異
なる第3画像と第4画像との画像データを比較し、その
差から物体の距離を検出するステレオ測距手段とを備え
た画像認識装置であって、前記オプティカルフロー手段
と前記ステレオ測距手段との検出結果から、移動物体の
状態を検出する移動物体状態検出手段を備えた画像認識
装置とする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、自動車等の移動体
に搭載され、カメラで取り込んだ画像を処理することに
より移動体周囲の状況を把握し、移動体の自動運転等に
利用することのできる画像認識装置に関する。
【0002】
【従来の技術】自動車の運転を楽にすると共に、安全性
向上のために自動運転の技術の開発が進められている
が、この自動運転を実現するためには、自動車の周囲の
状況を把握する必要がある。その自動車の周囲の状況を
把握する技術の1つとして、カメラにより自動車周囲の
画像を取り込み、マイクロコンピュータ(マイコン)を
用いて画像情報を処理する技術がある。その画像処理技
術の代表的なものとして、オプティカルフローと言われ
る技術と、ステレオ測距と言われる技術がある。
【0003】オプティカルフローは、「時間的に連続し
た画像において、ある時点における入力画像中の小領域
が、次の時点における入力画像中に存在する位置を求め
ることにより、小領域の移動方向と移動量を求める技
術」であり、この技術により自動車周囲の他の自動車の
移動状態や人、自転車等の物体の移動状態を把握するこ
とが可能になる。
【0004】またステレオ測距は、「ある視点における
画像の小領域が、別の視点における入力画像中に存在す
る位置を求めることにより、三角測量の原理を用いて撮
像位置から小領域までの距離を求める技術」であり、こ
の技術により自動車から自動車周囲の他の自動車、人や
建築物等の距離を把握することが可能となる。
【0005】
【発明が解決しようとする課題】しかし、オプティカル
フローを自動車の周囲状況の把握のために用いた場合、 1)影の移動や光の反射率の違い等による誤検出、2)
カメラ(自動車)の移動に伴う背景の移動による誤検出
(背景を自動車周囲の物体として誤検出)、3)光軸方
向の動きに対する検出性能の低さ、4)マイコンの演算
負荷が高い、等の課題がある。
【0006】また、ステレオ測距を自動車の周囲状況の
把握のために用いた場合、1)カメラの配置により測距
できない死角が生じる、2)背景と検出対象物の区別が
困難、3)対象物の見えかたや光の反射率の違いにより
測距結果にバラツキが生じる、4)マイコンの演算負荷
が高い、等の課題がある。
【0007】本発明は上記課題に鑑み成されたものであ
って、誤検出等の少ない、検出能力の高い、自動車等の
周囲の状況を把握するための画像処理装置を提供するこ
とを目的としている。
【0008】
【課題を解決するための手段及びその効果】上記目的を
達成するため、本発明に係る画像処理装置(1)は、撮
影時間に時間差のある第1画像と第2画像との画像デー
タを比較し、その差から物体の移動状態を検出するオプ
ティカルフロー手段を備えた画像認識装置において、前
記オプティカルフロー手段が、前記第1画像の比較を行
う画像領域を制限する領域制限手段と、前記領域制限手
段により制限された前記第1画像の領域を複数の小領域
に分割する手段と、前記小領域を前記第2画像の各部と
比較し、該小領域と実質的に一致する前記第2画像の領
域を検出する画像移動状態検出手段とを備えていること
を特徴としている。
【0009】上記画像処理装置(1)によれば、前記領
域制限手段、前記分割手段、及び前記画像移動状態検出
手段の相互作用によりオプティカルフロー処理のための
演算量が削減され、処理速度が速くなる。このためより
リアルタイムで各種制御を行え、また比較的処理速度の
遅いマイコンを用いても実用化できるので低価格で画像
処理装置を実現することができる。
【0010】また、本発明に係る画像処理装置(2)
は、上記画像処理装置(1)において、前記画像移動状
態検出手段の比較する前記第2画像の範囲を限定する比
較範囲限定手段を備えていることを特徴としている。
【0011】上記画像処理装置(2)によれば、オプテ
ィカルフロー処理のための演算量がさらに削減されるの
で、処理速度が速くなり、よりリアルタイムで各種制御
を行え、また比較的処理速度の遅いマイコンを用いても
実用化できるので低価格で画像処理装置を実現すること
ができる。
【0012】また、本発明に係る画像処理装置(3)
は、上記画像処理装置(2)において、前記比較範囲限
定手段は、画像認識装置が搭載された自動車の車速に応
じて前記第2画像の比較範囲を変化させるものであるこ
とを特徴としている。
【0013】上記画像処理装置(3)によれば、車速に
応じて変化する演算処理の必要な領域に応じて演算処理
を削減できるので、データの品質を低下させることな
く、マイコンの演算量を低減できる。
【0014】また、本発明に係る画像処理装置(4)
は、撮影位置の異なる第1画像と第2画像との画像デー
タを比較し、その差から物体の距離を検出するステレオ
測距手段を備えた画像認識装置において、前記ステレオ
測距手段が、前記第1画像の比較を行う画像領域を制限
する領域制限手段と、該領域制限手段により制限された
前記第1画像の領域を複数の小領域に分割する分割手段
と、該小領域を前記第2画像の各部と比較し、該小領域
と実質的に一致する前記第2画像の領域を検出する画像
移動状態検出手段とを備えていることを特徴としてい
る。
【0015】上記画像処理装置(4)によれば、前記領
域制限手段、前記分割手段、及び前記画像移動状態検出
手段の相互作用によりステレオ測距処理のための演算量
が削減され、処理速度が速くなる。このためよりリアル
タイムで各種制御を行え、また比較的処理速度の遅いマ
イコンを用いても実用化できるので低価格で画像処理装
置を実現することができる。
【0016】また、本発明に係る画像処理装置(5)
は、上記画像処理装置(4)において、前記画像移動状
態検出手段が比較する前記第2画像の範囲を限定する比
較範囲限定手段を備えていることを特徴としている。
【0017】上記画像処理装置(5)によれば、ステレ
オ測距処理のための演算量がさらに削減される。
【0018】また、本発明に係る画像処理装置(6)
は、上記画像処理装置(5)において、前記比較範囲限
定手段が、画像を撮影するカメラの設置状態に応じて前
記第2画像の比較範囲を変化させるものであることを特
徴としている。
【0019】上記画像処理装置(6)によれば、必要な
領域に対しての処理のみを行うので、演算処理を削減で
き、またデータの品質を低下させることもない。
【0020】また、本発明に係る画像処理装置(7)
は、上記画像処理装置(5)において、前記第1画像と
前記第2画像は地面からの高さが同じ位置に設置された
カメラから撮影された画像であって、前記比較範囲限定
手段が、前記第2画像における前記小領域に対応する領
域の水平方向に延びる領域を比較範囲とするものである
ことを特徴としている。
【0021】上記画像処理装置(7)によれば、原理的
に一致画像が存在する限られた領域に対しての処理のみ
を行うので、演算処理を削減でき、またデータの品質を
低下させることもない。
【0022】また、本発明に係る画像処理装置(8)
は、撮影時間に時間差のある第1画像と第2画像との画
像データを比較し、その差から物体の移動状態を検出す
るオプティカルフロー手段と、撮影位置の異なる第3画
像と第4画像との画像データを比較し、その差から物体
の距離を検出するステレオ測距手段とを備えた画像認識
装置であって、前記オプティカルフロー手段と前記ステ
レオ測距手段との検出結果から、移動物体の状態を検出
する移動物体状態検出手段を備えていることを特徴とし
ている。
【0023】上記画像処理装置(8)によれば、オプテ
ィカルフロー処理とステレオ測距処理とを相互に補完し
ながら処理を行うので、より適切なデータを取得でき、
また相互補完により総演算量の削減も図ることができ
る。
【0024】また、本発明に係る画像処理装置(9)
は、上記画像処理装置(8)において、前記第1画像と
前記第3画像と前記第4画像は同一のカメラにより撮影
された画像であることを特徴としている。
【0025】上記画像処理装置(9)によれば、カメラ
を共用できるので、装置の構成が簡単になり、低価格化
を図ることができる。
【0026】また、本発明に係る画像処理装置(10)
は、上記画像処理装置(9)において、画像認識装置が
搭載された自動車の走行状態を検出する走行状態検出手
段と、前記走行状態検出手段の検出した走行状態と、前
記ステレオ測距手段により検出した物体までの距離とか
ら、静止物の理論的オプティカルフローを演算する理論
オプティカルフロー演算手段と、前記オプティカルフロ
ー手段により検出されたオプティカルフローと、前記理
論オプティカルフロー演算手段により算出されたオプテ
ィカルフローとを比較し、静止物を判定する静止物判定
手段とを備えていることを特徴としている。
【0027】上記画像処理装置(10)によれば、静止
物と移動体とを区別して検出できるので、この検出結果
を利用して、自動車の制御等をより適切に行うことが可
能となる。
【0028】また、本発明に係る画像処理装置(11)
は、上記画像処理装置(10)において、前記走行状態
が、前記自動車の走行速度であることを特徴としてい
る。
【0029】また、本発明に係る画像処理装置(12)
は、上記画像処理装置(10)において、前記走行状態
が、前記自動車の旋回状態であることを特徴としてい
る。
【0030】また、本発明に係る画像処理装置(13)
は、上記画像処理装置(12)において、前記旋回状態
が、ステアリングの操作角度により検出されるものであ
ることを特徴としている。
【0031】また、本発明に係る画像処理装置(14)
は、上記画像処理装置(12)において、前記旋回状態
が、自動車の横方向の加速度を検出するヨーレートセン
サにより検出されるものであることを特徴としている。
【0032】また、本発明に係る画像処理装置(15)
は、上記画像処理装置(10)において、前記走行状態
が、前記自動車のピッチング状態であることを特徴とし
ている。
【0033】上記画像処理装置(10)〜(15)によ
れば、自動車の各種走行状態において、静止物と移動体
とを区別して検出できるので、この検出結果を利用し
て、自動車の制御等をより適切に行うことが可能とな
る。
【0034】また、本発明に係る画像処理装置(16)
は、上記画像処理装置(15)において、前記ステレオ
測距手段により検出された路面上の所定物体までのステ
レオ測距距離と、カメラの取付状態と前記所定物体の画
像位置とから算出される該所定物体までの距離を算出す
る単一カメラ測距距離に基づき、ピッチング角度を演算
するピッチング角度演算手段とを備えていることを特徴
としている。
【0035】上記画像処理装置(16)によれば、専用
のピッチングセンサを省くことができ、また専用のピッ
チングセンサを併用する場合には専用のピッチングセン
サを異常検出等に利用することもできる。
【0036】また、本発明に係る画像処理装置(17)
は、上記画像処理装置(8)または画像処理装置(1
0)において、前記ステレオ測距ができない部分を検出
する死角検出手段と、該死角検出手段により検出された
死角部分については、カメラの取付状態と前記所定物体
の画像位置とから算出される該所定物体までの距離を算
出する単一カメラ測距手段による距離測定を行う距離測
定補足手段とを備えていることを特徴としている。
【0037】上記画像処理装置(17)によれば、ステ
レオ測距における死角に対しても距離を補足でき、この
結果を用いてより適切に画像処理を行うことができる。
【0038】また、本発明に係る画像処理装置(18)
は、上記画像処理装置(8)または画像処理装置(1
0)において、前記オプティカルフロー手段の検出結果
により、前記ステレオ測距手段の動作を変更するステレ
オ測距制御手段を備えていることを特徴としている。
【0039】上記画像処理装置(18)によれば、ステ
レオ測距手段の処理を効率的に行えるので、演算量の低
減を図ることができる。
【0040】また、本発明に係る画像処理装置(19)
は、上記画像処理装置(18)において、前記ステレオ
測距制御手段が、前記ステレオ測距手段が処理を行う画
像の領域を、前記オプティカルフロー手段の検出結果に
より移動物体が検出された画像の領域に限定するもので
あることを特徴としている。
【0041】上記画像処理装置(19)によれば、距離
検出の必要な移動物体の距離のみを検出できるので、必
要なデータを漏らすことなく、演算量を低減することが
可能となる。
【0042】また、本発明に係る画像処理装置(20)
は、上記画像処理装置(18)において、前記ステレオ
測距制御手段が、前記ステレオ測距手段が画像処理を行
う単位領域である小領域を、前記オプティカルフロー手
段の検出結果に応じた大きさとするものであることを特
徴としている。
【0043】上記画像処理装置(20)によれば、処理
を行う小領域を同一の移動物体が含まれる大きさの領域
とできるので、一致判定等を確実に行え、画像処理の精
度を向上できる。
【0044】また、本発明に係る画像処理装置(21)
は、上記画像処理装置(18)において、前記ステレオ
測距制御手段が、前記ステレオ測距手段が画像処理を行
う単位領域である小領域を、前記オプティカルフロー手
段の行った画像処理の単位領域と同じ大きさとするもの
であることを特徴としている。
【0045】上記画像処理装置(21)によれば、処理
領域の単位を、オプティカルフロー処理とステレオ測距
処理で同一としているので、処理領域の分割処理を共通
化でき、演算量を低減できる。
【0046】また、本発明に係る画像処理装置(22)
は、上記画像処理装置(8)または画像処理装置(1
0)において、前記ステレオ測距手段が処理する画像
が、前記オプティカルフロー手段が処理する画像の内、
時間的に後に撮影された画像であることを特徴としてい
る。
【0047】上記画像処理装置(22)によれば、最新
の画像データによりステレオ測距処理が行えるので、よ
りリアルタイムな画像処理データを得ることができる。
【0048】本発明に係る画像処理装置(23)は、上
記画像処理装置(8)または画像処理装置(10)にお
いて、前記ステレオ測距手段の検出結果に基づいて算出
される物体の地面からの高さから、立体物を検出する立
体物検出手段と、該立体物検出手段により検出された立
体物が存在する画像の領域を、前記オプティカルフロー
手段の画像処理領域とするオプティカルフロー制御手段
とを備えていることを特徴としている。
【0049】上記画像処理装置(23)によれば、算出
の必要のない高さのない物体(道路に描かれた車線等)
に対しては、オプティカルフロー処理を行わないので、
演算量を低減できる。
【0050】また、本発明に係る画像処理装置(24)
は、上記画像処理装置(23)において、前記オプティ
カルフロー制御手段が、前記立体物検出手段の検出結果
に応じて、前記オプティカルフロー手段が画像処理を行
う単位領域である小領域の大きさを制御するものである
ことを特徴としている。
【0051】上記画像処理装置(24)によれば、処理
を行う小領域を同一の立体物が含まれる大きさの領域と
できるので、一致判定等を確実に行え、画像処理の精度
を向上できる。
【0052】また、本発明に係る画像処理装置(25)
は、上記画像処理装置(8)または画像処理装置(1
0)において、ステレオ測距を行う画像領域を自車の走
行する車線内の領域とし、オプティカルフロー処理を行
う画像領域を自車の走行する車線外の領域とする画像処
理領域設定手段を備えていることを特徴としている。
【0053】上記画像処理装置(25)によれば、距離
測定が重要な自車車線内の物体に対してステレオ測距が
行われ、移動状態の検出が重要な自車車線外の物体に対
してはオプティカルフロー処理が行われるので、必要な
データを漏らすことなく演算量を低減できる。
【0054】また、本発明に係る画像処理装置(26)
は、上記画像処理装置(25)において、前記画像処理
領域設定手段が、オプティカルフロー処理により自車の
走行する車線内への侵入が予想される移動物体が存在す
る画像の領域をステレオ測距を行う画像領域に加えるも
のであることを特徴としている。
【0055】上記画像処理装置(26)によれば、自車
車線外であっても距離検出が必要な自車車線内に侵入し
ようとする移動物体を検出することができる。
【0056】また、本発明に係る画像処理装置(27)
は、上記画像処理装置(8)または画像処理装置(1
0)において、ステレオ測距を行う画像領域を自車が進
行する領域とし、オプティカルフロー処理を行う画像領
域を自車が進行する領域外の領域とする画像処理領域設
定手段を備えていることを特徴としている。
【0057】上記画像処理装置(27)によれば、距離
測定が重要な自車が進行する領域内の物体に対してステ
レオ測距が行われ、移動状態の検出が重要な自車が進行
する領域外の物体に対してはオプティカルフロー処理が
行われるので、必要なデータを漏らすことなく演算量を
低減できる。
【0058】また、本発明に係る画像処理装置(28)
は、上記画像処理装置(27)において、前記画像処理
領域設定手段が、オプティカルフロー処理により自車の
進行する領域内への侵入が予想される移動物体が存在す
る画像の領域をステレオ測距を行う画像領域に加えるも
のであることを特徴としている。
【0059】上記画像処理装置(28)によれば、自車
が進行する領域外であっても距離検出が必要な自車が進
行する領域内に侵入しようとする移動物体を検出するこ
とができる。
【0060】また、本発明に係る画像処理装置(29)
は、上記画像処理装置(27)において、前記自車が進
行する領域が、自車の車幅と旋回状態により算出される
ものであることを特徴としている。
【0061】上記画像処理装置(29)によれば、カー
ブ走行中であっても適切に必要なデータを取得すること
ができる。
【0062】また、本発明に係る画像処理装置(30)
は、上記画像処理装置(8)または画像処理装置(1
0)において、画像領域を分割する画像分割手段と、該
画像分割手段により分割された画像を時分割でオプティ
カルフロー手段による画像処理領域とする時分割制御手
段を備えていることを特徴としている。
【0063】上記画像処理装置(30)によれば、一度
の画像処理において取り扱われる画像のデータ量が低減
するので、画像処理を行うためのメモリの容量を小さく
することが可能となる。
【0064】また、本発明に係る画像処理装置(31)
は、上記画像処理装置(30)において、次にオプティ
カルフロー手段による処理領域となる領域の画像を記憶
する記憶手段を備えていることを特徴としている。
【0065】上記画像処理装置(31)によれば、画面
の全領域ではなく、分割された領域のうち次にオプティ
カルフロー手段による処理領域となる領域の画像を記憶
する容量の記憶手段により、オプティカルフロー処理を
行うことができるので、記憶手段の容量を低減できる。
【0066】また、本発明に係る画像処理装置(32)
は、上記画像処理装置(30)において、ステレオ測距
に用いる2画像を交互にオプティカルフロー手段による
処理画像とする画像選択手段を備えていることを特徴と
している。
【0067】上記画像処理装置(32)によれば、画面
の分割された各領域について交互に処理が行われるの
で、あまり偏りがなく、そしてあまり時間遅れがない画
像処理データを得ることができる。
【0068】
【発明の実施の形態】以下、本発明に係る画像認識装置
の実施の形態を図面に基づいて説明する。図1は本発明
の実施の形態に係る画像認識装置を用いた車両制御シス
テムを示すブロック構成図である。
【0069】カメラL1、カメラR2は自動車の前方の
画像を取り込むように車体に設置されたカメラで、カメ
ラL1は車両左側、カメラR2は車両右側に互いに距離
(カメラ間隔b)をおいて設置されている。画像メモリ
3、4は、それぞれカメラL1、カメラR2の取り込ん
だ画像を記憶するメモリで、RAMにより構成されてい
る。そして、画像メモリ3、4における画像の記憶タイ
ミング等の制御はマイクロコンピュータ(マイコン)5
により制御されている。マイコン5は画像メモリ3、4
に記憶された画像データの処理、車両の状態を検出する
各センサからの信号の処理、スロットルバルブの制御等
の車両の動作制御を行うもので、マイコン5の動作プロ
グラムが記憶されたROMや演算処理に用いるRAM等
からなるメモリ6が接続されている。
【0070】ステアリングセンサ7はハンドル(ステア
リング)の回転角を検出するもので、ステアリング軸と
連動して回転し抵抗値が変化するポテンショメータ(回
転式ボリウム)や光学式の角検出センサ等から構成され
ている。車速センサ8は車両の走行速度を検出するもの
で、車輪の回転に同期した信号を出力するセンサ、例え
ば車軸に同期して回転する磁石とこの磁石に近接して設
けられて磁石の位置により接断動作するリードスイッチ
からなるセンサ等により構成されている。ピッチングセ
ンサ9は、車両のピッチング動作(前後方向の揺動)を
検出するもので、前後車輪に設けられたサスペンション
の動作状況(サスペンションコイル長の差や変化)の検
出(スライド式ボリウム、光学式距離計や圧電素子を用
いた歪センサ等により検出)等により車両のピッチング
を検出する。ヨーレートセンサ10は車両のヨー方向の
動きを検出するセンサで、質量体と歪センサ等からなる
加速度センサにより構成されている。そして、これらス
テアリングセンサ7、車速センサ8、ピッチングセンサ
9、ヨーレートセンサ10の出力信号は、入力インター
フェイス11を介して、マイコン5に与えられるように
なっている。
【0071】ブレーキアクチュエータ12は、車両のブ
レーキを制御するもので油圧駆動装置等により構成され
ている。そして、マイコン5からの信号によりブレーキ
アクチュエータ12における油圧系のバルブ等が制御さ
れ、車両の制動力が制御されるようになっている。スロ
ットルアクチュエータ13は、車両のスロットルバルブ
を駆動しエンジンの吸入空気量を変化させるもので、ス
テッピングモータ等を含んで構成されている。変速機ア
クチュエータ14は車両の変速機の変速比を変えるもの
で、油圧駆動装置等により構成されている。そして、マ
イコン5からの信号により変速機アクチュエータ14に
おける油圧系のバルブ等が制御され、車両の変速機の変
速比が制御されるようになっている。警報器15は動作
異常等、画像認識不能等を報知するもので、ブザー、警
告ランプ等により構成されている。そして、これら、ブ
レーキアクチュエータ12、スロットルアクチュエータ
13、変速機アクチュエータ14、警報器15は出力イ
ンターフェイス16を介して、マイコン5に接続されて
おり、マイコン5によりその動作が制御されるように構
成されている。
【0072】つまり、図1に示した車両制御システムに
よれば、カメラL1、カメラR2から取り込まれた画像
により認識された車両周囲の状況(前方車両の状況)や
入力インターフェイス11を介して入力された各種セン
サからの信号に応じて、スロットルバルブやブレーキを
制御して、自動運転や運転補助をなすように動作する。
【0073】次に本実施の形態における画像認識技術の
オプティカルフローについて説明する。図2はオプティ
カルフローの動作概要を説明するための説明図、図3、
4はマイコン5の行うオプティカルフロー計算処理を示
すフローチャートである。
【0074】本実施の形態によるオプティカルフローの
算出は、先ず時刻tにおける画像全体を画素数がm×n
の小領域に分割し、そしてオプティカルフローを計算す
る範囲〔(a,b)〜(A,B)〕を決定する。そし
て、各領域について時刻t+1(時刻tの次の画像取り
込み時刻)の画像における同一画像と推測される画像の
位置を検出し(時刻tの画像と時刻t+1の画像の対応
する各画素の明度差の総和が最小となる画像の位置を検
出する)、それら画像の位置の差を算出してオプティカ
ルフロー値とする。尚、本実施の形態においては、時刻
t+1の画像における同一画像の検出処理範囲(画素の
明度を比較する画像領域)を、検出対象となる移動物体
の各方向における考え得る速度範囲から定まる画像の移
動可能範囲により決定して演算量を削減し、処理の高速
化およびマイコン5の負担の減少を図っている。そし
て、このような処理を、決定した全計算範囲の小領域に
ついて行い、各小領域におけるオプティカルフロー値を
求める。尚、使用する画像はカメラL1、カメラR2の
どちらの画像を用いてもよい。
【0075】次にマイコン5の行う処理について説明す
る。ステップOF1では、オプティカルフローの算出単
位である小領域の大きさ(画素数 縦m,横n)を決定
し、ステップOF2に移る。ステップOF2では、画像
(時刻tの画像)を小領域に分割し(w行h列に分
割)、ステップOF3に移る。ステップOF3ではオプ
ティカルフローの計算範囲を決定し(w行h列に分割し
た部分の、a〜A行,b〜B列部分)、ステップOF4
に移る。ステップOF4では、変数i,jにa,bを設
定し、ステップOF5に移る。
【0076】ステップOF5では、時刻tの画像(以後
t画像、同様のt+1画像と称する)におけるi行j列
の小領域の画像データを読み込み、ステップOF6で
は、比較するt+1画像の基準位置を設定し、ステップ
OF7に移る。基準位置は、X座標が m×(i−1)
−v で、Y座標が n×(j−1)−u で、u、v
は検出対象となる移動物体の各方向における考え得る速
度範囲から定まる画像の移動可能範囲により決定され
る。ステップOF7では、変数α、βを0に設定し、ま
た変数minを値MAX(t画像とt+1画像の各画素
の明度差の総和における理論的最大値)に設定し、ステ
ップOF8に移る。
【0077】ステップOF8では、基準位置からα画素
下、ベータ画素右の点を原点とする小領域の画像データ
を読込み、ステップOF9に移る。ステップOF9で
は、各画像における小領域の各点(p,q)の明度〔t
画像:ft(p,q),t+1画像:ft-1(p,q)〕の差を算出
し、そしてその差の総和(総和差S)を演算してステッ
プOF10に移る。つまり、本処理では明度差の総和が
最小の領域を同一画像がある領域と判断して、画像の移
動量、つまりオプティカルフローを検出する。ステップ
OF10では、総和差Sがこれまでの総和差Sの最小値
minより小さいかどうか判断し、小さければステップ
OF11に移り、小さくなければステップOF12に移
る。ステップOF11では、変数minを総和差Sに設
定し、変数X、Yを各々α、βに設定し、ステップOF
12に移る。つまり、比較した中で最小の総和差Sが検
出されれば、その位置を示すα、βを記憶し、またその
総和差Sを新たな比較基準としてminに設定する。
【0078】ステップOF12では、αに1を加算して
ステップOF13に移る。つまり、次に比較する画像の
原点を右に1画素移動させるための処理をおこなう。ス
テップOF13では、αが計算範囲の画像領域外に対応
する値(u、Uは検出対象となる移動物体の各方向にお
ける考えうる速度範囲から定まる画像の移動可能範囲に
より決定される値で、Uは右側に移動可能な最大画素数
で、uは左側に移動可能な最大画素数)に達したかどう
か判断し、達していればステップOF14に移り、達し
ていなければステップOF8に戻る。ステップOF14
では、αを0とすると共にβに1を加算してステップO
F15に移る。つまり、次に比較する画像の原点を下に
1画素移動させるとともに、水平方向については元の位
置に戻すための処理をおこなう。ステップOF15で
は、βが計算範囲の画像領域外に対応する値(v、Vは
検出対象となる移動物体の各方向における考えうる速度
範囲から定まる画像の移動可能範囲により決定される値
で、Vは下側に移動可能な最大画素数で、vは上側に移
動可能な最大画素数)に達したかどうか判断し、達して
いればステップOF16に移り、達していなければステ
ップOF8に戻る。つまり、これらの処理により所定範
囲におけるt画像とt+1画像の明度比較が行われるこ
とになる。ステップOF16では、当該小領域のオプテ
ィカルフロー値Fとして、X方向値をX−u、Y方向値
をY−vとして記憶し、ステップOF17に移る(t画
像の比較小領域の原点位置から右方向にu、上方向にv
ずれた位置を0として、t+1画像における総和差Sが
最小となる小領域の原点位置の座標が(X,Y)となる
ので、移動量(オプティカルフロー値)としては、(X
−u,Y−v)となる)。
【0079】ステップOF17では、iに1を加算して
ステップOF18に移る。つまり、次に比較する画像の
小領域を右に1移動させるための処理をおこなう。ステ
ップOF18では、iがオプティカルフローを計算する
範囲の最大値Aに達したかどうか判断し、達していれば
ステップOF19に移り、達していなければステップO
F5戻る。ステップOF19では、iをa(オプティカ
ルフローを計算する範囲の最小値)にすると共に、jに
1を加算してステップOF20に移る。つまり、次に比
較する画像の小領域を下に1移動させるとともに水平方
向については元の位置に戻すための処理をおこなう。ス
テップOF20では、jがオプティカルフローを計算す
る範囲の最大値Bに達したかどうか判断し、達していれ
ば処理を終え、達していなければステップOF5に戻
る。
【0080】上記処理により、t画像の各小領域と同一
の画像がt+1画像のどの位置に存在するかにより、各
小領域のオプティカルフローを演算算出することができ
る。
【0081】次に本実施の形態における画像認識技術の
ステレオ測距について説明する。図5はステレオ測距の
動作概要を説明するための説明図、図6、7はマイコン
5の行うステレオ測距計算処理を示すフローチャートで
ある。
【0082】本実施の形態に係るステレオ測距は、先ず
右カメラR2から取り込んだ右画像全体を画素数がm×
nの小領域に分割し、そしてステレオ測距計算を行う範
囲〔(a,b)〜(A,B)〕を決定する。そして、各
領域について左画像(同時刻に左カメラL1が取り込ん
だ画像)における同一画像と推測される画像の位置を検
出し(右画像と左画像の対応する各画素の明度差の総和
が最小となる左画像の位置を検出する)、それら画像の
位置差を算出して、左右カメラの取付位置との関係から
検出対象(当該画像の物体)までの距離を演算する。そ
して、左画像における同一画像の検出処理範囲(画素の
明度を比較する画像領域)を、各カメラの設置状態によ
り定まる同一画像が理論的に存在する可能性のある領域
とし、また右画像の比較対象画像の位置に対して左画像
の水平(左右)方向の画像(比較対象画像と高さは同
じ)だけを検出処理範囲として、演算量を削減し、処理
の高速化およびマイコン5の負担の減少を図っている。
そして、このような処理を、決定した全計算範囲の小領
域について行い、各小領域におけるステレオ測距を行
う。
【0083】次にマイコン5の行う処理について説明す
る。ステップST1では、ステレオ測距の算出単位であ
る小領域の大きさ(画素数 縦m,横n)を決定し、ス
テップST2に移る。ステップST2では、右画像を小
領域に分割し(w行h列に分割)、ステップST3に移
る。ステップST3ではステレオ測距の計算範囲を決定
し(w行h列に分割した部分の、a〜A行,b〜B列部
分)、ステップST4に移る。ステップST4では、変
数i、jをa、bに設定し、ステップST5に移る。
【0084】ステップST5では、右画像におけるi行
j列の小領域の画像データを読み込み、ステップST6
に移る。ステップST6では、比較する左画像の基準位
置を設定し、ステップOF7に移る。基準位置は、X座
標が m×(i−1)+1で、Y座標が n×(j−
1)+1 であり、左画像ではそのカメラの設置位置関
係により、同一物体は右画像より右側にあることから、
基準位置を右画像の対象物体の画像位置と同一位置と
し、そこから右方向に同一画像を検出する処理を行う。
ステップST7では、変数kを0に設定し、また変数m
inを値MAX(右画像と左画像の各画素の明度差の総
和における理論的最大値)に設定し、ステップST8に
移る。
【0085】ステップST8では、左画像における基準
位置からk画素右の点を原点とする小領域の画像データ
を読込み、ステップST9に移る。ステップST9で
は、各画像における小領域の各点(p,q)の明度〔左
画像:fl(p,q),右画像:fr(p,q)〕の差を算出し、そ
してその差の総和(総和差S)を演算してステップST
10に移る。つまり、本処理では明度差の総和が最小の
領域を同一画像がある領域と判断して、画像の移動量、
つまりステレオ測距のパラメータを検出する。ステップ
ST10では、総和差Sがこれまでの総和差Sの最小値
minより小さいかどうか判断し、小さければステップ
ST11に移り、小さくなければステップST12に移
る。ステップST11では、変数minを総和差Sに設
定し、変数dをkに設定し、ステップST12に移る。
つまり、比較した中で最小の総和差Sが検出されれば、
その位置を示すkを記憶し、またその総和差Sを新たな
比較基準としてminに設定する。
【0086】ステップST12では、kに1を加算して
ステップST13に移る。つまり、次に比較する画像の
原点を右に1画素移動させるための処理をおこなう。ス
テップST13では、kが計算範囲の画像領域外に対応
する値(Kmax:検出対象となる移動物体の検出距離
範囲から定まる左右画像の同一画像の画像位置差)に達
したかどうか判断し、達していればステップST14に
移り、達していなければステップST8戻る。ステップ
ST14では、対象物(当該小領域の画像に対応する物
体)までの距離Dを D=b・f/(d/u) b:左右カメラ間距離 f:カメラの焦点距離 u:カメラの画素の横サイズ に基づき演算する。
【0087】ステップST15では、iに1を加算して
ステップST16に移る。つまり、次に比較する画像の
小領域を右に1移動させるための処理をおこなう。ステ
ップST16では、iがステレオ測距の計算をする範囲
の最大値Aに達したかどうか判断し、達していればステ
ップST17に移り、達していなければステップST5
に戻る。ステップST17では、iをa(ステレオ測距
の計算をする範囲の最小値)にすると共に、jに1を算
してステップST18に移る。つまり、次に比較する画
像の小領域を下に1移動させるとともに水平方向につい
ては元の位置に戻すための処理をおこなう。ステップS
T18では、jがステレオ測距の計算をする範囲の最大
値Bに達したかどうか判断し、達していれば処理を終
え、達していなければステップOF5に戻る。
【0088】上記処理により処理により、右画像の各小
領域と同一の画像が左画像のどの位置に存在するかによ
り、各小領域のステレオ測距を行うことができる。
【0089】次にオプティカルフロー、ステレオ測距の
データを用いた立体移動物と背景との識別処理について
説明する。図8はマイコン5の行う立体移動物の識別処
理を示すフローチャートである。
【0090】ステップBK1、ステップBK2ではそれ
ぞれ前述の処理により、ステレオ測距計算、オプティカ
ルフロー計算を行いステップBK3に移る(計算値はメ
モリ6に記憶される)。ステップBK3では、車両に設
けられた各種センサから、各種車両状況データ、車速、
ヨーレート、ピッチング等を取り込み、ステップBK4
に移る。ステップBK4では処理用のカウンタiを0に
初期化し、ステップBK5に移る。ステップBK5で
は、画像のi番目の小領域(i領域)について、その小
領域の画像の物体が静止物である場合のオプティカルフ
ローを、小領域の位置、車速等の車両状態、ステレオ測
距で得られた該当物体までの距離等のデータにより理論
的に計算で求め(理論オプティカルフロー)、ステップ
BK6に移る。
【0091】ステップBK6では、i領域における画像
データにより得られたオプティカルフロー(計測オプテ
ィカルフロー)をメモリ6から読込み、ステップBK7
に移る。ステップBK7では、理論オプティカルフロー
と、計測オプティカルフローとを比較し、一致していれ
ばステップBK8に移り、一致していなければステップ
BK9に移る。尚、理論オプティカルフローと計測オプ
ティカルフローの一致条件は、例えばオプティカルフロ
ー(ベクトル)の絶対値(大きさ)と方向(角度)の差
が、共に所定割合未満および所定差未満(測定オプティ
カルフローにおける絶対値の90〜110%の範囲に理
論オプティカルフローの絶対値が入り、かつ測定オプテ
ィカルフローにおける方向の+−5度の範囲に理論オプ
ティカルフローの方向が入れば一致の判定)のように設
定し、ある程度の幅を持たせる。
【0092】ステップBK8では、測定オプティカルフ
ローが静止物の理論オプティカルフローと一致している
ため、i領域の画像は静止物(背景)として判断し、そ
の結果を車両の制御等に用いるためにメモリ6に記憶
し、ステップBK10に移る。またステップBK9で
は、ステップBK8とは逆に、i領域の画像は立体移動
物として判断し、その結果を車両の制御等に用いるため
にメモリ6に記憶し、ステップBK10に移る。ステッ
プBK10では、次の小領域に対する処理を行うため
に、カウンタiに1を加算して、ステップBK11に移
る。ステップBK11では、カウンタiの値から、処理
すべき全小領域について処理を終えたかどうか判断し、
処理を終えていれば本処理を終え、処理を終えていなけ
ればステップBK5に戻り、次の小領域に対する処理を
行う。
【0093】次に理論オプティカルフローの算出方法に
ついて説明する。図9は理論オプティカルフローを算出
する方法を示す説明図である。図 9(A)に示したよう
に、XZ平面を道路面、自動車の進行方向をZ軸方向と
すると、点P0(X0,Y0,Z0)、P(X,Y,
Z)の像は、各々カメラのイメージプレーン(カメラで
捕らえた画像が形成される画像平面(画素面))のp
(x0,y0),p(x,y)に形成される。ここで、
自動車が直線走行している場合における、イメージプレ
ーンのx軸方向に関する画像の動きについて説明する。
図9(B)に示したように、自動車がZ軸方向に速度
V(ここでは、説明を分かりやすくするためオプティカ
ルフローの計算周期に進む距離を速度Vとする)で直進
すると、自動車から見る静止立体物Aは、Z軸方向に自
動車に距離Yだけ近づいたことになる。この時、カメラ
の光学系の焦点距離をf、移動後の立体物AまでのZ軸
方向の距離をZ、光軸(Z軸)と静止物体までのX方向
の距離をX、イメージプレーン上における立体物Aの画
像のx軸方向の位置を移動前xそして移動量をuとする
と、各点の座標および光学系(レンズ)の焦点により形
成される三角形の相似関係により、次の関係が成り立
つ。
【0094】・移動前: (Z+V)/f = X/x ・移動後: Z/f = X/(x+u) これらの式から、次の関係が成立する。
【0095】u = x・V/Z 同様に、イメージプレーン上における立体物Aの画像の
y軸方向の位置を移動前yそして移動量をvとすると、
次の関係が成立する。
【0096】v = y・V/Z つまり、自動車が直進している場合の静止物の理論オプ
ティカルフロー(u,v)は、画像データ(物体の位
置)、車速センサにより計測される車速Vおよびステレ
オ測距により計測されるZ軸方向の立体物までの距離Z
に基づき、上記計算式により求めることができる。
【0097】次にカーブ走行中における理論オプティカ
ルフローの算出方法について説明する。図10はカーブ
走行中における理論オプティカルフローを算出する方法
を示す説明図である。図10に示したように、自動車が
カーブを速度V(ここでは、説明を分かりやすくするた
めオプティカルフローの計算周期に進む距離を速度Vと
する)で走行すると、カーブの曲率半径Rは一般的に距
離Vに対して大きいので(計算周期は短く、距離Vの値
は曲率半径Rに比べて非常に小さい)、自動車から見る
静止立体物Aは、カーブの曲線(円弧)の接線方向に距
離V移動したと近似できる(方向は自動車の進行方向と
逆)。この時、カメラの光学系の焦点距離をf、移動後
の立体物Aまでの各Z軸方向(進行方向が変化している
ので、移動前はZt0軸、移動後はZt1軸)の距離を
Z1,Z、各光軸(Z軸)と静止物体までのX方向の距
離をX1,X、イメージプレーン上における立体物Aの
画像のx軸方向の位置を移動前xそして移動量をu、自
動車の進行角変化をθとすると、各点の座標および光学
系(レンズ)の焦点により形成される三角形の相似関係
により、次の関係が成り立つ。
【0098】 ・移動前: (Z1+V・cosθ)/f = X/x Z1 = Z/cosθ+(X+V・sinθ)・tanθ ・移動後: Z/f = X1/(x+u) X1 = Z・tanθ+(X+V・sinθ)/cosθ これらの式を、uおよびXについて解くと、次のように
なる。
【0099】u = (f・Z ・ sinθ + f・X + f ・ V ・ sin
θ)/( Z ・ cosθ)-x X= x・(Z+V ・ sinθ ・ sinθ + V ・ cosθ ・ cosθ)/(f
・ cosθ-x ・ sinθ) この式で求まるXを上記オプティカルフローuを求める
式に代入することにより、理論オプティカルフローuが
求まる。
【0100】また、y方向については、進行方向の変化
に伴うYの変化がないので、次の関係が設立する。
【0101】 ・移動前: (Z1+V・cosθ)/f = Y/y Z1 = Z/cosθ+(X+V・sinθ)・tanθ ・移動後: Z/f = Y/(y+v) そして同様にこれらの式から、理論オプテカルフローv
が求まる。
【0102】つまり、自動車がカーブを走行している場
合の静止物の理論オプティカルフロー(u,v)は、画
像データ(物体の位置)、車速センサにより計測される
車速Vおよびステレオ測距により計測されるZ軸方向の
立体物までの距離Z、およびヨーレートセンサやステア
リングセンサにより検出される進行方向変化角θに基づ
き、上記計算式により求めることができる。
【0103】次に自動車にピッチング動作が発生してい
る状態における理論オプティカルフローの算出方法につ
いて説明する。図11はピッチング発生中における理論
オプティカルフローを算出する方法を示す説明図であ
る。
【0104】図11に示したように、自動車にピッチン
グが発生している場合には、画像のx軸方向の位置につ
いては基本的に影響が無く、直線走行中と同様の計算に
よりオプティカルフローuが求まる。一方、画像のy軸
方向の位置については影響がある。カメラの光学系の焦
点距離をf、移動後の立体物Aまでの各Z軸方向(進行
方向が変化しているので、移動前はZt0軸、移動後は
Zt軸)の距離をZ1,Z、各光軸(Z軸)と静止物体
までのY方向の距離をY1,Y、イメージプレーン上に
おける立体物Aの画像のy軸方向の位置を移動前yそし
て移動量をv、ピッチング角をθとすると、各点の座標
および光学系(レンズ)の焦点により形成される三角形
の相似関係により、次の関係が成り立つ。
【0105】 これらの式を、vおよびYについて解くと、次のように
なる。
【0106】v=(f・Z・sinθ+f・Y)/Z・
cosθ − y Y=y・(Z+V・cosθ)/(f・cosθ−y・
sinθ) この式で求まるYを上記オプティカルフローvを求める
式に代入することにより、理論オプティカルフローvが
求まる。
【0107】つまり、自動車にピッチングが発生してい
る場合の静止物の理論オプティカルフロー(u,v)
は、画像データ(物体の位置)、車速センサにより計測
される車速Vおよびステレオ測距により計測されるZ軸
方向の立体物までの距離Z、およびピッチングセンサに
より検出されるピッチング角θに基づき、上記計算式に
より求めることができる。
【0108】そして、これら、直進走行中、カーブ走行
中またピッチング発生中における理論オプティカルフロ
ーの算出方法を組み合わせることにより、各種走行中に
おける理論オプティカルフロー(u,v)を算出するこ
とができる。
【0109】次に自動車のピッチング角をピッチングセ
ンサを用いずに、画像認識用のカメラを用いて検出する
方法について説明する。図12は、ピッチング角検出方
法を示す原理図、図13はマイコンが行うピッチング角
検出処理を示すフローチャートである。
【0110】画像認識用のカメラを用いたピッチング角
検出方法は、路面に描かれた図形、例えば車線を区別す
る白線の所定部分までの距離を、前述のステレオ測距お
よび単一カメラ測距により測定する。尚、単一カメラ測
距は、カメラの取付状態と道路上の物体(道路上の所定
点)の画像の位置とから、その物体までの距離を測定す
る方法で、地面を底辺とし、地面からカメラの設置位置
までの距離を高さ、そして画像中の物体の位置およびカ
メラの光軸(カメラの取付角によって決まる)から求ま
る前記高さとカメラおよび物体とを結んだ線がなす角度
によって決まる三角形から、自動車と物体との距離を求
めるものである。そして、これらステレオ測距および単
一カメラ測距により算出された距離D0,D1は、ピッ
チング角度が0の時は同じ値となるが、ピッチングが発
生するとステレオ測距は変化しないが、単一カメラ測距
ではカメラの地面に対する角度が算出値に影響するので
変化する。その変化の状態は、図12に示すようにピッ
チング角がθの時、距離がD0からD1となる。そし
て、この距離D0はステレオ測距での検出値であり、ま
た距離D1は単一カメラ測距での検出値である。従っ
て、ピッチング角は、ステレオ測距での検出値D0およ
び単一カメラ測距での検出値D1から、次式で算出する
ことができる。
【0111】θ = tan-1(Hc/D0) − t
an-1(Hc/D1) 次にマイコン5の行う処理について図13を用いて説明
する。ステップS1では、カメラL1、R2により撮影
された画像を入力し、ステップS2に移る。ステップS
2では、画像データにおける色および形状データ等に基
づき車線間の白線認識を行い、ステップS3に移る。ス
テップS3では認識した白線の最も遠い部分(白線の先
端部)を測距を行う部分として選択し、ステップS4に
移る。ステップS4では、選択した白線先端部のステレ
オ測距処理を行って距離D0を算出し、ステップS5に
移る。ステップS5では、選択した白線先端部の単一カ
メラ測距処理を行って距離D1を算出し、ステップS6
に移る。ステップS6では、算出した距離D0,D1そ
して単一カメラ測距に用いた画像を撮影したカメラの地
面からの高さHcを用いてピッチング角度θを算出し、
処理を終える。
【0112】以上のような処理により、ピッチング角検
出用の特別なセンサを用いることなく、画像認識用の構
成を用いてピッチング角を検出することができる。
【0113】次に、ステレオ測距における死角の部分、
つまり左右のカメラの取付位置の違いにより生じる片方
のカメラではその画像が撮影されない物体に関する処理
について説明する。図14は、マイコン5が行うこの死
角処理を示すフローチャートである。
【0114】ステップS11では、カメラL1、R2に
より撮影された画像を入力し、ステップS2に移る。ス
テップS12では、死角でない部分についてステレオ測
距処理を行い、ステップS13に移る。ステップS13
では、左右のカメラにより撮影された画像に基づきオプ
ティカルフロー処理を行い、ステップS14に移る。ス
テップS14では、ステレオ測距結果、オプティカルフ
ロー結果および車速等から求まる理論オプティカルフロ
ー等に基づき、背景処理(空等の検出でオプティカルフ
ローが0である部分から検出できる)、静止物検出、移
動物検出等を行い、ステップS15に移る。ステップS
15では、ステレオ測距における死角があるかどうか判
断し、死角があればステップS16に移り、死角がなけ
れば処理を終える。この死角の判断は、オプティカルフ
ロー処理を行った結果、オプティカルフローが0でない
部分において、ステレオ測距ができなかった部分(死
角)があるかどうかにより判断する。ステップS16で
は、ステレオ測距における死角部分について単一カメラ
測距による測距を行い、その検出値を用いて静止物検
出、移動物検出等を行い、処理を終える。
【0115】以上のような処理により、ステレオ測距に
おける死角部分でも、測距が可能となり静止物検出、移
動物検出等が可能となる。
【0116】次に、オプティカルフローおよびステレオ
測距の算出方法の一例について説明する。図15はオプ
ティカルフローおよびステレオ測距の算出方法の一例を
示すフローチャートであり、必要な画像データ等の入力
処理等は省略し、オプティカルフローおよびステレオ測
距の処理部分のみを示している。
【0117】ステップS21では、オプティカルフロー
の計算を行い、ステップS22に移る。ステップS22
では、オプティカルフローの計算結果から車速データ等
を用いた背景処理等を行って、画像中の移動物体を検出
し(α個あったとする)、ステップS23に移る。この
移動物体の検出処理においては、移動物体の個数および
大きさ(画像上の領域)等を記憶する。ステップS23
ではカウンタrを1とし、ステップS24に移る。
【0118】ステップS24では、ステレオ測距計算を
行い、その結果を記憶し、ステップS25に移る。この
ステレオ測距処理においては次のように処理を行う。
【0119】1)ステレオ測距を行う際の、左右画像の
比較を行う画像領域を、全領域でなくステップS22で
求めた移動物体の存在する画像領域に限定し、比較処理
を行う。
【0120】この処理条件により、比較処理演算量が減
少し、マイコン5の負荷が低減され、処理の高速化等が
可能となる。
【0121】2)ステレオ測距を行う際の、左右画像の
比較を行う画像領域の大きさを、ステップS22で求め
た移動物体の画像の大きさの画像領域とし、比較処理を
行う。 この処理条件により、同一物体の検出精度が高
くなり、性能の向上が図れ、また比較処理の演算量の低
減も図れる。
【0122】3)ステレオ測距の算出を行う画像を、オ
プティカルフローを算出するのに用いた画像の内の新し
い方の画像(移動後の画像)とする。
【0123】この処理条件により、より新しい時点で
の、つまり時間遅れの少ないステレオ測距データが得ら
れることになる。
【0124】ステップS25では、カウンタrに1を加
算し、ステップS26に移る。ステップS26では、カ
ウンタrが移動物体の個数αを超えたか否か、つまり全
移動物体について処理を終えたかどうか判断し、αを超
えていれば処理を終え、αを超えていなければステップ
S24に戻り、各ステップの処理を繰り返す。
【0125】このような処理により、オプティカルフロ
ーの結果に応じてステレオ測距の処理方法を変更し、処
理効率および処理精度を向上させることができる。
【0126】次に道路上における立体物と非立体物の判
定処理について説明する。図16はマイコン5の行う立
体物判定処理を示すフローチャートであり、図17は物
体の高さの検出方法を示す原理図である。
【0127】ステップS31では物体の高さH0を算出
し、ステップS32に移る。物体の高さH0の算出方法
は、図17に示したような方法で行う。物体までの距離
をD、レンズと画像検出用の画素間の距離をf、カメラ
設置高さ(地面からの)をHc、画像における物体上端
位置とカメラと同じ高さの物体の画像位置(画像形成面
の指定位置となる)との間の距離をδとすると、相似関
係により次の式が成り立つ。
【0128】H0 = Hc − D・δ/f そして、物体までの距離Dはステレオ測距等により検出
され、距離δは画像処理により検出され、またカメラ設
置高さHc、距離fは装置特有の所定値であるので、こ
れらの値を上記式に代入することにより、物体の高さH
0が算出される。
【0129】ステップS32では、算出された物体の高
さが所定値、例えば20cmを超えたかどうか判断し、
超えていればステップS33に移り、超えていなければ
ステップS34に移る。ステップS33では立体物であ
ると判断して、その結果を記憶し、処理を終える。また
ステップS34では非立体物であると判断して、その結
果を記憶し、処理を終える。
【0130】このような処理により、物体が立体物か、
非立体物かを判断できるので、例えば正面に立体物があ
ると判断されれば警報を発する、ブレーキをかける等の
自動車の制御を適切に行うことが可能となる。
【0131】次にステレオ測距・オプティカルフロー処
理の別の処理例について説明する。本処理では、ステレ
オ測距を用いた立体物検出結果に応じて、オプティカル
フロー処理条件を変更する。図18は、マイコン5の行
う本ステレオ測距・オプティカルフロー処理を示すフロ
ーチャートである。
【0132】ステップS41では,図16に示した前述
の方法によりステレオ測距結果を用いて立体物判定を行
い、その判定結果を記憶してステップS42に移る。
尚、この判定結果の記憶は、立体物の大きさ(立体物の
画像の領域)、個数等を記憶する。ステップS42では
カウンタrを1とし、ステップS43に移る。
【0133】ステップS43では、オプティカルフロー
計算を行い、その結果を記憶し、ステップS44に移
る。このステレオ測距処理においては次のように処理を
行う。 1)オプティカルフローを算出する際の、画像の比較を
行う画像領域を、全領域でなくステップS41で求めた
立体物の存在する画像領域に限定し、比較処理を行う。
【0134】この処理条件により、比較処理演算量が減
少し、マイコン5の負荷が低減され、処理の高速化等が
可能となる。
【0135】2)オプティカルフローを算出する際の、
画像の比較を行う画像領域の大きさを、ステップS41
で求めた立体物の画像の大きさに応じた画像領域とし、
比較処理を行う。この処理条件により、同一物体の検出
精度が高くなり、性能の向上が図れ、また比較処理の演
算量の低減も図れる。
【0136】ステップS44では、カウンタrに1を加
算し、ステップS45に移る。ステップS45では、カ
ウンタrが立体物の個数αを超えたか否か、つまり全立
体物について処理を終えたかどうか判断し、αを超えて
いれば処理を終え、αを超えていなければステップS4
3に戻り、各ステップの処理を繰り返す。
【0137】このような処理により、ステレオ測距に基
づく立体物検出結果に応じてオプティカルフローの処理
方法を変更し、無駄な非立体物に対するオプティカルフ
ローの計算の削除等を行え、処理効率および処理精度を
向上させることができる。
【0138】次にマイコン5の演算負荷をより低下させ
るための画像処理方法について説明する。図19は、マ
イコン5の行う画像処理における画像処理領域決定処理
の一例を示すフローチャートである。
【0139】ステップS51では、画像における今後自
動車が進行する領域であろう進行領域を検出し、ステッ
プS52に移る。この進行領域は、自動車の進行方向
(ステアリングセンサ等により検出)と自動車の幅によ
り定まる領域(画像上の領域)、あるいは道路上の車線
区分用の白線を認識し、その白線に基づく車線の領域
(画像上の領域)を算出することにより、検出される。
【0140】ステップS52では、進行領域に侵入して
くる移動体である侵入移動体の検出を行い、ステップS
53に移る。この侵入移動体の検出は、オプティカルフ
ローを算出し、このオプティカルフローからステップS
51で検出した進行領域方向に向かって移動している移
動体の存在する領域(画像上の領域)を算出することに
より、検出される。
【0141】ステップS53では、ステレオ測距を行う
ステレオ測距領域を、ステップS51で求めた進行領域
とステップS52で求めた侵入移動体の存在する領域と
して、ステップS54に移る。ステップS54では、オ
プティカルフロー処理を行うオプティカルフロー領域
を、ステップS51で求めた進行領域以外の領域として
処理を終える。
【0142】以上のような処理により、ステレオ測距の
必要性が非常に低い進行領域以外の領域のステレオ測距
処理を省けるので、マイコン5の演算負荷が低下し、処
理の高速化等が図れる。また、進行領域以外の領域であ
っても、ステレオ測距の必要性の高い進行領域への侵入
が予想される移動体に対してはステレオ測距が行われる
ので、必要な画像データの入手が遅れるといったことを
防ぐことができる。
【0143】次にマイコン5の演算処理に用いられるメ
モリの容量を低下させるための画像処理方法について説
明する。図20および図21は、マイコン5の行うオプ
ティカルフロー処理におけるメモリの使用方法を示す説
明図、およびマイコン5の行う処理を示すフローチャー
トである。
【0144】画像処理(比較用)のメモリには、左側カ
メラが撮影した画像用の左画像用メモリ、過去の画像デ
ータを記憶するための比較画像メモリ、右側カメラが撮
影した画像用の右画像用のメモリがあり、左画像用メモ
リおよび右画像用のメモリは全画面データ記憶分の容量
があり、また比較画像メモリは半分の画面データが記憶
できる容量がある。図20に示したように、各時刻(t
+n:n=0,1,・・)ではその時刻に各カメラで撮
影された画像データが対応する画像メモリに記憶され
る。時刻tの右画像データの右半分が比較画像メモリに
記憶される。そして、この比較画像メモリに記憶された
時刻tの右画像データの右半分が、時刻t+1で右側カ
メラで撮影された右画像メモリの右半分の画像データと
比較され、オプティカルフローが算出される。
【0145】次に、時刻t+1の左画像データの左半分
が比較画像メモリに記憶される。そして、この比較画像
メモリに記憶された時刻t+1の左画像データの左半分
が、時刻t+2で左側カメラで撮影された左画像メモリ
の左半分の画像データと比較され、オプティカルフロー
が算出される。
【0146】そして、再び時刻t+2の右画像データの
右半分が比較画像メモリに記憶され、以後このような処
理が交互に繰り返される。つまり、画像の左右半分に対
して交互にオプティカルフロー処理が行われるので、比
較用のメモリが全画面を処理するのに対して半分で済
み、また画面の左右半分について交互に処理が行われる
のであまり時間遅れがなく処理が行われる。
【0147】次にこのような処理を行うための、マイコ
ン5の処理について図21を用いて説明する。ステップ
S61ではカウンタCNTに1を加算してステップS6
2に移る。ステップS62ではカウンタCNTが偶数か
どうか判断し、偶数であればステップS63に移り、偶
数でなければステップS65に移る。ステップS63で
は左画像(左側カメラの撮影した画像)の左半分のデー
タと比較画像メモリの画像データとを用いてオプティカ
ルフロー処理を行い、左画像の左半分のオプティカルフ
ローを求め、ステップS64に移る。ステップS64で
は、右画像(右側カメラの撮影した画像)の右半分のデ
ータを比較画像メモリに記憶し、本処理を終える。
【0148】ステップS65では右画像の右半分のデー
タと比較画像メモリの画像データとを用いてオプティカ
ルフロー処理を行い、右画像の右半分のオプティカルフ
ローを求め、ステップS66に移る。ステップS66で
は、左画像の左半分のデータを比較画像メモリに記憶
し、本処理を終える。
【0149】このような処理により、図20で示したよ
うなメモリの使用方法により、オプティカルフロー処理
を行うことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る自動車制御装置の構
成を示した構成図である。
【図2】オプティカルフローの動作概要を示す説明図で
ある。
【図3】オプティカルフロー計算処理を示すフローチャ
ートである。
【図4】オプティカルフロー計算処理を示すフローチャ
ートである。
【図5】ステレオ測距の動作概要を示す説明図である。
【図6】ステレオ測距計算処理を示すフローチャートで
ある。
【図7】ステレオ測距計算処理を示すフローチャートで
ある。
【図8】立体移動物識別処理を示すフローチャートであ
る。
【図9】(A)(B)は理論オプティカルフロー算出方
法を示す説明図である。
【図10】理論オプティカルフロー算出方法を示す説明
図である。
【図11】理論オプティカルフロー算出方法を示す説明
図である。
【図12】ピッチング角検出方法の原理を示す説明図で
ある。
【図13】ピッチング角検出処理を示すフローチャート
である。
【図14】死角処理を示すフローチャートである。
【図15】オプティカルフローおよびステレオ測距の算
出方法の一例を示すフローチャートである。
【図16】立体物判定処理を示すフローチャートであ
る。
【図17】立体物判定方法の原理を示す説明図である。
【図18】オプティカルフローおよびステレオ測距の算
出方法の一例を示すフローチャートである。
【図19】画像処理領域決定処理の一例を示すフローチ
ャートである。
【図20】オプティカルフロー処理におけるメモリ使用
方法を示す説明図である。
【図21】オプティカルフロー処理におけるメモリ使用
方法を示すフローチャートである。
【符号の説明】
1,2・・・フロントガラス 3,4・・・画像メモリ 5・・・マイクロコンピュータ 6・・・メモリ 7・・・ステアリングセンサ 8・・・車速センサ 9・・・ピッチングセンサ 10・・・ヨーレートセンサ

Claims (32)

    【特許請求の範囲】
  1. 【請求項1】 撮影時間に時間差のある第1画像と第2
    画像との画像データを比較し、その差から物体の移動状
    態を検出するオプティカルフロー手段を備えた画像認識
    装置において、 前記オプティカルフロー手段が、 前記第1画像の比較を行う画像領域を制限する領域制限
    手段と、 前記領域制限手段により制限された前記第1画像の領域
    を複数の小領域に分割する分割手段と、 前記小領域を前記第2画像の各部と比較し、該小領域と
    実質的に一致する前記第2画像の領域を検出する画像移
    動状態検出手段とを備えていることを特徴とする画像認
    識装置。
  2. 【請求項2】 前記画像移動状態検出手段が比較する前
    記第2画像の範囲を限定する比較範囲限定手段を備えて
    いることを特徴とする請求項1記載の画像認識装置。
  3. 【請求項3】 前記比較範囲限定手段が、画像認識装置
    が搭載された自動車の車速に応じて前記第2画像の比較
    範囲を変化させるものであることを特徴とする請求項2
    記載の画像認識装置。
  4. 【請求項4】 撮影位置の異なる第1画像と第2画像と
    の画像データを比較し、その差から物体の距離を検出す
    るステレオ測距手段を備えた画像認識装置において、 前記ステレオ測距手段が、 前記第1画像の比較を行う画像領域を制限する領域制限
    手段と、 該領域制限手段により制限された前記第1画像の領域を
    複数の小領域に分割する分割手段と、 該小領域を前記第2画像の各部と比較し、該小領域と実
    質的に一致する前記第2画像の領域を検出する画像移動
    状態検出手段とを備えていることを特徴とする画像認識
    装置。
  5. 【請求項5】 前記画像移動状態検出手段が比較する前
    記第2画像の範囲を限定する比較範囲限定手段を備えて
    いることを特徴とする請求項4記載の画像認識装置。
  6. 【請求項6】 前記比較範囲限定手段が、画像を撮影す
    るカメラの設置状態に応じて前記第2画像の比較範囲を
    変化させるものであることを特徴とする請求項5記載の
    画像認識装置。
  7. 【請求項7】 前記第1画像と前記第2画像は地面から
    の高さが同じ位置に設置されたカメラから撮影された画
    像であって、 前記比較範囲限定手段が、前記第2画像における前記小
    領域に対応する領域の水平方向に延びる領域を比較範囲
    とするものであることを特徴とする請求項5記載の画像
    認識装置。
  8. 【請求項8】 撮影時間に時間差のある第1画像と第2
    画像との画像データを比較し、その差から物体の移動状
    態を検出するオプティカルフロー手段と、 撮影位置の異なる第3画像と第4画像との画像データを
    比較し、その差から物体の距離を検出するステレオ測距
    手段とを備えた画像認識装置であって、 前記オプティカルフロー手段と前記ステレオ測距手段と
    の検出結果から、移動物体の状態を検出する移動物体状
    態検出手段を備えていることを特徴とする画像認識装
    置。
  9. 【請求項9】 前記第1画像と前記第3画像と前記第4
    画像とは同一のカメラにより撮影された画像であること
    を特徴とする請求項8記載の画像認識装置。
  10. 【請求項10】 画像認識装置が搭載された自動車の走
    行状態を検出する走行状態検出手段と、 前記走行状態検出手段の検出した走行状態と、前記ステ
    レオ測距手段により検出した物体までの距離とから、静
    止物の理論的オプティカルフローを演算する理論オプテ
    ィカルフロー演算手段と、 前記オプティカルフロー手段により検出されたオプティ
    カルフローと、前記理論オプティカルフロー演算手段に
    より算出されたオプティカルフローとを比較し、静止物
    を判定する静止物判定手段とを備えていることを特徴と
    する請求項9記載の画像認識装置。
  11. 【請求項11】 前記走行状態が、前記自動車の走行速
    度であることを特徴とする請求項10記載の画像認識装
    置。
  12. 【請求項12】 前記走行状態が、前記自動車の旋回状
    態であることを特徴とする請求項10記載の画像認識装
    置。
  13. 【請求項13】 前記旋回状態が、ステアリングの操作
    角度により検出されるものであることを特徴とする請求
    項12記載の画像認識装置。
  14. 【請求項14】 前記旋回状態が、自動車の横方向の加
    速度を検出するヨーレートセンサにより検出されるもの
    であることを特徴とする請求項12記載の画像認識装
    置。
  15. 【請求項15】 前記走行状態が、前記自動車のピッチ
    ング状態であることを特徴とする請求項10記載の画像
    認識装置。
  16. 【請求項16】 前記ステレオ測距手段により検出され
    た路面上の所定物体までのステレオ測距距離と、カメラ
    の取付状態と前記所定物体の画像位置とから算出される
    該所定物体までの距離を算出する単一カメラ測距距離に
    基づき、ピッチング角度を演算するピッチング角度演算
    手段とを備えていることを特徴とする請求項15記載の
    画像認識装置。
  17. 【請求項17】 前記ステレオ測距ができない部分を検
    出する死角検出手段と、 該死角検出手段により検出された死角部分については、
    カメラの取付状態と前記所定物体の画像位置とから算出
    される該所定物体までの距離を算出する単一カメラ測距
    手段による距離測定を行う距離測定補足手段とを備えて
    いることを特徴とする請求項8または請求項10記載の
    画像認識装置。
  18. 【請求項18】 前記オプティカルフロー手段の検出結
    果により、前記ステレオ測距手段の動作を変更するステ
    レオ測距制御手段を備えていることを特徴とする請求項
    8または請求項10記載の画像認識装置。
  19. 【請求項19】 前記ステレオ測距制御手段が、前記ス
    テレオ測距手段が処理を行う画像の領域を、前記オプテ
    ィカルフロー手段の検出結果により移動物体が検出され
    た画像の領域に限定するものであることを特徴とする請
    求項18記載の画像認識装置。
  20. 【請求項20】 前記ステレオ測距制御手段が、前記ス
    テレオ測距手段が画像処理を行う単位領域である小領域
    を、前記オプティカルフロー手段の検出結果に応じた大
    きさとするものであることを特徴とする請求項18記載
    の画像認識装置。
  21. 【請求項21】 前記ステレオ測距制御手段が、前記ス
    テレオ測距手段が画像処理を行う単位領域である小領域
    を、前記オプティカルフロー手段の行った画像処理の単
    位領域と同じ大きさとするものであることを特徴とする
    請求項18記載の画像認識装置。
  22. 【請求項22】 前記ステレオ測距手段が処理する画像
    が、前記オプティカルフロー手段が処理する画像の内、
    時間的に後に撮影された画像であることを特徴とする請
    求項8または請求項10記載の画像認識装置。
  23. 【請求項23】 前記ステレオ測距手段の検出結果に基
    づいて算出される物体の地面からの高さから、立体物を
    検出する立体物検出手段と、 該立体物検出手段により検出された立体物が存在する画
    像の領域を、前記オプティカルフロー手段の画像処理領
    域とするオプティカルフロー制御手段とを備えているこ
    とを特徴とする請求項8または請求項10記載の画像認
    識装置。
  24. 【請求項24】 前記オプティカルフロー制御手段が、
    前記立体物検出手段の検出結果に応じて、前記オプティ
    カルフロー手段が画像処理を行う単位領域である小領域
    の大きさを制御するものであることを特徴とする請求項
    23記載の画像認識装置。
  25. 【請求項25】 ステレオ測距を行う画像領域を自車の
    走行する車線内の領域とし、オプティカルフロー処理を
    行う画像領域を自車の走行する車線外の領域とする画像
    処理領域設定手段を備えていることを特徴とする請求項
    8または請求項10記載の画像認識装置。
  26. 【請求項26】 前記画像処理領域設定手段が、オプテ
    ィカルフロー処理により自車の走行する車線内への侵入
    が予想される移動物体が存在する画像の領域をステレオ
    測距を行う画像領域に加えるものであることを特徴とす
    る請求項25記載の画像認識装置。
  27. 【請求項27】 ステレオ測距を行う画像領域を自車が
    進行する領域とし、オプティカルフロー処理を行う画像
    領域を自車が進行する領域外の領域とする画像処理領域
    設定手段を備えていることを特徴とする請求項8または
    請求項10記載の画像認識装置。
  28. 【請求項28】 前記画像処理領域設定手段が、オプテ
    ィカルフロー処理により自車の進行する領域内への侵入
    が予想される移動物体が存在する画像の領域をステレオ
    測距を行う画像領域に加えるものであることを特徴とす
    る請求項27記載の画像認識装置。
  29. 【請求項29】 前記自車が進行する領域が、自車の車
    幅と旋回状態により算出されるものであることを特徴と
    する請求項27記載の画像認識装置。
  30. 【請求項30】 画像領域を分割する画像分割手段と、 該画像分割手段により分割された画像を時分割でオプテ
    ィカルフロー手段による画像処理領域とする時分割制御
    手段とを備えていることを特徴とする請求項8または請
    求項10記載の画像認識装置。
  31. 【請求項31】 次にオプティカルフロー手段による処
    理領域となる領域の画像を記憶する記憶手段を備えてい
    ることを特徴とする請求項30記載の画像認識装置。
  32. 【請求項32】 ステレオ測距に用いる2画像を交互に
    オプティカルフロー手段による処理画像とする画像選択
    手段を備えていることを特徴とする請求項30記載の画
    像認識装置。
JP9018524A 1997-01-31 1997-01-31 画像認識装置 Pending JPH10222665A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9018524A JPH10222665A (ja) 1997-01-31 1997-01-31 画像認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9018524A JPH10222665A (ja) 1997-01-31 1997-01-31 画像認識装置

Publications (1)

Publication Number Publication Date
JPH10222665A true JPH10222665A (ja) 1998-08-21

Family

ID=11974029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9018524A Pending JPH10222665A (ja) 1997-01-31 1997-01-31 画像認識装置

Country Status (1)

Country Link
JP (1) JPH10222665A (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10267618A (ja) * 1997-03-24 1998-10-09 Nissan Motor Co Ltd 距離計測装置
JP2001012946A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 動画像処理装置及び方法
JP2001180404A (ja) * 1999-12-24 2001-07-03 Mitsubishi Motors Corp 車両の後方監視装置
JP2002032759A (ja) * 2000-07-19 2002-01-31 Mitsubishi Electric Corp 監視装置
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
JP2002335524A (ja) * 1999-09-20 2002-11-22 Matsushita Electric Ind Co Ltd 運転支援装置
JP2003132349A (ja) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd 描画装置
JP2005214914A (ja) * 2004-02-02 2005-08-11 Fuji Heavy Ind Ltd 移動速度検出装置および移動速度検出方法
JP2006134035A (ja) * 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd 移動物体検出装置および移動物体検出方法
CN100377168C (zh) * 2004-06-29 2008-03-26 索尼株式会社 用光学信息进行情形识别的方法及装置
JP2010079582A (ja) * 2008-09-25 2010-04-08 Toshiba Corp 物体を検出する装置、方法及びプログラム
JP2010204805A (ja) * 2009-03-02 2010-09-16 Konica Minolta Holdings Inc 周辺監視装置および該方法
JP2011022157A (ja) * 2000-05-26 2011-02-03 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
US9045085B2 (en) 2013-01-28 2015-06-02 Fujitsu Ten Limited Object detector
US9483841B2 (en) 2013-11-01 2016-11-01 Fujitsu Limited Travel amount estimation device and travel amount estimating method
JP2017142760A (ja) * 2016-02-12 2017-08-17 日立オートモティブシステムズ株式会社 移動体の周囲環境認識装置
US9811741B2 (en) 2013-01-28 2017-11-07 Fujitsu Ten Limited Object detector
JPWO2017145541A1 (ja) * 2016-02-23 2018-11-08 株式会社日立製作所 移動体
CN110386142A (zh) * 2018-04-17 2019-10-29 百度(美国)有限责任公司 用于自动驾驶车辆的俯仰角校准方法
JPWO2018123640A1 (ja) * 2016-12-26 2019-10-31 日立オートモティブシステムズ株式会社 撮像装置
US10708511B2 (en) 2017-02-06 2020-07-07 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional motion obtaining apparatus and three-dimensional motion obtaining method

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10267618A (ja) * 1997-03-24 1998-10-09 Nissan Motor Co Ltd 距離計測装置
JP2001012946A (ja) * 1999-06-30 2001-01-19 Toshiba Corp 動画像処理装置及び方法
JP2002335524A (ja) * 1999-09-20 2002-11-22 Matsushita Electric Ind Co Ltd 運転支援装置
JP2001180404A (ja) * 1999-12-24 2001-07-03 Mitsubishi Motors Corp 車両の後方監視装置
JP2011022157A (ja) * 2000-05-26 2011-02-03 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
JP2002032759A (ja) * 2000-07-19 2002-01-31 Mitsubishi Electric Corp 監視装置
JP2003132349A (ja) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd 描画装置
JP2005214914A (ja) * 2004-02-02 2005-08-11 Fuji Heavy Ind Ltd 移動速度検出装置および移動速度検出方法
CN100377168C (zh) * 2004-06-29 2008-03-26 索尼株式会社 用光学信息进行情形识别的方法及装置
JP2006134035A (ja) * 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd 移動物体検出装置および移動物体検出方法
JP2010079582A (ja) * 2008-09-25 2010-04-08 Toshiba Corp 物体を検出する装置、方法及びプログラム
JP2010204805A (ja) * 2009-03-02 2010-09-16 Konica Minolta Holdings Inc 周辺監視装置および該方法
US9045085B2 (en) 2013-01-28 2015-06-02 Fujitsu Ten Limited Object detector
US9811741B2 (en) 2013-01-28 2017-11-07 Fujitsu Ten Limited Object detector
US9483841B2 (en) 2013-11-01 2016-11-01 Fujitsu Limited Travel amount estimation device and travel amount estimating method
JP2017142760A (ja) * 2016-02-12 2017-08-17 日立オートモティブシステムズ株式会社 移動体の周囲環境認識装置
JPWO2017145541A1 (ja) * 2016-02-23 2018-11-08 株式会社日立製作所 移動体
US10740908B2 (en) 2016-02-23 2020-08-11 Hitachi, Ltd. Moving object
JPWO2018123640A1 (ja) * 2016-12-26 2019-10-31 日立オートモティブシステムズ株式会社 撮像装置
US10708511B2 (en) 2017-02-06 2020-07-07 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional motion obtaining apparatus and three-dimensional motion obtaining method
CN110386142A (zh) * 2018-04-17 2019-10-29 百度(美国)有限责任公司 用于自动驾驶车辆的俯仰角校准方法
CN110386142B (zh) * 2018-04-17 2022-08-12 百度(美国)有限责任公司 用于自动驾驶车辆的俯仰角校准方法

Similar Documents

Publication Publication Date Title
JPH10222665A (ja) 画像認識装置
US6535114B1 (en) Method and apparatus for environment recognition
EP0501345B1 (en) Motor car traveling control device
JP3822770B2 (ja) 車両用前方監視装置
US6489887B2 (en) Lane-keep assisting system for vehicle
US7474765B2 (en) Image recognition apparatus
EP1927962B1 (en) Obstacle detection device
JP3915746B2 (ja) 車両用外界認識装置
JP3494434B2 (ja) 駐車支援装置
JP5421072B2 (ja) 接近物体検知システム
US7266454B2 (en) Obstacle detection apparatus and method for automotive vehicle
US8108097B2 (en) Controlling vehicle dynamics through the use of an image sensor system
US7652686B2 (en) Device for image detecting objects, people or similar in the area surrounding a vehicle
JP3600378B2 (ja) 車両の外界認識装置
JP2011221983A (ja) 車両用環境認識装置
WO2018179281A1 (ja) 物体検出装置及び車両
CN107792070A (zh) 车辆的驾驶辅助装置
KR20060021922A (ko) 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
JP3324859B2 (ja) 車間距離制御装置
KR20190067578A (ko) 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법
JP7425615B2 (ja) 車両用制御システム
JPH07296291A (ja) 車両用走行路検出装置
JPH1137730A (ja) 道路形状推定装置
US20150294465A1 (en) Vehicle position estimation system
JP2728174B2 (ja) 移動車の前方車認識装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070522