JP2000136905A - 物体端の位置計測装置および移動体の通行判断装置 - Google Patents

物体端の位置計測装置および移動体の通行判断装置

Info

Publication number
JP2000136905A
JP2000136905A JP10311903A JP31190398A JP2000136905A JP 2000136905 A JP2000136905 A JP 2000136905A JP 10311903 A JP10311903 A JP 10311903A JP 31190398 A JP31190398 A JP 31190398A JP 2000136905 A JP2000136905 A JP 2000136905A
Authority
JP
Japan
Prior art keywords
range
edge
horizontal
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10311903A
Other languages
English (en)
Other versions
JP3596314B2 (ja
Inventor
Tomoko Shimomura
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP31190398A priority Critical patent/JP3596314B2/ja
Priority to US09/426,952 priority patent/US6477260B1/en
Publication of JP2000136905A publication Critical patent/JP2000136905A/ja
Application granted granted Critical
Publication of JP3596314B2 publication Critical patent/JP3596314B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】 【課題】白線や車両の位置に影響されずに障害物の位置
を検出し、その障害物の横端の位置を高精度に求められ
る位置計測装置を提供する。 【解決手段】光軸が平行で、撮像面の水平軸が同じライ
ン上に揃うように設置された二つのカメラ1、2による
ステレオ画像処理であって、前方に物体20があると同
じ方向に同じ視差を示すウィンドウが固まることを利用
し、ウィンドウ毎に求めた視差を視差と横位置からなる
表の対応する位置に値を加算し、表から値の高い位置を
探すことで物体の距離と先行車が撮像される画像上の範
囲を求め、その範囲内で水平エッジのヒストグラムから
エッジを検出することで先行車の上下端に挟まれる範囲
Bを求め、範囲B内において垂直エッジのヒストグラム
を求めることで垂直エッジを求め、それらのエッジの中
から視差×横位置の表で求めたおおよその横位置の範囲
付近にあるエッジを選択することで画像上の車両の横端
位置を求める。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、ステレオ画像処
理を用いて、前方の障害物を検知し、その障害物まで距
離および横端の位置を周囲の環境に影響されることな
く、かつ、精度良く求める技術に関し、例えば自動車用
の障害物検知装置、速度制御装置、ブレーキ制御装置、
自動操舵装置等に応用される技術である。
【0002】
【従来の技術】従来の障害物検出方法としては、例えば
特開平8−278126号公報に記載されたものがあ
る。上記従来技術は、検出対象を先行車としたものであ
り、先行車は路面上に存在すること、および車両は横エ
ッジが長いことが多いことから、検出対象物の探索範囲
を白線検出により求めた路面上に限定し、路面上の横エ
ッジを探索することで先行車の画像上の位置を求め、そ
の位置においてステレオマッチングを行なうことで先行
車までの距離を求めるものである。
【0003】
【発明が解決しようとする課題】しかし、この方法にお
いては、先行車の検出範囲を、白線を基にして求めた自
車レーン上に限定しているため、白線のない道路や先行
車が近距離にあって白線が隠れてしまう場合には路面領
域を限定できないので、そのような場面では水平エッジ
の探索範囲の限定ができなくなり、先行車検出が不安定
になる、という問題がある。また、この方法では、路面
上の垂直エッジの探索を行ない、その垂直エッジを用い
てステレオマッチングにより先行車の距離と画像上の位
置検出を行っており、先行車の横端の位置は、路面上に
存在する垂直エッジ端から予想して判断しているため、
他の物体の端や背景との区別がつきにくいので、車両の
横方向の位置精度が悪いという問題がある。
【0004】本発明は、上記のごとき従来技術の問題を
解決するためになされたものであり、白線や車両の位置
などの周囲環境に影響されることなく障害物の位置を検
出し、かつ、その障害物の横端の位置を高精度に求める
ことのできる物体端の位置計測装置を提供することを目
的とする。
【0005】
【課題を解決するための手段】上記の目的を達成するた
め、本発明においては、特許請求の範囲に記載するよう
に構成している。すなわち、請求項1においては、ステ
レオ画像全体を複数のに画像領域(以下、ウィンドウと
記す)に分割し、各ウィンドウ毎に視差を求める。そし
て前方に物体が存在すると、同じ視差のウィンドウが固
まることを利用し、視差×水平方向位置(横方向つまり
x軸方向に定義したウィンドウ)の表(以下、視差×横
位置の表と呼ぶ)を用いて、各ウィンドウ毎に求めた視
差に基づいて、表の対応する位置に投票する。そして、
x軸方向において同じ位置に並ぶウィンドウのうち同じ
視差となるウィンドウの数を求め、表中の値の高い位置
を物体の位置として検出する。また、その値が高くなる
表中の視差に応じて物体までの距離を求め、かつ、その
表の横方向の位置をもとに、画像上において物体が撮像
される横方向のおおよその位置を求める。さらに、その
おおよその範囲内において求めた各垂直方向位置(y座
標)毎の水平微分値の絶対値のヒストグラムに基づいて
物体の上下端を求め、その上下端と判断されたエッジに
挟まれる範囲を画像上で物体が存在する縦方向の範囲B
として限定する。これらの方法で求めた上下方向の範囲
が物体(先行車)が撮像されている範囲である。また、
範囲B内において求めた各x座標毎の垂直微分の絶対値
のヒストグラムから求めた垂直エッジの中から、視差×
横位置の表で求めた先行車位置付近のエッジを選択する
ことにより、先行車の横端エッジの位置を精度よく、か
つ周囲の環境に影響されることなく求めることが出来
る。最後に、画像上において今までに述べた方法で求め
たこの横端のエッジの座標位置を用いて、この値を実座
標系に変換することにより前方の物体の距離と横端の実
空間上の位置を求めることが出来る。
【0006】また、本発明においては、検出領域を自車
レーンだけに限定していないため、検出物体の個数や検
出対象物の形や色にかかわらず、同じ処理で同時に複数
物体を検出することが可能になり、検出した個々の物体
の全てにおいて同様の方法により画像上での横端位置の
計測が可能となる。
【0007】次に、請求項2に記載の発明においては、
請求項1における視差×横位置の表の投票結果より画像
上におけるおおよその横位置を特定する際、或る一定時
間内でヒストグラムをとり、その時間内において連続し
て物体と判断される範囲Aと、或る回数以上物体と判断
される範囲A’(Aより広い範囲)とを決め、ほぼ確実に
物体と判断できるAの範囲を、前方物体の縦方向の範囲
Bを求めるためのヒストグラムを求める範囲とするよう
に構成している。
【0008】次に、請求項3に記載の発明においては、
範囲Bを求める際、請求項2で求めたAの範囲内にある
横エッジを探索するように構成している。
【0009】次に、請求項4に記載の発明においては、
範囲Bを求める際、請求項1で求めた物体までの距離
と、カメラの焦点距離と、カメラの高さと、前方物体の
一般的な寸法から予想される概略の高さ応じて予め設定
した値(例えば車両の一般的な高さに相当する値で、予
め設定した値)とに基づいて、物体の上下端が撮像され
うるおおよそのy座標位置HU,HDを幾何学的に求
め、範囲A内で求めた水平微分値のヒストグラムの高い
位置、または、請求項3の範囲A内で求めた水平エッジ
位置のうち、y=HUとy=HD付近のエッジを選択す
るように構成している。
【0010】次に、請求項5に記載の発明においては、
請求項1において画像上の物体の横端座標を求める際、
各x座標毎に範囲B内の輝度の平均値を求め、時間的に
連続して毎回の処理で求めた輝度の平均値を格納し、或
る一定時間内における各x座標毎の輝度の平均値の分散
が低い範囲を縦エッジの存在する範囲として求めるよう
に構成している。
【0011】次に、請求項6に記載の発明においては、
請求項1において画像上の物体の横端座標を求める際、
範囲B内で求めた垂直エッジのヒストグラムやHoug
h変換などで求められた垂直エッジの中から、請求項5
で求めた輝度の平均値の時間的分散の低い範囲の両端付
近にあり、かつ、請求項2で求めた範囲A(物体が確実
に存在する範囲)と範囲A’(物体が存在する可能性の
高い範囲)との間付近にあるエッジを選択するように構
成している。
【0012】次に、請求項7に記載の発明は、請求項1
〜請求項6に記載の物体端の位置計測装置を用いた移動
体の通行判断装置であり、位置計測装置の計測結果に基
づいて、上記位置計測装置を搭載した移動体(例えば車
両)の前進判断と経路誘導との少なくとも一方を決定す
る手段を備えたものである。上記の構成により、移動体
の前進の判断や他物体に衝突することなく移動できる経
路を誘導することが出来る。
【0013】
【発明の効果】請求項1では、水平エッジに比べて短
く、周囲の木や壁などの影響により検出が困難である車
両の横端位置を、高精度かつ背景の影響のないロバスト
な検出が可能になるという効果がある。さらに、複数の
先行車が検出された場合においても、それぞれに同様の
処理を施すことで、複数の障害物の横位置を求めること
ができるという利点がある。
【0014】請求項2では、より正確かつ背景の影響を
受けずに水平エッジを検出できるようになるという効果
がある。さらに、先行車が至近距離にある場合、オクル
ージョンの影響によって視差×横位置の表における車両
の横端位置付近のウィンドウの視差が不安定になるた
め、水平エッジの検出範囲だけでなく、範囲B内におい
て検出した垂直エッジの中からの車両端エッジの選択を
誤判断する可能性があるが、請求項2の構成によれば、
確実に車両内である領域Aと車両の候補領域A’とを求
めているため、それら二つの範囲を考慮に入れることで
エッジの選択もより正確になる。
【0015】請求項3では、請求項2で求めた確実に車
両の内部であると判断された領域A内だけでの水平エッ
ジを検出する構成としたことにより、背景に存在するエ
ッジの影響が減少するので、その範囲内で単純なエッジ
検出法を用いることにより高速な方法にすることが可能
である。また、対象物が既知の場合(例えば車両)で
は、範囲A内において対象物に応じたエッジ検出方法に
することにより、確実かつ高速な処理に応用できるとい
う利点もある。また、範囲の限定だけ確実性の増加を図
っているので、エッジ検出方法は様々な応用が可能であ
る。
【0016】請求項4では、範囲A内で求めたエッジか
ら車両の上下端を選択する際に、先行車の距離をもと
に、先行車の上下端が撮像されうるおおよその位置を求
め、その付近で検出されたエッジを選択する構成とした
ことにより、路面上の影や歩道橋など、範囲A内にたま
たま撮像されてしまう先行車以外の水平エッジとの誤検
出を防ぐことができるという効果がある。さらに、エッ
ジの検出範囲を、予め求めておいた先行車の上下端が撮
像されうる付近だけに限定することで高速化も可能であ
る。
【0017】請求項5では、範囲B内で車両の横端位置
を求める際、時間的に連続して範囲B内で各x座標毎の
輝度の平均値を計算し、各x座標毎で求めた輝度の平均
値の時間的な分散の小さい位置を車両が撮像されている
範囲として求めることにより、車高が低い場合や背景が
車両と同じ色であるなど、縦エッジの検出が困難である
ような状況下でも車両端の検出が可能になるという効果
がある。
【0018】請求項6では、請求項4で求めたエッジの
うち、請求項5で求めた各x座標毎の輝度の平均値の分
散の小さい範囲の両端付近にあり、かつ、視差から求め
た範囲Aと範囲A’の間付近にあるエッジを車両の横端
として選択することにより、背景や車両の形に左右され
ることなく、かつ、車両の距離とは異なる位置と誤判断
することがないため、より確実に車両端座標を求めるこ
とが可能となるという効果がある。
【0019】請求項7では、請求項1〜請求項6に記載
の物体端の位置計測装置を利用することにより、前方障
害物の正確な横位置判断を行なうことが出来るので、例
えば、料金所前の合流による渋滞など、左右の斜め前に
車両などの障害物がある場合においても自車両の通行判
断が可能な装置を実現することが出来る。
【0020】
【発明の実施の形態】(第1の実施の形態)図1は第1
の実施の形態の構成を示すブロック図である。この構成
は請求項1に相当する。図1において、1および2は電
子式のカメラであり、自車の前部に前方を向いて設置さ
れており、両カメラの光軸は相互に平行で、かつ撮像面
の水平軸が同じライン上に揃うように設置されている。
なお、車両の後部に後方を向けて設置し、車両後方の障
害物を検出するように構成することもできる。20は自
車の前方に存在する障害物等の検出対象物であり、図1
では先行車を例示している。30は演算部であり、例え
ばCPU、RAM、ROM等からなるマイクロコンピュ
ータで構成される。演算部30において、3、4はそれ
ぞれカメラ1、2から入力した画像信号を記憶する画像
メモリである。また、5〜11は演算部30における演
算内容をブロックで示したものであり、5はウィンドウ
(画像領域)設定手段、6は視差算出手段、7は投票手
段、8は距離・水平範囲算出手段、9は垂直範囲算出手
段、10はエッジ選択手段、11は実位置算出手段であ
る。なお、演算部30内のこれらの各手段については詳
細を後述する。
【0021】図2は、ステレオ画像を用いて三角測量の
原理でカメラから検出対象までの距離を求める原理を説
明する図である。図2においては、カメラA(前記カメ
ラ1に相当)で撮像した画像を画像A、カメラB(前記
カメラ2に相当)で撮像した画像を画像Bで示し、検出
対象の位置を点p(x,y,z)としている。
【0022】図2から判るように、焦点距離f、眼間距
離(両カメラ間の距離)Dが既知であり、光軸が互いに
平行な2台のカメラA、Bで撮像したステレオ画像にお
いて、2枚の画像間のマッチング位置xa、xbを求め
ることできれば、カメラから対象物pまでの距離Zは下
記(数1)式より求めることができる。
【0023】 Z=f・D/(xa−xb)=f・D/S …(数1) ただし、xa−xb=Sは視差であり、図2のように、
光軸が平行で、所定間隔を隔てて設置された二つのカメ
ラA、Bで一つの物体を撮像した場合に、それぞれのカ
メラに写った画像の位置の差、すなわち画像Aにおける
位置xaと画像Bにおける位置xbとの差である。な
お、この例では、眼間距離Dと距離Zの単位はm、焦点
距離f、視差Sおよび位置xa、xbの単位は画素であ
る。例えばカメラA、BはCCDを用いたものであり、
画素数を640×480とした場合、1画素の大きさは
10μm程度である。
【0024】上記(数1)式の焦点距離fは単位を画素
として計算しているが、一般に、焦点距離fは単位がm
mで表される場合が多い。それを単位が画素の値に換算
するには、例えば、図3に示すように、大きさの判って
いる幅W(mm)の対象物を距離z(mm)離れたとこ
ろにおいて撮像し、そのときに撮像される画像上での対
象物の画素数wxをエッジ検出などの画像処理によって
検出することにより、下記(数2)式で求めることがで
きる。
【0025】f=z・wx/W …(数2) ただし、wx、fの単位は画素、z、Wの単位はmm また、上記の視差Sを検出するには、一方の画像(例え
ば画像B)上において点pが撮像されている点(xb、
yb)に対応する他方の画像(例えば画像A)上の点
(xa、ya)を検出する必要がある。その方法として
は、画像B上の点(xb、yb)を含む或る範囲の画像
(ウィンドウ)と最も類似した範囲を画像A内から探す
ことで求めることができる。この類似度の算出には、画
像間の差分法や正規化相関法などがある。
【0026】図4は、両画像の対応する位置毎の視差を
求めた結果を示す図であり、詳しくは、道路前方を撮像
した画像において、一方の画像(例えば画像B)をウィ
ンドウ毎に切り、その全てのウィンドウにおいて他方の
画像(例えば画像A)からそのウィンドウと最も類似度
の高い画像の位置を求めることで、両画像における対応
する位置を検出し、それぞれの対応する位置から各ウィ
ンドウ毎の視差を求めた結果を表したものである。図4
において、(A)は左画像(画像Aに相当)、(B)は
右画像(画像Bに相当)、(C)は視差の表、(D)は
視差が「15」のウィンドウ部分のみを抜き出した画像
を示す。また、図4(B)、(C)の(1)〜(20)は各ウ
ィンドウの水平方向(以下、横方向と記す)の位置を示
す。ただし、図においては(1)〜(20)を丸付き数字で表
している。また、一つのウィンドウは幅(x方向の長
さ)がxw、高さ(y方向の長さ)がywである。上記
のように、各ウィンドウ毎の視差が判れば、前記(数
1)式を用いることによって、該当するウィンドウに撮
像されている物体までの距離を求めることが出来る。
【0027】以下、図4のようにウィンドウ毎にその内
部に撮像されている物体までの視差を求めた画像を“距
離画像”と呼ぶことにする。このウィンドウ毎に算出さ
れる視差は、当該ウィンドウの内部に撮像されていてエ
ッジ(画像が明から暗または暗から明に変化する点が連
続した部分で、画像の端などを示す線分に相当する)な
どの特徴的な部分を持つ物体までの距離に相当するか
ら、一つの対象物が複数ウィンドウに跨って撮像されて
いると、隣接するウィンドウで同じ視差が求められる。
例えば、道路前方を撮像した画像における距離画像の場
合、先行車と、先行車が存在する真下の路面とは同距離
なので、図4(D)に太線のウィンドウで示すように、
先行車の下部と同じy座標上にあるウィンドウは先行車
と同じ視差で算出される。例えば図4(C)の下から2
行目に「15」が横方向に連続しているのが上記の部分
に相当する。なお、図4(C)において、中央部分に視
差「15」が集合している部分が先行車に相当し、
(3)、(4)列に視差「19」が集合している部分が「左方
の木」に相当し、(6)列に視差「5」が連続している部
分が「中央の木」に相当する。
【0028】上記のように、距離画像は前方に高さのあ
る物体が存在すると、その物体が撮像されているx座標
位置のウィンドウでは同じ視差が検出される。一方、車
両横にある白線部分のように路面などの高さを持たない
位置では、同じx座標上で同じ視差が検出されるウィン
ドウは一つである。すなわち、前方に物体が存在する場
合、同一x座標の方向でのウィンドウにおいて同じ視差
の個数を数えることにより、物体を検知することができ
る。この方法によれば、複数の物体も一つの物体も同じ
方法で検出することができ、検出対象や背景の色に左右
されずに物体を検知できるようになる。また、白線や停
止線などの路面表示は、同じ視差を示すウィンドウが同
じ方向に現れないため、路面表示と高さをもつ障害物と
を誤検出することがなくなるという利点もある。加え
て、距離画像だけを利用しているため、検出対象の色や
形状および背景色にかかわらず同様の処理で複数物体を
検出できる。
【0029】これまでに説明した構成は、本出願人が既
に出願した特願平10−154625号(未公開)と同
じである。本発明は、上記本出願人の先行発明をさらに
発展させたものであり、上記のようにして検出した前方
物体の横方向の位置をより正確に検出する技術である。
【0030】図5は、距離画像上の或るウィンドウで求
めた視差とそのウィンドウの横方向の位置に基づいて、
対応する表中の位置に投票する様子を表した図であり、
(A)は右画像、(B)は視差の表、(C)は投票用の
表を示す。なお、この場合における「投票」とは、或る
横方向位置とそれに対応する視差の値の位置に、+1ず
つ加算することを意味する。例えば位置(8)の位置に視
差「15」が1個存在する場合には、図5(C)の位置
(8)で視差「15」の位置に「+1」が加算される。図
5(B)の例では、位置(8)の位置に視差「15」が5
個存在するから、最終的には位置(8)で視差「15」の
位置に「5」が投票されることになる。
【0031】また、図6は、上記の投票を全てのウィン
ドウにおいて行った結果を示す図であり、(A)は右画
像、(B)は視差の表、(C)は投票用の表を示す。
【0032】図5から判るように、図4で設定したウィ
ンドウにおいて、横方向が同じ位置のウィンドウは同じ
方向を撮像したものである。また、図6から判るよう
に、前方に物体が存在する場合、物体を検知している部
分では同じx座標上の縦方向のウィンドウは同じ視差が
求められ、路面上に物体が存在しない場合では同じy座
標上の横方向のウィンドウで同じ視差が求められる。こ
のような距離画像を用いて、図5に示した方法で表に投
票を行なうと、同じ方向(同じx座標上)に同じ視差が
並んでいると、その方向と視差への値への投票回数が多
くなるため、その位置の値が高くなる。したがって、図
6の表から値の高い位置を探すことで前方の物体の有無
を検知できる。図6に示す例では、(3)、(4)番目のウィ
ンドウで視差「19」の部分(左方の木に相当)、(5)
番目のウィンドウで視差「5」の部分(中央の木に相
当)、(8)〜(16)番目のウィンドウで視差「15」の部
分(先行車に相当)で投票が集中し、値が高くなってい
る。例えば視差「15」の部分の値が高いということ
は、カメラが撮像した画角内に視差が約15画素となる
物体が撮像されていることを示す。仮に前記図2に示し
た眼間距離Dを0.1m、焦点距離fを1500画素と
すると、カメラからその物体までの距離は、前記(数
1)式により、前方10m(=1500×0.1/1
5)であると求められる。また、視差が15画素の位置
の投票結果をx軸方向で見ると、x軸方向に定義した
(8)〜(16)番目のウィンドウ付近の値が高く、その左右
両側のウィンドウでは投票値が低くなっている。
【0033】図7は、上記の内容を判りやすく示すた
め、図6の投票結果から視差15の部分を抜き出して1
次元グラフとしてあらわした図である。図7において、
(a)は図6の(c)に相当する表、(b)は1次元グ
ラフ、(c)は対応する画像である。以下、図7を用い
て、物体が撮像されるおおよその横方向(x軸方向)の
範囲を求める方法を説明する。
【0034】図7(b)において、横軸はx方向に定義
したウィンドウの位置、縦軸はそのx座標位置で視差=
15となったウィンドウの個数である。この図では、
(8)〜(16)番目の値が高い。このことは(8)〜(16)番目の
間に高さをもつ物体が撮像されていることを示してい
る。また、グラフ内の横線は、物体が撮像されているか
否かを判断するために設けたしきい値である。しきい値
は、例えば次の方法で設定すればよい。すなわち、表の
値は画像上に撮像される物体の高さに比例し、画像上の
物体の高さは実際の物体の高さを一定とすると物体まで
の距離に反比例する。このことから、物体までの距離に
応じて画像上の高さを計算し、その高さに含まれるウィ
ンドウの個数を基準にヒストグラムのしきい値を設定す
ることができる。例えば、図7(b)では、しきい値を
5.5に設定している。したがって、しきい値以上の値
を持つ位置は(8)〜(16)番目のウィンドウであるので、
前方の物体が撮像されるおおよその横方向の範囲は(8)
〜(16)番目のウィンドウの間であると求められる。
【0035】図8は、図7で求めた範囲内で輝度の水平
微分の絶対値を求め、その水平微分値の絶対値をx座標
毎に加算して求めたヒストグラムを表した図である。図
8において、(a)は原画像、(b)は水平微分した結
果を示す画像、(c)はそのヒストグラムである。な
お、xsとxeは車両が撮像されたおおよその両端のx
座標位置を示す。
【0036】前方に検出した物体が車両の場合、図8に
示すように車両の上下端やバンパー、窓枠など水平エッ
ジを持つ位置のヒストグラムが高くなる。ここで、微分
の絶対値を加算するのは、車両の色によらないようにす
るためと、エッジが多少斜めで細い場合に互いに打ち消
し合うことでエッジのヒストグラムがエッジがあるにも
かかわらず低くなることを防ぐためである。また、ここ
では、水平微分値のヒストグラムをとる範囲を、物体を
検出したおおよその範囲内に横方向を限定したため、車
両以外のエッジ成分の値が加算されることが少ない。つ
まり、このヒストグラムの値が高い位置は車両のエッジ
とみなせるため、これらのエッジの中から或る程度上部
のものと或る程度下部にあるエッジとがそれぞれ車両の
上下端のエッジとなる。
【0037】図9は、上記の結果に基づいて、前方車両
の上下端を求めた結果を示す図である。図9において、
小さな星印は水平エッジを検出した場所を示し、大きな
星印は車両の上下端のy座標位置(yu、yd)を示
す。また、範囲Bは車両の上下端に挟まれた範囲を示
す。
【0038】図10は、前述の方法で求めた車両の上下
端に挟まれる範囲B内の画像を垂直微分し、範囲B内の
垂直微分成分の各x座標毎のヒストグラムをとった結果
を示す図である。図10において、(a)はヒストグラ
ム、(b)は垂直微分画像、(c)は原画像である。
【0039】この場合も範囲Bを求めたときと同様に、
車両が撮像されている部分だけの垂直微分成分のヒスト
グラムであるので、車両のエッジのある部分のヒストグ
ラムが高くなる。また、ここでは、図7の処理により画
像上において車両の両端が撮像されるおおよその横方向
の位置(図10の(8)〜(16)の間)がわかっている。こ
れらのことから、距離画像から求めた車両左右両端付近
にあり、かつ、垂直エッジ成分を多く含むx座標位置を
車両の左右端として求めることができる。図10(a)
に大きな星印で示した位置が上記の左右端に相当する。
この例では、図7で求めたおおよその位置xe、xsよ
りも、やや外側に位置している。
【0040】この方法では、エッジのヒストグラムをと
る範囲を車両以外を含まない範囲としたため、背景が変
化してもそれに影響されない。また、画素単位で横エッ
ジの位置を求めることができるため、距離画像からの横
位置探索方法よりも位置を高精度に求めることができ
る。
【0041】図11は、図2に示したカメラ設定を上方
から見た図である。この図をもとに、画像上において求
めた障害物の横位置と距離に基づいて、カメラに対する
実際の横位置を求める方法を説明する。
【0042】座標系の原点を2台のカメラのレンズ中心
間を結ぶ線分の中点とし、右画像において求めた先行車
の左右端の座標をxlr,xrr(単位は画素)、焦点
距離をf(画素)、視差から求めた先行車までの距離を
z(m)、眼間距離(カメラ間の距離)をD(m)とす
ると、2台のカメラのレンズ中心間を結ぶ線分の中点か
ら見た、前方車両の左右端の距離xl,xr(m)は、
下記(数3)式で求めることができる。
【0043】
【0044】なお、前記図1の演算部30における各ブ
ロックは、それぞれこれまで説明した下記の部分に相当
する。すなわち、ウィンドウ設定手段5および視差算出
手段6は図4で説明した内容に、投票手段7は図5およ
び図6で説明した内容に、距離・水平範囲算出手段8は
図6〜図8で説明した内容に、垂直範囲算出手段9は図
9で説明した内容に、エッジ選択手段10は図10で説
明した内容に、実位置算出手段11は図11で説明した
内容に、それぞれ相当する。
【0045】以上説明してきたように、第1の実施の形
態においては、前方に物体が存在すると同じ方向に同じ
視差を示すウィンドウが固まることを利用し、定義した
ウィンドウ毎に求めた視差をそのウィンドウの横方向の
位置をもとに視差と横位置からなる表中の対応する位置
に値を加算し、全ウィンドウにおいてその操作を行った
結果できた表中から値の高い位置を探すことで物体の距
離と画像上において先行車が撮像されるおおよその範囲
を求め、背景の影響を防ぐために、その範囲内において
水平エッジのヒストグラムによりエッジを検出すること
で先行車の上下端に挟まれる範囲Bを求め、範囲B内に
おいて垂直エッジのヒストグラムを求めることで垂直エ
ッジを求め、それらのエッジの中から視差×横位置の表
から求めたおおよその横位置の範囲付近にあるエッジを
選択することで画像上における車両の横端位置を求め、
その横端位置と視差から求めた車両までの距離をもと
に、前方の車両の端の横方向の位置を求める構成として
いる。そのため、通常、水平エッジに比べて短く、周囲
の木や壁などの影響により検出が困難である車両の横端
位置を、高精度かつ背景の影響を受けないロバストな検
出が可能になるという効果がある。さらに、この方法に
よれば、視差×横位置の表により、複数の先行車が検出
された場合においても、それぞれに同様の処理を施すこ
とで、複数の障害物の横位置を求めることができるとい
う利点がある。
【0046】(第2の実施の形態)次に、第2の実施の
形態について説明する。この構成は請求項2に相当す
る。前記第1の実施の形態の処理では、図7の処理でお
およその車両の横位置をウィンドウ単位で求めている。
しかし、車両が至近距離にある場合は、図12に示すよ
うに、車両端付近の画像はステレオ画像処理の問題点の
一つであるオクルージョン(前方の画像がそれより近く
にある画像で隠される範囲が左画像と右画像とで異なる
こと)により対応点が見つからない領域となるため、背
景によって結果が左右されることが多く、車両端付近で
求めた視差は誤計測である場合が多い。オクルージョン
により視差が不安定になる領域は、図12の右画像にお
いて車両左端が撮像される位置xlrと左画像において
車両の左端が撮像される位置xllとの間と、右画像に
おいて車両右端が撮像される位置xrrと左画像におい
て車両の右端が撮像される位置xrlとの間の領域であ
る。このことから、xlrとxllとの間、およびxr
rとxrlとの間を除いたxll〜xrrの範囲を確実
に車両である範囲Aとして、この後の処理である水平エ
ッジのヒストグラムをとる範囲とする。
【0047】また、上記の不安定領域も含めたxlr〜
xrlの範囲をA’とし、車両の候補となる領域とす
る。この範囲A’は、前記第1の実施の形態において、
最終的に画像上の左右の横端エッジを求める際のエッジ
の存在選択範囲の基準としても用いている。
【0048】上記の範囲Aを求めるには、画像が存在す
るおおよそのx軸方向の範囲を求める処理を時間的に連
続して行なったときに、連続して範囲内と判断された部
分を範囲Aとする。また、範囲A’を求めるには、連続
的ではないが所定の指定の回数以上範囲内であると判断
された部分を範囲A’とする。
【0049】上記のように第2の実施の形態において
は、第1の実施の形態で作成した表から先行車のおおよ
その横位置を求める際、時間的に連続して先行車の範囲
内と判断される領域Aと連続的ではないが或る指定回数
以上先行車の範囲内と判断される領域A’とを求め、先
行車の水平エッジを求める際に、領域A内においてエツ
ジを求める構成としたため、より正確かつ背景の影響を
受けずに水平エッジを検出できるようになるという効果
がある。さらに、先行車が至近距離にある場合、オクル
ージョンの影響により、視差×横位置の表における車両
の横端位置付近のウィンドウの視差が不安定になるた
め、水平エッジの検出範囲だけでなく、範囲B内におい
て検出した垂直エッジの中からの車両端エッジの選択を
誤判断することもありうるが、この実施の形態では、確
実に車両内である領域と車両の候補領域とを求めている
ため、それら二つの範囲を考慮に入れることでエッジの
選択もより正確になる。
【0050】(第3の実施の形態)次に、第3の実施の
形態について説明する。この構成は請求項3に相当す
る。第3の実施の形態においては、画像上の車両の上下
端を求める際、第2の実施の形態において確実に物体が
存在すると判断された範囲A内においてHough変換
などの一般的直線検出方法などを用いて水平直線を検出
するものである。
【0051】上記のように車両の水平エッジを求める
際、確実に車両の内部であると判断された領域内だけで
の水平エッジを検出する構成としたことにより、背景に
存在するエッジの影響が減少するため、その範囲内で単
純なエッジ検出法を用いることが可能になるので、より
高速な方法にすることが出来る。また、対象物が既知な
場合では、範囲A内において対象物に応じたエッジ検出
方法にすることで、確実かつ高速な処理に応用できると
いう利点もある。そして範囲の限定だけ確実性を向上さ
せることが出来るので、エッジ検出方法は様々な応用が
可能である。
【0052】(第4の実施の形態)次に、第4の実施の
形態について説明する。この構成は請求項4に相当す
る。第4の実施の形態においては、画像上の車両の上下
端(上下方向の範囲B)を求める際、まず、車両の上下
端が撮像されうる位置を限定し、その位置付近で検出さ
れたエッジを選択するように構成している。位置の限定
は次の計算で行なうことが出来る。ここでは、距離画像
に基づいて車両までの距離が求められているので、図1
3に示すように、画像上に車両が撮像されるおおよその
縦方向(y軸方向)の位置を求めることができる。
【0053】図13において、検出した車両までの距離
をz、その車両の高さをh(一般的な車両の寸法から予
想される概略の高さで、予め設定した値)、路面からの
カメラの高さをHとすると、画像上に車両が撮像される
おおよその範囲HU〜HDは下記(数4)式で求めるこ
とができる。
【0054】 HU=f×(h−H)/z , HD=−f×H/z …(数4) 車両の上下端のy座標位置は、範囲A内でとった水平エ
ッジのヒストグラムや範囲A内でHough変換などで
検出した水平エッジのうち、y1(HUに相当)とy2
(HDに相当)付近にあるものを選択する。
【0055】上記のように、第4の実施の形態において
は、範囲A内で求めたエッジから車両の上下端を選択す
る際に、先行車の距離をもとに、先行車の上下端が撮像
されうるおおよその位置を求め、その付近で検出された
エッジを選択する構成としたことにより、路面上の影や
歩道橋など、範囲A内にたまたま撮像されてしまう先行
車以外の水平エッジとの誤検出を防ぐことができるとい
う効果がある。さらに、エッジの検出範囲を、あらかじ
め求めておいた先行車の上下端が撮像されうる付近だけ
に限定することで高速化も可能である。
【0056】(第5の実施の形態)次に、第5の実施の
形態について説明する。この構成は請求項5に相当す
る。第5の実施の形態おいては、画像上の車両の左右端
を求める際、車両の内部の輝度は時間的に不変であるが
車両周囲の背景は変化することを利用し、時間的に連続
して各x座標毎における範囲B内の輝度の平均値を求
め、その各x座標毎に求めた毎回の平均値を格納し、所
定時間内における各x座標毎の輝度の平均値の分散を求
め、分散が低い範囲を車両の内部と判断することで、車
両の横端位置を求める。
【0057】上記のように、範囲B内で車両の横端位置
を求める際、時間的に連続して範囲B内で各x座標毎の
輝度の平均値を計算し、各x座標毎に求めた輝度の平均
値の時間的な分散の小さい位置を車両が撮像されている
範囲として求めるように構成したことにより、車高が低
い、背景が車両と同じ色であるなど、縦エッジの検出が
困難であるような状況化でも車両端の検出が可能になる
という効果がある。
【0058】(第6の実施の形態)次に、第6の実施の
形態について説明する。この構成は請求項6に相当す
る。第6の実施の形態においては、画像上の車両の左右
端を求める際、第5の実施の形態の方法で求めた車両の
内部に相当するx軸方向の範囲と、第2の実施の形態で
求めた確実領域Aと候補領域A’の間付近にあり、範囲
B内で垂直エッジのヒストグラムやHough変換など
で求められた垂直エッジの位置を求め、検出されたエッ
ジのうち、時間的に連続して求めた輝度分散の小さい範
囲の両端付近にあるエッジを選択するように構成してい
る。
【0059】上記のように、求めたエッジのうち、各x
座標毎の輝度の平均値の分散の小さい範囲の両端付近
で、かつ、視差から求めた範囲Aと範囲A’の間付近に
あるエッジを車両の横端として選択することにより、背
景や車両の形に左右されることなく、かつ、車両の距離
とは異なる位置と誤判断することがないため、より確実
に車両横端の座標を求めることが可能になる、という効
果がある。
【0060】(第7の実施の形態)次に、第7の実施の
形態について説明する。この構成は請求項7に相当す
る。第7の実施の形態においては、第1〜第6の実施の
形態で説明した物体端の位置計測装置と、この位置計測
装置の計測結果に基づいて、位置計測装置を搭載した車
両の前進判断と経路誘導との少なくとも一方を決定する
手段と、を備えるように構成している。すなわち、上記
物体端の位置計測装置を用いて、自車両前方に存在する
物体(例えば先行車)までの距離とその横端位置を計測
し、その結果に基づいて、先行車との衝突の可能性と安
全な経路を判断し、自車両の前進の可否、および経路を
決定するものである。
【0061】上記の車両の前進判断と経路誘導との少な
くとも一方を決定する手段としては、例えば、先行車の
横の空間の幅と自車両の幅とを比較することにより、通
り抜けが可能か否かを判断し、可能な場合には自車両の
進行を“可”とし、かつ先行車の横端位置から判断し
て、自車両が安全に通過出来る進路を経路として決定す
る装置を用いることが出来る。その決定結果は、例えば
液晶表示器のような車載の表示器に表示したり、あるい
は自動操舵装置に経路情報として与える。また、自車両
の進行が“不可”の場合には、ブレーキ制御装置等を制
御して、減速または停車等の措置を行なうことが出来
る。
【0062】通常、車両は水平エッジに比べて垂直エッ
ジが短いため、画像全体で検出した垂直エッジから車両
の横端の位置を求めることは困難である。例えば、エッ
ジの検出だけの判断では、車両の縦エッジと白線や路肩
などとの区別が困難である。一方、距離画像からの横位
置検出では、横位置をウィンドウ単位でしか求めること
ができないため精度が粗い。さらに、仮に1画素単位で
視差を算出し、画素単位で横位置を求める場合でも、前
記第2の実施の形態で説明したように、オクルージョン
によって視差が不安定な領域が横位置となるため、エッ
ジ検出と同様に視差×横位置への投票結果からの判断だ
けでは車両の横位置を精度よく求めることはできない。
特に、車両の横方向の位置を精度良く必要とする状況
は、先行車が比較的至近距離にある場合が多い。例え
ば、駐車車両のある路地でのすり抜け判断や、渋滞時に
おける斜め前方車両の幅寄せ時のブレーキ判断などであ
る。しかし、従来の方法では、エッジ検出はもちろん、
ウィンドウ毎に求めた視差xの表からの横位置範囲検出
でも、物体が近いがゆえに起こるオクルージョンの問題
により横端位置の精度良い検出は困難であった。
【0063】それに対して本発明の物体端の計測装置に
よれば、車両端の検出を距離画像から求められる位置と
するだけにとどめず、まず、その距離画像から求められ
るおおよその車両撮像範囲に限定した上で比較的検出し
やすい水平エッジを検出し、長さが短いことが多いため
通常検出が困難である車両左右端の垂直エッジを、車両
の上下端からなる水平エッジに挟まれた範囲内だけで検
出し、車両の横端も含む数本の垂直エッジを検出し、そ
れらのエッジの中から、距離画像から求めたおおよその
範囲の両端付近にあるものを選択することにより、単な
るエッジ検出や距離画像からの検出では困難な車両の横
端エッジの正確な検出を可能とした。
【0064】また、本発明においては、エッジ検出範囲
やエッジの選択範囲をステレオ画像処理で求めた同じ距
離として求められるおおよその範囲としたため、背景や
路面状態、路面への影、白線の有無など、車両以外の周
囲の状況に依らない正確な計測処理が可能となる。
【0065】加えて、テクスチャ(本来存在する物体表
面の模様:例えば木目などで、ノイズとは異なる)やエ
ッジが少なく、時間的に連続して撮像した場合でも背景
に比べて輝度の変化が非常に少ないという車両ボディ面
の画像の特徴を利用し、距離画像と水平エッジの処理に
よって車両を挟む範囲に上下方向を限定した後、その範
囲内において各x座標毎の輝度の平均値を時間的に連続
してとり、その時間的分散の小さい範囲を車両内と判断
することもできる。さらに、車両の存在する範囲内にお
いて検出したエッジの中から先行車の横端に位置するも
のを選択する際に、距離画像から求めたおおよその位置
と、この各x座標毎に求めた輝度の平均の時間的分散が
小さい範囲も考慮にいれることでより、確実に横端の位
置を求めることが可能となる。
【0066】以下、これまで説明した実施の形態におけ
る具体的な実施例について処理のフローチャートを用い
て説明する。図14は、本発明の処理の第1の実施例を
示すフローチャートである。ここでは、前記図2に示し
たようにカメラを路面に対して横に平行に並べ、2台の
カメラのy軸が同一ライン上にのるように配置したステ
レオカメラを用いている。
【0067】図14において、まず、ステップS100
では、視差×横位置の表の初期化とヒストグラムの初期
化を行なう。次に、ステップS101では、ステレオ画
像の画像Aと画像Bを入力する。次に、ステップS10
2では、ステレオ画像のどちらか片方の画像上にウィン
ドウを定義する。ここでは、図4に示したように、縦に
10個横に20個の合計10×20個のウィンドウを定
義する。
【0068】次に、ステップS103では、定義したウ
ィンドウの全てにおいて視差を検出し、図5で説明した
ように、視差×横位置の表への投票を行なう。ここで、
距離画像作成のための画像のマッチングは、正規化相関
法や差分法などを用いればよい。次に、ステップS10
4では、上記の表への投票結果を用いて表中の値の高い
位置をもとに、図6で説明したように、先行車の有無
と、その視差から、先行車までの距離の計算を行なう。
ここで、先行車がなければステップS101へ戻って次
の画像入力へ移り、先行車があれば、ステップS105
へ進む。
【0069】次に、ステップS105では、横位置の判
断を行なう。横方向の範囲の判断は図7で説明した方法
でよい。また、横位置の判断において第2の実施の形態
で説明した方法を用いる場合は、各処理毎に求めた横位
置を毎回更新しながら過去数回分格納し、この過去数回
において時間的に連続して先行車範囲内と判断される範
囲Aと、連続的ではないが、格納した個数の半分程度に
設定した所定回数以上で先行車範囲内と判断される範囲
A’を求める。
【0070】次に、ステップS106では、範囲Aを求
めた後に、この範囲内にある水平エッジを検出し、車両
の上下端を求める。この処理では図8に示したように、
範囲A内の各画素において輝度の水平微分値の絶対値を
求め、各y座標毎の水平微分値のヒストグラムをとれば
よい。
【0071】ここで、y=ypの水平微分値のヒストグ
ラムをHh(yp)とすると、その値は、点(x,y
p)の水平微分の絶対値を|dIy(x,yp)|、範囲
Aの始点をxs、終点をxeとすると下記(数5)式で
求められる。
【0072】
【0073】この水平微分値の絶対値は、例えば図15
(a)に示したようなソーベルオペレータとのコンボリ
ューション結果の絶対値として求めればよい。また、水
平エッジのヒストグラムは非常に有効な検出方法と考え
られるが、この範囲A内には、図8からも判るように先
行車以外の物体はほとんど無いため、第3の実施の形態
で説明したように、範囲A内におけるHough変換な
ど一般的な直線検出方法などにより水平方向の直線を用
いてもよい。
【0074】上記の方法で検出された数本の水平直線か
ら、次の処理である車両の横端エッジの検出範囲を限定
するために、車両の上下端の直線を選択する。通常、車
両の上下は空と路面の領域となり、車両は長い水平エッ
ジを持つことが多いため、検出された水平エッジのう
ち、この後の処理であるヒストグラムをとるために十分
な大きさをもつ領域を作る2本のエッジを適当に選択し
てもよい。しかし、前方の歩道橋や路面の影などの誤検
出を防ぎ、より確実に求めるためには、第4の実施の形
態で説明した方法を用いる方が確実である。この場合、
図13で示したように、(数5)式によって車両が発見
された距離をもとに車両が撮像されうるy座標値HU,
HDを求めておき、そのHU,HD付近で検出されたエ
ッジを選択すればよい。このような方法で求めた車両の
上端エッジy=yuと下端エッジy=yaに挟まれる範
囲を範囲Bとする。
【0075】次に、ステップS107では、範囲B内に
含まれる縦エッジを検出することで画像上における先行
車の左右横端位置を求める。この処理は、図10に示し
たように、範囲B内で輝度の垂直微分値の絶対値を求
め、各y座標毎に範囲B内の微分値のヒストグラムをと
る。ここで、y=ypの垂直微分値のヒストグラムをH
v(xp)とすると、その値は、点(xp,y)の水平
微分の絶対値を|dIx(xp,y)|、範囲Bの始点を
yu、終点をydとすると下記(数6)式で求められ
る。
【0076】
【0077】この垂直微分値の絶対値は、例えば図15
(b)に示したソーベルオペレータとのコンボリューシ
ョン結果の絶対値として求められる。また、エッジの検
出範囲を範囲B内とすると、その範囲内には確実に先行
車のエッジが含まれ、同時に先行車以外のエッジが減る
ため、第5の実施の形態で説明したように、範囲B内に
おけるHough変換など一般的な直線検出方法などに
より垂直方向の直線を用いてもよい。
【0078】これらの方法で検出された数本の垂直直線
から車両の左右端の直線を選択する。車両のおおよその
横位置は、視差×横位置の表を用いた検出結果から求め
られているので、図16に示すように、範囲B内で検出
したエッジの中から視差×横位置の表から検出した範囲
の両端付近にあるものを選択すればよい。
【0079】また、車両が至近距離にあるときは、図1
2で説明したオクルージョンにより視差をもとに求めた
車両の範囲が不安定であるため、第6の実施の形態で説
明したように、確実に先行車と判断される範囲Aと先行
車である可能性のある範囲と判断された範囲A’の間に
挟まれる範囲付近をもとに、右画像の場合は図12のよ
うにx=xlrとx=xrr付近、左画像の場合は、x
=xllとx=xrl付近にあるエッジを選択してもよ
い。この状態を図17に示す。
【0080】次に、ステップS108では、ステップS
107の処理で求めた画像上の車両の横端位置をもと
に、実座標系におけるカメラに対する横位置を求める。
具体的には、図11の関係により、右画像または左画像
で検出した横端の画像上の座標を用いて、(数3)式に
より実座標系における前方の車両端の位置を求めること
ができる。
【0081】次に、図18は、本発明の処理の第2の実
施例を示すフローチャートである。この処理において、
S100〜S106(初期設定から範囲Bを求める)ま
では前記図14と同じ処理であり、ステップS109と
S110とを追加したものである。
【0082】先行車は水平エッジに比べて垂直エッジは
短いことが多い。そのため、周囲の樹木や建物など背景
に縦エッジを多く含む場面においては、範囲B内でのエ
ッジ検出だけでは検出位置が安定しない場合もある。第
5の実施の形態はそのような場面に対処するための方法
であり、本フローチャートのステップS109とS11
0とがその処理に相当する。
【0083】通常1台の車両に追従している場合、背景
の画像は変化するが、車両を撮像している部分の輝度は
変化しない。特に、車両のボディはテクスチャがなく一
様であることが多いため、時間的に連続して撮像した画
像間において、輝度の変化が非常に少ない。車両部分の
輝度分布の変化が背景に比べて少ないことは、走行中の
ような背景が変化する場合だけでなく、渋滞のように車
両がほぼ停止しているときにも同じことが言える。すな
わち、背景には、木などのように風で動くものや、周囲
の歩行者など車の走行状態に関係なく動くものがたくさ
んあり、さらに、車両のボディのように人工的に一様に
塗装された面は光りの当り具合の微妙な変化に関係なく
一様な輝度として撮像されるが、路面や壁などテクスチ
ャをもつ部分は、光の微妙な変化や撮像している微妙な
角度の変化などにより、画像上の輝度が変化するためで
ある。
【0084】図19(a)、(b)、(c)は、時刻
t、t+1、・・・、t+nの連続した処理毎におい
て、範囲B内の各x座標毎の輝度の平均値を求めた状態
を示す図であり、図19(d)に示したグラフは、n回
の時間的に連続した処理のそれぞれにおいて、各x座標
毎に求めた範囲B内の輝度の平均値の分散を表したもの
である。
【0085】ここで、時刻tに撮像された画像の点
(x,y)の輝度をIt(x,y)、範囲Bの上の座標
をyu、下の座標をydとすると、x=xpにおける輝
度の平均値It(xp)は下記(数7)式で求められる。
【0086】
【0087】また、時刻t−n〜時刻tの間に計算した
輝度の平均値の分散Vt(xp)は、下記(数8)式で求
められる。
【0088】ここで、輝度の平均値を計算する際に用い
る値は、車両の上下端に挟まれる範囲に限定したため、
車両が撮像されているx座標上では車両上の輝度だけが
加算される。車両の特にボディにはテクスチャやエッジ
がないため、多少光りの加減や車両の位置が変化しても
輝度の変化が小さい。そのため時間的に連続して車両上
の輝度の平均値(数8)を求めた場合、その値はほとん
ど変化しない。一方、車両以外の撮像される部分では、
カメラ搭載車両が動いているときはもちろん、車両が停
止している状態であっても、背景の草木や周囲の歩行
者、路面の細かいテクスチャヘの光の当たり具合が変化
するため、時間的に輝度の平均値が変化する。このこと
から、図19に示したように、分散の小さい範囲は車両
が撮像されている範囲とみなすことができる。図18の
ステップS109ではこの分散の小さい範囲を求めてい
る。また、ここでは、輝度の合計ではなく輝度の平均値
を求めている。すなわち、範囲Bの幅(yu〜ydの間
の長さ)は車間距離の変化により画像上の大きさが変化
してもその大きさに応じた範囲が求められるため、車両
の画像上の大きさが変化する場合にも同じことが適用で
きる。
【0089】次に、ステップS110では、この輝度の
平均値の分散の結果と、ステップS107で行ったエッ
ジ検出結果を用いて、図20に示すように、(数8)式
で求めた分散の小さい範囲の両端付近にあり、かつ、ス
テップS104の処理で求めた範囲Aと範囲A’の間付
近にあるエッジを車両の横端位置として選択する。この
ような処理を行なうことにより、周囲環境に影響されな
い、よりロバスト性の高い横位置検出が可能となる。
【0090】次に、図21は、第7の実施の形態におけ
る本発明の適用を説明するための図である。図21
(a)は、斜め前に車両がある場合や料金所前の渋滞の
ように、車両が白線に沿わず入り乱れている場合に、自
車が安全に進行出来るか否かを判断する状態を示す。本
発明の物体端の位置計測装置によれば、前方の障害物
(先行車)の横端位置を正確に検出することが出来るの
で、自車の横幅と比較することによって安全に前進出来
るか否かを判断することが出来る。その結果は車載の液
晶表示器等に表示し、運転者に提示することが出来る。
また、上記の判断結果を用いて、例えば右端が接触する
おそれのある進路の場合は、それを表示して左側へ寄る
ように指示する等、進行経路を表示することも可能であ
る。また、自動的にブレーキ装置を作動させて、減速や
停止の制御に利用することも可能である。
【0091】また、図21(b)は、駐車車両のある路
地の状況を示す。このような場合でも斜め前方の車両の
横端を判断できるため、自車が車両に衝突することなく
前進できるか否かの判断が可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の構成を示すブロッ
ク図。
【図2】ステレオ画像を用いて三角測量の原理でカメラ
から検出対象までの距離を求める原理を説明する図。
【図3】ステレオ画像処理による距離算出方法を説明す
る図。
【図4】二つの画像の対応する位置毎の視差を求めた結
果を示す図。
【図5】距離画像上の或るウィンドウで求めた視差とそ
のウィンドウの横方向の位置に基づいて、対応する表中
の位置に投票する様子を表した図。
【図6】図5の投票を全てのウィンドウにおいて行った
結果を示す図。
【図7】図6の投票結果から視差が15画素の部分を抜
き出して1次元グラフとして表した図。
【図8】図7で求めた範囲内で輝度の水平微分の絶対値
を求め、その水平微分値の絶対値をx座標毎に加算して
求めたヒストグラムを表した図。
【図9】図8の結果に基づいて、前方車両の上下端を求
めた結果を示す図。
【図10】図9の方法で求めた車両の上下端に挟まれる
範囲B内の画像を垂直微分し、範囲B内の垂直微分成分
の各x座標毎のヒストグラムをとった結果を示す図。
【図11】図2に示したカメラ設定を上方から見た図。
【図12】オクルージョンによって不安定になる理由を
説明するための図。
【図13】画像上における前方車両のおおよその撮像位
置の求め方を説明するための図。
【図14】本発明の処理の第1の実施例を示すフローチ
ャート。
【図15】水平・垂直微分画像算出用のソーベルオペレ
ータの一例を示す図。
【図16】垂直エッジの選択方法を示す図。
【図17】垂直エッジの選択方法の他の例を示す図。
【図18】本発明の処理の第2の実施例を示すフローチ
ャート。
【図19】時間的分散と範囲Aと範囲A’を考慮した垂
直エッジの選択方法を説明するための図。
【図20】垂直エッジの選択方法の他の例を説明するた
めの図。
【図21】本発明の移動体の通行判断装置における適用
状況を説明するための図。
【符号の説明】
1、2…電子式のカメラ 3、4…画像
メモリ 5…ウィンドウ設定手段 6…視差算出
手段 7…投票手段 8…距離・水
平範囲算出手段 9…垂直範囲算出手段 10…エッジ選
択手段 11…実位置算出手段 30…演算部 20…自車の前方に存在する検出対象物(先行車両)
フロントページの続き Fターム(参考) 2F065 AA02 AA12 AA22 AA24 BB05 CC11 DD03 FF05 JJ03 JJ16 JJ26 QQ08 QQ13 QQ25 QQ26 QQ27 QQ36 QQ41 QQ43 RR09 5B057 AA16 BA02 BA19 CA08 CB08 CC01 CC03 CE20 DA08 DA20 DB09 DC16 DC19 DC31 DC32 5H180 AA01 CC04 CC24 LL01 LL04 LL08 LL09

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】車両に搭載された二つの電子式カメラから
    なり、両カメラが共に車両前方または後方に向けて相互
    に光軸が平行で、かつ撮像面の水平軸が同じライン上に
    揃うように設置されたカメラと、 一方のカメラの画像を所定の大きさの画像領域毎に分割
    する画像領域設定手段と、 上記の各画像領域毎に、当該画像領域内の画像と他方の
    カメラの画像との類似度を算出し、当該画像領域と他方
    のカメラで最も類似度の高かった画像位置との位置の差
    を検出することにより、各画像領域毎の視差を求める視
    差算出手段と、 上記各画像領域の水平方向の位置と視差の値とを横軸と
    縦軸とに対応させた表を有し、上記各画像領域毎の水平
    方向の位置と当該画像領域における視差の値とに対応し
    た上記表の該当する位置に、所定値を加算する投票手段
    と、 上記表中で高い値の存在する位置から、その位置の視差
    に基づいて前方の物体までの距離を求め、かつ、上記高
    い値の位置の水平方向位置に基づいて、画像上において
    その物体が撮像されるおおよその水平方向の範囲を求め
    る距離・水平範囲算出手段と、 上記距離・水平範囲算出手段で求めた範囲内において、
    各垂直座標毎に水平エッジのヒストグラムを求め、その
    値が高い位置に挟まれる垂直方向の範囲を求める垂直範
    囲検出手段と、 上記垂直範囲算出手段で求めた範囲内において、各水平
    座標毎に垂直エッジ成分のヒストグラムを求め、該ヒス
    トグラムから求められた原画像の縦エッジの中から上記
    距離・水平範囲算出手段で求めた範囲の両端付近のエッ
    ジを選択するエッジ選択手段と、 上記距離・水平範囲算出手段で求めた物体までの距離と
    上記エッジ選択手段で求めた縦エッジ座標とに基づい
    て、上記画像上の縦エッジに相当する前方物体の横端
    の、上記カメラに対する実空間上の位置を求める実位置
    算出手段と、 を有することを特徴とする物体端の位置計測装置。
  2. 【請求項2】上記距離・水平範囲算出手段における水平
    範囲算出処理を時間的に連続して行ったときに、連続し
    て範囲内と判断される範囲Aと、連続的ではないが所定
    回数以上範囲内であると判断される範囲A’とを求め、
    上記垂直範囲算出手段において水平エッジのヒストグラ
    ムを求める際に、上記範囲A内でヒストグラムを求める
    ように構成したことを特徴とする請求項1に記載の物体
    端の位置計測装置。
  3. 【請求項3】上記垂直範囲算出手段において垂直方向の
    範囲Bを求める際、上記範囲A内で水平エッジの探索を
    行なうことを特徴とする請求項2に記載の物体端の位置
    計測装置。
  4. 【請求項4】上記垂直範囲算出手段において垂直方向の
    範囲Bを求める際、上記距離・水平範囲算出手段で求め
    た前方物体までの距離と、上記カメラの焦点距離と、上
    記カメラを設置した高さと、上記前方物体の一般的な寸
    法から予想される概略の高さ応じて予め設定した値と、
    に基づいて、画像上で物体の上下端が撮像されているお
    およそのy座標位置HU,HDを求め、上記範囲A内で
    求めた水平エッジのヒストグラムの高さの高い位置、ま
    たは請求項3で求めたエッジ位置の中から、y座標がH
    U,HD付近の位置を上記範囲Bとして選択するように
    構成したことを特徴とする請求項2または請求項3に記
    載の物体端の位置計測装置。
  5. 【請求項5】上記エッジ選択手段で縦エッジの存在する
    水平方向位置を求める際、時間的に連続した処理におい
    て、同一水平方向位置に並ぶ範囲B内の輝度の平均値を
    求め、所定時間内において各水平方向位置毎に求めた平
    均値が小さい範囲を縦エッジの存在する範囲として求め
    るように構成したことを特徴とする請求項1乃至請求項
    4の何れかに記載の物体端の位置計測装置。
  6. 【請求項6】上記エッジ選択手段で縦エッジの存在する
    水平方向位置を求める際、上記範囲B内の垂直エッジ成
    分に基づいて求めた垂直エッジのうち、請求項5で求め
    た輝度の平均値の時間的分散の小さい範囲の両端付近に
    あり、かつ、請求項2で求めた範囲Aと範囲A’との間
    付近にあるエッジを選択するように構成したことを特徴
    とする請求項1乃至請求項5の何れかに記載の物体端の
    位置計測装置。
  7. 【請求項7】請求項1乃至請求項6の何れかに記載の物
    体端の位置計測装置と、 上記位置計測装置の計測結果に基づいて、上記位置計測
    装置を搭載した移動体の前進判断と経路誘導との少なく
    とも一方を決定する手段と、を備えたことを特徴とする
    移動体の通行判断装置。
JP31190398A 1998-11-02 1998-11-02 物体端の位置計測装置および移動体の通行判断装置 Expired - Fee Related JP3596314B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP31190398A JP3596314B2 (ja) 1998-11-02 1998-11-02 物体端の位置計測装置および移動体の通行判断装置
US09/426,952 US6477260B1 (en) 1998-11-02 1999-10-26 Position measuring apparatus using a pair of electronic cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31190398A JP3596314B2 (ja) 1998-11-02 1998-11-02 物体端の位置計測装置および移動体の通行判断装置

Publications (2)

Publication Number Publication Date
JP2000136905A true JP2000136905A (ja) 2000-05-16
JP3596314B2 JP3596314B2 (ja) 2004-12-02

Family

ID=18022811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31190398A Expired - Fee Related JP3596314B2 (ja) 1998-11-02 1998-11-02 物体端の位置計測装置および移動体の通行判断装置

Country Status (2)

Country Link
US (1) US6477260B1 (ja)
JP (1) JP3596314B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175845A (ja) * 1999-12-16 2001-06-29 Nec Corp 車両端検出装置
JP2005222425A (ja) * 2004-02-06 2005-08-18 Sharp Corp 車両周辺監視装置、車両周辺監視方法、制御プログラムおよび可読記録媒体
JP2005339152A (ja) * 2004-05-26 2005-12-08 Clarion Co Ltd 動物体検出装置
JP2008116357A (ja) * 2006-11-06 2008-05-22 Toyota Motor Corp 物体検出装置
JP2009086882A (ja) * 2007-09-28 2009-04-23 Konica Minolta Holdings Inc 物体検出装置
JP2009175846A (ja) * 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd 車両検出装置
JP2010191637A (ja) * 2009-02-17 2010-09-02 Mazda Motor Corp 車両用運転支援装置
CN102789698A (zh) * 2011-05-19 2012-11-21 富士重工业株式会社 环境识别装置以及环境识别方法
CN104149685A (zh) * 2013-05-13 2014-11-19 赵盾 一种汽车警示器
JP2015011713A (ja) * 2013-07-01 2015-01-19 株式会社リコー 車両検出方法及び装置
DE10296593B4 (de) * 2001-03-28 2017-02-02 Panasonic Intellectual Property Management Co., Ltd. Fahrunterstützungsvorrichtung
KR102005196B1 (ko) * 2018-10-30 2019-07-29 박배억 원격 제어에 의해 대상물을 조작하는 로봇 및 로봇의 동작 방법
CN112066950A (zh) * 2020-07-24 2020-12-11 北京空间机电研究所 一种多光轴平行的测绘相机单中心投影转换方法

Families Citing this family (185)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
KR100466458B1 (ko) * 1999-09-20 2005-01-14 마츠시타 덴끼 산교 가부시키가이샤 운전지원장치
JP4672175B2 (ja) * 2000-05-26 2011-04-20 本田技研工業株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
JP4953498B2 (ja) * 2000-07-12 2012-06-13 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
JP3671825B2 (ja) * 2000-09-22 2005-07-13 日産自動車株式会社 車間距離推定装置
JP3690283B2 (ja) * 2001-01-18 2005-08-31 日産自動車株式会社 車線追従制御装置
JP3666406B2 (ja) * 2001-04-04 2005-06-29 日本電気株式会社 ノンストップ料金課金方法及びシステム
KR100435650B1 (ko) * 2001-05-25 2004-06-30 현대자동차주식회사 카메라가 장착된 차량의 도로정보 추출 및 차간거리 탐지방법
US7027615B2 (en) * 2001-06-20 2006-04-11 Hrl Laboratories, Llc Vision-based highway overhead structure detection system
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
ATE311725T1 (de) * 2001-09-07 2005-12-15 Matsushita Electric Ind Co Ltd Vorrichtung zum anzeigen der umgebung eines fahrzeuges und system zur bildbereitstellung
JP3823804B2 (ja) * 2001-10-22 2006-09-20 ソニー株式会社 信号処理方法及び装置、信号処理プログラム、並びに記録媒体
JP3780922B2 (ja) * 2001-11-30 2006-05-31 日産自動車株式会社 道路白線認識装置
DE10201523A1 (de) * 2002-01-17 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Verdeckungsdetektion bei Bildsensorsystemen
ES2391556T3 (es) 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
US7209161B2 (en) * 2002-07-15 2007-04-24 The Boeing Company Method and apparatus for aligning a pair of digital cameras forming a three dimensional image to compensate for a physical misalignment of cameras
JP3895238B2 (ja) * 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
US6870468B2 (en) * 2002-09-27 2005-03-22 Nissan Motor Co., Ltd. Adaptive cruise speed controlling apparatus and method for automotive vehicle
DE10251949A1 (de) * 2002-11-08 2004-05-19 Robert Bosch Gmbh Fahrdynamikregelung mit Bildsensorsystem
JP4188968B2 (ja) * 2003-01-20 2008-12-03 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
US7084385B2 (en) * 2003-08-19 2006-08-01 Autoliv Asp, Inc. Range discriminating optical sensor having a wide angle lens with a fixed focal length
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
CN100456828C (zh) * 2004-04-27 2009-01-28 松下电器产业株式会社 车辆周围环境显示装置
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
JP5405741B2 (ja) 2004-07-26 2014-02-05 オートモーティブ システムズ ラボラトリー インコーポレーテッド 道路使用弱者保護システム
US7262710B2 (en) * 2004-09-22 2007-08-28 Nissan Motor Co., Ltd. Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
JP4650079B2 (ja) * 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle
JP2006268097A (ja) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd 車載物体検出装置、および物体検出方法
JP4539415B2 (ja) * 2005-04-15 2010-09-08 株式会社デンソー 画像処理装置
JP4645292B2 (ja) * 2005-05-06 2011-03-09 日産自動車株式会社 車載物体検出装置、および物体検出方法
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070040065A1 (en) * 2005-08-19 2007-02-22 Von Thal German Flexible refueling boom extendable tube
JP4809019B2 (ja) * 2005-08-31 2011-11-02 クラリオン株式会社 車両用障害物検出装置
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070208506A1 (en) * 2006-03-03 2007-09-06 Ford Motor Company Travel system for a vehicle
JP4696991B2 (ja) * 2006-03-22 2011-06-08 日産自動車株式会社 動き検出方法および動き検出装置
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
JP4676373B2 (ja) * 2006-04-27 2011-04-27 株式会社デンソー 周辺認識装置、周辺認識方法、プログラム
JP4826355B2 (ja) * 2006-06-20 2011-11-30 日産自動車株式会社 車両周囲表示装置
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
DE602007008798D1 (de) * 2006-08-24 2010-10-14 Valeo Vision Verfahren zur Bestimmung der Durchfahrt eines Fahrzeugs durch eine engen Durchlass
JP4861772B2 (ja) * 2006-08-28 2012-01-25 富士通株式会社 移動体標定プログラム、該プログラムを記録した記録媒体、移動体標定装置、および移動体標定方法
US8132759B2 (en) * 2007-03-21 2012-03-13 The Boeing Company System and method for facilitating aerial refueling
US7959110B2 (en) * 2007-04-11 2011-06-14 The Boeing Company Methods and apparatus for resisting torsional loads in aerial refueling booms
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP5234894B2 (ja) * 2007-06-28 2013-07-10 富士重工業株式会社 ステレオ画像処理装置
JP4937030B2 (ja) * 2007-07-24 2012-05-23 ルネサスエレクトロニクス株式会社 車両用画像処理装置
GB0717233D0 (en) * 2007-09-05 2007-10-17 Trw Ltd Traffic monitoring
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
JP4876080B2 (ja) * 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8150105B2 (en) * 2008-05-22 2012-04-03 International Electronic Machines Corporation Inspection using three-dimensional profile information
TWI394095B (zh) * 2008-10-22 2013-04-21 Ind Tech Res Inst 影像偵測方法及其系統
JP4862898B2 (ja) * 2009-01-09 2012-01-25 株式会社デンソー 車両用警報発生装置
JP5219847B2 (ja) * 2009-01-09 2013-06-26 キヤノン株式会社 画像処理装置及び画像処理方法
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
US8854453B2 (en) * 2009-06-23 2014-10-07 Here Global B.V. Determining geographic position information from a single image
US8896686B2 (en) * 2009-06-23 2014-11-25 Here Global B.V. Determining a geometric parameter from a single image
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5269755B2 (ja) 2009-12-10 2013-08-21 株式会社日立製作所 人横断支援車両システム及び人横断支援方法
KR101652261B1 (ko) * 2009-12-24 2016-08-30 삼성전자주식회사 카메라를 이용한 오브젝트 검출 방법
CN102792700A (zh) * 2010-01-13 2012-11-21 汤姆森特许公司 将三维文本与三维内容组合的系统和方法
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
JP5389002B2 (ja) * 2010-12-07 2014-01-15 日立オートモティブシステムズ株式会社 走行環境認識装置
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
US9062980B2 (en) * 2011-11-22 2015-06-23 Hitachi, Ltd. Autonomous mobile system
TWI461656B (zh) * 2011-12-01 2014-11-21 Ind Tech Res Inst 距離感測裝置及距離感測方法
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
JP5757900B2 (ja) * 2012-03-07 2015-08-05 日立オートモティブシステムズ株式会社 車両走行制御装置
US8768007B2 (en) 2012-03-26 2014-07-01 Tk Holdings Inc. Method of filtering an image
US8824733B2 (en) 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
KR20140019571A (ko) * 2012-08-06 2014-02-17 주식회사 만도 후측방 경보 시스템 및 방법
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014061123A1 (ja) * 2012-10-17 2014-04-24 富士通株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
US9894269B2 (en) 2012-10-31 2018-02-13 Atheer, Inc. Method and apparatus for background subtraction using focus differences
WO2014070448A1 (en) 2012-10-31 2014-05-08 Tk Holdings, Inc. Vehicular path sensing system and method
JP6376429B2 (ja) * 2012-11-13 2018-08-22 株式会社リコー 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9253380B2 (en) 2013-02-24 2016-02-02 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
JP6344638B2 (ja) * 2013-03-06 2018-06-20 株式会社リコー 物体検出装置、移動体機器制御システム及び物体検出用プログラム
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
WO2014152470A2 (en) 2013-03-15 2014-09-25 Tk Holdings, Inc. Path sensing using structured lighting
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
DE102013012930A1 (de) * 2013-08-02 2015-02-05 Connaught Electronics Ltd. Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US9881349B1 (en) * 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
JP6511283B2 (ja) * 2015-02-12 2019-05-15 日立オートモティブシステムズ株式会社 物体検知装置
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
JP6623044B2 (ja) * 2015-11-25 2019-12-18 日立オートモティブシステムズ株式会社 ステレオカメラ装置
JP6623729B2 (ja) * 2015-12-04 2019-12-25 株式会社ソシオネクスト 測距システム、移動体及び部品
US10529083B2 (en) * 2016-12-08 2020-01-07 Lighmetrics Technologies Pvt. Ltd. Methods and systems for estimating distance of an object from a moving vehicle
US10683034B2 (en) * 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US10585430B2 (en) 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
US10775781B2 (en) 2017-06-16 2020-09-15 Ford Global Technologies, Llc Interface verification for vehicle remote park-assist
US10384609B2 (en) * 2017-06-20 2019-08-20 Ford Global Technologies, Llc Vehicle rear object proximity system using multiple cameras
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10580304B2 (en) 2017-10-02 2020-03-03 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for voice controlled autonomous parking
US10627811B2 (en) 2017-11-07 2020-04-21 Ford Global Technologies, Llc Audio alerts for remote park-assist tethering
US10578676B2 (en) 2017-11-28 2020-03-03 Ford Global Technologies, Llc Vehicle monitoring of mobile device state-of-charge
US10814864B2 (en) 2018-01-02 2020-10-27 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10974717B2 (en) 2018-01-02 2021-04-13 Ford Global Technologies, I.LC Mobile device tethering for a remote parking assist system of a vehicle
US11148661B2 (en) 2018-01-02 2021-10-19 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10585431B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10583830B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10688918B2 (en) 2018-01-02 2020-06-23 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10737690B2 (en) 2018-01-02 2020-08-11 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10684773B2 (en) 2018-01-03 2020-06-16 Ford Global Technologies, Llc Mobile device interface for trailer backup-assist
US10747218B2 (en) 2018-01-12 2020-08-18 Ford Global Technologies, Llc Mobile device tethering for remote parking assist
US10917748B2 (en) 2018-01-25 2021-02-09 Ford Global Technologies, Llc Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning
US10684627B2 (en) 2018-02-06 2020-06-16 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for position aware autonomous parking
US11188070B2 (en) 2018-02-19 2021-11-30 Ford Global Technologies, Llc Mitigating key fob unavailability for remote parking assist systems
US10507868B2 (en) 2018-02-22 2019-12-17 Ford Global Technologies, Llc Tire pressure monitoring for vehicle park-assist
US10732622B2 (en) 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
US10493981B2 (en) 2018-04-09 2019-12-03 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10683004B2 (en) 2018-04-09 2020-06-16 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10759417B2 (en) 2018-04-09 2020-09-01 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10793144B2 (en) 2018-04-09 2020-10-06 Ford Global Technologies, Llc Vehicle remote park-assist communication counters
EP3572971B1 (de) * 2018-05-22 2021-02-24 Sick Ag Absichern eines überwachungsbereichs mit mindestens einer maschine
US10384605B1 (en) 2018-09-04 2019-08-20 Ford Global Technologies, Llc Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers
US10821972B2 (en) 2018-09-13 2020-11-03 Ford Global Technologies, Llc Vehicle remote parking assist systems and methods
US10717432B2 (en) 2018-09-13 2020-07-21 Ford Global Technologies, Llc Park-assist based on vehicle door open positions
US10529233B1 (en) 2018-09-24 2020-01-07 Ford Global Technologies Llc Vehicle and method for detecting a parking space via a drone
US10967851B2 (en) 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
US10908603B2 (en) 2018-10-08 2021-02-02 Ford Global Technologies, Llc Methods and apparatus to facilitate remote-controlled maneuvers
US10628687B1 (en) 2018-10-12 2020-04-21 Ford Global Technologies, Llc Parking spot identification for vehicle park-assist
US11097723B2 (en) 2018-10-17 2021-08-24 Ford Global Technologies, Llc User interfaces for vehicle remote park assist
US11137754B2 (en) 2018-10-24 2021-10-05 Ford Global Technologies, Llc Intermittent delay mitigation for remote vehicle operation
US11789442B2 (en) 2019-02-07 2023-10-17 Ford Global Technologies, Llc Anomalous input detection
US11195344B2 (en) 2019-03-15 2021-12-07 Ford Global Technologies, Llc High phone BLE or CPU burden detection and notification
US11169517B2 (en) 2019-04-01 2021-11-09 Ford Global Technologies, Llc Initiation of vehicle remote park-assist with key fob
US11275368B2 (en) 2019-04-01 2022-03-15 Ford Global Technologies, Llc Key fobs for vehicle remote park-assist
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
JP7329143B2 (ja) 2019-11-30 2023-08-17 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法
CN110900611A (zh) * 2019-12-13 2020-03-24 合肥工业大学 一种新型机械臂目标定位及路径规划方法
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN115257767B (zh) * 2022-09-26 2023-02-17 中科慧眼(天津)研究开发有限公司 一种基于平面靶标的路面障碍物测高方法和系统
CN115839667B (zh) * 2023-02-21 2023-05-12 青岛通产智能科技股份有限公司 一种高度测量方法、装置、设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3059035B2 (ja) * 1993-12-14 2000-07-04 三菱電機株式会社 距離測定装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
US5606627A (en) * 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
EP0815538A1 (en) * 1995-03-22 1998-01-07 IDT INTERNATIONAL DIGITAL TECHNOLOGIES DEUTSCHLAND GmbH Method and apparatus for depth modelling and providing depth information of moving objects
JP3216792B2 (ja) * 1996-08-06 2001-10-09 富士電機株式会社 映像による距離検出方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175845A (ja) * 1999-12-16 2001-06-29 Nec Corp 車両端検出装置
DE10296593B4 (de) * 2001-03-28 2017-02-02 Panasonic Intellectual Property Management Co., Ltd. Fahrunterstützungsvorrichtung
JP2005222425A (ja) * 2004-02-06 2005-08-18 Sharp Corp 車両周辺監視装置、車両周辺監視方法、制御プログラムおよび可読記録媒体
JP4519519B2 (ja) * 2004-05-26 2010-08-04 クラリオン株式会社 動物体検出装置
JP2005339152A (ja) * 2004-05-26 2005-12-08 Clarion Co Ltd 動物体検出装置
JP2008116357A (ja) * 2006-11-06 2008-05-22 Toyota Motor Corp 物体検出装置
JP2009086882A (ja) * 2007-09-28 2009-04-23 Konica Minolta Holdings Inc 物体検出装置
JP2009175846A (ja) * 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd 車両検出装置
JP2010191637A (ja) * 2009-02-17 2010-09-02 Mazda Motor Corp 車両用運転支援装置
CN102789698A (zh) * 2011-05-19 2012-11-21 富士重工业株式会社 环境识别装置以及环境识别方法
JP2012243050A (ja) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
CN104149685A (zh) * 2013-05-13 2014-11-19 赵盾 一种汽车警示器
JP2015011713A (ja) * 2013-07-01 2015-01-19 株式会社リコー 車両検出方法及び装置
KR102005196B1 (ko) * 2018-10-30 2019-07-29 박배억 원격 제어에 의해 대상물을 조작하는 로봇 및 로봇의 동작 방법
CN112066950A (zh) * 2020-07-24 2020-12-11 北京空间机电研究所 一种多光轴平行的测绘相机单中心投影转换方法
CN112066950B (zh) * 2020-07-24 2022-10-14 北京空间机电研究所 一种多光轴平行的测绘相机单中心投影转换方法

Also Published As

Publication number Publication date
JP3596314B2 (ja) 2004-12-02
US6477260B1 (en) 2002-11-05

Similar Documents

Publication Publication Date Title
JP3596314B2 (ja) 物体端の位置計測装置および移動体の通行判断装置
JP4420011B2 (ja) 物体検知装置
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
EP1881345B1 (en) Method for detecting stationary object located above road
EP3057063B1 (en) Object detection device and vehicle using same
JP3630100B2 (ja) 車線検出装置
EP2993654B1 (en) Method and system for forward collision warning
JP2001351200A (ja) 車載用物体検知装置
US8406472B2 (en) Method and system for processing image data
US20040057599A1 (en) Image processing apparatus and method
JPH10283461A (ja) 車外監視装置
JP2009064410A (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
US20090052742A1 (en) Image processing apparatus and method thereof
JP2007255978A (ja) 物体検出方法および物体検出装置
JP2000266539A (ja) 車間距離計測装置
JP2018060422A (ja) 物体検出装置
JPH08156723A (ja) 車両用障害物検出装置
JP3868915B2 (ja) 前方監視装置及びその方法
JP4798576B2 (ja) 付着物検出装置
JP3600314B2 (ja) 車両の外部環境認識装置
JP3586938B2 (ja) 車載用距離測定装置
JPH11345336A (ja) 障害物検出装置
JP2001082954A (ja) 画像処理装置及び画像処理測距方法
JP2000259997A (ja) 先行車の高さおよび車間距離計測装置
CN112513573B (zh) 立体摄像机装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040830

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080917

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090917

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100917

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees