JP3596314B2 - 物体端の位置計測装置および移動体の通行判断装置 - Google Patents

物体端の位置計測装置および移動体の通行判断装置 Download PDF

Info

Publication number
JP3596314B2
JP3596314B2 JP31190398A JP31190398A JP3596314B2 JP 3596314 B2 JP3596314 B2 JP 3596314B2 JP 31190398 A JP31190398 A JP 31190398A JP 31190398 A JP31190398 A JP 31190398A JP 3596314 B2 JP3596314 B2 JP 3596314B2
Authority
JP
Japan
Prior art keywords
range
image
horizontal
vertical
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31190398A
Other languages
English (en)
Other versions
JP2000136905A (ja
Inventor
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP31190398A priority Critical patent/JP3596314B2/ja
Priority to US09/426,952 priority patent/US6477260B1/en
Publication of JP2000136905A publication Critical patent/JP2000136905A/ja
Application granted granted Critical
Publication of JP3596314B2 publication Critical patent/JP3596314B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、ステレオ画像処理を用いて、前方の障害物を検知し、その障害物まで距離および横端の位置を周囲の環境に影響されることなく、かつ、精度良く求める技術に関し、例えば自動車用の障害物検知装置、速度制御装置、ブレーキ制御装置、自動操舵装置等に応用される技術である。
【0002】
【従来の技術】
従来の障害物検出方法としては、例えば特開平8−278126号公報に記載されたものがある。上記従来技術は、検出対象を先行車としたものであり、先行車は路面上に存在すること、および車両は横エッジが長いことが多いことから、検出対象物の探索範囲を白線検出により求めた路面上に限定し、路面上の横エッジを探索することで先行車の画像上の位置を求め、その位置においてステレオマッチングを行なうことで先行車までの距離を求めるものである。
【0003】
【発明が解決しようとする課題】
しかし、この方法においては、先行車の検出範囲を、白線を基にして求めた自車レーン上に限定しているため、白線のない道路や先行車が近距離にあって白線が隠れてしまう場合には路面領域を限定できないので、そのような場面では水平エッジの探索範囲の限定ができなくなり、先行車検出が不安定になる、という問題がある。また、この方法では、路面上の垂直エッジの探索を行ない、その垂直エッジを用いてステレオマッチングにより先行車の距離と画像上の位置検出を行っており、先行車の横端の位置は、路面上に存在する垂直エッジ端から予想して判断しているため、他の物体の端や背景との区別がつきにくいので、車両の横方向の位置精度が悪いという問題がある。
【0004】
本発明は、上記のごとき従来技術の問題を解決するためになされたものであり、白線や車両の位置などの周囲環境に影響されることなく障害物の位置を検出し、かつ、その障害物の横端の位置を高精度に求めることのできる物体端の位置計測装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記の目的を達成するため、本発明においては、特許請求の範囲に記載するように構成している。すなわち、請求項1においては、ステレオ画像全体を複数のに画像領域(以下、ウィンドウと記す)に分割し、各ウィンドウ毎に視差を求める。そして前方に物体が存在すると、同じ視差のウィンドウが固まることを利用し、視差×水平方向位置(横方向つまりx軸方向に定義したウィンドウ)の表(以下、視差×横位置の表と呼ぶ)を用いて、各ウィンドウ毎に求めた視差に基づいて、表の対応する位置に投票する。そして、x軸方向において同じ位置に並ぶウィンドウのうち同じ視差となるウィンドウの数を求め、表中の値の高い位置を物体の位置として検出する。また、その値が高くなる表中の視差に応じて物体までの距離を求め、かつ、その表の横方向の位置をもとに、画像上において物体が撮像される横方向のおおよその位置を求める。この画像上の物体の横端座標を求める際、各x座標毎に範囲B内の輝度の平均値を求め、時間的に連続して毎回の処理で求めた輝度の平均値を格納し、或る一定時間内における各x座標毎の輝度の平均値の分散が低い範囲を縦エッジの存在する範囲として求める。その範囲内において求めた各垂直方向位置(y座標)毎の水平微分値の絶対値のヒストグラムに基づいて物体の上下端を求め、その上下端と判断されたエッジに挟まれる範囲を画像上で物体が存在する縦方向の範囲Bとして限定する。これらの方法で求めた上下方向の範囲が物体(先行車)が撮像されている範囲である。また、範囲B内において求めた各x座標毎の垂直微分の絶対値のヒストグラムから求めた垂直エッジの中から、視差×横位置の表で求めた先行車位置付近のエッジを選択することにより、先行車の横端エッジの位置を精度よく、かつ周囲の環境に影響されることなく求めることが出来る。最後に、画像上において今までに述べた方法で求めたこの横端のエッジの座標位置を用いて、この値を実座標系に変換することにより前方の物体の距離と横端の実空間上の位置を求めることが出来る。
【0006】
また、本発明においては、検出領域を自車レーンだけに限定していないため、検出物体の個数や検出対象物の形や色にかかわらず、同じ処理で同時に複数物体を検出することが可能になり、検出した個々の物体の全てにおいて同様の方法により画像上での横端位置の計測が可能となる。
【0007】
次に、請求項2に記載の発明においては、請求項1における視差×横位置の表の投票結果より画像上におけるおおよその横位置を特定する際、或る一定時間内でヒストグラムをとり、その時間内において連続して物体と判断される範囲Aを決め、ほぼ確実に物体と判断できるAの範囲を、前方物体の縦方向の範囲Bを求めるためのヒストグラムを求める範囲とするように構成している。
【0008】
次に、請求項3に記載の発明においては、請求項2のように、ほぼ確実に物体と判断できるAの範囲を求めた場合には、垂直範囲検出手段において、水平エッジのヒストグラムから垂直範囲を求めるという面倒な演算の代わりに、簡単なHough変換によるエッジ探索によって垂直範囲を検出するように構成している。
【0009】
次に、請求項4に記載の発明においては、範囲Bを求める際、距離・水平範囲算出手段で求めた物体までの距離と、カメラの焦点距離と、カメラの高さと、前方物体の一般的な寸法から予想される概略の高さ応じて予め設定した値(例えば車両の一般的な高さに相当する値で、予め設定した値)とに基づいて、物体の上下端が撮像されうるおおよそのy座標位置HU,HDを幾何学的に求め、請求項2の垂直範囲検出手段で求めた水平微分値のヒストグラムの高い位置のエッジを選択するように構成している。
【0010】
次に、請求項5に記載の発明においては、範囲Bを求める際、距離・水平範囲算出手段で求めた物体までの距離と、カメラの焦点距離と、カメラの高さと、前方物体の一般的な寸法から予想される概略の高さ応じて予め設定した値(例えば車両の一般的な高さに相当する値で、予め設定した値)とに基づいて、物体の上下端が撮像されうるおおよそのy座標位置HU,HDを幾何学的に求め、請求項3の垂直範囲検出手段で求めた水平エッジ位置のうち、y=HUとy=HD付近のエッジを選択するように構成している。
【0011】
次に、請求項6に記載の発明においては、画像上の物体の横端座標を求める際、範囲B内で求めた垂直エッジのヒストグラムで求められた垂直エッジの中から、輝度の平均値の時間的分散の低い範囲の両端付近にあり、かつ、範囲A(物体が確実に存在する範囲)と範囲A’(物体が存在する可能性の高い範囲)との間付近にあるエッジを選択するように構成している。
【0012】
次に、請求項7に記載の発明は、請求項1〜請求項6に記載の物体端の位置計測装置を用いた移動体の通行判断装置であり、位置計測装置の計測結果に基づいて、上記位置計測装置を搭載した移動体(例えば車両)の前進判断と経路誘導との少なくとも一方を決定する手段を備えたものである。
上記の構成により、移動体の前進の判断や他物体に衝突することなく移動できる経路を誘導することが出来る。
【0013】
【発明の効果】
請求項1では、水平エッジに比べて短く、周囲の木や壁などの影響により検出が困難である車両の横端位置を、高精度かつ背景の影響のないロバストな検出が可能になるという効果がある。さらに、複数の先行車が検出された場合においても、それぞれに同様の処理を施すことで、複数の障害物の横位置を求めることができるという利点がある。
【0014】
請求項2では、より正確かつ背景の影響を受けずに水平エッジを検出できるようになるという効果がある。さらに、先行車が至近距離にある場合、オクルージョンの影響によって視差×横位置の表における車両の横端位置付近のウィンドウの視差が不安定になるため、水平エッジの検出範囲だけでなく、範囲B内において検出した垂直エッジの中からの車両端エッジの選択を誤判断する可能性があるが、請求項2の構成によれば、確実に車両内である領域Aを求めているため、その範囲を考慮に入れることでエッジの選択もより正確になる。
【0015】
請求項3では、請求項2で求めた確実に車両の内部であると判断された領域A内だけでの水平エッジを検出する構成としたことにより、背景に存在するエッジの影響が減少するので、その範囲内で単純なHough変換によるエッジ検出法を用いることにより高速な方法にすることが可能である。また、対象物が既知の場合(例えば車両)では、範囲A内において対象物に応じたエッジ検出方法にすることにより、確実かつ高速な処理に応用できるという利点もある。また、範囲の限定だけ確実性の増加を図っているので、エッジ検出方法は様々な応用が可能である。
【0016】
請求項4では、範囲A内で求めたエッジから車両の上下端を選択する際に、先行車の距離をもとに、先行車の上下端が撮像されうるおおよその位置を求め、その付近で検出されたエッジを選択する構成としたことにより、路面上の影や歩道橋など、範囲A内にたまたま撮像されてしまう先行車以外の水平エッジとの誤検出を防ぐことができるという効果がある。さらに、エッジの検出範囲を、予め求めておいた先行車の上下端が撮像されうる付近だけに限定することで高速化も可能である。
【0017】
請求項5においても請求項4と同様の効果が得られる
【0018】
請求項6では、求めたエッジのうち、各x座標毎の輝度の平均値の分散の小さい範囲の両端付近にあり、かつ、視差から求めた範囲Aと範囲A’の間付近にあるエッジを車両の横端として選択することにより、背景や車両の形に左右されることなく、かつ、車両の距離とは異なる位置と誤判断することがないため、より確実に車両端座標を求めることが可能となるという効果がある。
【0019】
請求項7では、請求項1〜請求項6に記載の物体端の位置計測装置を利用することにより、前方障害物の正確な横位置判断を行なうことが出来るので、例えば、料金所前の合流による渋滞など、左右の斜め前に車両などの障害物がある場合においても自車両の通行判断が可能な装置を実現することが出来る。
【0020】
【発明の実施の形態】
(第1の実施の形態)
図1は第1の実施の形態の構成を示すブロック図である。この構成は請求項1に相当する。
図1において、1および2は電子式のカメラであり、自車の前部に前方を向いて設置されており、両カメラの光軸は相互に平行で、かつ撮像面の水平軸が同じライン上に揃うように設置されている。なお、車両の後部に後方を向けて設置し、車両後方の障害物を検出するように構成することもできる。20は自車の前方に存在する障害物等の検出対象物であり、図1では先行車を例示している。30は演算部であり、例えばCPU、RAM、ROM等からなるマイクロコンピュータで構成される。演算部30において、3、4はそれぞれカメラ1、2から入力した画像信号を記憶する画像メモリである。また、5〜11は演算部30における演算内容をブロックで示したものであり、5はウィンドウ(画像領域)設定手段、6は視差算出手段、7は投票手段、8は距離・水平範囲算出手段、9は垂直範囲算出手段、10はエッジ選択手段、11は実位置算出手段である。なお、演算部30内のこれらの各手段については詳細を後述する。
【0021】
図2は、ステレオ画像を用いて三角測量の原理でカメラから検出対象までの距離を求める原理を説明する図である。図2においては、カメラA(前記カメラ1に相当)で撮像した画像を画像A、カメラB(前記カメラ2に相当)で撮像した画像を画像Bで示し、検出対象の位置を点p(x,y,z)としている。
【0022】
図2から判るように、焦点距離f、眼間距離(両カメラ間の距離)Dが既知であり、光軸が互いに平行な2台のカメラA、Bで撮像したステレオ画像において、2枚の画像間のマッチング位置xa、xbを求めることできれば、カメラから対象物pまでの距離Zは下記(数1)式より求めることができる。
【0023】
Z=f・D/(xa−xb)=f・D/S …(数1)
ただし、xa−xb=Sは視差であり、図2のように、光軸が平行で、所定間隔を隔てて設置された二つのカメラA、Bで一つの物体を撮像した場合に、それぞれのカメラに写った画像の位置の差、すなわち画像Aにおける位置xaと画像Bにおける位置xbとの差である。なお、この例では、眼間距離Dと距離Zの単位はm、焦点距離f、視差Sおよび位置xa、xbの単位は画素である。例えばカメラA、BはCCDを用いたものであり、画素数を640×480とした場合、1画素の大きさは10μm程度である。
【0024】
上記(数1)式の焦点距離fは単位を画素として計算しているが、一般に、焦点距離fは単位がmmで表される場合が多い。それを単位が画素の値に換算するには、例えば、図3に示すように、大きさの判っている幅W(mm)の対象物を距離z(mm)離れたところにおいて撮像し、そのときに撮像される画像上での対象物の画素数wxをエッジ検出などの画像処理によって検出することにより、下記(数2)式で求めることができる。
【0025】
f=z・wx/W …(数2)
ただし、wx、fの単位は画素、z、Wの単位はmm
また、上記の視差Sを検出するには、一方の画像(例えば画像B)上において点pが撮像されている点(xb、yb)に対応する他方の画像(例えば画像A)上の点(xa、ya)を検出する必要がある。その方法としては、画像B上の点(xb、yb)を含む或る範囲の画像(ウィンドウ)と最も類似した範囲を画像A内から探すことで求めることができる。この類似度の算出には、画像間の差分法や正規化相関法などがある。
【0026】
図4は、両画像の対応する位置毎の視差を求めた結果を示す図であり、詳しくは、道路前方を撮像した画像において、一方の画像(例えば画像B)をウィンドウ毎に切り、その全てのウィンドウにおいて他方の画像(例えば画像A)からそのウィンドウと最も類似度の高い画像の位置を求めることで、両画像における対応する位置を検出し、それぞれの対応する位置から各ウィンドウ毎の視差を求めた結果を表したものである。図4において、(A)は左画像(画像Aに相当)、(B)は右画像(画像Bに相当)、(C)は視差の表、(D)は視差が「15」のウィンドウ部分のみを抜き出した画像を示す。また、図4(B)、(C)の(1)〜(20)は各ウィンドウの水平方向(以下、横方向と記す)の位置を示す。ただし、図においては(1)〜(20)を丸付き数字で表している。また、一つのウィンドウは幅(x方向の長さ)がxw、高さ(y方向の長さ)がywである。
上記のように、各ウィンドウ毎の視差が判れば、前記(数1)式を用いることによって、該当するウィンドウに撮像されている物体までの距離を求めることが出来る。
【0027】
以下、図4のようにウィンドウ毎にその内部に撮像されている物体までの視差を求めた画像を“距離画像”と呼ぶことにする。このウィンドウ毎に算出される視差は、当該ウィンドウの内部に撮像されていてエッジ(画像が明から暗または暗から明に変化する点が連続した部分で、画像の端などを示す線分に相当する)などの特徴的な部分を持つ物体までの距離に相当するから、一つの対象物が複数ウィンドウに跨って撮像されていると、隣接するウィンドウで同じ視差が求められる。例えば、道路前方を撮像した画像における距離画像の場合、先行車と、先行車が存在する真下の路面とは同距離なので、図4(D)に太線のウィンドウで示すように、先行車の下部と同じy座標上にあるウィンドウは先行車と同じ視差で算出される。例えば図4(C)の下から2行目に「15」が横方向に連続しているのが上記の部分に相当する。なお、図4(C)において、中央部分に視差「15」が集合している部分が先行車に相当し、(3)、(4)列に視差「19」が集合している部分が「左方の木」に相当し、(6)列に視差「5」が連続している部分が「中央の木」に相当する。
【0028】
上記のように、距離画像は前方に高さのある物体が存在すると、その物体が撮像されているx座標位置のウィンドウでは同じ視差が検出される。一方、車両横にある白線部分のように路面などの高さを持たない位置では、同じx座標上で同じ視差が検出されるウィンドウは一つである。すなわち、前方に物体が存在する場合、同一x座標の方向でのウィンドウにおいて同じ視差の個数を数えることにより、物体を検知することができる。この方法によれば、複数の物体も一つの物体も同じ方法で検出することができ、検出対象や背景の色に左右されずに物体を検知できるようになる。また、白線や停止線などの路面表示は、同じ視差を示すウィンドウが同じ方向に現れないため、路面表示と高さをもつ障害物とを誤検出することがなくなるという利点もある。加えて、距離画像だけを利用しているため、検出対象の色や形状および背景色にかかわらず同様の処理で複数物体を検出できる。
【0029】
これまでに説明した構成は、本出願人が既に出願した特願平10−154625号(未公開)と同じである。本発明は、上記本出願人の先行発明をさらに発展させたものであり、上記のようにして検出した前方物体の横方向の位置をより正確に検出する技術である。
【0030】
図5は、距離画像上の或るウィンドウで求めた視差とそのウィンドウの横方向の位置に基づいて、対応する表中の位置に投票する様子を表した図であり、(A)は右画像、(B)は視差の表、(C)は投票用の表を示す。なお、この場合における「投票」とは、或る横方向位置とそれに対応する視差の値の位置に、+1ずつ加算することを意味する。例えば位置(8)の位置に視差「15」が1個存在する場合には、図5(C)の位置(8)で視差「15」の位置に「+1」が加算される。図5(B)の例では、位置(8)の位置に視差「15」が5個存在するから、最終的には位置(8)で視差「15」の位置に「5」が投票されることになる。
【0031】
また、図6は、上記の投票を全てのウィンドウにおいて行った結果を示す図であり、(A)は右画像、(B)は視差の表、(C)は投票用の表を示す。
【0032】
図5から判るように、図4で設定したウィンドウにおいて、横方向が同じ位置のウィンドウは同じ方向を撮像したものである。また、図6から判るように、前方に物体が存在する場合、物体を検知している部分では同じx座標上の縦方向のウィンドウは同じ視差が求められ、路面上に物体が存在しない場合では同じy座標上の横方向のウィンドウで同じ視差が求められる。このような距離画像を用いて、図5に示した方法で表に投票を行なうと、同じ方向(同じx座標上)に同じ視差が並んでいると、その方向と視差への値への投票回数が多くなるため、その位置の値が高くなる。したがって、図6の表から値の高い位置を探すことで前方の物体の有無を検知できる。図6に示す例では、(3)、(4)番目のウィンドウで視差「19」の部分(左方の木に相当)、(5)番目のウィンドウで視差「5」の部分(中央の木に相当)、(8)〜(16)番目のウィンドウで視差「15」の部分(先行車に相当)で投票が集中し、値が高くなっている。例えば視差「15」の部分の値が高いということは、カメラが撮像した画角内に視差が約15画素となる物体が撮像されていることを示す。仮に前記図2に示した眼間距離Dを0.1m、焦点距離fを1500画素とすると、カメラからその物体までの距離は、前記(数1)式により、前方10m(=1500×0.1/15)であると求められる。また、視差が15画素の位置の投票結果をx軸方向で見ると、x軸方向に定義した(8)〜(16)番目のウィンドウ付近の値が高く、その左右両側のウィンドウでは投票値が低くなっている。
【0033】
図7は、上記の内容を判りやすく示すため、図6の投票結果から視差15の部分を抜き出して1次元グラフとしてあらわした図である。図7において、(a)は図6の(c)に相当する表、(b)は1次元グラフ、(c)は対応する画像である。以下、図7を用いて、物体が撮像されるおおよその横方向(x軸方向)の範囲を求める方法を説明する。
【0034】
図7(b)において、横軸はx方向に定義したウィンドウの位置、縦軸はそのx座標位置で視差=15となったウィンドウの個数である。この図では、(8)〜(16)番目の値が高い。このことは(8)〜(16)番目の間に高さをもつ物体が撮像されていることを示している。また、グラフ内の横線は、物体が撮像されているか否かを判断するために設けたしきい値である。しきい値は、例えば次の方法で設定すればよい。すなわち、表の値は画像上に撮像される物体の高さに比例し、画像上の物体の高さは実際の物体の高さを一定とすると物体までの距離に反比例する。このことから、物体までの距離に応じて画像上の高さを計算し、その高さに含まれるウィンドウの個数を基準にヒストグラムのしきい値を設定することができる。例えば、図7(b)では、しきい値を5.5に設定している。したがって、しきい値以上の値を持つ位置は(8)〜(16)番目のウィンドウであるので、前方の物体が撮像されるおおよその横方向の範囲は(8)〜(16)番目のウィンドウの間であると求められる。
【0035】
図8は、図7で求めた範囲内で輝度の水平微分の絶対値を求め、その水平微分値の絶対値をx座標毎に加算して求めたヒストグラムを表した図である。図8において、(a)は原画像、(b)は水平微分した結果を示す画像、(c)はそのヒストグラムである。なお、xsとxeは車両が撮像されたおおよその両端のx座標位置を示す。
【0036】
前方に検出した物体が車両の場合、図8に示すように車両の上下端やバンパー、窓枠など水平エッジを持つ位置のヒストグラムが高くなる。ここで、微分の絶対値を加算するのは、車両の色によらないようにするためと、エッジが多少斜めで細い場合に互いに打ち消し合うことでエッジのヒストグラムがエッジがあるにもかかわらず低くなることを防ぐためである。また、ここでは、水平微分値のヒストグラムをとる範囲を、物体を検出したおおよその範囲内に横方向を限定したため、車両以外のエッジ成分の値が加算されることが少ない。つまり、このヒストグラムの値が高い位置は車両のエッジとみなせるため、これらのエッジの中から或る程度上部のものと或る程度下部にあるエッジとがそれぞれ車両の上下端のエッジとなる。
【0037】
図9は、上記の結果に基づいて、前方車両の上下端を求めた結果を示す図である。図9において、小さな星印は水平エッジを検出した場所を示し、大きな星印は車両の上下端のy座標位置(yu、yd)を示す。また、範囲Bは車両の上下端に挟まれた範囲を示す。
【0038】
図10は、前述の方法で求めた車両の上下端に挟まれる範囲B内の画像を垂直微分し、範囲B内の垂直微分成分の各x座標毎のヒストグラムをとった結果を示す図である。図10において、(a)はヒストグラム、(b)は垂直微分画像、(c)は原画像である。
【0039】
この場合も範囲Bを求めたときと同様に、車両が撮像されている部分だけの垂直微分成分のヒストグラムであるので、車両のエッジのある部分のヒストグラムが高くなる。また、ここでは、図7の処理により画像上において車両の両端が撮像されるおおよその横方向の位置(図10の(8)〜(16)の間)がわかっている。これらのことから、距離画像から求めた車両左右両端付近にあり、かつ、垂直エッジ成分を多く含むx座標位置を車両の左右端として求めることができる。図10(a)に大きな星印で示した位置が上記の左右端に相当する。この例では、図7で求めたおおよその位置xe、xsよりも、やや外側に位置している。
【0040】
この方法では、エッジのヒストグラムをとる範囲を車両以外を含まない範囲としたため、背景が変化してもそれに影響されない。また、画素単位で横エッジの位置を求めることができるため、距離画像からの横位置探索方法よりも位置を高精度に求めることができる。
【0041】
図11は、図2に示したカメラ設定を上方から見た図である。この図をもとに、画像上において求めた障害物の横位置と距離に基づいて、カメラに対する実際の横位置を求める方法を説明する。
【0042】
座標系の原点を2台のカメラのレンズ中心間を結ぶ線分の中点とし、右画像において求めた先行車の左右端の座標をxlr,xrr(単位は画素)、焦点距離をf(画素)、視差から求めた先行車までの距離をz(m)、眼間距離(カメラ間の距離)をD(m)とすると、2台のカメラのレンズ中心間を結ぶ線分の中点から見た、前方車両の左右端の距離xl,xr(m)は、下記(数3)式で求めることができる。
【0043】
Figure 0003596314
【0044】
なお、前記図1の演算部30における各ブロックは、それぞれこれまで説明した下記の部分に相当する。すなわち、ウィンドウ設定手段5および視差算出手段6は図4で説明した内容に、投票手段7は図5および図6で説明した内容に、距離・水平範囲算出手段8は図6〜図8で説明した内容に、垂直範囲算出手段9は図9で説明した内容に、エッジ選択手段10は図10で説明した内容に、実位置算出手段11は図11で説明した内容に、それぞれ相当する。
【0045】
以上説明してきたように、第1の実施の形態においては、前方に物体が存在すると同じ方向に同じ視差を示すウィンドウが固まることを利用し、定義したウィンドウ毎に求めた視差をそのウィンドウの横方向の位置をもとに視差と横位置からなる表中の対応する位置に値を加算し、全ウィンドウにおいてその操作を行った結果できた表中から値の高い位置を探すことで物体の距離と画像上において先行車が撮像されるおおよその範囲を求め、背景の影響を防ぐために、その範囲内において水平エッジのヒストグラムによりエッジを検出することで先行車の上下端に挟まれる範囲Bを求め、範囲B内において垂直エッジのヒストグラムを求めることで垂直エッジを求め、それらのエッジの中から視差×横位置の表から求めたおおよその横位置の範囲付近にあるエッジを選択することで画像上における車両の横端位置を求め、その横端位置と視差から求めた車両までの距離をもとに、前方の車両の端の横方向の位置を求める構成としている。そのため、通常、水平エッジに比べて短く、周囲の木や壁などの影響により検出が困難である車両の横端位置を、高精度かつ背景の影響を受けないロバストな検出が可能になるという効果がある。さらに、この方法によれば、視差×横位置の表により、複数の先行車が検出された場合においても、それぞれに同様の処理を施すことで、複数の障害物の横位置を求めることができるという利点がある。
【0046】
(第2の実施の形態)
次に、第2の実施の形態について説明する。この構成は請求項2に相当する。前記第1の実施の形態の処理では、図7の処理でおおよその車両の横位置をウィンドウ単位で求めている。しかし、車両が至近距離にある場合は、図12に示すように、車両端付近の画像はステレオ画像処理の問題点の一つであるオクルージョン(前方の画像がそれより近くにある画像で隠される範囲が左画像と右画像とで異なること)により対応点が見つからない領域となるため、背景によって結果が左右されることが多く、車両端付近で求めた視差は誤計測である場合が多い。オクルージョンにより視差が不安定になる領域は、図12の右画像において車両左端が撮像される位置xlrと左画像において車両の左端が撮像される位置xllとの間と、右画像において車両右端が撮像される位置xrrと左画像において車両の右端が撮像される位置xrlとの間の領域である。このことから、xlrとxllとの間、およびxrrとxrlとの間を除いたxll〜xrrの範囲を確実に車両である範囲Aとして、この後の処理である水平エッジのヒストグラムをとる範囲とする。
【0047】
また、上記の不安定領域も含めたxlr〜xrlの範囲をA’とし、車両の候補となる領域とする。この範囲A’は、前記第1の実施の形態において、最終的に画像上の左右の横端エッジを求める際のエッジの存在選択範囲の基準としても用いている。
【0048】
上記の範囲Aを求めるには、画像が存在するおおよそのx軸方向の範囲を求める処理を時間的に連続して行なったときに、連続して範囲内と判断された部分を範囲Aとする。また、範囲A’を求めるには、連続的ではないが所定の指定の回数以上範囲内であると判断された部分を範囲A’とする。
【0049】
上記のように第2の実施の形態においては、第1の実施の形態で作成した表から先行車のおおよその横位置を求める際、時間的に連続して先行車の範囲内と判断される領域Aと連続的ではないが或る指定回数以上先行車の範囲内と判断される領域A’とを求め、先行車の水平エッジを求める際に、領域A内においてエツジを求める構成としたため、より正確かつ背景の影響を受けずに水平エッジを検出できるようになるという効果がある。さらに、先行車が至近距離にある場合、オクルージョンの影響により、視差×横位置の表における車両の横端位置付近のウィンドウの視差が不安定になるため、水平エッジの検出範囲だけでなく、範囲B内において検出した垂直エッジの中からの車両端エッジの選択を誤判断することもありうるが、この実施の形態では、確実に車両内である領域と車両の候補領域とを求めているため、それら二つの範囲を考慮に入れることでエッジの選択もより正確になる。
【0050】
(第3の実施の形態)
次に、第3の実施の形態について説明する。この構成は請求項3に相当する。第3の実施の形態においては、画像上の車両の上下端を求める際、第2の実施の形態において確実に物体が存在すると判断された範囲A内においてHough変換などの一般的直線検出方法などを用いて水平直線を検出するものである。
【0051】
上記のように車両の水平エッジを求める際、確実に車両の内部であると判断された領域内だけでの水平エッジを検出する構成としたことにより、背景に存在するエッジの影響が減少するため、その範囲内で単純なエッジ検出法を用いることが可能になるので、より高速な方法にすることが出来る。また、対象物が既知な場合では、範囲A内において対象物に応じたエッジ検出方法にすることで、確実かつ高速な処理に応用できるという利点もある。そして範囲の限定だけ確実性を向上させることが出来るので、エッジ検出方法は様々な応用が可能である。
【0052】
(第4の実施の形態)
次に、第4の実施の形態について説明する。この構成は請求項4に相当する。第4の実施の形態においては、画像上の車両の上下端(上下方向の範囲B)を求める際、まず、車両の上下端が撮像されうる位置を限定し、その位置付近で検出されたエッジを選択するように構成している。位置の限定は次の計算で行なうことが出来る。ここでは、距離画像に基づいて車両までの距離が求められているので、図13に示すように、画像上に車両が撮像されるおおよその縦方向(y軸方向)の位置を求めることができる。
【0053】
図13において、検出した車両までの距離をz、その車両の高さをh(一般的な車両の寸法から予想される概略の高さで、予め設定した値)、路面からのカメラの高さをHとすると、画像上に車両が撮像されるおおよその範囲HU〜HDは下記(数4)式で求めることができる。
【0054】
HU=f×(h−H)/z , HD=−f×H/z …(数4)
車両の上下端のy座標位置は、範囲A内でとった水平エッジのヒストグラムや範囲A内でHough変換などで検出した水平エッジのうち、y1(HUに相当)とy2(HDに相当)付近にあるものを選択する。
【0055】
上記のように、第4の実施の形態においては、範囲A内で求めたエッジから車両の上下端を選択する際に、先行車の距離をもとに、先行車の上下端が撮像されうるおおよその位置を求め、その付近で検出されたエッジを選択する構成としたことにより、路面上の影や歩道橋など、範囲A内にたまたま撮像されてしまう先行車以外の水平エッジとの誤検出を防ぐことができるという効果がある。さらに、エッジの検出範囲を、あらかじめ求めておいた先行車の上下端が撮像されうる付近だけに限定することで高速化も可能である。
【0056】
(第5の実施の形態)
次に、第5の実施の形態について説明する。この構成は請求項5に相当する。第5の実施の形態おいては、画像上の車両の左右端を求める際、車両の内部の輝度は時間的に不変であるが車両周囲の背景は変化することを利用し、時間的に連続して各x座標毎における範囲B内の輝度の平均値を求め、その各x座標毎に求めた毎回の平均値を格納し、所定時間内における各x座標毎の輝度の平均値の分散を求め、分散が低い範囲を車両の内部と判断することで、車両の横端位置を求める。
【0057】
上記のように、範囲B内で車両の横端位置を求める際、時間的に連続して範囲B内で各x座標毎の輝度の平均値を計算し、各x座標毎に求めた輝度の平均値の時間的な分散の小さい位置を車両が撮像されている範囲として求めるように構成したことにより、車高が低い、背景が車両と同じ色であるなど、縦エッジの検出が困難であるような状況化でも車両端の検出が可能になるという効果がある。
【0058】
(第6の実施の形態)
次に、第6の実施の形態について説明する。この構成は請求項6に相当する。第6の実施の形態においては、画像上の車両の左右端を求める際、第5の実施の形態の方法で求めた車両の内部に相当するx軸方向の範囲と、第2の実施の形態で求めた確実領域Aと候補領域A’の間付近にあり、範囲B内で垂直エッジのヒストグラムやHough変換などで求められた垂直エッジの位置を求め、検出されたエッジのうち、時間的に連続して求めた輝度分散の小さい範囲の両端付近にあるエッジを選択するように構成している。
【0059】
上記のように、求めたエッジのうち、各x座標毎の輝度の平均値の分散の小さい範囲の両端付近で、かつ、視差から求めた範囲Aと範囲A’の間付近にあるエッジを車両の横端として選択することにより、背景や車両の形に左右されることなく、かつ、車両の距離とは異なる位置と誤判断することがないため、より確実に車両横端の座標を求めることが可能になる、という効果がある。
【0060】
(第7の実施の形態)
次に、第7の実施の形態について説明する。この構成は請求項7に相当する。第7の実施の形態においては、第1〜第6の実施の形態で説明した物体端の位置計測装置と、この位置計測装置の計測結果に基づいて、位置計測装置を搭載した車両の前進判断と経路誘導との少なくとも一方を決定する手段と、を備えるように構成している。すなわち、上記物体端の位置計測装置を用いて、自車両前方に存在する物体(例えば先行車)までの距離とその横端位置を計測し、その結果に基づいて、先行車との衝突の可能性と安全な経路を判断し、自車両の前進の可否、および経路を決定するものである。
【0061】
上記の車両の前進判断と経路誘導との少なくとも一方を決定する手段としては、例えば、先行車の横の空間の幅と自車両の幅とを比較することにより、通り抜けが可能か否かを判断し、可能な場合には自車両の進行を“可”とし、かつ先行車の横端位置から判断して、自車両が安全に通過出来る進路を経路として決定する装置を用いることが出来る。その決定結果は、例えば液晶表示器のような車載の表示器に表示したり、あるいは自動操舵装置に経路情報として与える。また、自車両の進行が“不可”の場合には、ブレーキ制御装置等を制御して、減速または停車等の措置を行なうことが出来る。
【0062】
通常、車両は水平エッジに比べて垂直エッジが短いため、画像全体で検出した垂直エッジから車両の横端の位置を求めることは困難である。例えば、エッジの検出だけの判断では、車両の縦エッジと白線や路肩などとの区別が困難である。一方、距離画像からの横位置検出では、横位置をウィンドウ単位でしか求めることができないため精度が粗い。さらに、仮に1画素単位で視差を算出し、画素単位で横位置を求める場合でも、前記第2の実施の形態で説明したように、オクルージョンによって視差が不安定な領域が横位置となるため、エッジ検出と同様に視差×横位置への投票結果からの判断だけでは車両の横位置を精度よく求めることはできない。特に、車両の横方向の位置を精度良く必要とする状況は、先行車が比較的至近距離にある場合が多い。例えば、駐車車両のある路地でのすり抜け判断や、渋滞時における斜め前方車両の幅寄せ時のブレーキ判断などである。しかし、従来の方法では、エッジ検出はもちろん、ウィンドウ毎に求めた視差xの表からの横位置範囲検出でも、物体が近いがゆえに起こるオクルージョンの問題により横端位置の精度良い検出は困難であった。
【0063】
それに対して本発明の物体端の計測装置によれば、車両端の検出を距離画像から求められる位置とするだけにとどめず、まず、その距離画像から求められるおおよその車両撮像範囲に限定した上で比較的検出しやすい水平エッジを検出し、長さが短いことが多いため通常検出が困難である車両左右端の垂直エッジを、車両の上下端からなる水平エッジに挟まれた範囲内だけで検出し、車両の横端も含む数本の垂直エッジを検出し、それらのエッジの中から、距離画像から求めたおおよその範囲の両端付近にあるものを選択することにより、単なるエッジ検出や距離画像からの検出では困難な車両の横端エッジの正確な検出を可能とした。
【0064】
また、本発明においては、エッジ検出範囲やエッジの選択範囲をステレオ画像処理で求めた同じ距離として求められるおおよその範囲としたため、背景や路面状態、路面への影、白線の有無など、車両以外の周囲の状況に依らない正確な計測処理が可能となる。
【0065】
加えて、テクスチャ(本来存在する物体表面の模様:例えば木目などで、ノイズとは異なる)やエッジが少なく、時間的に連続して撮像した場合でも背景に比べて輝度の変化が非常に少ないという車両ボディ面の画像の特徴を利用し、距離画像と水平エッジの処理によって車両を挟む範囲に上下方向を限定した後、その範囲内において各x座標毎の輝度の平均値を時間的に連続してとり、その時間的分散の小さい範囲を車両内と判断することもできる。さらに、車両の存在する範囲内において検出したエッジの中から先行車の横端に位置するものを選択する際に、距離画像から求めたおおよその位置と、この各x座標毎に求めた輝度の平均の時間的分散が小さい範囲も考慮にいれることでより、確実に横端の位置を求めることが可能となる。
【0066】
以下、これまで説明した実施の形態における具体的な実施例について処理のフローチャートを用いて説明する。
図14は、本発明の処理の第1の実施例を示すフローチャートである。
ここでは、前記図2に示したようにカメラを路面に対して横に平行に並べ、2台のカメラのy軸が同一ライン上にのるように配置したステレオカメラを用いている。
【0067】
図14において、まず、ステップS100では、視差×横位置の表の初期化とヒストグラムの初期化を行なう。
次に、ステップS101では、ステレオ画像の画像Aと画像Bを入力する。
次に、ステップS102では、ステレオ画像のどちらか片方の画像上にウィンドウを定義する。ここでは、図4に示したように、縦に10個横に20個の合計10×20個のウィンドウを定義する。
【0068】
次に、ステップS103では、定義したウィンドウの全てにおいて視差を検出し、図5で説明したように、視差×横位置の表への投票を行なう。ここで、距離画像作成のための画像のマッチングは、正規化相関法や差分法などを用いればよい。
次に、ステップS104では、上記の表への投票結果を用いて表中の値の高い位置をもとに、図6で説明したように、先行車の有無と、その視差から、先行車までの距離の計算を行なう。ここで、先行車がなければステップS101へ戻って次の画像入力へ移り、先行車があれば、ステップS105へ進む。
【0069】
次に、ステップS105では、横位置の判断を行なう。横方向の範囲の判断は図7で説明した方法でよい。また、横位置の判断において第2の実施の形態で説明した方法を用いる場合は、各処理毎に求めた横位置を毎回更新しながら過去数回分格納し、この過去数回において時間的に連続して先行車範囲内と判断される範囲Aと、連続的ではないが、格納した個数の半分程度に設定した所定回数以上で先行車範囲内と判断される範囲A’を求める。
【0070】
次に、ステップS106では、範囲Aを求めた後に、この範囲内にある水平エッジを検出し、車両の上下端を求める。この処理では図8に示したように、範囲A内の各画素において輝度の水平微分値の絶対値を求め、各y座標毎の水平微分値のヒストグラムをとればよい。
【0071】
ここで、y=ypの水平微分値のヒストグラムをHh(yp)とすると、その値は、点(x,yp)の水平微分の絶対値を|dIy(x,yp)|、範囲Aの始点をxs、終点をxeとすると下記(数5)式で求められる。
【0072】
Figure 0003596314
【0073】
この水平微分値の絶対値は、例えば図15(a)に示したようなソーベルオペレータとのコンボリューション結果の絶対値として求めればよい。また、水平エッジのヒストグラムは非常に有効な検出方法と考えられるが、この範囲A内には、図8からも判るように先行車以外の物体はほとんど無いため、第3の実施の形態で説明したように、範囲A内におけるHough変換など一般的な直線検出方法などにより水平方向の直線を用いてもよい。
【0074】
上記の方法で検出された数本の水平直線から、次の処理である車両の横端エッジの検出範囲を限定するために、車両の上下端の直線を選択する。通常、車両の上下は空と路面の領域となり、車両は長い水平エッジを持つことが多いため、検出された水平エッジのうち、この後の処理であるヒストグラムをとるために十分な大きさをもつ領域を作る2本のエッジを適当に選択してもよい。しかし、前方の歩道橋や路面の影などの誤検出を防ぎ、より確実に求めるためには、第4の実施の形態で説明した方法を用いる方が確実である。この場合、図13で示したように、(数5)式によって車両が発見された距離をもとに車両が撮像されうるy座標値HU,HDを求めておき、そのHU,HD付近で検出されたエッジを選択すればよい。このような方法で求めた車両の上端エッジy=yuと下端エッジy=yaに挟まれる範囲を範囲Bとする。
【0075】
次に、ステップS107では、範囲B内に含まれる縦エッジを検出することで画像上における先行車の左右横端位置を求める。この処理は、図10に示したように、範囲B内で輝度の垂直微分値の絶対値を求め、各y座標毎に範囲B内の微分値のヒストグラムをとる。
ここで、y=ypの垂直微分値のヒストグラムをHv(xp)とすると、その値は、点(xp,y)の水平微分の絶対値を|dIx(xp,y)|、範囲Bの始点をyu、終点をydとすると下記(数6)式で求められる。
【0076】
Figure 0003596314
【0077】
この垂直微分値の絶対値は、例えば図15(b)に示したソーベルオペレータとのコンボリューション結果の絶対値として求められる。また、エッジの検出範囲を範囲B内とすると、その範囲内には確実に先行車のエッジが含まれ、同時に先行車以外のエッジが減るため、第5の実施の形態で説明したように、範囲B内におけるHough変換など一般的な直線検出方法などにより垂直方向の直線を用いてもよい。
【0078】
これらの方法で検出された数本の垂直直線から車両の左右端の直線を選択する。車両のおおよその横位置は、視差×横位置の表を用いた検出結果から求められているので、図16に示すように、範囲B内で検出したエッジの中から視差×横位置の表から検出した範囲の両端付近にあるものを選択すればよい。
【0079】
また、車両が至近距離にあるときは、図12で説明したオクルージョンにより視差をもとに求めた車両の範囲が不安定であるため、第6の実施の形態で説明したように、確実に先行車と判断される範囲Aと先行車である可能性のある範囲と判断された範囲A’の間に挟まれる範囲付近をもとに、右画像の場合は図12のようにx=xlrとx=xrr付近、左画像の場合は、x=xllとx=xrl付近にあるエッジを選択してもよい。この状態を図17に示す。
【0080】
次に、ステップS108では、ステップS107の処理で求めた画像上の車両の横端位置をもとに、実座標系におけるカメラに対する横位置を求める。具体的には、図11の関係により、右画像または左画像で検出した横端の画像上の座標を用いて、(数3)式により実座標系における前方の車両端の位置を求めることができる。
【0081】
次に、図18は、本発明の処理の第2の実施例を示すフローチャートである。この処理において、S100〜S106(初期設定から範囲Bを求める)までは前記図14と同じ処理であり、ステップS109とS110とを追加したものである。
【0082】
先行車は水平エッジに比べて垂直エッジは短いことが多い。そのため、周囲の樹木や建物など背景に縦エッジを多く含む場面においては、範囲B内でのエッジ検出だけでは検出位置が安定しない場合もある。第5の実施の形態はそのような場面に対処するための方法であり、本フローチャートのステップS109とS110とがその処理に相当する。
【0083】
通常1台の車両に追従している場合、背景の画像は変化するが、車両を撮像している部分の輝度は変化しない。特に、車両のボディはテクスチャがなく一様であることが多いため、時間的に連続して撮像した画像間において、輝度の変化が非常に少ない。車両部分の輝度分布の変化が背景に比べて少ないことは、走行中のような背景が変化する場合だけでなく、渋滞のように車両がほぼ停止しているときにも同じことが言える。すなわち、背景には、木などのように風で動くものや、周囲の歩行者など車の走行状態に関係なく動くものがたくさんあり、さらに、車両のボディのように人工的に一様に塗装された面は光りの当り具合の微妙な変化に関係なく一様な輝度として撮像されるが、路面や壁などテクスチャをもつ部分は、光の微妙な変化や撮像している微妙な角度の変化などにより、画像上の輝度が変化するためである。
【0084】
図19(a)、(b)、(c)は、時刻t、t+1、・・・、t+nの連続した処理毎において、範囲B内の各x座標毎の輝度の平均値を求めた状態を示す図であり、図19(d)に示したグラフは、n回の時間的に連続した処理のそれぞれにおいて、各x座標毎に求めた範囲B内の輝度の平均値の分散を表したものである。
【0085】
ここで、時刻tに撮像された画像の点(x,y)の輝度をIt(x,y)、範囲Bの上の座標をyu、下の座標をydとすると、x=xpにおける輝度の平均値 (xp)は下記(数7)式で求められる。
【0086】
Figure 0003596314
【0087】
また、時刻t−n〜時刻tの間に計算した輝度の平均値の分散Vt(xp)は、下記(数8)式で求められる。
Figure 0003596314
【0088】
ここで、輝度の平均値を計算する際に用いる値は、車両の上下端に挟まれる範囲に限定したため、車両が撮像されているx座標上では車両上の輝度だけが加算される。車両の特にボディにはテクスチャやエッジがないため、多少光りの加減や車両の位置が変化しても輝度の変化が小さい。そのため時間的に連続して車両上の輝度の平均値(数8)を求めた場合、その値はほとんど変化しない。一方、車両以外の撮像される部分では、カメラ搭載車両が動いているときはもちろん、車両が停止している状態であっても、背景の草木や周囲の歩行者、路面の細かいテクスチャヘの光の当たり具合が変化するため、時間的に輝度の平均値が変化する。このことから、図19に示したように、分散の小さい範囲は車両が撮像されている範囲とみなすことができる。図18のステップS109ではこの分散の小さい範囲を求めている。また、ここでは、輝度の合計ではなく輝度の平均値を求めている。すなわち、範囲Bの幅(yu〜ydの間の長さ)は車間距離の変化により画像上の大きさが変化してもその大きさに応じた範囲が求められるため、車両の画像上の大きさが変化する場合にも同じことが適用できる。
【0089】
次に、ステップS110では、この輝度の平均値の分散の結果と、ステップS107で行ったエッジ検出結果を用いて、図20に示すように、(数8)式で求めた分散の小さい範囲の両端付近にあり、かつ、ステップS104の処理で求めた範囲Aと範囲A’の間付近にあるエッジを車両の横端位置として選択する。このような処理を行なうことにより、周囲環境に影響されない、よりロバスト性の高い横位置検出が可能となる。
【0090】
次に、図21は、第7の実施の形態における本発明の適用を説明するための図である。
図21(a)は、斜め前に車両がある場合や料金所前の渋滞のように、車両が白線に沿わず入り乱れている場合に、自車が安全に進行出来るか否かを判断する状態を示す。本発明の物体端の位置計測装置によれば、前方の障害物(先行車)の横端位置を正確に検出することが出来るので、自車の横幅と比較することによって安全に前進出来るか否かを判断することが出来る。その結果は車載の液晶表示器等に表示し、運転者に提示することが出来る。また、上記の判断結果を用いて、例えば右端が接触するおそれのある進路の場合は、それを表示して左側へ寄るように指示する等、進行経路を表示することも可能である。また、自動的にブレーキ装置を作動させて、減速や停止の制御に利用することも可能である。
【0091】
また、図21(b)は、駐車車両のある路地の状況を示す。このような場合でも斜め前方の車両の横端を判断できるため、自車が車両に衝突することなく前進できるか否かの判断が可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の構成を示すブロック図。
【図2】ステレオ画像を用いて三角測量の原理でカメラから検出対象までの距離を求める原理を説明する図。
【図3】ステレオ画像処理による距離算出方法を説明する図。
【図4】二つの画像の対応する位置毎の視差を求めた結果を示す図。
【図5】距離画像上の或るウィンドウで求めた視差とそのウィンドウの横方向の位置に基づいて、対応する表中の位置に投票する様子を表した図。
【図6】図5の投票を全てのウィンドウにおいて行った結果を示す図。
【図7】図6の投票結果から視差が15画素の部分を抜き出して1次元グラフとして表した図。
【図8】図7で求めた範囲内で輝度の水平微分の絶対値を求め、その水平微分値の絶対値をx座標毎に加算して求めたヒストグラムを表した図。
【図9】図8の結果に基づいて、前方車両の上下端を求めた結果を示す図。
【図10】図9の方法で求めた車両の上下端に挟まれる範囲B内の画像を垂直微分し、範囲B内の垂直微分成分の各x座標毎のヒストグラムをとった結果を示す図。
【図11】図2に示したカメラ設定を上方から見た図。
【図12】オクルージョンによって不安定になる理由を説明するための図。
【図13】画像上における前方車両のおおよその撮像位置の求め方を説明するための図。
【図14】本発明の処理の第1の実施例を示すフローチャート。
【図15】水平・垂直微分画像算出用のソーベルオペレータの一例を示す図。
【図16】垂直エッジの選択方法を示す図。
【図17】垂直エッジの選択方法の他の例を示す図。
【図18】本発明の処理の第2の実施例を示すフローチャート。
【図19】時間的分散と範囲Aと範囲A’を考慮した垂直エッジの選択方法を説明するための図。
【図20】垂直エッジの選択方法の他の例を説明するための図。
【図21】本発明の移動体の通行判断装置における適用状況を説明するための図。
【符号の説明】
1、2…電子式のカメラ 3、4…画像メモリ
5…ウィンドウ設定手段 6…視差算出手段
7…投票手段 8…距離・水平範囲算出手段
9…垂直範囲算出手段 10…エッジ選択手段
11…実位置算出手段 30…演算部
20…自車の前方に存在する検出対象物(先行車両)

Claims (7)

  1. 車両に搭載された二つの電子式カメラからなり、両カメラが共に車両前方または後方に向けて相互に光軸が平行で、かつ撮像面の水平軸が同じライン上に揃うように設置されたカメラと、
    一方のカメラの画像を所定の大きさの画像領域毎に分割する画像領域設定手段と、
    上記の各画像領域毎に、当該画像領域内の画像と他方のカメラの画像との類似度を算出し、当該画像領域と他方のカメラで最も類似度の高かった画像位置との位置の差を検出することにより、各画像領域毎の視差を求める視差算出手段と、
    上記各画像領域の水平方向の位置と視差の値とを横軸と縦軸とに対応させた表を有し、上記各画像領域毎の水平方向の位置と当該画像領域における視差の値とに対応した上記表の該当する位置に、所定値を加算する投票手段と、
    上記表中で高い値の存在する位置から、その位置の視差に基づいて前方の物体までの距離を求め、かつ、上記高い値の位置の水平方向位置に基づいて、画像上においてその物体が撮像されるおおよその水平方向の範囲を求める距離・水平範囲算出手段と、
    上記距離・水平範囲算出手段で求めた範囲内において、各垂直座標毎に水平エッジのヒストグラムを求め、その値が高い位置に挟まれる垂直方向の範囲を求める垂直範囲検出手段と、
    上記垂直範囲算出手段で求めた範囲内において、時間的に連続した処理において同一水平方向位置に並ぶ範囲内の輝度の平均値を求め、所定時間内における各水平方向位置毎に求めた輝度の平均値の分散が低い範囲を物体の存在位置と判断し、各水平座標毎に垂直エッジ成分のヒストグラムを求め、該ヒストグラムから求められた原画像の垂直エッジの中から上記物体の存在位置と判断した範囲の両端付近のエッジを選択するエッジ選択手段と、
    上記距離・水平範囲算出手段で求めた物体までの距離と上記エッジ選択手段で求めた垂直エッジ座標とに基づいて、上記画像上の垂直エッジに相当する前方物体の横端の、上記カメラに対する実空間上の位置を求める実位置算出手段と、
    を有することを特徴とする物体端の位置計測装置。
  2. 車両に搭載された二つの電子式カメラからなり、両カメラが共に車両前方または後方に向けて相互に光軸が平行で、かつ撮像面の水平軸が同じライン上に揃うように設置されたカメラと
    一方のカメラの画像を所定の大きさの画像領域毎に分割する画像領域設定手段と
    上記の各画像領域毎に、当該画像領域内の画像と他方のカメラの画像との類似度を算出し、当該画像領域と他方のカメラで最も類似度の高かった画像位置との位置の差を検出することにより、各画像領域毎の視差を求める視差算出手段と
    上記各画像領域の水平方向の位置と視差の値とを横軸と縦軸とに対応させた表を有し、上記各画像領域毎の水平方向の位置と当該画像領域における視差の値とに対応した上記表の該当する位置に、所定値を加算する投票手段と
    上記表中で高い値の存在する位置から、その位置の視差に基づいて前方の物体までの距離を求め、かつ、上記高い値の位置の水平方向位置に基づいて、画像上においてその物体が撮像されるおおよその水平方向の範囲を求める距離・水平範囲算出手段と
    上記距離・水平範囲算出手段における水平範囲算出処理を時間的に連続して行ったときに、連続して範囲内と判断される範囲Aを求める連続範囲検出手段と
    上記連続範囲検出手段で求めた範囲A内において、各垂直座標毎に水平エッジのヒストグラムを求め、その値が高い位置に挟まれる垂直方向の範囲Bを求める垂直範囲検出手段と、
    上記垂直範囲検出手段で求めた範囲B内において、時間的に連続した処理において同一水平方向位置に並ぶ範囲内の輝度の平均値を求め、所定時間内における各水平方向位置毎に求めた輝度の平均値の分散が低い範囲を物体の存在位置と判断し、各水平座標毎に垂直 エッジ成分のヒストグラムを求め、該ヒストグラムから求められた原画像の垂直エッジの中から上記物体の存在位置と判断した範囲の両端付近のエッジを選択するエッジ選択手段と
    上記距離・水平範囲算出手段で求めた物体までの距離と上記エッジ選択手段で求めた垂直エッジ座標とに基づいて、上記画像上の垂直エッジに相当する前方物体の横端の、上記カメラに対する実空間上の位置を求める実位置算出手段と
    を有することを特徴とする物体端の位置計測装置。
  3. 車両に搭載された二つの電子式カメラからなり、両カメラが共に車両前方または後方に向けて相互に光軸が平行で、かつ撮像面の水平軸が同じライン上に揃うように設置されたカメラと
    一方のカメラの画像を所定の大きさの画像領域毎に分割する画像領域設定手段と
    上記の各画像領域毎に、当該画像領域内の画像と他方のカメラの画像との類似度を算出し、当該画像領域と他方のカメラで最も類似度の高かった画像位置との位置の差を検出することにより、各画像領域毎の視差を求める視差算出手段と
    上記各画像領域の水平方向の位置と視差の値とを横軸と縦軸とに対応させた表を有し、上記各画像領域毎の水平方向の位置と当該画像領域における視差の値とに対応した上記表の該当する位置に、所定値を加算する投票手段と
    上記表中で高い値の存在する位置から、その位置の視差に基づいて前方の物体までの距離を求め、かつ、上記高い値の位置の水平方向位置に基づいて、画像上においてその物体が撮像されるおおよその水平方向の範囲を求める距離・水平範囲算出手段と
    上記距離・水平範囲算出手段における水平範囲算出処理を時間的に連続して行ったときに、連続して範囲内と判断される範囲Aを求める連続範囲検出手段と
    上記連続範囲検出手段で求めた範囲A内において、Hough変換によって水平エッジの探索を行うことにより、垂直方向の範囲Bを求める垂直範囲検出手段と
    上記垂直範囲検出手段で求めた範囲B内において、時間的に連続した処理において同一水平方向位置に並ぶ範囲内の輝度の平均値を求め、所定時間内における各水平方向位置毎に求めた輝度の平均値の分散が低い範囲を物体の存在位置と判断し、各水平座標毎に垂直エッジ成分のヒストグラムを求め、該ヒストグラムから求められた原画像の垂直エッジの中から上記物体の存在位置と判断した範囲の両端付近のエッジを選択するエッジ選択手段と
    上記距離・水平範囲算出手段で求めた物体までの距離と上記エッジ選択手段で求めた垂直エッジ座標とに基づいて、上記画像上の垂直エッジに相当する前方物体の横端の、上記カメラに対する実空間上の位置を求める実位置算出手段と、
    を有することを特徴とする物体端の位置計測装置。
  4. 上記垂直範囲検出手段において垂直方向の範囲Bを求める際、上記距離・水平範囲算出手段で求めた前方物体までの距離と、上記カメラの焦点距離と、上記カメラを設置した高さと、上記前方物体の一般的な寸法から予想される概略の高さ応じて予め設定した値と、に基づいて、画像上で物体の上下端が撮像されているおおよそのy座標位置HU,HDを求め、上記請求項2の垂直範囲検出手段で求めた水平エッジのヒストグラムの高さの高い位置の中から、y座標がHU,HD付近の位置を上記範囲Bとして選択するように構成したことを特徴とする請求項2に記載の物体端の位置計測装置。
  5. 上記垂直範囲検出手段において垂直方向の範囲Bを求める際、上記距離・水平範囲算出手段で求めた前方物体までの距離と、上記カメラの焦点距離と、上記カメラを設置した高さと、上記前方物体の一般的な寸法から予想される概略の高さ応じて予め設定した値と、に基づいて、画像上で物体の上下端が撮像されているおおよそのy座標位置HU,HDを求め、請求項3の垂直範囲検出手段で求めた水平エッジ位置の中から、y座標がHU,HD付近の位置を上記範囲Bとして選択するように構成したことを特徴とする請求項3に記 載の物体端の位置計測装置。
  6. 車両に搭載された二つの電子式カメラからなり、両カメラが共に車両前方または後方に向けて相互に光軸が平行で、かつ撮像面の水平軸が同じライン上に揃うように設置されたカメラと
    一方のカメラの画像を所定の大きさの画像領域毎に分割する画像領域設定手段と
    上記の各画像領域毎に、当該画像領域内の画像と他方のカメラの画像との類似度を算出し、当該画像領域と他方のカメラで最も類似度の高かった画像位置との位置の差を検出することにより、各画像領域毎の視差を求める視差算出手段と
    上記各画像領域の水平方向の位置と視差の値とを横軸と縦軸とに対応させた表を有し、上記各画像領域毎の水平方向の位置と当該画像領域における視差の値とに対応した上記表の該当する位置に、所定値を加算する投票手段と
    上記表中で高い値の存在する位置から、その位置の視差に基づいて前方の物体までの距離を求め、かつ、上記高い値の位置の水平方向位置に基づいて、画像上においてその物体が撮像されるおおよその水平方向の範囲を求める距離・水平範囲算出手段と
    上記距離・水平範囲算出手段における水平範囲算出処理を時間的に連続して行ったときに、連続して範囲内と判断される範囲Aと、連続的ではないが所定回数以上範囲内であると判断される範囲A’とを求める連続範囲検出手段と
    上記連続範囲検出手段で求めた範囲A内において、各垂直座標毎に水平エッジのヒストグラムを求め、その値が高い位置に挟まれる垂直方向の範囲Bを求める垂直範囲検出手段と、
    上記垂直範囲検出手段で求めた範囲B内において、時間的に連続した処理において同一水平方向位置に並ぶ範囲内の輝度の平均値を求め、所定時間内における各水平方向位置毎に求めた輝度の平均値の分散が低い範囲を物体の存在位置と判断し、各水平座標毎に垂直エッジ成分のヒストグラムを求め、該ヒストグラムから求められた原画像の垂直エッジの中から上記物体の存在位置と判断された範囲の両端付近にあり、かつ、上記範囲Aと範囲A’との間付近にあるエッジを選択するエッジ選択手段と
    上記距離・水平範囲算出手段で求めた物体までの距離と上記エッジ選択手段で求めた垂直エッジ座標とに基づいて、上記画像上の垂直エッジに相当する前方物体の横端の、上記カメラに対する実空間上の位置を求める実位置算出手段と、
    を有することを特徴とする物体端の位置計測装置。
  7. 請求項1乃至請求項6の何れかに記載の物体端の位置計測装置と、
    上記位置計測装置の計測結果に基づいて、上記位置計測装置を搭載した移動体の前進判断と経路誘導との少なくとも一方を決定する手段と、
    を備えたことを特徴とする移動体の通行判断装置。
JP31190398A 1998-11-02 1998-11-02 物体端の位置計測装置および移動体の通行判断装置 Expired - Fee Related JP3596314B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP31190398A JP3596314B2 (ja) 1998-11-02 1998-11-02 物体端の位置計測装置および移動体の通行判断装置
US09/426,952 US6477260B1 (en) 1998-11-02 1999-10-26 Position measuring apparatus using a pair of electronic cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31190398A JP3596314B2 (ja) 1998-11-02 1998-11-02 物体端の位置計測装置および移動体の通行判断装置

Publications (2)

Publication Number Publication Date
JP2000136905A JP2000136905A (ja) 2000-05-16
JP3596314B2 true JP3596314B2 (ja) 2004-12-02

Family

ID=18022811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31190398A Expired - Fee Related JP3596314B2 (ja) 1998-11-02 1998-11-02 物体端の位置計測装置および移動体の通行判断装置

Country Status (2)

Country Link
US (1) US6477260B1 (ja)
JP (1) JP3596314B2 (ja)

Families Citing this family (199)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
CN1160210C (zh) * 1999-09-20 2004-08-04 松下电器产业株式会社 驾驶提醒装置
JP3436224B2 (ja) * 1999-12-16 2003-08-11 日本電気株式会社 車両端検出装置
JP4672175B2 (ja) * 2000-05-26 2011-04-20 本田技研工業株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
JP4953498B2 (ja) * 2000-07-12 2012-06-13 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
JP3671825B2 (ja) * 2000-09-22 2005-07-13 日産自動車株式会社 車間距離推定装置
JP3690283B2 (ja) * 2001-01-18 2005-08-31 日産自動車株式会社 車線追従制御装置
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
JP3666406B2 (ja) * 2001-04-04 2005-06-29 日本電気株式会社 ノンストップ料金課金方法及びシステム
KR100435650B1 (ko) * 2001-05-25 2004-06-30 현대자동차주식회사 카메라가 장착된 차량의 도로정보 추출 및 차간거리 탐지방법
US7027615B2 (en) * 2001-06-20 2006-04-11 Hrl Laboratories, Llc Vision-based highway overhead structure detection system
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
EP1291668B1 (en) * 2001-09-07 2005-11-30 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings display device and image providing system
JP3823804B2 (ja) * 2001-10-22 2006-09-20 ソニー株式会社 信号処理方法及び装置、信号処理プログラム、並びに記録媒体
JP3780922B2 (ja) * 2001-11-30 2006-05-31 日産自動車株式会社 道路白線認識装置
DE10201523A1 (de) * 2002-01-17 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zur Verdeckungsdetektion bei Bildsensorsystemen
WO2003093857A2 (en) 2002-05-03 2003-11-13 Donnelly Corporation Object detection system for vehicle
US7209161B2 (en) * 2002-07-15 2007-04-24 The Boeing Company Method and apparatus for aligning a pair of digital cameras forming a three dimensional image to compensate for a physical misalignment of cameras
JP3895238B2 (ja) * 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
US6870468B2 (en) * 2002-09-27 2005-03-22 Nissan Motor Co., Ltd. Adaptive cruise speed controlling apparatus and method for automotive vehicle
DE10251949A1 (de) * 2002-11-08 2004-05-19 Robert Bosch Gmbh Fahrdynamikregelung mit Bildsensorsystem
JP4188968B2 (ja) * 2003-01-20 2008-12-03 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
US7084385B2 (en) * 2003-08-19 2006-08-01 Autoliv Asp, Inc. Range discriminating optical sensor having a wide angle lens with a fixed focal length
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置
JP3897305B2 (ja) * 2004-02-06 2007-03-22 シャープ株式会社 車両周辺監視装置、車両周辺監視方法、制御プログラムおよび可読記録媒体
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
EP1748654A4 (en) * 2004-04-27 2013-01-02 Panasonic Corp VISUALIZATION OF CIRCUMFERENCE OF A VEHICLE
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
JP4519519B2 (ja) * 2004-05-26 2010-08-04 クラリオン株式会社 動物体検出装置
EP1779295A4 (en) 2004-07-26 2012-07-04 Automotive Systems Lab SYSTEM FOR PROTECTING USERS OF THE ROAD IN A DANGER SITUATION
US7262710B2 (en) * 2004-09-22 2007-08-28 Nissan Motor Co., Ltd. Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
JP4650079B2 (ja) * 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle
JP2006268097A (ja) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd 車載物体検出装置、および物体検出方法
JP4539415B2 (ja) * 2005-04-15 2010-09-08 株式会社デンソー 画像処理装置
JP4645292B2 (ja) * 2005-05-06 2011-03-09 日産自動車株式会社 車載物体検出装置、および物体検出方法
EP1901225A1 (en) * 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070040065A1 (en) * 2005-08-19 2007-02-22 Von Thal German Flexible refueling boom extendable tube
JP4809019B2 (ja) * 2005-08-31 2011-11-02 クラリオン株式会社 車両用障害物検出装置
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070208506A1 (en) * 2006-03-03 2007-09-06 Ford Motor Company Travel system for a vehicle
JP4696991B2 (ja) * 2006-03-22 2011-06-08 日産自動車株式会社 動き検出方法および動き検出装置
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
JP4676373B2 (ja) * 2006-04-27 2011-04-27 株式会社デンソー 周辺認識装置、周辺認識方法、プログラム
JP4826355B2 (ja) * 2006-06-20 2011-11-30 日産自動車株式会社 車両周囲表示装置
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
ATE479980T1 (de) * 2006-08-24 2010-09-15 Valeo Vision Verfahren zur bestimmung der durchfahrt eines fahrzeugs durch eine engen durchlass
JP4861772B2 (ja) * 2006-08-28 2012-01-25 富士通株式会社 移動体標定プログラム、該プログラムを記録した記録媒体、移動体標定装置、および移動体標定方法
JP2008116357A (ja) * 2006-11-06 2008-05-22 Toyota Motor Corp 物体検出装置
US8132759B2 (en) * 2007-03-21 2012-03-13 The Boeing Company System and method for facilitating aerial refueling
US7959110B2 (en) * 2007-04-11 2011-06-14 The Boeing Company Methods and apparatus for resisting torsional loads in aerial refueling booms
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP5234894B2 (ja) * 2007-06-28 2013-07-10 富士重工業株式会社 ステレオ画像処理装置
JP4937030B2 (ja) * 2007-07-24 2012-05-23 ルネサスエレクトロニクス株式会社 車両用画像処理装置
GB0717233D0 (en) * 2007-09-05 2007-10-17 Trw Ltd Traffic monitoring
JP5181602B2 (ja) * 2007-09-28 2013-04-10 コニカミノルタホールディングス株式会社 物体検出装置
JP4856656B2 (ja) * 2008-01-22 2012-01-18 富士重工業株式会社 車両検出装置
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
JP4876080B2 (ja) * 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
EP2289235A4 (en) 2008-05-20 2011-12-28 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8150105B2 (en) * 2008-05-22 2012-04-03 International Electronic Machines Corporation Inspection using three-dimensional profile information
TWI394095B (zh) * 2008-10-22 2013-04-21 Ind Tech Res Inst 影像偵測方法及其系統
JP5219847B2 (ja) * 2009-01-09 2013-06-26 キヤノン株式会社 画像処理装置及び画像処理方法
JP4862898B2 (ja) * 2009-01-09 2012-01-25 株式会社デンソー 車両用警報発生装置
JP5392473B2 (ja) * 2009-02-17 2014-01-22 マツダ株式会社 車両用運転支援装置
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
US8896686B2 (en) * 2009-06-23 2014-11-25 Here Global B.V. Determining a geometric parameter from a single image
US8854453B2 (en) * 2009-06-23 2014-10-07 Here Global B.V. Determining geographic position information from a single image
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5269755B2 (ja) * 2009-12-10 2013-08-21 株式会社日立製作所 人横断支援車両システム及び人横断支援方法
KR101652261B1 (ko) * 2009-12-24 2016-08-30 삼성전자주식회사 카메라를 이용한 오브젝트 검출 방법
EP2524510B1 (en) * 2010-01-13 2019-05-01 InterDigital Madison Patent Holdings System and method for combining 3d text with 3d content
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
JP5389002B2 (ja) * 2010-12-07 2014-01-15 日立オートモティブシステムズ株式会社 走行環境認識装置
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
JP5276140B2 (ja) * 2011-05-19 2013-08-28 富士重工業株式会社 環境認識装置および環境認識方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
JP5802279B2 (ja) * 2011-11-22 2015-10-28 株式会社日立製作所 自律移動システム
TWI461656B (zh) * 2011-12-01 2014-11-21 Ind Tech Res Inst 距離感測裝置及距離感測方法
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
JP5757900B2 (ja) * 2012-03-07 2015-08-05 日立オートモティブシステムズ株式会社 車両走行制御装置
US8768007B2 (en) 2012-03-26 2014-07-01 Tk Holdings Inc. Method of filtering an image
US8824733B2 (en) 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
KR20140019571A (ko) * 2012-08-06 2014-02-17 주식회사 만도 후측방 경보 시스템 및 방법
CN107346061B (zh) 2012-08-21 2020-04-24 快图有限公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014061123A1 (ja) * 2012-10-17 2014-04-24 富士通株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
US9894269B2 (en) * 2012-10-31 2018-02-13 Atheer, Inc. Method and apparatus for background subtraction using focus differences
US9349058B2 (en) 2012-10-31 2016-05-24 Tk Holdings, Inc. Vehicular path sensing system and method
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
JP6376429B2 (ja) * 2012-11-13 2018-08-22 株式会社リコー 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
JP6344638B2 (ja) * 2013-03-06 2018-06-20 株式会社リコー 物体検出装置、移動体機器制御システム及び物体検出用プログラム
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014152470A2 (en) 2013-03-15 2014-09-25 Tk Holdings, Inc. Path sensing using structured lighting
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
CN104149685A (zh) * 2013-05-13 2014-11-19 赵盾 一种汽车警示器
JP6361313B2 (ja) * 2013-07-01 2018-07-25 株式会社リコー 車両検出方法及び装置
DE102013012930A1 (de) * 2013-08-02 2015-02-05 Connaught Electronics Ltd. Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
WO2015070105A1 (en) 2013-11-07 2015-05-14 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US9881349B1 (en) * 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
JP6511283B2 (ja) * 2015-02-12 2019-05-15 日立オートモティブシステムズ株式会社 物体検知装置
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
JP6623044B2 (ja) * 2015-11-25 2019-12-18 日立オートモティブシステムズ株式会社 ステレオカメラ装置
JP6623729B2 (ja) * 2015-12-04 2019-12-25 株式会社ソシオネクスト 測距システム、移動体及び部品
US10529083B2 (en) * 2016-12-08 2020-01-07 Lighmetrics Technologies Pvt. Ltd. Methods and systems for estimating distance of an object from a moving vehicle
US10683034B2 (en) * 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US10585430B2 (en) 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
US10775781B2 (en) 2017-06-16 2020-09-15 Ford Global Technologies, Llc Interface verification for vehicle remote park-assist
US10384609B2 (en) * 2017-06-20 2019-08-20 Ford Global Technologies, Llc Vehicle rear object proximity system using multiple cameras
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10580304B2 (en) 2017-10-02 2020-03-03 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for voice controlled autonomous parking
US10627811B2 (en) 2017-11-07 2020-04-21 Ford Global Technologies, Llc Audio alerts for remote park-assist tethering
US10578676B2 (en) 2017-11-28 2020-03-03 Ford Global Technologies, Llc Vehicle monitoring of mobile device state-of-charge
US10974717B2 (en) 2018-01-02 2021-04-13 Ford Global Technologies, I.LC Mobile device tethering for a remote parking assist system of a vehicle
US10585431B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10583830B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10814864B2 (en) 2018-01-02 2020-10-27 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10737690B2 (en) 2018-01-02 2020-08-11 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US11148661B2 (en) 2018-01-02 2021-10-19 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10688918B2 (en) 2018-01-02 2020-06-23 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10684773B2 (en) 2018-01-03 2020-06-16 Ford Global Technologies, Llc Mobile device interface for trailer backup-assist
US10747218B2 (en) 2018-01-12 2020-08-18 Ford Global Technologies, Llc Mobile device tethering for remote parking assist
US10917748B2 (en) 2018-01-25 2021-02-09 Ford Global Technologies, Llc Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning
US10684627B2 (en) 2018-02-06 2020-06-16 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for position aware autonomous parking
US11188070B2 (en) 2018-02-19 2021-11-30 Ford Global Technologies, Llc Mitigating key fob unavailability for remote parking assist systems
US10507868B2 (en) 2018-02-22 2019-12-17 Ford Global Technologies, Llc Tire pressure monitoring for vehicle park-assist
US10732622B2 (en) 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
US10759417B2 (en) 2018-04-09 2020-09-01 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10793144B2 (en) 2018-04-09 2020-10-06 Ford Global Technologies, Llc Vehicle remote park-assist communication counters
US10683004B2 (en) 2018-04-09 2020-06-16 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10493981B2 (en) 2018-04-09 2019-12-03 Ford Global Technologies, Llc Input signal management for vehicle park-assist
EP3572971B1 (de) * 2018-05-22 2021-02-24 Sick Ag Absichern eines überwachungsbereichs mit mindestens einer maschine
US10384605B1 (en) 2018-09-04 2019-08-20 Ford Global Technologies, Llc Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers
US10717432B2 (en) 2018-09-13 2020-07-21 Ford Global Technologies, Llc Park-assist based on vehicle door open positions
US10821972B2 (en) 2018-09-13 2020-11-03 Ford Global Technologies, Llc Vehicle remote parking assist systems and methods
US10967851B2 (en) 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
US10529233B1 (en) 2018-09-24 2020-01-07 Ford Global Technologies Llc Vehicle and method for detecting a parking space via a drone
US10908603B2 (en) 2018-10-08 2021-02-02 Ford Global Technologies, Llc Methods and apparatus to facilitate remote-controlled maneuvers
US10628687B1 (en) 2018-10-12 2020-04-21 Ford Global Technologies, Llc Parking spot identification for vehicle park-assist
US11097723B2 (en) 2018-10-17 2021-08-24 Ford Global Technologies, Llc User interfaces for vehicle remote park assist
US11137754B2 (en) 2018-10-24 2021-10-05 Ford Global Technologies, Llc Intermittent delay mitigation for remote vehicle operation
KR102005196B1 (ko) * 2018-10-30 2019-07-29 박배억 원격 제어에 의해 대상물을 조작하는 로봇 및 로봇의 동작 방법
US11789442B2 (en) 2019-02-07 2023-10-17 Ford Global Technologies, Llc Anomalous input detection
US11195344B2 (en) 2019-03-15 2021-12-07 Ford Global Technologies, Llc High phone BLE or CPU burden detection and notification
US11169517B2 (en) 2019-04-01 2021-11-09 Ford Global Technologies, Llc Initiation of vehicle remote park-assist with key fob
US11275368B2 (en) 2019-04-01 2022-03-15 Ford Global Technologies, Llc Key fobs for vehicle remote park-assist
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
EP4066001A4 (en) 2019-11-30 2024-01-24 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR TRANSPARENT OBJECT SEGMENTATION USING POLARIZATION GUIDES
CN110900611A (zh) * 2019-12-13 2020-03-24 合肥工业大学 一种新型机械臂目标定位及路径规划方法
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
CN112066950B (zh) * 2020-07-24 2022-10-14 北京空间机电研究所 一种多光轴平行的测绘相机单中心投影转换方法
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN115257767B (zh) * 2022-09-26 2023-02-17 中科慧眼(天津)研究开发有限公司 一种基于平面靶标的路面障碍物测高方法和系统
CN115839667B (zh) * 2023-02-21 2023-05-12 青岛通产智能科技股份有限公司 一种高度测量方法、装置、设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3059035B2 (ja) * 1993-12-14 2000-07-04 三菱電機株式会社 距離測定装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
US5606627A (en) * 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
AU6726596A (en) * 1995-03-22 1996-10-08 Idt International Digital Technologies Deutschland Gmbh Method and apparatus for depth modelling and providing depth information of moving objects
JP3216792B2 (ja) * 1996-08-06 2001-10-09 富士電機株式会社 映像による距離検出方法

Also Published As

Publication number Publication date
JP2000136905A (ja) 2000-05-16
US6477260B1 (en) 2002-11-05

Similar Documents

Publication Publication Date Title
JP3596314B2 (ja) 物体端の位置計測装置および移動体の通行判断装置
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
EP3057063B1 (en) Object detection device and vehicle using same
EP2993654B1 (en) Method and system for forward collision warning
JP3822515B2 (ja) 障害物検知装置及びその方法
JP4420011B2 (ja) 物体検知装置
JP3861781B2 (ja) 前方車両追跡システムおよび前方車両追跡方法
US7612800B2 (en) Image processing apparatus and method
JP3349060B2 (ja) 車外監視装置
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
JP3630100B2 (ja) 車線検出装置
US8406472B2 (en) Method and system for processing image data
JP4857839B2 (ja) 物体検出装置
JP3596339B2 (ja) 車間距離計測装置
JP2001351200A (ja) 車載用物体検知装置
JP3666332B2 (ja) 歩行者検知装置
JP3868915B2 (ja) 前方監視装置及びその方法
JP3600314B2 (ja) 車両の外部環境認識装置
JPH11345336A (ja) 障害物検出装置
JP2001082954A (ja) 画像処理装置及び画像処理測距方法
JP3586938B2 (ja) 車載用距離測定装置
JP3612821B2 (ja) 車載用距離測定装置
JP2000259997A (ja) 先行車の高さおよび車間距離計測装置
JP7134780B2 (ja) ステレオカメラ装置
JP2001101420A (ja) 障害物検出装置及びその方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040830

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080917

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090917

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100917

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees