JP2006053890A - 障害物検出装置及び方法 - Google Patents

障害物検出装置及び方法 Download PDF

Info

Publication number
JP2006053890A
JP2006053890A JP2005122547A JP2005122547A JP2006053890A JP 2006053890 A JP2006053890 A JP 2006053890A JP 2005122547 A JP2005122547 A JP 2005122547A JP 2005122547 A JP2005122547 A JP 2005122547A JP 2006053890 A JP2006053890 A JP 2006053890A
Authority
JP
Japan
Prior art keywords
image
point
obstacle
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005122547A
Other languages
English (en)
Other versions
JP2006053890A5 (ja
JP4406381B2 (ja
Inventor
Susumu Kubota
進 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005122547A priority Critical patent/JP4406381B2/ja
Priority to US11/178,274 priority patent/US20060013438A1/en
Publication of JP2006053890A publication Critical patent/JP2006053890A/ja
Priority to US12/000,025 priority patent/US7660434B2/en
Publication of JP2006053890A5 publication Critical patent/JP2006053890A5/ja
Application granted granted Critical
Publication of JP4406381B2 publication Critical patent/JP4406381B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】平面投影ステレオ法の、対応点探索を必要としなく、計算量上の実用性を維持しつつ、誤検出が生じる可能性を大幅に減少させる障害物検出装置を提供する。
【解決手段】走行車搭載のビデオカメラにより入力された左右の画像に基づいて道路面上における左右の画像の任意の点の対応関係を表すパラメータを求めるパラメータ計算部と、パラメータに基づいて、一方の画像の道路面上に設定された点が、他方画像上のどの点に対応するのかを計算する対応点計算部と、計算される点の対応関係を用いて一方画像に近似する変換画像を作成する画像変換部と、計算される対応点の対応関係及び変換画像を用いて、道路平面に対して実質的に垂直上方向に一定以上の大きさを有する物体を検出する検出部を含む。
【選択図】 図5

Description

本発明は、障害物検出装置に係り、特に自車両の周囲の先行車、駐車車両、または歩行者等の道路上に存在する障害物を検出する障害物検出装置及び方法に関する。
自動車の安全運転の支援や自動走行を実現するために、自車両の周囲に存在する障害物を検知することは重要である。障害物を検知するための技術には、レーザーやミリ波等を用いる能動センサとテレビカメラを用いるものがある。
テレビカメラを用いる方式には、障害物の検知だけでなく、道路上の白線などのパターン情報を検知して走行レーンの認識等を行うことも出来るという利点がある。また、カメラという汎用的なデバイスを用いるため比較的安価なシステムが実現できるのも大きな利点である。
テレビカメラを用いる場合、1台のカメラを用いてモーションステレオやパターン認識等の技術により障害物検出を行うことも可能であるが、これらは非常に多大な計算量を必要とするためリアルタイム処理を行うのは困難であり、また精度の点でもまだまだ改善すべき点が多い。このため複数台のカメラを用いてステレオ視を行うのが現実的である。
ステレオ視は、空間中の同一点が撮影位置の異なる複数の画像上に投影される投影点の位置関係から三角測量の原理で対象となる点の3次元位置を求めるものである。例えば左右2台のカメラを用いる場合、カメラ間の相対的な位置関係が分かっており、一方の画像上の点の、もう一方の画像上における対応点が与えられればその点の3次元的な位置情報が得られる。このため、ステレオ視にはカメラ間の位置関係のパラメータを求めるキャリブレーションとよばれる作業と、画像間の対応関係を求める対応点探索とよばれる作業が必要になる。
一般的なステレオカメラのキャリブレーションを行うためには、3次元位置が既知で同一平面上にない多数の点を撮影し、カメラ間でそれらの点の投影点の対応関係を与える必要があり、これには多大な労力を要する。
また、対応点探索は画像上で対象までの距離を知りたい全ての点について行う必要があるが、必ずしも100%正しい対応点が見つかる保証はなく、誤った対応点の組を与えると誤った距離情報が得られることになり、これは自動車の安全運転支援という観点からは非常に望ましくない。
一方、画像上で道路領域と障害物領域とを分離するという目的であれば、必ずしも対応点探索は必要なく、キャリブレーション作業も大幅に簡素化できる手法が存在する。
撮影位置が異なる2つの画像に対する道路面上の点の投影点をそれぞれ(u, v), (u′, v′)とすれば、
Figure 2006053890
という関係式が成り立つ。以下これを道路面拘束式と呼ぶこととする。ここで、h={h11,h12,h13,h21,h22,h23,h31,h32,h33}は、道路面に対する各カメラの位置と姿勢、さらに各カメラのレンズの焦点距離、画像原点に依存するパラメータであり、これは予め道路面上の4点以上の点の左右の投影点の組(ui,vi),(u’i,v’i){i=1,2,…,N}から求めておく。この関係式を用いて、一方の画像上の任意の点P(u,v)が道路面上に存在すると仮定した場合のもう一方の画像上における対応点P′(u′,v′)が求められる。もし点Pが道路面上に存在すれば点、PとP’は正しい対応点の組となるので、それぞれの点についてその点を中心とする微小な部分画像を切り出して比較すれば両者は一致するはずである。逆に、点Pが道路面上に存在しなければ点PとP’は正しい対応点の組ではないので、同様に部分画像を比較した場合に両者は一致しない。したがって、画像上の任意の点について、式(1)で与えられる対応関係に基づいて画像の比較をおこなうことにより、その点が道路面上に存在するか否かの判定が行える。この手法は平面投影ステレオ法とよばれ、例えば特許文献1で開示されている。平面投影ステレオ法は、キャリブレーションが容易で、対応点探索が不要であるという利点がある。しかし、この手法では道路領域と障害物領域を分離することはできるが、障害物の正確な位置や大きさまでは分からないという問題があった。
特開2001−76128
上述のように、一般的なステレオ視により障害物の検知を行う場合、事前に煩雑なキャリブレーション作業が必要であり、また対応点探索に失敗すると誤った距離情報が得られてしまうという計測の信頼性に関する問題があった。一方、平面投影ステレオ法により障害物の検知を行う場合、障害物の正確な位置や大きさが分からないという計測の精度に関する問題があった。
上記目的を達成するために、本発明の第1局面は、道路を走行する車に搭載され、左右の画像を入力するビデオカメラと、前記ビデオカメラにより入力された左右の画像を蓄積するための画像蓄積部と、道路面上における左右の画像の任意の点の対応関係を表すパラメータを求めるパラメータ計算部と、前記パラメータに基づいて、前記カメラで撮影された左右画像の一方の画像の道路面上に設定された点が、前記左右画像の他方画像上のどの点に対応するのかを計算する対応点計算部と、前記対応点計算部により計算される点の対応関係を用いて前記左右画像の一方画像に近似する変換画像を作成する画像変換部と、前記対応点計算部で計算される対応点の対応関係及び前記変換画像を用いて、道路平面に対して実質的に垂直上方向に一定以上の大きさを有する物体を検出する検出部を含む障害物検出装置を提供する。
本発明の第2局面は、道路を走行する車に搭載されたビデオカメラにより、左右の画像を入力するステップと、前記左右の画像を画像蓄積部に蓄積するステップと、道路面上における左右の画像の任意の点の対応関係を表すパラメータを求めるステップと、前記パラメータに基づいて、前記左右画像の一方の画像の道路面上に設定された点が、前記左右画像の他方画像上のどの点に対応するのかを計算するステップと、前記計算により求められた点の対応関係を用いて前記左右画像の一方画像に近似する変換画像を作成するステップと、前記計算される対応点の対応関係及び前記変換画像を用いて、道路平面に対して実質的に垂直上方向に一定以上の大きさを有する物体を検出するステップを含む障害物検出方法を提供する。
本発明の第3局面は、道路面上に存在する障害物を検出する障害物検出装置であって、画像を撮影する複数台のカメラと、前記複数台のカメラによりそれぞれ撮影された複数の画像を記憶する画像記憶手段と、前記複数台のカメラのうちの一つのカメラにより撮影された基準画像を複数の短冊状領域に分割する分割手段と、前記基準画像中の道路領域と障害物領域との境界を接地線として表す接地線関数を入力としたときに、前記短冊状領域に基づいて前記短冊状領域毎に前記基準画像と他のカメラにより撮影された参照画像との対応関係を計算する対応関係計算手段と、前記対応関係計算手段により計算される画像の対応関係に基づいて前記基準画像の全体または部分領域とそれに対応する前記参照画像中の領域との間の一致度を前記短冊状領域毎に計算する画像一致度計算手段と、前記基準画像の全体または部分領域について、前記画像一致度計算手段により計算される画像の一致度を最大化する最適な接地線関数を生成する接地線関数最適化手段とを備えることを特徴とする障害物検出装置を提供する。
本発明によれば、車に搭載された複数台のカメラにより取得される画像に基づいて、画像中に存在する被検出物を道路領域から極めて安定的にかつ少ない計算量で抽出することが可能になる。
本発明によれば、道路面上に存在する障害物の位置を正確にかつ高い信頼性をもって検知することが可能になる。また一般のステレオ視では必須の煩雑なキャリブレーション作業を、平面投影ステレオ法と同様に大幅に簡素化できるので、装置の設置に要するコストを大幅に低下できる。
[第1の実施形態]
本発明の第1の実施形態の障害物検出装置は、図1に示すように自動車のフロントの左右に搭載された左及び右ビデオカメラ11L及び11Rを利用する。これらビデオカメラ11L、11Rは、以下の前提の下でのカメラモデルと考える。
(1)カメラから比較的遠方を対象領域とする。
(2)左右のカメラの前後の位置ずれが微少である。
(3)左右のカメラの光軸は互いにおおよそ平行で、かつおおよそ水平方向を向いているものとし、撮像面の縦軸がおおよそ鉛直方向を向いているものとする。
上記の前提を欠いても本発明の実施には支障がないが、上記の前提に基づけば必要な計算が簡略化されるのでより実用的である。
Z軸をカメラの光軸と平行にとり、道路面の高さを0とすると、道路面上の点(X,0,Z)の画像への投影点を(u,v)とし、Z軸をカメラの光軸と平行にとると、上記の前提の下では式(1)の関係式は次式のように簡略化される。
Figure 2006053890
上記式(1’)より、道路面上に存在する点の左右の画像への投影点(u,v),(u,v)は次式のようなアフィン変換により関係付けられる。
Figure 2006053890
以上では説明の簡略化のため道路平面をY=0としたが、道路面がY=αZ+βのように奥行き方向に傾斜を持っていても、道路面上に存在する点の左右の画像への投影点は同様にアフィン変換で関係付けられる。このアフィン変換のパラメータは、道路面上に存在する4点以上の特徴点の対応関係から計算することができる。
従来の平面投影ステレオ法では着目点が道路領域であると仮定した場合の仮説検定を行っていたが、それだけでは、例えば雨天時の濡れた路面などで、障害物の映り込みなどにより見かけ上道路より低い高さを持つような領域や、鏡面反射成分が大きいため左右のビデオカメラから見た輝度が大きく異なるような領域において上記の仮説が棄却され、誤って障害物と判定されてしまう可能性があった。
本発明の実施形態では、道路面上の点の左右の画像における投影点が式(3)のような関係式で対応付けられること以外に、検出対象となる障害物は、高さ方向にはあまり奥行きが変化しないということを利用して、着目する道路上の点に一定以上の高さを有する障害物が存在するか否かを判定する。以下にこの判定方法の一例を説明する。
図2は左側のビデオカメラから撮影された左画像の例、図3は右側のビデオカメラから撮影された右画像の例、図4は図2の画像を式(3)によりアフィン変換した変換画像を示している。図2及び3から明らかなように右画像は左画像に対して道路面が右寄りに撮像されることになる。図2の点Pが道路領域に含まれるとしたときの図3の対応点をPとする。図2のように点Pを含み、点Pから上方に一定の広がりを有する領域Aに着目したとき、もしこの領域Aが道路領域であれば図4の領域Ar2と一致するはずである。
一方、もし領域Aが点Pを接地点とする障害物であれば、図2の領域Ar1と一致するはずである。従って、領域Aを領域Arlと領域Ar2の両方と比較することにより、点Pが道路領域であるか障害物であるかを判定することが可能になる。
本実施形態は、上記の判定方法に基づいており、図1に示すように車に搭載した2台のビデオカメラを用いて道路面上に存在する障害物と道路領域とを識別する。即ち、図1に示すように車に搭載した左右2台のビデオカメラ11L、11Rを使用して、歩行者や先行車、駐車車両など、道路平面上に存在する障害物を検出する状況を想定している。図5は本実施形態の障害物検出装置の概略構成を示しており、画像入力部12、画像蓄積部13、パラメータ計算部14、対応点計算部15、画像変換部16及び検出部17とを備えている。
本障害物検出装置は、道路面上の点の左右画像上に投影位置間に成り立つ関係式(以下では道路面拘束と呼ぶ)を求め、それを用いて道路面上に存在する障害物と道路領域とを識別する。この障害物検出装置において画像蓄積部13は画像入力部12の左右ビデオカメラ11L、11Rにより入力された画像を画像メモリ上に蓄積する。パラメータ計算部14は画像蓄積部13に蓄積された左右ビデオカメラ11L、11Rでそれぞれ撮影された2枚画像、即ち図2及び3にそれぞれ示される画像から、道路平面拘束のパラメータを計算する。パラメータの具体的な計算方法は、次のように行われる。
パラメータ計算部部14は、静止時に求めた基準平面に対する道路平面拘束と、特徴抽出部3により求めた2本の白線とその消失点から、走行時の道路平面拘束を計算する。以下に、この方法について説明する。3次元空間中の点(X,Y,Z)の画像への投影点(u,v)とすると、一般に、
Figure 2006053890
という関係式が成り立つ、h=(h11,h12,...,tはカメラの位置と姿勢、焦点距離、画像中心に関するパラメータである。hは定数倍しても同一のカメラモデルを表すので、hの任意の1要素を"1"としても一般性を失わない。そこで以下ではh32=1とする。
ステレオカメラ座標系では道路平面(基準面)はZ=0と表されるため、道路平面上の点P(X,Y)の投影点は上式にZ=0を代入して、
Figure 2006053890
となる。ここで以下の前提下でカメラモデルを考える。
(a)カメラから比較的遠方を対象領域とする。
(b)左右カメラの前後の位置ずれが微小である。
これらの前提の下では、
Figure 2006053890
となる。ここで、βは図5に示すような左右カメラの視点の中点と座標原点のY方向のずれであり、t=β+Δtである。したがって、式(4)は、
Figure 2006053890
と簡略化できる。さらにYc=Y+βとおくと、
Figure 2006053890
となる。右辺の行列をMとおく。白線l1,l2の交点(消失点)をt=(u0,v0)とすると、(h12,h22=tである。X=(X/Yc、1/Yc)とし、道路平面上の点Pの左右画像への投影点を各々ul、とすれば、
Figure 2006053890
となる(t、tは白線の消失点)。これより、
Figure 2006053890
となる。ここで、"l"、"r"は各々左右画像に対する添字である。ステレオカメラのキャリブレーションを行なっていないので、M、Mは未知であるが、Aは静止時に傾斜のない道路平面上の特徴点から、あらかじめ求めておく。
走行時の道路の傾斜変化や自動車の振動によって、道路平面が基準面Z=0から傾斜面Z=pYと変化したとする。X方向の勾配は、一般にY方向の勾配に比べて十分小さいので無視することができ、傾斜面と基準面の交線をX軸にとれば、傾斜面の方程式はZ=pYと表現できる。Z=pYに対する道路平面拘束を2本の白線の動きから計算可能する方法を示す。傾斜面上の点(X,Y,Z)の画像への投影位置(u',v')は、式(4)にZ=pYを代入すると、前述の2つの前提下では、
Figure 2006053890
Figure 2006053890
Yc=Y+βとおき、さらに式(3)よりv'についても同様の式変形を行うと、
Figure 2006053890
だから上式は、
Figure 2006053890
Figure 2006053890
であり、
Figure 2006053890
Figure 2006053890
Figure 2006053890
を得る。もう1本の白線(l→l')についても同様に式変形を行なうと、
Figure 2006053890
となり、β=(β1,β2)に関する2本の1次方程式を得る。これによりβを求めれば、式(16)の行列Kを求めることができる。左右画像に各々について上記の処理を行なうと、道路平面上の点の投影位置は、傾斜の変化によってΔμ’=KΔμ,Δμ’=KΔμと変換される。従って、式(9)を用いると、
Figure 2006053890
となる。式(11)のAが、傾斜によりA’=KAK −1と変化したことになる。式(19)が傾斜面に対する道路平面拘束である。
対応点計算部15は、左右一方の画像中の任意の点の位置を入力し、指定された点に道路平面拘束を適用した場合に、もう一方の画像中で入力点に対応する点の位置を計算し出力する。画像変換部16は、対応点計算部15により求められる左右の画像間の対応関係を用いて、図2に示されるような右画像に、右画像中の道路平面拘束を満たす領域が例えば図3に示されるような左画像に一致するような変換を加え、図4のような変換画像を作成し、それを画像蓄積部13に蓄積する。
検出部17は、一方の画像中(以下では仮に左画像とする)に図6のような障害物探索領域を設定し、設定された探索領域内の点について障害物か否かの判定を行う。
検出部17による障害物の検出は、画像蓄積部13に蓄積されている図7に示されるような左画像、右画像および変換画像を用いて行われる。この場合、まず、図7に示すように左画像中に領域Aのような実質的に垂直方向に一定の長さを有する短冊状の領域を設定し、この短冊状の領域Aごとに障害物の接地位置を求める。
例えば、図7の左画像中の点Pが障害物の接地位置であると仮定した場合、図7の右画像および変換画像における、左画像の点Pに対応する点をそれぞれ点Pr1,Prt1とおくと、領域Aの画像の点P1より上の領域は、図7の右画像中の領域Ar1と対応し、領域Aの画像の点Pより下の領域は、図7の変換画像中の領域Artの点Prt1より下の領域と対応する。この対応関係をもとに図7の左画像中の領域Alの画像と、それに対応する右画像中の領域と変換画像中の領域とを合わせた画像との一致度が正規化相関などの手法によって算出される。
また、図7の左画像中の点Pが障害物の接地位置であると仮定した場合、図7の右画像および変換画像における、左画像の点Pに対応する点をそれぞれ点Pr2,Prt3とおくと、領域Aの画像の点Pより上の領域は、図7の右画像中の領域Ar2と対応し、領域Aの画像の点Pより下の領域は、図7の変換画像中の領域Artの点Prt2より下の領域と対応する。この対応関係をもとに図7の左画像中の領域Alの画像と、それに対応する右画像中の領域と変換画像中の領域とを合わせた画像との一致度が正規化相関などの手法によって算出される。
更に、図7の左画像中の点Pが障害物の接地位置であると仮定した場合、図7の右画像および変換画像における、左画像の点Pに対応する点をそれぞれ点Pr3,Prt3とおくと、領域Aの画像の点Pより上の領域は、図7の右画像中の領域Ar2より左にずれた領域Ar3および変換画像の点Prt3より上の領域と対応する。領域Alの画像の点Pより下の領域は、図7の右画像の領域Ar3より下の領域および変換画像中の領域Artの点Prt3より下の領域と対応する。この場合の右画像における下の領域は、点線で示される道路領域に対応する。即ち、右画像では垂直な領域Ar3と斜めの道路領域とが左画像の領域Aに対応することになる。この対応関係をもとに図7の左画像中の領域Alの画像と、それに対応する右画像中の領域と変換画像中の領域とを合わせた画像との一致度が正規化相関などの手法によって算出される。
上記のように接地点の位置を上から順に下まで移動させながら画像処理を繰り返すと、図7の画像の一致度のグラフのように、接地位置に対する画像の一致度の関係が求められる。即ち、右画像の領域Ar1と変換画像の領域Artの点Prt1より下の部分の画像信号(輝度信号)を加算(合成)し、左画像の領域Aとの比較を行うことにより、点Pを接地位置と仮定した場合の画像の一致度が算出される。同様に、右画像の領域Ar2と変換画像の領域Artの点Prt2より下の部分の画像信号(輝度信号)を合成し、左画像の領域Aとの比較を行うことにより、点Pを接地位置と仮定した場合の画像の一致度が算出される。また、右画像の領域Ar3と変換画像の領域Artの点Prt3より下の部分の画像信号(輝度信号)を合成し、左画像の領域Aとの比較を行うことにより、点Pを接地位置と仮定した場合の画像の一致度が算出される。これにより図7に示されるような画像一致度を示すグラフが形成される。このグラフより、接地位置を図7の左画像中の点Pのように正しく仮定した場合に、左画像中の領域と右画像、変換画像との正しい対応関係が与えられ、従って画像の一致度が最も高くなることがわかる。そこで、一致度のグラフで最高の一致度を与える点を領域A内での障害物の接地位置とする。以下この手順を垂直方向に一定の長さを有する短冊状の領域Aを水平方向に移動させながら繰り返せば、画像全体について障害物の接地位置を安定かつ高精度に求めることが可能になる。
図8は、本発明の実施形態に従った障害物検出の全体の流れを示している。これによると、スタートによってビデオカメラから得られる左右画像が入力されると、同画像はメモリに蓄積される(S1,S2)。蓄積された左右2枚の画像に基づいて道路平面拘束のパラメータを計算する(S3)。道路平面拘束パラメータを左画像中の任意の点に適用した場合に、右画像中に左画像の点に対応する点の位置を計算する(S4)。左画像の設定点と右画像の算出点との対応関係を用いて、右画像が左画像に一致するように右画像にアフィン変換を行い、変換画像をメモリに蓄積する(S5、S6)。
蓄積画像が読み取られ(S8)、図7に示されるように左画像の点P(即ち、点P)について左画像に短冊領域Aを設定する(S8)。また、右画像に点Pに対応する点P(即ち、点Pr1)に領域A(即ち、Ar1)を設定する(S9)。更に、変換画像に点Pに対応する点Prt(素案和知、Prt1)に領域Artを設定する(S10)。設定された左画像の領域A、右画像の領域Aおよび変換画像Artについて画像の一致度が求められる(S11)。
次に、左画像の点Pが垂直方向に点Pに更新される(S12)。この更新がn回行われたかが判定され(S13)、この判定がNOであり、処理がステップS7に戻ると、点P2についてステップS7〜S13の処理が繰り返される。ステップ13の判定がYESであると、画像の一致度から障害物検出の判定が行われる(S14)。このとき、画像の一致度を示す波形にピークがあると、即ち、障害物検出が判定されると、処理は終了する。しかし、画像の一致度を示す波形にピークがないと、左画像の点Plが水平方向にずらして再設定され(S15)、ステップ7からの処理が再度行われる。
上記のようにして障害物が検出されると、障害物検出の信号が出力され、この検出信号が自動車の安全運転の支援や自動走行のために図示していない安全運転支援装置や自動走行装置に適用される。
上述した実施形態のように実質的に垂直方向に長さを有する短冊状の領域を撮像画像に設定することにより、道路面に対して実質的に垂直方向に長さを有する自動車やオートバイを容易に判別することができ、それらを走行中の自車両の障害物として検出することができる。
本発明は、ハードウエアだけでなく、図8に示す処理をソフトウエアでも実現できる。また、本願発明は、一般道路、高速道路を走行する自動車に限らず構内道路、トンネル又は屋内通路を走行する自動走行運搬車、自動走行検査車両等にも適用できる。
[第2の実施形態]
一般的なステレオ視の計測の信頼性が低い理由は、画像上の全ての点についてそれぞれ距離を求めようとすることに起因する。これはN個のデータをもとにN個のパラメータ4の推定する問題であり、統計学的な観点から見て信頼性の高い推定を行うのが大変困難な問題である。信頼性の高い推定を行うためには、
データの数≫ 推定したいパラメータの数
であることが必要であり、このためには強力な拘束条件を導入し、推定すべきパラメータの数を大幅に削減する必要がある。そこで、本実施形態では平面投影ステレオで用いられる道路平面拘束に加え、ある一つの奥行きの値を与えたときに、同じ奥行きを持つ任意の点が各画像面に投影される点の間の対応関係を与える障害物面拘束を用いる。障害物面拘束は道路面拘束と同様な以下の式(20)で与えられる。
Figure 2006053890
図9のように道路面Sに垂直に障害物Oが立っているとき、画像1上での障害物Oの道路面Sへの接地点を点Pとすれば、点Pの画像2上での対応点P’は式(1)の道路面拘束式で与えられる。このとき、障害物O上の点は、障害物が道路面と垂直に立つという仮定から点Pと同じ奥行きを持つ。従って点Pの奥行きから障害物面拘束式(20)のパラメータが決定できる。これにより、基準画像内で障害物Oを含む縦長の領域Aについて、点Pより上側の部分領域については、参照画像内でその部分領域に対応する領域A’を障害物面拘束式(20)から求めることができる。
また、領域Aの点Pより下側の部分領域は道路面なので、参照画像内でその部分領域に対応する領域A”を道路面拘束式(1)から求めることが出来る。
以上のことから、道路面上の障害物を検知するという目的で、かつその障害物が道路面に対してほぼ垂直に立つものとすれば、図9の基準画像内の領域Aのような縦長の領域に対して一つの接地点パラメータを与えてやれば、基準画像内の領域Aの参照画像への対応関係が一意に定まる。
基準画像の横幅をW,地平線より下の部分の高さをHとし、基準画像の地平線より下の部分の画像を、各々が幅1画素×高さHの画素であるW個の画素列に分け、それぞれの画素列に対して一つの接地点パラメータを与えてやれば、基準画像から参照画像への対応関係が一意に定まる。この対応関係に基づいて2つの画像の一致度を測るものとし、この一致度を最大化するような一連の接地点パラメータ(接地線)を求めることにより障害物の検知が行える。これらの画像の一致度を最大化するような接地点パラメータの最適化条件は、
画素数(W×H)≫ 接地点の数(W)
であるから、一般的なステレオ視に比べて遥かに高い信頼度で障害物の推定が行える。またこれは接地線という一次元の関数の最適化なので、Dynamic Programming 等の効率の良い最適化手法を適用することが可能である。
以下、本発明の第2の実施形態を図面を参照して説明する。本実施形態は、図1と同様に車に搭載した左右2台のステレオカメラから歩行者や先行車、駐車車両など、道路面上に存在する障害物を検知する状況を想定している。図10に示すようにカメラは、障害物を検知したい3次元空間中の領域が全てのカメラの視野に含まれるように配置するものとし、それぞれのカメラで撮影された画像はコンピュータの記憶装置に記憶される。2台のカメラはそれらの光軸が互いにほぼ平行であり、さらに2本の光軸を含む面が道路面に対してほぼ平行であり、2台のカメラの前後の位置ずれが想定している障害物の奥行きに比べて微小となるように配置される。
上記のようなカメラ配置をとれば、画像の変換や座標の対応関係の計算に要する演算量が大幅に低減する。従って、カメラの配置に関して外部からの制約がなければ、上記配置をとることが望ましい。しかしこのような配置を取れない場合でも本実施形態の実施に支障はない。また、カメラは焦点距離や画像面の大きさなどの内部パラメータが同一であることが望ましいが、これも必ずしも必要な条件ではない。
図11は、本実施形態の障害物検出装置のブロック図を示している。これによると、左右2台のカメラ21L、21Rはカメラにより出力される画像信号を記憶する画像記憶装置22に接続される。画像記憶装置22は、後述するように基準画像と参照画像の一致度を計算する画像一致度計算部23に接続される。画像一致度計算部23の出力部は接地線関数最適化部24及び対応関係計算部25に接続される。
対応関係計算部25は基準画像の道路面領域において、障害物と道路面の接地位置を与えたときに基準画像と参照画像の間の対応関係を計算する。この対応関係計算部25は、基準画像の道路面領域について対応関係を計算する道路領域対応点計算モジュール25−1と、基準画像の障害物領域について対応関係を計算する障害物領域対応点計算モジュール24−2を含んでいる。
道路領域対応点計算モジュール24−1は、まず特許文献1に記載されている手法等を用いて道路面拘束式(1)のパラメータを求め、基準画像中の任意の点の座標(u,v)に対して道路面拘束式(1)に基づき対応する参照画像中の点の座標(u′,v′)を計算する。
障害物領域対応点計算モジュール24−2は、まず指定された奥行きdまたは道路面と障害物の接地点Pについて、障害物面拘束式(20)のパラメータを求め、基準画像中の任意の点の座標(u,v)に対して障害物面拘束式(20)に基づき対応する参照画像中の点の座標(u′,v′)を計算する。障害物面拘束式(20)のパラメータの算出は以下のように行う。
まず、奥行きがdの障害物面上の点Pの2つのカメラ座標系における位置ベクトルをそれぞれm=(X,Y,Z),m′=(X′,Y′,Z′)とおき、2つの座標系を結ぶ回転行列をR、並進ベクトルをtとおくと、ベクトルm,m′の間には以下の関係が成り立つ。
m′=Rm+t (21)
一方のカメラ座標系において奥行き方向を表す単位ベクトルをnとおくと、奥行きdの面上の点は以下の式を満たす。
m=d (22)
式(21)は式(22)を代入することにより次式(23)のように変形できる。
Figure 2006053890
カメラの焦点距離をfとすると点Pの左右の画像上での座標はそれぞれ以下の式で与えられる。
(u,v)=(fX/Z,fY/Z),(u′,v′)=(fX′/Z′,fY′/Z′) (24)
ここで、
Figure 2006053890
とおいて、これと式(23)、(24)から式(20)が得られる。2台のカメラ21L、21Rのキャリブレーションがなされていれば、回転行列R、並進ベクトルt、奥行き方向nは既知であるから、奥行きパラメータdさえ与えれば式(20)のパラメータが一意に定まる。
入力として奥行きパラメータdではなく、道路面と障害物の接地点Pの一方の画像への投影点の座標(u,v)が与えられた場合には、道路面拘束式(1)から点Pのもう一方の画像への投影点の座標(u′,v′)を求め、この対応関係からステレオ視により奥行きdを求めることができる。また、上述したように2台のカメラの光軸がほぼ平行で、2本の光軸を含む平面が道路面とほぼ平行で、2台のカメラの前後のずれが微小な場合は、式(20)は大幅に簡素化される。
カメラ配置が上記の条件を満たす場合、奥行き方向はカメラの光軸方向にほぼ一致するので、画像面と障害物面はほぼ平行であり、障害物面上のパターンは同一のスケール変化のみを受けてそれぞれの画像面上へ投影される。この場合、障害物面上の点Pの左右の画像上での座標(u,v)と(u′,v′)は、左右のカメラ座標系の光軸周りの角度を対応付ける2次元の回転行列Qと、並進ベクトルsを用いた以下の式で対応付けられる。これを簡素化された障害物面拘束と呼ぶ。
Figure 2006053890
事前に道路面上にカメラの画像面と平行な直線を引き、この直線が左右の画像上に投影された線分の間の角度を求め、この角度を回転行列Qの回転角とする。車が走行してもカメラ間の相対的な位置関係は変わらないものとすると、回転行列Qのパラメータは一定であるから、簡素化された障害物面拘束は障害物面の位置に応じて並進ベクトルsのみが変化する。並進ベクトルsは障害物面上の点Pの左右の画像上での座標(u,v)と(u′,v′)を一組与えることにより計算でき、障害物面と道路面が交わる点においては(u,v)と(u′,v′)の組は道路面拘束により与えることができるので、障害物の道路面に対する接地位置を与えれば、その障害物の左右の画像への投影像の間の対応関係が計算できることになる。
画像一致度計算部23は、図12の領域Aのような基準画像中の一部分を切り出した基準領域画像を入力とし、あわせて道路面との障害物の接地点の基準画像上での座標をパラメータとして与えたときに、基準領域画像とそれに対応する参照画像中の領域との画像の一致度を計算する。基準領域画像の接地点より下側の領域については、それが道路領域であると仮定して道路領域対応点計算モジュール25−1により参照画像中で対応する図12の領域A”を求め、その対応関係に基づき一致度を計算し、道路領域一致度として出力する。
基準領域画像の接地点より上側の領域については、それが接地点と同じ奥行きを持つものと仮定して障害物領域対応点計算モジュール24−2により参照画像中で対応する図12の領域A′を求め、その対応関係に基づき一致度を計算し、障害物領域一致度として出力する。一致度は例えば対応点間の輝度値を比較して、輝度値の差が一定の閾値以内であれば一致として1を、そうでなければ0を出力するような単純なものでも良いし、対応点近傍の小領域をそれぞれ切り出し、領域間の正規化相関の値に同様な閾値処理を行うというものでもよい。
輝度値はカメラと光源との位置関係やカメラの絞り値等様々な要素の影響を受けるので、正しい対応点の組であってもカメラ間で輝度値が大きく異なることがときにはある。そのような場合は、輝度値を直接比較するよりは、小領域の正規化相関のように、局所画像の形状を比較する手段を用いることが望ましい。ただし、形状の比較を行う場合、例えば道路面上に描かれたパターンは左右の画像間で大きな変形が加わるので、正しい対応点の組を与えてもそれぞれの点の近傍の局所画像の形状は一致しない。
このような場合は、道路面画像変換モジュール25−1により図13のように参照画像の道路面領域が基準画像の道路面領域と一致するような道路面変換画像を作成する。障害物面変換モジュール25−2を用いて参照画像のある一定の奥行きをもった障害物領域が基準画像の同じ奥行きをもった障害物領域と並行移動で一致するような障害物面変換画像を作成する。基準領域画像のうち接地線より下の道路面領域については参照画像を道路面画像変換モジュール24−1により変換した道路面変換画像との間で一致度を計算し、基準領域画像のうち接地線より上の障害物領域については参照画像を障害物画像変換モジュール24−2により変換した障害物面変換画像との間で一致度を計算することにすれば信頼度の高い一致度の算出が可能になる。
このとき、道路面領域に関しては、画像全体に対して同一の道路面拘束を用いるので、道路面画像変換は一回だけで済むが、障害物領域に関しては、障害物面拘束が障害物の道路面に対する接地位置に応じて異なるので、障害物面変換は複数回行う必要がある。ただし、この変換は画像の一致度を測る際の画像の変形を補正するために行うものなので、必ずしも全ての接地位置について変形画像を作成する必要はなく、変形の度合いに応じていくつかの障害物面変換画像を作成すれば十分である。
また、式(26)の簡素化された障害物面拘束を用いる場合は、障害物の接地位置の違いは平行移動量の違いのみを生じるので、適当に決めたある一つの接地位置についてのみ障害物面変換画像を作成し、その他の接地位置については対応点の位置を平行移動量の違いの分補正を行うことで対応できる。従って、この場合は、障害物面変換は一回だけで済む。
接地線関数最適化部24は、図14に示すように基準画像上の道路面領域に障害物と路面の接地線を設定したときに、対応関係計算部25により計算される基準画像と参照画像の対応関係に基づいて画像一致度計算部23により計算される基準画像と参照画像の一致度を最大化するような接地線関数を計算する。以下本実施形態におけるDynamic Programmingを用いた接地線関数の最適化方法について図16及び17のフローチャートを参照して説明する。以下説明の便宜上左側のカメラの画像を基準画像とし、右側のカメラ21Rの画像を参照画像とする。
まず、図15のように基準画像の地平線より下の領域を縦に細長いW個の短冊状の領域A(i=1,…,W)に分割し(ステップS21)、領域Aに対して、接地位置の縦座標v(v=1,…,H)を与える(ステップS22)。このときの領域Aの道路領域の一致度f(v)と障害物領域の一致度g(v)を対応関係計算部25と画像一致度計算部23により求める。即ち、領域Aでの接地位置がvであるときの領域Aから領域Aまでの画像の一致度の最大値C(v)を計算するサブルーチン1を実行する(ステップS23)。サブルーチン1は図17のフローに示すように縦位置について縦座標vi-1を与え(ステップ23−1)、接地線がvi-1を通ってviに至る場合の画像の一致度Ci-1(vi-1)+ci(vi、vi-1)を計算する(S23−2)。この計算結果は記憶装置に記憶される。このような処理がV_i-1をインクリメントしながら繰り返し行われ、その結果から画像の一致度Ci-1(vi-1)+ci(vi、vi-1)の最大値とそのときのパスvi-1の値を戻り値とする(S23−3)。
サブルーチン1において、領域Aでの接地位置がv、領域Ai−1での接地位置がvi−1であるときの領域Aの一致度をc(v,vi−1)とし、領域Aでの接地位置がvであるときの領域Aから領域Aまでの一致度の最大値をC(v)とおくと、C(v)は以下の漸化式(27)を用いて逐次的に計算することが出来る。
Figure 2006053890
この時、Ci(vi)の値とそのときのパスVi-1が記憶装置に格納される(ステップS24)。全ての領域の一致度を最大化する接地位置の系列を
Figure 2006053890
とおくと、これは式(27)の漸化式でCi(vi)(vi=1,…,H)をi=1からi=Wまで順番に計算する。即ち、C(v)を最大化するvを求める(ステップS25)。この後、以下の漸化式(28)をi=Wからi=1のように逆順に辿って計算し(ステップS26)、v1に至るパスvi-1を求める(ステップS27)。
Figure 2006053890
ここで、領域Ai-1での接地位置がvi-1であるときの領域Aiの一致度ci(vi,vi-1)は、領域Aの全体が右側のカメラから撮影された参照画像からも見えている場合は、ci(vi,vi-1)=fi(vi)+gi(vi)としてよいが、図18の領域Bのように着目領域の右側に障害物が存在する場合は、図中の点Pより奥に存在する障害物は遮蔽により右側のカメラからは見えない。このような遮蔽が生じる条件を、vi<vi-1−δとおき、ci(vi,vi-1を以下のように定義する。
Figure 2006053890
以上のような手順により、最適接地線の点列vi(i=1,…,W)が求められ、出力される(S28)。即ち、基準画像と参照画像の間の一致度を最大化するような対応関係を与える接地線関数が計算できる。
本実施形態ではDynamic Programmingによる最適化手法について述べたが、この最適化問題は接地線関数の関数(汎関数)である画像の一致度を最大化する問題であるから、変分法などの汎関数の最適化手法を用いることも可能である。
以上説明したように、本実施形態で説明する障害物検出装置は、カメラから時々刻々入力される基準画像と参照画像に対して、両者の一致度を最大化するような接地線関数を計算することにより、道路面上に障害物が接地する位置を正確に、かつ高い信頼性をもって検出することができる。
本発明をソフトウエアによって実施する場合には、図19に示されるようなCPU31とHDD32とメモリ33とで構成される処理装置が用いられる。上述した実施形態を実行するためのプログラムはHDD32に格納しておき、また、左右のカメラから得られた画像情報がHDD32に格納される。HDD32から読み取られたプログラムはメモリ33に格納され、このメモリ33に格納されたプログラムに従ってCPUはHDD32から画像情報を読み取りながら障害物検出を実行する。
本発明の第1の実施形態に従った障害物検出装置を備え、2台のビデオカメラを搭載した乗用車の斜視図。 左側ビデオカメラで撮影した画像を示す図。 右側ビデオカメラで撮影した画像を示す図。 右画像を変換した変換画像を示す図。 本発明の第1の実施形態の障害物検出装置のブロック回路図。 障害物検出装置による探索領域を示す図。 本発明の第1の実施形態による障害物検出を説明するための図。 本発明の第1の実施形態による障害物検出を説明するためのフローチャート図。 道路面との障害物の接地位置と左右の画像の対応関係を表す図。 カメラと道路面や障害物との位置関係を表す図。 本発明の第2の実施形態による障害物検出装置のブロック図。 基準領域画像に対する一致度の説明図。 道路面変換画像と障害物変換画像の説明図。 道路面と障害物、および接地線の説明図。 画像の分割と部分領域に対する一致度の説明図。 接地線関数最適化処理のフローチャート。 接地線関数最適化処理におけるサブルーチン1のフローチャート。 障害物による遮蔽関係の説明図。 本発明をソフトウエアで実行するための処理装置のブロック図。
符号の説明
11R,11L…ビデオカメラ、12…画像入力部、13…画像蓄積部、
14…パラメータ計算部、15…対応点計算部、16…画像変換部、17…検出部、
21L、21R…カメラ、22…画像記憶装置、23…画像一致度計算部、
24…接地線関数最適化部、25…対応関係計算部、
25−1…道路領域対応点計算モジュール、25−2…障害物領域対応点計算モジュール、31…CPU、32…HDD、33…メモリ

Claims (18)

  1. 道路を走行する車に搭載され、左右の画像を入力するビデオカメラと、前記ビデオカメラにより入力された左右の画像を蓄積するための画像蓄積部と、
    蓄積画像に基づいて道路面上における左右の画像の任意の点の対応関係を表すパラメータを求めるパラメータ計算部と、
    前記パラメータに基づいて、前記カメラで撮影された左右画像の一方の画像の道路面上に設定された点が、前記左右画像の他方画像上のどの点に対応するのかを計算する対応点計算部と、
    前記対応点計算部により計算される点の対応関係を用いて前記左右画像の一方画像に近似する変換画像を前記他方画像から作成する画像変換部と、
    前記対応点計算部で計算される対応点の対応関係及び前記変換画像を用いて、道路平面に対して実質的に垂直上方向に一定以上の大きさを有する物体を検出する検出部と、
    を含む障害物検出装置。
  2. 前記検出部は、前記左右画像の一方画像中の任意の基準点において、その基準点を含むある一定の大きさの基準領域を前記一方画像に設定する手段と、前記左右画像の他方画像に対して前記基準領域と対応する参照領域を設定し、この参照領域と並んで前記他方画像に基づいて作成された前記変換画像に対する参照領域を設定し、上記基準領域の画像と、上記二つの参照領域の画像を比較することにより、道路平面に対して実質的に垂直上方向に一定以上の大きさを有する物体を検出することを特徴とする請求項1記載の障害物検出装置。
  3. 前記画像変換部は、前記他方画像をアフィン変換して前記変換画像を生成する画像変換手段により構成される請求項1記載の障害物検出装置。
  4. 前記対応点計算部は、前記左右画像の前記一方の画像の任意の点の位置を入力し、指定された点に道路平面拘束を適用した場合に、前記入力点に対応する、前記他方画像の点の位置を計算し出力する手段を含む請求項1記載の障害物検出装置。
  5. 前記検出部は、前記一方画像に実質的に垂直方向に一定の長さを有する短冊状の領域を設定する手段と、接地点を垂直方向に移動しながら前記短冊状の領域を前記他方画像及び前記変換画像の合成領域との一致度を算出する手段と、最大の一致度を示す点を障害物の接地位置として求める手段とを含む請求項1の障害物検出装置。
  6. 道路を走行する車に搭載されたビデオカメラにより、左右の画像を入力するステップと、
    前記左右の画像を画像蓄積部に蓄積するステップと、
    蓄積画像に基づいて道路面上における左右の画像の任意の点の対応関係を表すパラメータを求めるステップと、
    前記パラメータに基づいて、前記左右画像の一方の画像の道路面上に設定された点が、前記左右画像の他方画像上のどの点に対応するのかを計算するステップと、
    前記計算により求められた点の対応関係を用いて前記左右画像の一方画像に近似する変換画像を前記他方画像から作成するステップと、前記計算される対応点の対応関係及び前記変換画像を用いて、道路平面に対して実質的に垂直上方向に一定以上の大きさを有する物体を検出するステップと、
    を含む障害物検出方法。
  7. 前記検出ステップは、前記左右画像の一方画像中の任意の基準点において、その基準点を含むある一定の大きさの基準領域を前記一方画像に設定し、前記左右画像の他方画像において前記基準領域と対応する参照領域を求め、この参照領域と並んで前記他方画像をもとに作成された前記変換画像に対して参照領域を求め、上記基準領域の画像と、上記二つの参照領域の画像を比較することにより、道路平面に対して実質的に垂直上方向に一定以上の大きさを有する物体を検出することを特徴とする請求項6記載の障害物検出方法。
  8. 前記画像変換ステップは、前記他方画像をアフィン変換して前記変換画像を生成するステップにより構成される請求項6または7記載の障害物検出方法。
  9. 前記対応点計算ステップは、前記左右画像の前記一方の画像の任意の点の位置を入力するステップと、指定された点に道路平面拘束を適用した場合に、前記入力点に対応する、前記他方画像の点の位置を計算し出力するステップを含む請求項6乃至8のいずれか1記載の障害物検出方法。
  10. 前記検出ステップは、前記一方画像に実質的に垂直方向に一定の長さを有する短冊状の領域を設定するステップと、接地点を垂直方向に移動しながら前記短冊状の領域を前記他方画像及び前記変換画像の合成領域との一致度を算出するステップと、最大の一致度を示す点を障害物の接地位置として求めるステップとを含む請求項6乃至9のいずれか1記載の障害物検出方法。
  11. 道路面上に存在する障害物を検出する障害物検出装置であって、
    画像を撮影する複数台のカメラと、
    前記複数台のカメラによりそれぞれ撮影された複数の画像を記憶する画像記憶手段と、
    前記複数台のカメラのうちの一つのカメラにより撮影された基準画像を複数の短冊状領域に分割する分割手段と、
    前記基準画像中の道路領域と障害物領域との境界を接地線として表す接地線関数を入力としたときに、前記短冊状領域に基づいて前記短冊状領域毎に前記基準画像と他のカメラにより撮影された参照画像との対応関係を計算する対応関係計算手段と、
    前記対応関係計算手段により計算される画像の対応関係に基づいて前記基準画像の全体または部分領域とそれに対応する前記参照画像中の領域との間の一致度を前記短冊状領域毎に計算する画像一致度計算手段と、
    前記基準画像の全体または部分領域について、前記画像一致度計算手段により計算される画像の一致度を最大化する最適な接地線関数を生成する接地線関数最適化手段と、
    を備えることを特徴とする障害物検出装置
  12. 前記対応関係計算手段が、道路面上の任意の点について、前記基準画像中における前記任意の点の投影点の座標と、前記参照画像中での前記任意の点の投影点の座標との対応関係を求める道路領域対応点計算手段と、前記任意の点を接地点とし、この接地点を含み前記道路面に対して垂直な直線を含む一つの平面における前記基準画像中における任意の点の投影点の座標と前記参照画像中での前記任意の点の投影点の座標との対応関係を求める障害物領域対応点計算手段とを備え、前記接地線関数により分けられる画像中の前記道路領域と前記障害物領域について、前記道路領域内の点に関しては前記基準画像と前記参照画像との対応関係を上記道路領域対応点計算手段により求め、前記障害物領域内の点に関しては前記基準画像と前記参照画像との対応関係をその点に対応する接地点を元に、前記障害物領域対応点計算手段により求めることを特徴とする請求項11に記載の障害物検出装置
  13. 前記一致度計算手段は、前記参照画画像中の前記道路領域のパターンが前記基準画像の前記道路領域のパターンと一致する前記参照画像の道路面変換画像を生成する道路面画像変換手段と、前記道路面に垂直に立つ障害物の参照画像中のパターンが前記基準画像中のパターンと一致する前記参照画像の変換画像を生成する障害物画像変換手段とを備え、前記基準画像の全体または一部分の領域を表す基準領域画像とこの基準領域画像内に含まれる障害物の道路面との接地線を入力として、前記基準領域画像のうち接地線より下の道路面領域については前記参照画像を前記道路面画像変換手段により変換した前記道路面変換画像との間で一致度を計算し、前記基準領域画像のうち前記接地線より上の前記障害物領域については前記参照画像を前記障害物画像変換手段により変換した前記障害物面変換画像との間で一致度を計算することを特徴とする請求項11に記載の障害物検出装置
  14. 前記カメラは、光軸が互いに実質的に平行であり、さらに2本の光軸を含む面が道路面に対して実質的に平行である2台のカメラであることを特徴とする請求項11乃至13のいずれか1記載の障害物検出装置。
  15. 道路面上に存在する障害物を検出する障害物検出方法であって、
    複数台のカメラによりそれぞれ撮影された複数の画像を記憶手段に記憶するステップと、
    前記複数台のカメラのうちの一つのカメラにより撮影された基準画像を複数の短冊状領域に分割するステップと、
    前記基準画像中の道路領域と障害物領域との境界を接地線として表す接地線関数を入力としたときに、前記短冊状領域に基づいて前記短冊状領域毎に前記基準画像と他のカメラにより撮影された参照画像との対応関係を計算するステップと、
    計算された対応関係に基づいて前記基準画像の全体または部分領域とそれに対応する前記参照画像中の領域との間の一致度を前記短冊状領域毎に計算するステップと、
    前記基準画像の全体または部分領域について、計算された一致度を最大化する最適な接地線関数を生成するステップと、
    を有することを特徴とする障害物検出方法
  16. 前記対応関係計算ステップは、道路面上の任意の点について、前記基準画像中における前記任意の点の投影点の座標と、前記参照画像中での前記任意の点の投影点の座標との対応関係を求めるステップと、前記任意の点を接地点とし、この接地点を含み前記道路面に対して垂直な直線を含む一つの平面における前記基準画像中における任意の点の投影点の座標と前記参照画像中での前記任意の点の投影点の座標との対応関係を求めるステップとを有し、前記接地線関数により分けられる画像中の前記道路領域と前記障害物領域について、前記道路領域内の点に関しては前記基準画像と前記参照画像との対応関係を前記道路領域対応点計算ステップにより求め、前記障害物領域内の点に関しては前記基準画像と前記参照画像との対応関係をその点に対応する接地点を元に、前記障害物領域対応点計算ステップにより求めることを特徴とする請求項15に記載の障害物検出装置
  17. 前記一致度計算ステップは、前記参照画画像中の前記道路領域のパターンが前記基準画像の前記道路領域のパターンと一致する前記参照画像の道路面変換画像を生成する道路面画像変換ステップと、前記道路面に垂直に立つ障害物の参照画像中のパターンが前記基準画像中のパターンと一致する前記参照画像の変換画像を生成する障害物画像変換ステップとを有し、前記基準画像の全体または一部分の領域を表す基準領域画像とこの基準領域画像内に含まれる障害物の道路面との接地線を入力として、前記基準領域画像のうち接地線より下の道路面領域については前記参照画像を前記道路面画像変換ステップにより変換した前記道路面変換画像との間で一致度を計算し、前記基準領域画像のうち前記接地線より上の前記障害物領域については前記参照画像を前記障害物画像変換ステップにより変換した前記障害物面変換画像との間で一致度を計算することを特徴とする請求項15に記載の障害物検出方法。
  18. 前記カメラは、光軸が互いに実質的に平行であり、さらに2本の光軸を含む面が道路面に対して実質的に平行である2台のカメラであることを特徴とする請求項11乃至13のいずれか1記載の障害物検出方法。
JP2005122547A 2004-07-13 2005-04-20 障害物検出装置及び方法 Expired - Fee Related JP4406381B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005122547A JP4406381B2 (ja) 2004-07-13 2005-04-20 障害物検出装置及び方法
US11/178,274 US20060013438A1 (en) 2004-07-13 2005-07-12 Obstacle detection apparatus and a method therefor
US12/000,025 US7660434B2 (en) 2004-07-13 2007-12-07 Obstacle detection apparatus and a method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004205857 2004-07-13
JP2005122547A JP4406381B2 (ja) 2004-07-13 2005-04-20 障害物検出装置及び方法

Publications (3)

Publication Number Publication Date
JP2006053890A true JP2006053890A (ja) 2006-02-23
JP2006053890A5 JP2006053890A5 (ja) 2008-05-15
JP4406381B2 JP4406381B2 (ja) 2010-01-27

Family

ID=35599464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005122547A Expired - Fee Related JP4406381B2 (ja) 2004-07-13 2005-04-20 障害物検出装置及び方法

Country Status (2)

Country Link
US (2) US20060013438A1 (ja)
JP (1) JP4406381B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009198445A (ja) * 2008-02-25 2009-09-03 Toshiba Corp 対象物検出装置及び方法
JP2010146082A (ja) * 2008-12-16 2010-07-01 Denso Corp 画像処理装置
JP2012122923A (ja) * 2010-12-10 2012-06-28 Toshiba Corp 対象物検出装置及び方法
JP2013072813A (ja) * 2011-09-28 2013-04-22 Honda Motor Co Ltd 段差部認識装置
US9122936B2 (en) 2012-11-13 2015-09-01 Kabushiki Kaisha Toshiba Detecting device, detection method, and computer program product
WO2018230342A1 (ja) * 2017-06-12 2018-12-20 日立オートモティブシステムズ株式会社 車両運転支援装置
CN111971682A (zh) * 2018-04-16 2020-11-20 三菱电机株式会社 路面检测装置、利用了路面检测装置的图像显示装置、利用了路面检测装置的障碍物检测装置、路面检测方法、利用了路面检测方法的图像显示方法以及利用了路面检测方法的障碍物检测方法

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
JP2009041972A (ja) * 2007-08-07 2009-02-26 Toshiba Corp 画像処理装置及びその方法
EP2063404A1 (en) * 2007-11-23 2009-05-27 Traficon A detector for detecting traffic participants.
NZ567986A (en) * 2008-05-02 2010-08-27 Auckland Uniservices Ltd Real-time stereo image matching system
FR2937775B1 (fr) * 2008-10-24 2010-12-31 Valeo Vision Sas Procede de detection d'un objet cible pour vehicule automobile
JP5190712B2 (ja) * 2009-03-24 2013-04-24 アイシン精機株式会社 障害物検出装置
US9275680B2 (en) * 2009-06-16 2016-03-01 Microsoft Technology Licensing, Llc Viewer-centric user interface for stereoscopic cinema
DE102009031650B4 (de) 2009-07-03 2024-05-29 Volkswagen Ag Verfahren zur Erweiterung eines Kamerasystems, Kamerasystem, Fahrerassistenzsysem und entsprechendes Fahrzeug
AU2010200875A1 (en) * 2010-03-09 2011-09-22 The University Of Sydney Sensor data processing
JP5481337B2 (ja) * 2010-09-24 2014-04-23 株式会社東芝 画像処理装置
WO2012075250A1 (en) 2010-12-01 2012-06-07 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
WO2012169131A1 (ja) * 2011-06-06 2012-12-13 パナソニック株式会社 キャリブレーション装置及びキャリブレーション方法
US9191650B2 (en) * 2011-06-20 2015-11-17 National Chiao Tung University Video object localization method using multiple cameras
DE102011113077A1 (de) * 2011-09-07 2013-03-07 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung einer Durchfahrbarkeit eines Objekts für ein Fahrzeug mittels einer 3D-Kamera
US9269263B2 (en) * 2012-02-24 2016-02-23 Magna Electronics Inc. Vehicle top clearance alert system
US10678259B1 (en) * 2012-09-13 2020-06-09 Waymo Llc Use of a reference image to detect a road obstacle
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
US9547805B1 (en) * 2013-01-22 2017-01-17 The Boeing Company Systems and methods for identifying roads in images
JP6149676B2 (ja) * 2013-10-09 2017-06-21 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム
CN106444837A (zh) * 2016-10-17 2017-02-22 北京理工大学 一种无人机避障方法及系统
CN106503653B (zh) * 2016-10-21 2020-10-13 深圳地平线机器人科技有限公司 区域标注方法、装置和电子设备
CN108629227B (zh) * 2017-03-15 2021-04-06 纵目科技(上海)股份有限公司 在图像中确定车辆左右边界的方法及系统
US10949996B2 (en) * 2018-01-16 2021-03-16 Aisin Seiki Kabushiki Kaisha Self-position estimation apparatus
US11202055B2 (en) * 2018-02-28 2021-12-14 Blackberry Limited Rapid ground-plane discrimination in stereoscopic images
CN108399398A (zh) * 2018-03-22 2018-08-14 武汉云衡智能科技有限公司 一种基于深度学习的无人驾驶汽车障碍物识别检测方法
CN109074668B (zh) * 2018-08-02 2022-05-20 达闼机器人股份有限公司 路径导航方法、相关装置及计算机可读存储介质
JP7167751B2 (ja) * 2019-02-08 2022-11-09 株式会社アイシン 物体検出装置
US20220250248A1 (en) * 2019-07-19 2022-08-11 Siemens Ltd., China Robot hand-eye calibration method and apparatus, computing device, medium and product
CN111091049B (zh) * 2019-11-01 2024-02-09 东南大学 一种基于反向特征匹配的路面障碍物检测方法
CN111612760B (zh) * 2020-05-20 2023-11-17 阿波罗智联(北京)科技有限公司 用于检测障碍物的方法和装置
CN112560769B (zh) * 2020-12-25 2023-08-29 阿波罗智联(北京)科技有限公司 用于检测障碍物的方法、电子设备、路侧设备和云控平台

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2712251B1 (fr) * 1993-11-10 1996-01-26 Eurocopter France Procédé et dispositif d'aide au pilotage d'un aéronef.
JP3242529B2 (ja) * 1994-06-07 2001-12-25 松下通信工業株式会社 ステレオ画像対応付け方法およびステレオ画像視差計測方法
DE19636028C1 (de) * 1996-09-05 1997-11-20 Daimler Benz Ag Verfahren zur Stereobild-Objektdetektion
JP4172554B2 (ja) * 1998-03-12 2008-10-29 富士重工業株式会社 ステレオカメラの調整装置
JP2000293693A (ja) 1999-03-31 2000-10-20 Toshiba Corp 障害物検出方法および装置
US6963661B1 (en) * 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
JP4256992B2 (ja) 1999-09-09 2009-04-22 株式会社東芝 障害物検出装置
US6801244B2 (en) * 2000-02-29 2004-10-05 Kabushiki Kaisha Toshiba Obstacle detection apparatus and method
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
US6933837B2 (en) * 2002-01-25 2005-08-23 Altra Technologies Incorporated Trailer based collision warning system and method
JP3797949B2 (ja) * 2002-03-28 2006-07-19 株式会社東芝 画像処理装置及びその方法
JP3895238B2 (ja) * 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
JP4216021B2 (ja) * 2002-08-30 2009-01-28 富士重工業株式会社 侵入物検出装置
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
US7068815B2 (en) * 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009198445A (ja) * 2008-02-25 2009-09-03 Toshiba Corp 対象物検出装置及び方法
US8094884B2 (en) 2008-02-25 2012-01-10 Kabushiki Kaisha Toshiba Apparatus and method for detecting object
JP2010146082A (ja) * 2008-12-16 2010-07-01 Denso Corp 画像処理装置
JP2012122923A (ja) * 2010-12-10 2012-06-28 Toshiba Corp 対象物検出装置及び方法
JP2013072813A (ja) * 2011-09-28 2013-04-22 Honda Motor Co Ltd 段差部認識装置
US9122936B2 (en) 2012-11-13 2015-09-01 Kabushiki Kaisha Toshiba Detecting device, detection method, and computer program product
WO2018230342A1 (ja) * 2017-06-12 2018-12-20 日立オートモティブシステムズ株式会社 車両運転支援装置
CN111971682A (zh) * 2018-04-16 2020-11-20 三菱电机株式会社 路面检测装置、利用了路面检测装置的图像显示装置、利用了路面检测装置的障碍物检测装置、路面检测方法、利用了路面检测方法的图像显示方法以及利用了路面检测方法的障碍物检测方法

Also Published As

Publication number Publication date
US20080285798A1 (en) 2008-11-20
US7660434B2 (en) 2010-02-09
US20060013438A1 (en) 2006-01-19
JP4406381B2 (ja) 2010-01-27

Similar Documents

Publication Publication Date Title
JP4406381B2 (ja) 障害物検出装置及び方法
CN110567469B (zh) 视觉定位方法、装置、电子设备及系统
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
Goldbeck et al. Lane detection and tracking by video sensors
US8102427B2 (en) Camera egomotion estimation from an infra-red image sequence for night vision
CN108692719B (zh) 物体检测装置
US8259998B2 (en) Image processing device for vehicle
JP4553072B1 (ja) 画像統合装置および画像統合方法
JP4702569B2 (ja) 車両用画像処理装置
JP6392693B2 (ja) 車両周辺監視装置、車両周辺監視方法、及びプログラム
JP2004354257A (ja) キャリブレーションずれ補正装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
JP2007263669A (ja) 3次元座標取得装置
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
KR20090103165A (ko) 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
JPH07129898A (ja) 障害物検出装置
EP3324359B1 (en) Image processing device and image processing method
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP2008262333A (ja) 路面判別装置および路面判別方法
JP2010086267A (ja) 車両用画像処理装置
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP5181602B2 (ja) 物体検出装置
KR20100066952A (ko) 스테레오 비전을 이용하여 장애물을 추적하는 장치 및 방법
JP2004354256A (ja) キャリブレーションずれ検出装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
JP2009092551A (ja) 障害物計測方法、障害物計測装置及び障害物計測システム
KR20190134303A (ko) 영상 인식 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061024

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091013

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees