JP3797949B2 - 画像処理装置及びその方法 - Google Patents

画像処理装置及びその方法 Download PDF

Info

Publication number
JP3797949B2
JP3797949B2 JP2002092980A JP2002092980A JP3797949B2 JP 3797949 B2 JP3797949 B2 JP 3797949B2 JP 2002092980 A JP2002092980 A JP 2002092980A JP 2002092980 A JP2002092980 A JP 2002092980A JP 3797949 B2 JP3797949 B2 JP 3797949B2
Authority
JP
Japan
Prior art keywords
time
state information
image
vehicle state
translational movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002092980A
Other languages
English (en)
Other versions
JP2003288602A (ja
Inventor
恭一 岡本
信之 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002092980A priority Critical patent/JP3797949B2/ja
Priority to US10/391,626 priority patent/US7149327B2/en
Publication of JP2003288602A publication Critical patent/JP2003288602A/ja
Application granted granted Critical
Publication of JP3797949B2 publication Critical patent/JP3797949B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自動車の安全運転の支援や自動走行を実現するために、複数の撮像装置により、先行車、駐車車両、歩行者など、道路上に存在する障害物を検出するステレオ障害物検出において、撮像装置で撮影した画像が道路平面であると仮定して一方の画像から他方の画像へ変換する変換パラメータを推定する画像処理装置及び方法である。
【0002】
【従来の技術】
障害物を検知するための技術は、レーザや超音波等を利用するものとTVカメラを利用するものに大別できる。レーザを利用するものは高価であり、超音波を利用するものは超音波の解像度が低いため、障害物の検出精度に問題がある。また、レーザや超音波等を用いる能動センサ単独では走行レーンの認識ができない。
【0003】
これに対し、TVカメラは比較的安価であり、解像度、計測精度、計測範囲の面からも障害物検出に適する。また、走行レーンの認識も可能である。TVカメラを用いる場合、1台のカメラを使用する方法と複数台のカメラ(ステレオカメラ)を使用する方法がある。
【0004】
1台のカメラを使用する方法は、そのカメラで撮影した1枚の画像から、輝度や色、あるいはテクスチャ等の情報を手がかりにして道路領域と障害物領域を分離する。例えば、画像中で彩度の低い中程度の輝度領域、つまり灰色の領域を抽出し道路領域を求めたり、テクスチャの少ない領域を求めて、道路領域を抽出し、それ以外の領域を障害物領域とする。しかし、道路と似た輝度、色、あるいはテクスチャを持つ障害物も数多く存在するため、この方法で障害物領域と道路領域を切り分けるのは困難である。
【0005】
これに対し、複数台のカメラを用いる方法は3次元情報を手がかりにして障害物を検出する。この方法は一般にステレオ視と呼ばれる。
【0006】
「ステレオ視」とは、例えば2つのカメラを左右に配置し、3次元空間中で同一点である点を左右画像間で対応つけ、三角測量の要領で、その点の3次元位置を求めるものである。各カメラの道路平面に対する位置や姿勢等を予め求めておくと、ステレオ視により画像中の任意の点の道路平面からの高さが得られる。このようにすることにより、高さの有無によって障害物領域と道路領域を分離することができる。ステレオ視によれば、1台のカメラを用いる場合のような問題を回避することが可能である。
【0007】
しかし、通常のステレオ視には、対応点探索という問題点がある。ステレオ視とは、一般的には画像上の任意の点のステレオカメラに固定した座標系(以下では「ステレオカメラ座標系」と呼ぶ)に対する3次元位置を求める技術である。対応点探索は空間中で同一である点を左右の画像間で対応づける際に必要な探索計算を意味し、計算コストが極めて高いという問題がある。対応点探索は、ステレオ視の実用化を妨げる要因となっている。
【0008】
それに対し、一方の画像上の点が道路平面上に存在すると仮定して、一方の画像上への点をもう一方の画像上への投影点へ変換するパラメータを計算し、そのパラメータを用いて画像を変換し、その画像間の差を用いて道路領域と障害物領域を分離する手法も特開2001−76128、特開2001−243456で提案されている。
【0009】
ところで、起伏のある道路を車両が通行する場合、車両への人員の搭載状態や荷物の積載状態が変わった場合、車両の振動や道路の傾斜があった場合など、道路平面と車両に取り付けたカメラの位置姿勢の関係、つまり車両から見た道路平面の傾きが変化し、変換パラメータの値も変化する。
【0010】
特開2001−76128では、道路上に描かれた2本の白線を利用して、画像の変換パラメータを計算している。しかし、この方法では白線が1本しか見えない場合や汚れている場合には、変換パラメータを計算できないという問題がある。
【0011】
また、特開2001−243456では、この問題に対して、想定されるカメラと道路面の取りうる相対的関係の範囲から適当な姿勢を複数選び、それらの全ての姿勢に対応する変換パラメータを計算し、その変換パラメータを用いた変換画像を用意して他の画像と比較を行い、一致度の最も低い領域を障害物として検出している。
【0012】
しかし、上記の方法では、道路平面として照合したときに一致度の最も低い領域を検出するので、車両に周期的な模様が描かれている場合や路面での写り込み等で正しく障害物が検出されない場合があり、道路平面の変換パラメータが必要になる。
【0013】
また、精度よく障害物を検出するためには選択した変換パラメータが実際の変換パラメータから十分な精度内になければならない。さらに、例えば車両後部に重い荷物を積載した結果、車体が前後に傾くといった、発生する可能性の少ない事象に応じた変換パラメータも用意しておく必要がある。上記の2つの条件を満たすためには数多くの変換画像が必要であり、多くの変換画像の作成で、計算時間がかかってしまうという問題がある。
【0014】
さらに、路面の段差による急激な振動を除けば、車両の振動や路面の傾斜の変化は通常のテレビカメラ画像の撮影間隔に比べて緩やかであり、車両の走行中に人員の搭載状態や貨物の積載状態が変化することはない。したがって、画像の変換パラメータも緩やかに変化するが、上記の方法では、現在の変換パラメータの状態を考慮せず、全ての変換パラメータを用いた変換画像を用意するので、無駄な変換を数多く行うという問題がある。
【0015】
【発明が解決しようとする課題】
以上述べたように、従来方法では、撮像装置で撮影した画像が道路平面を撮影していると仮定して一つの撮像装置で撮影した画像を他の撮像装置で撮影した画像上へ変換する際に、白線を用いて変換パラメータを計算する方法では、白線が見えない場合に変換パラメータを計算できないという問題がある。
【0016】
また、多数の変換パラメータを用意して、一致度の最も低い領域を検出する方法では、車両に周期的な模様が描かれていたりそれらの変換パラメータを用いた変換画像を作成する必要があり、計算時間がかかってしまうという問題がある。その上、用意した変換パラメータは車両の現在の状態を考慮していないので無駄な変換も多いという問題もある。
【0017】
そこで、本発明は、起伏のある道路を車両が通行する場合、車両への人員の搭載状態や荷物の積載状態が変わった場合、車両の振動や道路の傾斜があった場合など、道路平面と車両に取り付けたカメラの位置姿勢の関係、つまり車両から見た道路平面の傾きが変化したときでも、撮像装置で撮影した画像が道路平面であると仮定して一方の画像から他方の画像へ変換する変換パラメータを確実に推定できる画像処理装置及びその方法を提供する。
【0018】
【課題を解決するための手段】
請求項1の発明は、道路平面上の車両に取り付けられた異なる視点を持つ複数の撮像装置から前記道路平面を時系列に撮影して、この時系列に撮影した画像に基づいて前記複数の撮像装置の中の一の撮像装置で撮影された画像を、前記他の撮像装置の位置から見たアフィン変換の変換パラメータを用いて変換する画像処理装置において、時刻(t−1)における車両の状態情報から時刻tにおける車両の状態情報を予測する状態情報第1予測手段と、前記一の撮像装置で撮影された時刻tにおける画像と、前記他の撮像装置で撮影された時刻tにおける画像と、前記予測した時刻tにおける車両の状態情報とを用いて、時刻tにおける前記アフィン変換の並進成分である並進移動量を推定する並進移動量推定手段と、前記推定した時刻tにおける並進移動量と、前記予測した時刻tにおける車両の状態情報を用いて、時刻tにおける車両の状態情報を予測する状態情報第2予測手段と、を有し、前記車両の状態情報が、状態ベクトルと共分散行列であり、前記状態ベクトルは、並進移動方向を表す単位ベクトルと、並進移動の大きさと、その大きさの単位時間当たりの変化量を要素とするベクトルであり、前記共分散行列は前記状態ベクトルの各要素の共分散を表す行列であることを特徴とする画像処理装置である。
【0026】
【発明の実施の形態】
以下、図1から図6に従って本発明の実施の形態を説明する。
【0027】
本発明による実施形態の画像処理装置は、左右2台のステレオカメラを車両に搭載し、ステレオカメラ搭載車両が走行する状態で、周囲の車両や歩行者などの障害物検出を目的として使用する状態を想定する。
【0028】
(1)画像処理装置の構成
画像処理装置は、図1の構成図に示すように、画像入力部1、画像蓄積部2、画像変換部3、画像照合部4、状態推定部5、状態メモリ6、状態予測部7より構成される。これら各部1〜7の各機能は、コンピュータのプログラムによって実現される。
【0029】
画像入力部1は、車両に搭載した左右2台のカメラにより、車両前方もしくは後方を撮影したステレオ画像を入力する。ここでは最も単純な例として左右2台のカメラを例にとり、左カメラの画像を右カメラの画像に変換する例を説明するが、同一の方法を右カメラの画像から左カメラへの変換に適用することも可能である。また、3台以上カメラがある場合についても互いに共通視野のある2台のカメラ画像間での変換に適用可能である。
【0030】
画像蓄積部2は、画像入力部1で入力された左右のカメラ画像を蓄積する。
【0031】
画像変換部3では、画像蓄積部2に蓄積された画像のうち、左画像を道路平面を撮影した画像と仮定し、変換パラメータを用いて画像を変換する。
【0032】
画像照合部4では画像変換部3で変換した左画像と右画像を照合を行い、最も照合した変換パラメータを出力する。
【0033】
状態推定部5、状態メモリ6、状態予測部7は、画像照合部4で得られた変換パラメータを入力とし、カルマンフィルタを用いて現在の道路平面を推定する変換パラメータの最適値を推定する。
【0034】
すなわち、車両の振動などによるカメラと道路の幾何学関係の変化は、車両を中心にすればカメラに対する道路の傾きの変化であり、状態推定部5、状態メモリ6、状態予測部7では、車両に対する道路平面の傾きを推定する。
【0035】
状態メモリ6は、現在の車両の状態情報を表すメモリである。
【0036】
状態推定部5は、画像変換部3の出力した変換パラメータを用いて、状態メモリ6に記憶された車両の状態情報を更新する。
【0037】
状態予測部7は、カルマンフィルタでの予測式に基づいて、状態メモリ6に記憶された車両の状態情報から、新しく撮影した画像での変換パラメータを予測する。予測した変換パラメータの値は画像変換部3に出力する。
【0038】
(2)従来の画像変換とその問題点
ここで、まず、道路平面と2台のカメラの幾何学的関係から導き出される、一方のカメラ画像を他方のカメラ視点へ変換する従来の画像変換とその問題点について説明する。
【0039】
まず、2台のカメラを図2に示すような平面上(道路平面上)に配置する。
【0040】
3次元の点P=(X,Y,Z)の左画像への投影先を(u,v)とすると、一般に、透視変換では、以下の式1が成立する。
【0041】
【数1】
Figure 0003797949
ここでは、Z=0の道路平面上の点P=(X,Y,0)を想定しているので、投影先との関係は、式2になる。
【0042】
【数2】
Figure 0003797949
但し、h11〜h34はカメラのワールド座標系に対する位置や方向、カメラレンズの焦点距離、画像原点等によって決まるパラメータである。h11〜h34は定数倍しても同一のカメラモデルを表すので、h11〜h34の任意の要素を1にしても一般性を失わない。そこで、以下では、h32を1とする。
【0043】
上式の分母d=h31X+h32Y+h34は、図3に示すように、カメラの視点Cと点Pの間の光軸方向の距離、すなわち、奥行きを表す。本装置においてステレオカメラは、光軸がX軸にほぼ直交するように設置しているので、奥行きdはXに依存しないとみなすことができる。したがって、上記関係式はh31=0として、
【数3】
Figure 0003797949
と近似できる。
【0044】
さらに、Y=Y+h34と置くと、
【数4】
Figure 0003797949
よって、道路平面を撮影した左右の画像は、互いにアフィン変換の関係にあることがわかる。
【0045】
式7の変換パラメータは、車両にカメラを取り付けた時点で、車両を平坦な道路上に置いて道路平面を撮影し、左右の画像から道路平面上の同一点を撮影した座標を与えるキャリブレーション作業により計算することができる。画像上の座標点は3組以上与えることによって計算可能であるが、実際には、さらに多数の座標を与えて、最小自乗により最適なパラメータを計算する。
【0046】
また、車両を直線道路の進行方向に沿って斜線の中央に置けば、左右の白線の交点から消失点ベクトルtの座標が計算可能である。
【0047】
(3)道路平面が変化したときの画像変化
次に、道路の傾斜や自車両の振動により道路平面が、Z=0から、Z=pYへ変化したとする。すなわち、カメラを取り付けた自車が起伏のある道路を車両が通行する場合、自車への人員の搭載状態や荷物の積載状態が変わった場合、自車の振動や道路の傾斜があった場合など、道路平面と車両に取り付けたカメラの位置姿勢の関係、つまり車両から見た道路平面の傾きが変化して、上下方向の振動を含む移動があって画像が変化することがある。
【0048】
このとき、Z=0の場合は式3は、以下の式8になる。
【0049】
【数5】
Figure 0003797949
これに、Y=Y+h34とおくと、
【数6】
Figure 0003797949
と表すことができる。
【0050】
【数7】
Figure 0003797949
上記の道路平面とカメラに関する幾何学関係についての説明から、左画像と右画像は互いにアフィン変換の関係にあり、道路の傾きや自車の振動によって画像の変形は起きず、アフィン変換の並進成分だけが変化し、また、その並進成分の変化は方向が一定であることがわかる。
【0051】
ここで、並進移動量を(α,β)とおくと、(α,β)と式7から変換パラメータを求めることができる。
【0052】
(4)画像変換部3の機能
先の説明により、道路、自車ともに水平であれば、左画像を変換する際のアフィン変換の変換パラメータはキャリブレーション作業により求めることができる。また、道路や自車が傾いた場合にも、アフィン変換した画像が一定方向に並進する変化が起きるだけである。
【0053】
そこで、画像変換部3では、並進移動量(α,β)を変えた変換パラメータにより左画像を右画像の位置から見た右画像の視点へ変換して、最も照合評価値のよい並進移動量(α,β)を、求めたい並進移動量(α,β)とする。
【0054】
詳細は後で述べるが、状態予測部7では、2次元の並進移動量の予測値Yの分布は、平均Yt/t−1=(α,βと、その予測共分散行列ハットPを使った以下の式14で表される2次元正規分布Z(Y)で表される。
【0055】
なお、以下で使用する共分散行列P,状態ベクトルX,並進移動量Y,2次元正規分布Zの符号は、前記の3次元の点P=(X,Y,Z)の各符号とは異なる意味であることを注記しておく。
【0056】
但し、Yt/t−1は、後から説明する状態ベクトルの予測値Xt/t−1に、式24のhを適用して計算する。
【0057】
また、Yt/t−1の添字のt/t−1の意味は、時刻t−1の計測時刻が与えられたときの時刻tの予測推定値を意味する。後から登場するXt/t−1、Pt/t−1 も同様に推定値を意味する。
【0058】
【数8】
Figure 0003797949
画像変換部3は、この式14の確率分布に基づいて、一定数(ここではnとする)のg=(α,β)(iは1〜n)を選択する。gは、例えばこの確率分布にしたがってランダムに選択してもよいし、確率分布で等確率になるように選択してもよい。
【0059】
そして、画像変換部3は、この選択したg=(α,β)と式7によって変換パラメータを求め、この変換パラメータによって左画像を右画像の視点へ変換する。
【0060】
図6にランダムサンプルの例を示す。
【0061】
図6の楕円は、2次元正規分布で等確率な座標を結んだ等高線でこれより内側が外側より確率が高いことを表す。確率分布に従ってランダムサンプルを選べば、確率の高いところは密に、確率の低いところは疎にサンプルすることになるので、確率の高い部分では、変換パラメータを精度よく推定することができる。
【0062】
選択したg(i=1〜n)は、予測値から近い順に並べ替え、順次、gを使った変換パラメータにより左画像を変換し、画像照合部4に出力する。画像が小さく、変換画像の作成時間が少なければ、式14の確率分布に基づかず、一定間隔でgを選択しても構わない。
【0063】
(5)画像照合部4の機能
画像照合部4では画像変換部3で変換した左画像と右画像の照合を行う。ここで、左画像をI、右画像をIとする。
【0064】
(5−1)照合領域の作成
まず、左画像から、道路平面を多く含む領域を抽出して、これを照合領域Rとする。
【0065】
照合領域は、別に車両検出や道路の境界に描かれた白線を抽出した結果を用いて動的に設定してもよいし、図4のように、予め道路平面を多く含むと想定される領域を指定してそれを用いてもよい。
【0066】
画像変換部3では、左画像から右画像への変換パラメータと同じパラメータを用いて、照合領域Rを変換した領域R’を予め作成しておく。
【0067】
左画像Iを変換パラメータによって変形した画像I′を作成する。
【0068】
照合領域Rも画像と同様に変形することができ、変形した照合領域をR′とする。
【0069】
右画像Iからも同様に照合領域Rを抽出し、画像I′の座標(i,j)の画素値をI′(i,j)とし、画像Iの座標(i,j)の画素値をI(i,j)とする。
【0070】
(5−2)左右画像の撮影条件の違いによる補正
左右の画像で撮影条件の違いにより、道路平面の同じ座標を撮影していても画像の画素値が異なる場合がある。
【0071】
例えば、オートアイリスレンズ(自動しぼりレンズ)を搭載したカメラで撮影していて、左画像にだけ撮影される視野に白い車が入っている場合では、左カメラのアイリス(しぼり)は、右カメラのアイリス(しぼり)より少し閉じられ、その結果、道路平面の同じ座標であっても左画像では右画像より明度が低くなる場合がある。
【0072】
そこで、画像I′,Iの明度平均を用いて補正する。
【0073】
【数9】
Figure 0003797949
(5−3)照合方法
補正した明度平均を用いて照合を行う方法は幾つかあり、ここではそのうち4つについて説明する。
【0074】
(5−3−1)第1,2の照合方法
明度平均の差が0になるように補正して、照合評価値を明度の差の総和とした場合、照合評価値は以下の式16になる。
【0075】
【数10】
Figure 0003797949
他に、明度平均の比が等しくなるように補正した場合は、以下の式17で評価式を求めることができる。
【0076】
【数11】
Figure 0003797949
式16、式17の照合評価値は0になる場合が2つの画像が一致していることを表す。その場合、全ての変換パラメータについて照合評価値を計算し、照合評価値の絶対値が最小になるパラメータと2番目に小さいパラメータを選択する。最小になるパラメータをw、2番目に小さいパラメータをwとする。
【0077】
また、w,wの照合評価値をD,Dとする。
【0078】
このとき、照合するパラメータの値は、式18に示すように、照合評価値の符号が違うときだけ、照合評価値が0になる時のパラメータの値を推定値W’として出力する。
【0079】
【数12】
Figure 0003797949
(5−3−2)第3,4の照合方法
式19のような評価式を用いた第3の照合方法、式20のような評価式を用いた第4の照合評価方法を用いることもできる。
【0080】
【数13】
Figure 0003797949
この評価式は、画素毎の差の絶対値を総和したもので照合評価値は正で照合評価値最小の並進移動量(α,β)が照合する。ある変換画像について照合評価値計算の途中で、既に計算した照合評価値の最小値を越えれば、その画像についての計算を打ち切っても問題がない。
【0081】
画像変換部3は、先に述べた式14の確率分布に従って変換画像を作成する。
【0082】
画像照合部4での照合では、画像変換部3で作成した画像を順次照合するが、画像変換部3では、予測値に近い並進移動量(α,β)でより多くの変換画像を作成するので、予測が大きく外れなければ精度よく並進移動量(α,β)を求めることができる。
【0083】
また、中心値からの距離によってサンプルの順序を並び替えているため順序の最初の方の画像が照合して照合評価値の最小値がでる確率が高い。
【0084】
したがって、変換画像を順次照合する際に式19、式20の照合評価値を用いれば、照合評価値計算を途中で打ち切る可能性が高くなり、結果的に照合処理が高速になる。
【0085】
本実施例による画像照合部4では、複数の並進移動量(α,β)を用いて左画像を画像変換して、照合して、照合評価値を得る。照合した並進移動量(α,β)は、照合評価値を最小にするパラメータである。
【0086】
(6)状態推定部5、状態メモリ6、状態予測部7の機能
状態推定部5、状態メモリ6、状態予測部7では、画像照合部4で得られた変換パラメータが入力され、カルマンフィルタを用いて現在の道路平面を推定する。
【0087】
状態メモリ6は、時刻tにおける車両の状態情報である状態ベクトルXと、その共分散行列Pを記憶している。
【0088】
状態メモリ6で記憶するのは、上記のような画像の並進移動に関する情報であるが、これから式Aを用いて道路平面の傾きを推定することができる
(6−1)状態ベクトルの説明
状態ベクトルXは、並進移動方向を表す単位ベクトルc,cと、並進移動の大きさl、lの単位時間当たりの変化量aを用いて、以下の式21で表す。
【0089】
【数14】
Figure 0003797949
(6−2)共分散行列の説明
共分散行列Ptは、状態ベクトルの各要素の共分散を表す4行4列の行列である。この行列のi行j列の要素は、i=jなら状態ベクトルのi番目の要素の分散を表し、iとjが等しくないなら状態ベクトルのi番目とj番目の要素の共分散を表す。
【0090】
分散は、その要素の値が変化する度合いを表し、共分散は、二つの要素が共に変化する度合いを表している。つまり、分散、共分散が小さければ状態ベクトルの値は変化が小さいために信頼性が高いことを表す。逆に、分散と共分散が大きければ状態ベクトルの値は変化する度合いが大きいために信頼性が低くなる。
【0091】
(6−3)計測値の説明
また、画像照合部4で得られた、時刻tにおける並進移動量に関する計測値をYとすると、
【数15】
Figure 0003797949
とする。
【0092】
(6−5)状態遷移関数f
車両の振動と道路の傾きの変化が滑らかであると仮定して、ある状態Xから単位時間だけ経過した後の状態ベクトルXt+1 は、以下の式23で示す状態遷移関数fで表すことにする。
【0093】
【数16】
Figure 0003797949
(6−6)カルマンフィルタの説明
カルマンフィルタは、画像から計測した時系列座標データに上記の状態遷移モデルを当てはめ、モデルパラメータの最適値を計算するアルゴリズムである。
【0094】
計測値Yと、状態ベクトルの関係を以下の式24によって定義する。
【0095】
【数17】
Figure 0003797949
すると、車両の状態ベクトルを推定するカルマンフィルタは、以下の式25から式29で表される。
【0096】
【数18】
Figure 0003797949
ここでm,nは、状態遷移での誤差と計測誤差を表す平均0のガウス白色雑音ベクトルであり、それぞれ共分散行列をQ,Sとする。
【0097】
【数19】
Figure 0003797949
また、上式でハットFt、ハットHtは、定義される4×4行列、2×4行列である。4は状態ベクトルの長さ、2は計測ベクトルの長さである。
【0098】
この画像処理装置での行列の値を具体的に示すと式31と式32になる。
【0099】
【数20】
Figure 0003797949
(6−7)状態ベクトル、共分散行列の推定手順
上記の拡張カルマンフィルタを用いた時刻tでの状態ベクトル、共分散行列の推定手順は、以下の手順になる。
【0100】
(ステップ1)
状態予測部7において、式25,式28により、時刻tでの車両の状態情報である状態ベクトルXt/t−1と共分散行列Pt/t−1を、時刻(t−1)での状態ベクトルXt−1/t−1と共分散行列Pt−1/t−1を用いて予測する。
【0101】
(ステップ2)
状態予測部7において、式27でカルマンゲインKtを、式28で計算した共分散行列Pt/t−1を用いて計算する。
【0102】
(ステップ3)
画像変換部3では、時刻(t−1)での状態ベクトルXt/t−1とに基づいて式14の確率分布を求め、ここからg=(α,β)(iは1〜n)を選択する。gは、例えばこの確率分布にしたがってランダムに選択してもよいし、確率分布で等確率になるように選択してもよい。
【0103】
(ステップ4)
画像変換部3では、選択した並進移動量の中の一つの並進移動量(α,β)に基づいてアフィン変換の変換パラメータを式7から求める。
【0104】
(ステップ5)
画像変換部3では、求めた変換パラメータにより時刻tにおける左画像を右画像の視点へアフィン変換する。
【0105】
(ステップ6)
画像照合部4では、時刻tにおける右画像と、時刻tにおける変換した左画像から照合領域を抽出する。
【0106】
(ステップ7)
画像照合部4では、右画像と、左画像の撮影条件による違いから明度を式9により補正する。
【0107】
(ステップ8)
画像照合部4では、時刻tにおける右画像と、時刻tにおける変換した左画像と右画像の照合を前記で説明した4つの照合方法の中から一つの照合方法で照合して、照合評価値を求める。
【0108】
(ステップ9)
画像照合部4では、時刻tにおける右画像と、時刻tにおける変換した左画像とを照合を、前記で説明した4つの照合方法の中から一つの照合方法で照合して、時刻tにおける照合評価値を求める。
【0109】
(ステップ10)
前記したステップ4〜9を繰り返して、時刻tにおける最もよい照合評価値を求める。
【0110】
(ステップ11)
時刻tにおける最もよい照合評価値に対応する並進移動量(α,βを、求める時刻tにおける並進移動量Yとする。
【0111】
(ステップ12)
状態推定部5では、時刻tにおける並進移動量Yと、状態ベクトルXt/t−1と、共分散行列Pt/t−1に基づいて式26、式29により、時刻tでの状態ベクトルXt/tと、共分散行列Pt/tを推定する。
【0112】
(ステップ13)
そして、ステップ1〜12を繰り返して、各時刻における状態ベクトルXt/tと共分散行列Pt/tを推定する。
【0113】
(6−8)道路平面の推定
次に、道路平面の推定について説明する。
【0114】
式9と式13で説明したように、道路の傾きが変化すると、カメラで撮影した画像上では、画像照合部4で左右の画像の照合する位置が一定の直線上を並進移動する変化になって現れる。
【0115】
そして、状態メモリ6は、この照合位置の並進移動量を予測推定するための情報を記憶するメモリであるが、道路の傾きは状態メモリ6の情報から計算することができる。
【0116】
道路の傾きをBとし、そのときの画像照合位置の移動量を式9により(B×h13,B×h23)とする。
【0117】
この計算で用いるh13,h23の値は、傾きのある道路平面上の座標とその投影先座標の式8で用いられる変数である。
【0118】
予め平坦な道路上に車両を置いて、高さが既知の物体を車両の前方に置き、この物体のが傾いた道路平面上にあると仮定したときの道路の傾きと、撮影した左右の画像上でのこの物体の座標と、道路が平面であると仮定して計算した式8の他の変数を用いて、h13,h23の値を計算することができる。
【0119】
状態メモリ6では、時刻tにおける並進移動方向の単位ベクトルc,cと並進移動量lを記憶しているので、時刻tにおける道路の傾きBは、それらの値から式33によって計算できる。
【0120】
B=l×sqrt(c +c )/sqrt(h13 +h23 ) (33)
【0121】
【発明の効果】
本発明によれば、アフィン変換の並進移動量に着目して、車両の状態情報を予測するために、起伏のある道路を車両が通行する場合、車両への人員の搭載状態や荷物の積載状態が変わった場合、車両の振動や道路の傾斜があった場合など、道路平面と車両に取り付けたカメラの位置姿勢の関係、つまり車両から見た道路平面の傾きが変化したときでも、確実に車両の状態情報を予測できる。
【0122】
また、複数の並進移動量から、画像の照合結果により最適な並進移動量を選択する際、カルマンフィルタを用いるので効率的に計算できる。
【0123】
さらに、画像の照合により道路平面を推定するため、白線の有無にかかわらず推定ができる。
【図面の簡単な説明】
【図1】本発明の一実施形態を示す画像処理装置の構成図である。
【図2】道路平面とカメラの位置関係を示す図である。
【図3】カメラの投影系の説明図である。
【図4】照合領域を示す図である。
【図5】画像照合部の処理手順を示す図である。
【図6】ランダムサンプルを示す図である。
【符号の説明】
1 画像入力部
2 画像蓄積部
3 画像変換部
4 画像照合部
5 状態推定部
6 状態メモリ
7 状態予測部

Claims (7)

  1. 道路平面上の車両に取り付けられた異なる視点を持つ複数の撮像装置から前記道路平面を時系列に撮影して、この時系列に撮影した画像に基づいて前記複数の撮像装置の中の一の撮像装置で撮影された画像を、前記他の撮像装置の位置から見たアフィン変換の変換パラメータを用いて変換する画像処理装置において、
    時刻(t−1)における車両の状態情報から時刻tにおける車両の状態情報を予測する状態情報第1予測手段と、
    前記一の撮像装置で撮影された時刻tにおける画像と、前記他の撮像装置で撮影された時刻tにおける画像と、前記予測した時刻tにおける車両の状態情報とを用いて、時刻tにおける前記アフィン変換の並進成分である並進移動量を推定する並進移動量推定手段と、
    前記推定した時刻tにおける並進移動量と、前記予測した時刻tにおける車両の状態情報を用いて、時刻tにおける車両の状態情報を予測する状態情報第2予測手段と、
    を有し、
    前記車両の状態情報が、状態ベクトルと共分散行列であり、前記状態ベクトルは、並進移動方向を表す単位ベクトルと、並進移動の大きさの単位時間当たりの変化量を要素とするベクトルであり、前記共分散行列は前記状態ベクトルの各要素の共分散を表す行列である
    ことを特徴とする画像処理装置。
  2. 前記並進移動量推定手段は、
    前記予測した時刻tにおける車両の状態情報を用いて時刻tにおける並進移動量の確率分布を求め、
    この確率分布に基づいて一の並進移動量を選択し、この選択した並進移動量に基づいて変換パラメータを求め、この求めた変換パラメータに基づいて前記一の撮像装置で撮影された時刻tにおける画像を、前記他の撮像装置の位置から見た変換し、前記変換した時刻tにおける画像と、前記他の撮像装置で撮影された時刻tにおける画像を照合して時刻tにおける照合評価値を求め、
    前記選択する並進移動量を変化させて、前記時刻tにおける照合評価値が最もよい並進移動量を、時刻tにおける並進移動量と推定する
    ことを特徴とする請求項1記載の画像処理装置。
  3. 前記状態情報第1予測手段は、
    前記時刻(t−1)における車両の状態情報から前記時刻tにおける車両の状態情報をカルマンフィルタによって予測する
    ことを特徴とする請求項1または2記載の画像処理装置。
  4. 前記状態情報第2予測手段は、
    前記推定した時刻tにおける並進移動量と、前記予測した時刻tにおける車両の状態情報を用いて、前記時刻tにおける車両の状態情報をカルマンフィルタによって推定する
    ことを特徴とする請求項1から3のうちのいずれか一項に記載の画像処理装置。
  5. 前記時刻tにおける並進移動量に基づいて、車両を中心とした撮像装置に対する時刻tにおける道路平面の傾きを求める道路平面推定手段を有する
    ことを特徴とする請求項1からのうちのいずれか一項に記載の画像処理装置。
  6. 道路平面上の車両に取り付けられた異なる視点を持つ複数の撮像装置から前記道路平面を時系列に撮影して、この時系列に撮影した画像に基づいて前記複数の撮像装置の中の一の撮像装置で撮影された画像を、前記他の撮像装置の位置から見たアフィン変換の変換パラメータを用いて変換する画像処理方法において、
    時刻(t−1)における車両の状態情報から時刻tにおける車両の状態情報を予測する状態情報第1予測ステップと、
    前記一の撮像装置で撮影された時刻tにおける画像と、前記他の撮像装置で撮影された時刻tにおける画像と、前記予測した時刻tにおける車両の状態情報とを用いて、時刻tにおける前記アフィン変換の並進成分である並進移動量を推定する並進移動量推定ステップと、
    前記推定した時刻tにおける並進移動量と、前記予測した時刻tにおける車両の状態情報を用いて、時刻tにおける車両の状態情報を予測する状態情報第2予測ステップと、
    を有し、
    前記車両の状態情報が、状態ベクトルと共分散行列であり、前記状態ベクトルは、並進移動方向を表す単位ベクトルと、並進移動の大きさと、その大きさの単位時間当たりの変化量を要素とするベクトルであり、前記共分散行列は前記状態ベクトルの各要素の共分散を表す行列である
    ことを特徴とする画像処理方法。
  7. 道路平面上の車両に取り付けられた異なる視点を持つ複数の撮像装置から前記道路平面を時系列に撮影して、この時系列に撮影した画像に基づいて前記複数の撮像装置の中の一の撮像装置で撮影された画像を、前記他の撮像装置の位置から見たアフィン変換の変換パラメータを用いて変換する画像処理方法をコンピュータによって実現するプログラムにおいて、
    時刻(t−1)における車両の状態情報から時刻tにおける車両の状態情報を予測する状態情報第1予測機能と、
    前記一の撮像装置で撮影された時刻tにおける画像と、前記他の撮像装置で撮影された時刻tにおける画像と、前記予測した時刻tにおける車両の状態情報とを用いて、時刻tにおける前記アフィン変換の並進成分である並進移動量を推定する並進移動量推定機能と、
    前記推定した時刻tにおける並進移動量と、前記予測した時刻tにおける車両の状態情報を用いて、時刻tにおける車両の状態情報を予測する状態情報第2予測機能と、
    を実現し、
    前記車両の状態情報が、状態ベクトルと共分散行列であり、前記状態ベクトルは、並進移動方向を表す単位ベクトルと、並進移動の大きさと、その大きさの単位時間当たりの変化量を要素とするベクトルであり、前記共分散行列は前記状態ベクトルの各要素の共分散を表す行列である
    ことを特徴とする画像処理方法のプログラム。
JP2002092980A 2002-03-28 2002-03-28 画像処理装置及びその方法 Expired - Fee Related JP3797949B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002092980A JP3797949B2 (ja) 2002-03-28 2002-03-28 画像処理装置及びその方法
US10/391,626 US7149327B2 (en) 2002-03-28 2003-03-20 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002092980A JP3797949B2 (ja) 2002-03-28 2002-03-28 画像処理装置及びその方法

Publications (2)

Publication Number Publication Date
JP2003288602A JP2003288602A (ja) 2003-10-10
JP3797949B2 true JP3797949B2 (ja) 2006-07-19

Family

ID=28449641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002092980A Expired - Fee Related JP3797949B2 (ja) 2002-03-28 2002-03-28 画像処理装置及びその方法

Country Status (2)

Country Link
US (1) US7149327B2 (ja)
JP (1) JP3797949B2 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2004288251B2 (en) * 2003-11-11 2012-06-07 Technikus Ag Device for recording driving and/or traffic conditions and method for evaluating said recorded data
JP4406381B2 (ja) * 2004-07-13 2010-01-27 株式会社東芝 障害物検出装置及び方法
FR2874300B1 (fr) * 2004-08-11 2006-11-24 Renault Sas Procede de calibration automatique d'un systeme de stereovision
US7583819B2 (en) * 2004-11-05 2009-09-01 Kyprianos Papademetriou Digital signal processing methods, systems and computer program products that identify threshold positions and values
JP2006250722A (ja) * 2005-03-10 2006-09-21 Toshiba Corp キャリブレーション装置及びその方法、キャリブレーション用プログラム
JP2006252473A (ja) * 2005-03-14 2006-09-21 Toshiba Corp 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
EP1883242B1 (en) * 2005-05-20 2014-09-17 Toyota Jidosha Kabushiki Kaisha Image processor for vehicles
US8736672B2 (en) * 2006-08-24 2014-05-27 Reald Inc. Algorithmic interaxial reduction
US7886334B1 (en) * 2006-12-11 2011-02-08 Qurio Holdings, Inc. System and method for social network trust assessment
US9195996B1 (en) 2006-12-27 2015-11-24 Qurio Holdings, Inc. System and method for classification of communication sessions in a social network
JP5234894B2 (ja) * 2007-06-28 2013-07-10 富士重工業株式会社 ステレオ画像処理装置
JP2009041972A (ja) * 2007-08-07 2009-02-26 Toshiba Corp 画像処理装置及びその方法
JP2009053818A (ja) * 2007-08-24 2009-03-12 Toshiba Corp 画像処理装置及びその方法
EP2043045B1 (de) * 2007-09-20 2011-09-07 Delphi Technologies, Inc. Verfahren zur Objektverfolgung
US8264537B2 (en) * 2007-09-28 2012-09-11 The Mainz Group Llc Photogrammetric networks for positional accuracy
JP4876080B2 (ja) * 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
TW200937348A (en) * 2008-02-19 2009-09-01 Univ Nat Chiao Tung Calibration method for image capturing device
DE102008026876A1 (de) 2008-06-05 2009-12-10 Hella Kgaa Hueck & Co. Stereokamerasystem und Verfahren zum Ermitteln mindestens eines Kalibrierfehlers eines Stereokamerasystems
CN102339463B (zh) * 2010-07-22 2015-10-21 首都师范大学 基于激光扫描仪标定线阵相机的系统及方法
JP5870266B2 (ja) 2011-06-06 2016-02-24 パナソニックIpマネジメント株式会社 キャリブレーション装置及びキャリブレーション方法
DK3027482T3 (da) * 2013-07-31 2021-12-20 Rail Vision Ltd System og fremgangsmåde til identificering og undvigelse af forhindring
JP6256207B2 (ja) * 2014-05-30 2018-01-10 株式会社Jvcケンウッド 車線認識装置、車線認識方法、及び、プログラム
JP6224543B2 (ja) * 2014-07-29 2017-11-01 アルプス電気株式会社 入力装置及び指判定方法並びにプログラム
US10558867B2 (en) * 2015-09-28 2020-02-11 Kyocera Corporation Image processing apparatus, stereo camera apparatus, vehicle, and image processing method
DE102016104730A1 (de) * 2016-03-15 2017-09-21 Connaught Electronics Ltd. Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
US10784841B2 (en) * 2018-03-08 2020-09-22 Cnh Industrial America Llc Kalman filter for an autonomous work vehicle system
WO2020039837A1 (ja) * 2018-08-22 2020-02-27 日立オートモティブシステムズ株式会社 画像処理装置
US11740078B2 (en) * 2020-07-21 2023-08-29 Argo AI, LLC Enhanced sensor alignment
CN111951553B (zh) * 2020-08-17 2022-11-11 上海电科智能系统股份有限公司 一种基于交通大数据平台与中观仿真模型的预测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4172554B2 (ja) * 1998-03-12 2008-10-29 富士重工業株式会社 ステレオカメラの調整装置
JP4256992B2 (ja) 1999-09-09 2009-04-22 株式会社東芝 障害物検出装置
JP4573977B2 (ja) * 1999-09-22 2010-11-04 富士重工業株式会社 監視システムの距離補正装置、および監視システムの消失点補正装置
JP2001243456A (ja) 2000-02-29 2001-09-07 Toshiba Corp 障害物検出装置及び障害物検出方法
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
US6577952B2 (en) * 2001-01-08 2003-06-10 Motorola, Inc. Position and heading error-correction method and apparatus for vehicle navigation systems

Also Published As

Publication number Publication date
JP2003288602A (ja) 2003-10-10
US20030185421A1 (en) 2003-10-02
US7149327B2 (en) 2006-12-12

Similar Documents

Publication Publication Date Title
JP3797949B2 (ja) 画像処理装置及びその方法
JP3719095B2 (ja) 挙動検出装置および勾配検出方法
KR101188588B1 (ko) 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
JP3759429B2 (ja) 障害物検出装置及びその方法
JP3868876B2 (ja) 障害物検出装置及び方法
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
JP3352655B2 (ja) 車線認識装置
US9659497B2 (en) Lane departure warning system and lane departure warning method
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
EP1391845A2 (en) Image based object detection apparatus and method
JP2009026250A (ja) 面成分検出装置、地上面検出装置、及び障害物検出装置
JP4032843B2 (ja) 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法
JP4344860B2 (ja) ステレオ画像を用いた道路平面領域並びに障害物検出方法
JP4067340B2 (ja) 対象物認識装置および対象物認識方法
JP5501084B2 (ja) 平面領域検出装置及びステレオカメラシステム
JP4256992B2 (ja) 障害物検出装置
JP2003281552A (ja) 画像処理装置及びその方法
JP2004034946A (ja) 画像処理装置、駐車支援装置、及び画像処理方法
JP2001243456A (ja) 障害物検出装置及び障害物検出方法
JP4106163B2 (ja) 障害物検出装置及びその方法
JP2006072757A (ja) 物体検出装置
JP3237705B2 (ja) 障害物検出装置および障害物検出装置を搭載した移動体
JP5903901B2 (ja) 車両位置算出装置
JP4462533B2 (ja) 路面走行レーン検出装置
JP4661578B2 (ja) 移動体認識装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060418

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees