JP7219561B2 - 車載環境認識装置 - Google Patents

車載環境認識装置 Download PDF

Info

Publication number
JP7219561B2
JP7219561B2 JP2018135236A JP2018135236A JP7219561B2 JP 7219561 B2 JP7219561 B2 JP 7219561B2 JP 2018135236 A JP2018135236 A JP 2018135236A JP 2018135236 A JP2018135236 A JP 2018135236A JP 7219561 B2 JP7219561 B2 JP 7219561B2
Authority
JP
Japan
Prior art keywords
image
camera
viewpoint
corresponding points
viewpoint conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018135236A
Other languages
English (en)
Other versions
JP2020012735A (ja
Inventor
雅幸 竹村
彰二 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2018135236A priority Critical patent/JP7219561B2/ja
Priority to CN201980046818.8A priority patent/CN112424565B/zh
Priority to PCT/JP2019/026561 priority patent/WO2020017334A1/ja
Publication of JP2020012735A publication Critical patent/JP2020012735A/ja
Application granted granted Critical
Publication of JP7219561B2 publication Critical patent/JP7219561B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は車両に設置されたカメラにより車両の周囲環境を認識する車載環境認識装置に関する。
車両に設置された2つのカメラにより車両の周囲環境を認識する車載カメラに関する技術がある。予防安全技術の製品化が普及期に入りつつあり、より多機能化かつ広視野なセンシングが廉価に求められるようになっている。
車両に設置された2つのカメラ間の位置、姿勢を推定し、2つのカメラの画像が平行な位置関係となるように、幾何校正(キャリブレーション)する方法がある。この際に、2つのカメラの位置、姿勢の幾何関係を求めるための情報として、2つのカメラの画像上から得られる対応点を利用する手法が一般的である。この対応点を取得する手法は、左右画像上から特徴点といわれる画像上の角(コーナー)などのユニークな点を抽出し、その特徴点の周囲における輝度変化から特徴量を演算し、この特徴量が類似する特徴点を左右画像上で探索して発見された特徴点を対応点とし、左右画像における対応点の座標を基に幾何校正を実施する。
例えば、特開2014-74632号公報(特許文献1)には、互いの視野が重なるように配置された左右のカメラの出力に基づき物体までの距離を算出するとともに物体の3次元位置を推定する3次元座標推定部と、3次元座標推定部における推定処理に用いられるカメラ間パラメータを記憶するカメラ間パラメータ記憶部と、左右のカメラの出力に基づき予め大きさが分かっている平面状の対象物を認識するとともに、対象物の特徴点座標を取得する対象物認識及び特徴点収集部と、特徴点座標に基づきカメラ間パラメータを求めるカメラ間パラメータ推定部とを備える車載ステレオカメラの校正装置が開示されている。
特開2014-74632号公報
しかしながら、2つのカメラ間に映る風景や物体がカメラから近距離の場合や、2つのカメラの距離が離れている場合には、大きく異なる視点から同じ物体を観測することになり、2つの画像での同一物体の見え方(写り方)が大きく異なってしまう場合がある。このように同一物体の見え方が大きく異なると、2つの画像から対応を取りたい特徴点の抽出がうまくいっても、その点の周囲の輝度変化を基に演算した特徴量が2つのカメラ間で異なる可能性が高い。すなわち2つの特徴点の特徴量が異なる値となって計算されるため、対応点が見つからない、間違った対応点(誤対応点)が見つかる、又は対応点が見つかってもその個数が非常に少ない、といった課題が生じる。対応点が少ない又は誤対応点が多ければ、それだけカメラの幾何校正の精度が低下する要因となる。また、収束演算で2つのカメラ間の位置、姿勢が推定できないような場合も発生する。
本発明の目的は、複数のカメラで撮影した画像に見え方の大きく異なる同一物体が写っている場合でも容易にカメラの幾何校正ができる車載環境認識装置を提供することにある。
本願は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、第1カメラ及び第2カメラと、前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置とを備え、前記視点変換は、前記制御装置が、前記第1画像にパラメータを変化させながらアフィン変換を施して複数の変換画像を生成し、前記複数の変換画像のそれぞれと前記第2画像の対応点の抽出を実施し、前記複数の変換画像の中で前記対応点の数が最も多くかつ所定の閾値以上の変換画像を、前記第1画像を前記第2カメラの視点からの画像に変換した画像とする視点変換であることを特徴とする。
本発明によれば、車両に設置された複数台のカメラの共通視野領域において、視点変換を実施することで、画像上で密な対応点を抽出し、この対応点に基づいて幾何校正することで、高精度にカメラ間の位置、姿勢を推定、2つのカメラの高精度な平行化を実現する。高精度な平行化を実施した状態でステレオマッチングすることで、高密度な視差画像の生成を実現、更にこの視差から高精度な距離復元を可能とする。
第1実施形態に係る車載環境認識装置の構成図。 視点変換部の機能ブロック図。 変換パラメータ生成部の機能ブロック図。 対応点探索部の機能ブロック図。 カメラ幾何校正部の機能ブロック図。 視差画像生成部の機能ブロック図(第1実施形態)。 視差画像生成部の機能ブロック図(第2実施形態)。 対応点からカメラ幾何校正をするプロセスの説明。 対応点取得の課題の説明。 視点変換による解決方法の説明。 上下領域分割の視点変換の一例。 せん断(近似変形)による視点変換の一例。 6領域分割の視点変換の一例。 逆変換に関する説明図。 第1実施形態の制御装置の処理フローチャート。 自由領域分割の視点変換の一例。 左右カメラに対する視点変換の一例。 第2実施形態の制御装置による視差画像生成処理のフローチャート。
以下、本発明の実施形態について図面を用いて説明する。
・第1実施形態
<図1 車載環境認識装置>
図1に本実施形態に係る車載環境認識装置1の構成図を示す。車載環境認識装置1は、水平方向の左右に間隔を介して配置された左カメラ(第1カメラ)100と右カメラ(第2カメラ)110と、2台のカメラ100,110から出力される撮像画像(左カメラ100による画像を第1画像、右カメラ110による画像を第2画像と称することがある)を基に、2台のカメラ100,110の幾何校正(キャリブレーション)を行う処理や、2台のカメラ100,110によって同一タイミングで撮像された2枚の画像をステレオマッチングして視差画像を作成する処理などを実行する制御装置(コンピュータ)10を備えている。
制御装置(コンピュータ)10は、図示しない演算処理装置(例えばCPU)と、その演算処理装置が実行するプログラム等が記憶される記憶装置(例えば、メモリ、ハードディスク、フラッシュメモリ)と、内部の機器同士や外部との機器との通信を行うための通信装置等を備えている。制御装置10は、記憶装置に記憶されたプログラムを実行することで、視点変換部200、対応点探索部300、カメラ幾何校正部400及び視差画像生成部500として機能する。なお、プログラムの追加によりその他の機能の実装も可能である。
一般に左右2台のカメラから成るステレオカメラは共通視野領域を利用して車載周囲環境を認識する。左右カメラを支持体の所定の位置に高精度に取り付けた後、カメラ工場において左右カメラでキャリブレーションチャートを撮像しながら左右カメラの位置、姿勢を推定し、その結果を利用して、左右カメラから撮像される画像がお互い平行になるようにパラメータを補正する。この状態でステレオマッチングすれば、高密度な視差と視差画像の取得が可能となり、さらにはその視差画像から高精度な距離が計測可能となる。しかし、高精度なカメラ製造や、温度変化、衝撃、振動及び経年変化等によるカメラの変形を抑制する部品や構造は高価である。
本願発明者らは、この種のコスト抑制のために、カメラの位置ズレや温度・経年変化等によるカメラの変形を事後的に容易に補正可能で、走行中の高精度なキャリブレーションを実現可能なものとして本実施形態の車載環境認識装置1を発明した。
まず、本実施形態では、公知の技術と同様に、左右カメラ100,110の画像上から特徴点(例えば画像上の物体の角(コーナー)等のユニークな点)を抽出し、その特徴点の周囲の輝度変化から特徴量を計算し、左右画像上で類似する特徴量を保有する特徴点を探索し、左右画像上で特徴量が類似する1組の特徴点を1組の対応点として設定する。図8の画像は探索された左右画像上の複数の対応点同士を線でつないで表示した画像であり、この複数の対応点を基に左右カメラ100,110の幾何校正を実施する。
図1において、対応点探索部300は、左右カメラ100,110の画像上から先ほど説明したような特徴点を抽出し、その特徴点の周囲の輝度変化から特徴量を計算し、左右画像上で類似する特徴量を保有する特徴点(対応点)を探索する。
カメラ幾何校正部400は、対応点探索部300で得られた複数の対応点を基に左右画像を平行にする幾何校正パラメータを演算する。左右カメラ100,110の画像を幾何校正した画像は、左右平行な位置関係であると共に、レンズ歪みの全くない画像となる。これにより幾何的にマッチングし易い、左右画像が準備可能となる。
視差画像生成部500は、同一タイミングで撮像されカメラ幾何校正部400の幾何校正パラメータで補正された2枚の画像(平行化画像)に対してステレオマッチングを実施して、2枚の画像上で同じ物(同じパターン)が撮影された位置のズレを示す距離情報(視差情報)を公知の方法で計算して視差画像(距離画像)を生成する。視差画像生成部500では、左カメラ100と右カメラ110から撮像された左右の画像を利用する。本実施形態では右カメラ110による右画像(第2画像)をベースとしてステレオマッチングを実施するために、基本的には右基準に感度、幾何などを合わせるものとする。視差画像生成部500は、幾何と感度の補正が適応された左右カメラの画像を入力してステレオマッチングを実施し、視差画像を生成し、最後にノイズ除去を実施することでノイズ除去された視差画像が得られる。
本実施形態では視点変換部200で行われる処理が最も特徴的な部分となる。視点変換部200は、左カメラ100によって撮像された左画像(第1画像)と右カメラ110によって撮像された右画像(第2画像)の少なくとも一方を変形することで左右画像(第1画像及び前記第2画像)を共通の視点からの画像に変換する視点変換を行う。これにより対応点探索部300において左右画像から対応点が見つかりやすくなる。画像の変形方法(視点変換の方法)の詳細については後述するが、例えば、左カメラ100により撮像された画像(左画像,第1画像)を、右カメラ110の視点からの見え方に近づくように変形する(例えば、画像の拡大縮小、回転、平行移動、せん断を含むアフィン変換により画像を変形する)ことで、画像上の領域の全体又はその一部において、視点変換前よりも数の多い密な対応点の探索結果を対応点探索部300で得ることができる。この密な対応点を利用することで、後段で行われるカメラ幾何校正部400の処理では、高精度な幾何校正を実現する。幾何校正により正確に平行化された左右のペア画像を利用することで、視差画像生成部500における高密度かつ高精度な視差画像の生成が可能となる。
2つのカメラ間の距離が比較的大きい長基線長のステレオカメラの場合や、近距離対象物が撮像された場合、同じ物体を全く異なる角度から撮像することになり、左右画像に撮像される当該物体の見え方は大きく異なるため、左右画像上で類似する特徴量を探索する一般的な対応点抽出手法では、対応点が取得しづらい。例えば、図9の上側に示す左右画像では、遠距離は左右画像での変形が相対的に少ないため対応点の取得が容易であるが、路面上に置いた物体91をはじめとした近距離では変形が相対的に大きく対応点を密に得ることが難しい。対応点探索方法として、図10の(2)、(3)に示すように、左画像での路面上の4点の見え方(画像上の位置)が右画像と一致又は類似するように視点変換してから対応点探索する。このようにすると、変形前の図9下側の画像では対応点が路面からほとんど探索できなかったが、図10の最下段に示すように変形後は路面から対応点が密に得られていることが確認できる。
このように画像の変形、例えば視点変換による変形などを活用して、密な対応点を得ることで、高精度に幾何校正を実施し、平行化してからステレオマッチングすることで、高密度、高精度な視差画像の生成と測距を実現する。
<図2 視点変換部200>
次に視点変換部200で実施可能な視点変換(画像変形)の例について説明する。図2に示すように視点変換部200は、左右画像の少なくとも一方について視点変換を行う領域と行わない領域を設定する領域設定部210と、領域設定部210で設定された視点変換を行う領域を変形することで左右画像を共通の視点からの画像に変換するために必要な行列や関数のパラメータを生成する変換パラメータ生成部220と、変換パラメータ生成部220によって生成されたパラメータ(変換パラメータ)を有する行列や関数を利用することで左右画像の少なくとも一方を視点変換した画像(視点変換画像)を生成する視点変換画像生成部240と、視点変換後の画像を元に戻す逆変換に必要な逆行列や関数のパラメータ(逆変換パラメータ)を生成する逆変換パラメータ計算部230とを備えている。
視点変換画像生成部240により生成された視点変換画像は対応点探索部300における対応点探索で利用される。また、逆変換パラメータ計算部230で計算された逆変換パラメータはカメラ幾何校正部400の対応点逆変換補正部410で利用される。
なお、領域設定部210ではカメラ画像内の全ての領域を視点変換を行う領域や視点変換を行わない領域として設定しても良い。左右カメラ100,110の視点変換先である共通の視点としては、左右カメラ100,110のいずれか一方の視点と、左右カメラ100,110のいずれとも異なる任意の視点がある。後者の場合には、例えば、左カメラ100と右カメラ110の間に位置する所定の視点(例えば左右カメラ100,110の中点)を共通の視点に設定して視点変換することができる。
(1)簡易的な視点変換
視点変換の1つとしては、制御装置10の視点変換部200が、左右画像(第1画像及び前記第2画像)で重複して撮像された部分(重複領域)の少なくとも一部が平面であると仮定し、当該平面に対する左カメラ100及び右カメラ110の位置及び姿勢を左右画像に基づいてカメラ幾何的に演算し、その演算した当該平面に対する左カメラ100及び右カメラ110の位置及び姿勢に基づいて左画像(第1画像)を右カメラ110の視点からの画像に変換するものがある。
この方法に関して図10の例では、左カメラ100の画像に撮像された一部が路面(平面)であると仮定して、左右カメラ100,110と当該路面(平面)上の任意の点との相対的な位置・姿勢をカメラ幾何的に演算し、その位置・姿勢を基に左カメラ100の画像を右カメラ110の位置・姿勢に視点変換した画像を生成することで密な対応点を取得している。
ただし、ここで変形前の図9の下に示す画像(元画像)では遠方の立体物上で多くの密な対応点が抽出されており、反対に、変形後の図10の下に示す画像(視点変換画像)では、遠方の立体物上で対応点があまり抽出されていない代わりに路面上から多くの密な対応点が得られている。図10では、左カメラ100の元画像中の左下にある路面が右カメラ110の画像中の当該路面と同じ見え方になるように左右方向に平行な水平せん断変形を左画像に施した。これにより左右画像で当該路面の形状が類似した結果、当該路面上の対応点が密に得られた。ただし、この視点変換は、左画像の一部に過ぎない路面のみに着目して左画像全体を変形したため、路面上に存在しない立体物(特に図10に示す建物など)の形状に着目すると視点変換後に大きく斜めになっていることが確認できる。このような変形を施すと、当該建物については、むしろ変形前の方が左右画像上で見え方(形状)が類似しており、元々の画像(原画像)でもカメラ100,110から遠方では密な対応点が得られることが理解できる。
(2)上下2分割による視点変換
そこで、本実施形態では、左右画像からより多くの対応点を得るために、視点変換を行う領域と視点変換を行わない領域の2種類の領域に左画像を分割して対応点の探索を行うこととする。前者の視点変換を行う領域は、視点変換を行うと対応点が増加する領域と換言でき、例えばカメラから近距離の領域が該当する。後者の視点変換を行わない領域は、原画像でも密な対応点が取得できる領域と換言でき、例えばカメラから遠距離の領域が該当する。
この種の視点変換としては、図11に示すように、画像中の消失点VPを基準として、左画像を水平方向の境界線で上下に2分割し、2つの領域のうち上側の領域(上側領域)111については視点変換を行わない領域として設定し、下側の領域(下側領域)112については視点変換を行う領域として設定するものがある。具体的には、制御装置10の視点変換部200が、消失点VPを含む又は消失点VPに接する境界を有する上側領域(遠景)111と、その上側領域111の下方に位置する下側領域(路面)112の2つの領域に左画像(第1画像)を上下に2分割し、下側領域112の少なくとも一部が平面であると仮定し、その平面に対する左右カメラ100,110の位置及び姿勢を演算し、その演算した当該平面に対する左右カメラ100,110の位置及び姿勢に基づいて下側領域112を右カメラ110の視点からの画像に変換し、その変換後の下側領域112と上側領域(視点変換無し)111を合わせたものを視点変換後の左画像(第1画像)とする。
この視点変換は車載カメラ(車載環境認識装置)のカメラ幾何校正において最も簡単かつ有効なものの1つである。また、この方法では、視点変換後の画像(視点変換画像)をFPGA(Field-Programmable Gate Array),ASIC(Application Specific Integrated Circuit),GPU(Graphics Processing Unit)等のハードウェアで利用すること等を想定し、長方形にしか分割しないという制約をつけて簡易的に変換している。遠方の路面も平面と仮定して変形可能であるが、そもそも遠方であれば視点変換による路面の変形量が小さい。また遠景の立体物なども視点変換による変形が小さいため、消失点VPを含む上側の領域111は視点変換しない領域として領域設定部210において設定する。車載カメラの場合には、画面の下側の領域112には基本的に自車両が走行する道路が撮像されるため、多くの領域が平面である路面が撮像される可能性が非常に高い。そこで、下側領域112は、路面が撮像される領域である仮定して、視点変換する領域として領域設定部210において設定する。
視点変換部200は、変換パラメータ生成部220で生成された変換パラメータを利用して下側領域112の視点変換を行う。簡単な視点変換方法としては、車両に取り付けられたカメラ100,110の位置・姿勢の設計値を利用して変換パラメータ生成部220で変換パラメータを生成する方法がある。車載環境認識装置1の画像処理によりカメラ100,110の位置・姿勢を設計値から補正している場合には補正後の値を使っても良い。また、路面上の少なくとも3点の距離情報に基づいて当該路面の姿勢をカメラの位置・姿勢と同時に推定している場合には路面の姿勢情報を利用してよい。なお、ここで左右カメラの位置・姿勢として設計値が利用可能としているのは、左右画像が視点変換前より類似することが重要であり、両者が数学的に完全に一致する必要はないという理由からである。なぜならば、視点変換の目的は視点変換後の画像で対応点を密に得ることであり、対応点が得られる程度に類似した画像を生成できれば足りるからである。また、変換パラメータによる視点変換後の対応点の座標は、もう一度、逆変換パラメータによって視点変換前の座標に戻した上でカメラの幾何校正に利用される。そのため必ずしも高精度なカメラの位置・姿勢が必要なわけではない。
(2-1)上下2分割による視点変換(画像の拡大縮小、回転、平行移動、せん断を含むアフィン変換)
上記のように、数学的にカメラ100,110と路面の相対位置・姿勢から数学的に視点変換の演算を実施しても良いが、視点変換の主目的は正確な変換にあるのではなく、左右画像の対応点を密に得ることである。このため、数学的に正確な変換でなかったとしても、ある程度の効果が認められる手法で代替も可能である。ハードウェアでの数学演算に基づく変換を省略しても良い。
例えば、左右カメラ100,110の位置・姿勢が未知(未演算及び演算不可の場合を含む)で画像の変形量が決まっていない場合には、変換パラメータ生成部220において、消失点VRを中心と考えた画像の回転や路面のせん断変形等を含むアフィン変換で画像を変形して視点変換を行っても良い。
この場合の視点変換の具体的方法としては、制御装置10の視点変換部200が、左カメラ100による左画像(第1画像)にパラメータ(アフィン変換のための行列のパラメータ)を変化させながらアフィン変換を施して複数の変換画像を生成し、その複数の変換画像のそれぞれと右画像(第2画像)の対応点の抽出を実施し、その複数の変換画像の中で対応点の数が最も多くかつ所定の閾値(基準値)以上の変換画像を後続の処理で利用する最終的な視点変換画像(すなわち左画像を右カメラ110の視点からの画像に変換した画像)とする処理がある。この方法で複数の変換画像を生成する際には、例えば、画像の拡大縮小、回転、平行移動及びせん断の少なくとも1つを含む全ての組合せについて、パラメータを少しずつ変化させながらアフィン変換を施す。これにより実質的に全てのパターンの変換画像とそれに利用した変換行列が生成できる。その際、変換画像の数はパラメータを変化させる間隔で調整できる。そして、生成された全ての変換画像について右画像との対応点の探索を実行し、得られた対応点の数を比較することで、右画像に最も類似する形状に左画像を変形した視点変換画像と変換行列を取得できる。このように取得された変換行列のパラメータは変換パラメータとして利用できる。
図12を用いてアフィン変換としてせん断変形を利用した視点変換の方法について説明する。図12の例では、左画像の路面領域のせん断の変形量(せん断量)を所定の間隔で増やし続けて複数の変換画像を生成しつつ、各変換画像について右画像との対応点を探索し、その対応点の数が最も多くかつ基準(所定の閾値)より多い変換画像のせん断量を変換パラメータとして採用することを決定している。
せん断量をApixel、Bpixel、Cpixel(但し、A>B>C)と増やすごとに左画像の路面領域(下側領域)の変形を増していき、その都度、左画像の路面と右画像の対応点数を記録する。その後、変形をCpixelまで続けていくと、Bpixel付近に対応点数のピークがあることがわかった。このような場合には、せん断量がBpixelの場合に右画像に最も類似した変形ができたことを示す。
このため、変換パラメータの算出に際しては、本来であれば乗員の乗車や走行中のピッチングなどを考慮して路面とカメラの位置・姿勢の関係を補正する必要があるが、これらを無視した上記の簡易な方法でも密な対応点を取得することができる。パラメータが毎回固定となるだけでなく、ありふれた変形であるため、比較的スペックの低いハードウェアでの利用や共通化なども容易となる。なお、ここではせん断を利用する場合について説明したが、回転、拡大縮小、平行移動などのアフィン変換を利用する場合にも上記と同様のアプローチで視点変換が可能である。
下側領域112の視点変換が終わったら、視点変換画像生成部240は、視点変換後の下側領域112と視点変換を行わなかった上側領域111とを合わせて視点変換画像(視点変換後の左画像)を生成する。視点変換部200で生成された視点変換画像は、対応点探索部300で右画像と対比されて対応点が抽出される。抽出された対応点の座標は、図14に示すようにカメラ幾何校正部400による逆変換で原画像における座標に戻されてカメラ幾何校正に利用される。
このように、画像を遠景や立体物を含んだ上側領域111と、路面が大半を占める下側領域112に分割して対応点を得ることで、上側領域111では視点変換無しの画像から対応点を抽出し、下側領域112では視点変換有りの画像から対応点を抽出することとなり、上下から密な対応点を得ることができる。なお、視点変換部200においては、視点変換のパラメータ生成から視点変換画像生成と、逆変換パラメータの計算までを実施する。逆変換パラメータは特徴点を統合して利用するカメラ幾何校正部400で利用される。
<図3 変換パラメータ生成部>
図3に示すように変換パラメータ生成部220は、視差解析部221と、属性決定部222と、変換パラメータ演算部223を備えている。
視差解析部221は、領域設定部210によって視点変換を行う領域として設定された領域の視差を、視差画像生成部500で生成された前フレーム(例えば1フレーム前)の視差画像から取得し、その視差を解析することで当該領域内に平面に近似可能な部分が存在するか否かを判断する。
属性決定部222は、視差解析部221の解析結果に基づいて当該領域の平面属性を決定する。平面属性としては、まず、当該領域に平面に近似可能な部分が存在することを示す「平面」と、当該領域には平面に近似可能な部分が存在しないことを示す「非平面」がある。前者の「平面」の属性には、さらに、当該領域の種別を示す属性として「路面(地面)」や「壁面(壁)」がある。後者の「非平面」の属性には当該領域の種別を示す属性として「無限遠」がある。また、各領域には予め平面属性が付与されている場合がある。この場合、属性決定部222は、予め付与された平面属性が妥当か否かを視差解析部221の解析結果に基づいて判断し、妥当と判断した領域のうち左右カメラ100,110からの距離が所定の閾値未満の領域の平面属性を「平面」と決定し、その領域を視点変換の対象領域として決定する。距離が所定の閾値未満という条件を付することで、必要な場合にだけ、すなわち左右画像で同じ物体の見え方が大きく異なる場合にだけ視点変換を行うことができる。
変換パラメータ演算部223は、属性決定部222で平面属性が平面であると決定された領域を視点変換するための変換パラメータを演算する。変換パラメータは公知の方法で算出できる。ここではその一例を説明する。
<視点変換計算>
まず、左カメラ100から見た変換対象領域内の平面4隅の3次元座標を計算する。簡単な手法としては、路面平面が高さ0cmにあると仮定すると共に、カメラ内部パラメータ(f,kn,Cn)、外部パラメータ(rnn,tn)、世界座標原点に対する左カメラ100の設置位置・姿勢が既知とすると、下記式(1)の右辺における第1及び第2の行列が既知となる。更に同式右辺の右端に位置する4要素を持つベクトルのYworldの世界座標が0であることから、未知の数字が世界座標のXworldとZworldのみで表現できる。画像座標は変換する領域を自ら設定しているため既知とできる。このようにして、変換したい領域内の平面4隅の画像座標を式(1)に入力すれば、その4隅の3次元の世界座標を演算できる。次に右辺右端のXworld,Yworld,Zworldに演算で求めた4隅の3次元座標を順に設定する。そして外部パラメータの行列に世界座標原点から見た右カメラの位置・姿勢を設定すると、世界座標系の4点の位置を右カメラで見た場合の画像座標へ変換できる。このようにして視点変換したい領域内の平面の4隅の画像座標を求めて4角形の変換パラメータを得る。4隅が計算できれば、その4角形内部の座標は全て内挿で算出できる。
Figure 0007219561000001
変換パラメータの生成に際しては、まず、左画像(視点変換対象の画像)内で視点変換に利用する平面を決定する必要がある。例えば、上記のように左画像を上下2分割した場合であれば、視差解析部221において、路面が撮像されることが多い下側領域112は平面に近似可能な部分と推定される。各領域に平面に近似可能な部分が含まれているか否かはステレオ画像から得られる視差を利用して解析可能である。左カメラ100を中心に考えて3次元測量したとすると、左カメラ100から見た路面平面の位置を視差を利用して解析することができる。下側領域112に予め「路面」という平面属性が付与されており、解析結果からその属性が妥当と判断された場合には、下側領域112は視点変換の対象と決定される。これとは反対に、その属性が妥当でないと判断された場合には、下側領域112は視点変換の対象から除外される。すなわち視点変換を実施しないで対応点探索されることで誤った視点変換を抑制する。領域の平面属性として「路面」や「壁」といった属性が決定された場合には、変換パラメータ演算部223は当該領域の変換パラメータを演算する。
<図4 対応点探索部300>
対応点探索部300は、視点変換部200で視点変換された左画像(視点変換画像)と、右画像の原画像とを対比して両者の対応点を探索する。なお、視点変換部200で左右画像に対して視点変換がされた場合には視点変換後の左右画像から対応点を探索する。図4に示すように対応点探索部300は、特徴点抽出部310と、特徴量記述部320と、最大誤差設定部330と、対応点探索部340と、信頼度計算部350として機能し得る。
特徴点抽出部310は、左画像において特徴点を抽出する。特徴点は、例えば画像上の物体の角(コーナー)等のユニークな点である。なお、左右画像のいずれか一方で特徴点を抽出すればよく、右画像で特徴点を抽出しても良い。
特徴量記述部320は、特徴点抽出部310で抽出した特徴点の周囲輝度変化を数値化した特徴量の記述を実施する。左画像上の特徴点・特徴量を基準にして右画像の対応点を探索する場合には、右画像の探索範囲を視差分だけ広げた領域に設定してもよい。
最大誤差設定部330は、対応点探索を実施する前に、左右カメラ100,110の最大縦誤差発生範囲を考慮して、画像の縦方向における探索範囲(縦探索範囲)を設定する。例えば左画像から特徴点を得る場合には、縦探索範囲は右画像に設定される。左右画像の平行化が完璧であれば、左画像の特徴点の対応点は、右画像における同一高さの横一列を探索すればよい。しかしながら、利用する部品の温度特性や組み付け精度によって縦誤差の範囲が異なる。このような場合に縦最大誤差を定義すると、左画像から抽出された特徴点の対応点は、右画像における同一座標から±縦最大誤差の範囲内で対応点探索を実施すれば足りる。最大誤差設定部330において、このように縦探索範囲を限定し、また領域も限定することによって、対応点探索の候補数を大幅に減らすことができる。縦の探索範囲を最大誤差設定部330において削減し、横方向は左画像の分割領域の視差最大値で設定する。これにより対応点探索部340が探索すべき特徴点の候補を削減できる。
対応点探索部340は、特徴点について計算された特徴量の類似性を比較しながら右画像で対応点探索を実施する。通常は1つの特徴点について対応点の候補が複数発見されるが、その中でも最も類似性が高くかつ所定の閾値以上の類似性のある候補点を対応点とする。図14の例では、左右画像を上側領域と下側領域の2つの分割したうえで、上側領域(無限遠)では視点変換無しの画像から対応点を抽出し、下側領域(路面)では視点変換有りの画像から対応点を抽出する。これにより、視点変換を実施しない従前の場合と比較して、上下領域から多数の密な対応点を得ることができる。
信頼度計算部350は、対応点探索部340で得られた対応点の類似性の高さや対応点個数などから、当該領域が後段のカメラ幾何に利用してよい領域かどうかを判断するための指標値である信頼度を計算する。信頼度が低い場合には、その領域にカメラ幾何での利用不可の判定を下す。全ての領域において信頼度を計算してカメラ幾何への利用可否の判定を実施する。或る閾値以上の数の領域で利用不可とされた場合には、今回取得した画像ではキャリブレーション(幾何校正)ができないと判断する。
<図5 カメラ幾何校正部>
カメラ幾何校正部400は、対応点探索部300で得られた複数の対応点を基に左右画像が平行になるように左右カメラ100,110の幾何校正を実施する。図5に示すように、カメラ幾何校正部400は、対応点逆変換補正部410と、対応点集約部420と、ノイズ対応点削除部430と、幾何校正パラメータ推定部440と、利用可否判定部450と、幾何校正反映部460として機能し得る。
まず、対応点逆変換補正部410においては、視点変化や、画像変形を利用して得られた対応点の座標を、原画像上の座標系に戻す計算を実施する。本実施形態では原画像の座標系に戻すために逆変換パラメータを利用する。逆変換のパラメータは、既に逆変換パラメータ計算部230で求められており、左右画像のうち視点変換された画像(左画像)の対応点の座標を逆変換パラメータを利用して原画像の座標に逆変換する。図14に左画像の下側領域に視点変換を実施した場合の逆変換の方法について示す。この図の例では3段のうち中断の画像図に示すように左画像の下側領域だけに変形を加えて視点変換している。この状態で上側領域と下側領域の双方で対応点探索を実施する。対応点探索の後、下側領域では対応点(特徴点)の座標を視点変形前の座標に基に戻す逆変換(座標変換)を実施し、変形前の画像における対応点の位置を算出する。すなわち視点変換後の画像に基づいて発見した多数の対応点を原画像上の座標に逆変換した上で幾何校正に利用する。
このように対応点逆変換補正部410において視点変換(変形)した領域の対応点座標を逆変換して原画像の座標系上に移動させ、対応点集約部420は左右画像の全ての対応点を原画像の座標系における対応点として集約する。
次に、対応点集約部420が集めた対応点を利用してカメラ幾何校正を実施したいが、集約した段階の対応点には誤対応点も含まれる。そこで対応点のノイズ成分除去を実施する。まず、得られる対応点が画面全体に散らばるような所定組数(ここでは8組とする)の対応点をランダムに抽出し、その8組の対応点を基に左右画像の対応関係を数学的に示す基礎行列を計算する。これを基礎行列の基となる対応点を変えて複数回繰り返す。その結果、多くの基礎行列を得ることができるが、8組の対応点に誤対応点が混入している場合には、算出された基礎行列が真の値からはずれることになる。反対に、8組の対応点が全て正しい場合には、基礎行列が類似した値に集約される。このため類似した基礎行列を出力した対応点は信頼できる対応点とし、類似しないはずれ値の基礎行列を出力した対応点は8組中どの対応点が誤対応点なのかは不明のためその後の処理では利用しない。ただし、別の8組として選ばれた際に、基礎行列が類似した値に集約され、はずれ値でないことがわかった際に利用するものとする。
このようにして得られたはずれ値以外の基礎行列の中から、ある評価尺度を決定し、最も評価値が高かった基礎行列を初期値に利用する。評価尺度は例えば、基礎行列生成に利用しなかった8組の対応点を除く信頼のおける対応点のペアを更にランダムで選択し、その対応点のペアが基礎行列にどの程度の誤差を生じるかなどを評価尺度とする。このようにして得られた基礎行列を左右カメラ100,110の対応関係を示す基礎行列の初期値としてまずは設定し、更には、信頼できると判断された対応点を利用して高精度な幾何校正パラメータの最適化を実施する。
上記の手法で得られた基礎行列を初期値として利用して、画像上の対応点と、基礎行列を利用して算出された推定点との距離誤差をコスト関数として最小化する最適化問題を幾何校正パラメータ推定部440にて解く。これにより8点法と比較して高精度な基礎行列(幾何校正パラメータ)を推定できる。
次に、利用可否判定部450は、まず、対応点集約部420から得られる対応点の数(対応点数は所定数を超えているか)と、ノイズ対応点削除部430から得られるはずれ値以外の対応点のペア数(ペア数は所定数を超えているか)、幾何校正パラメータ推定部440から得られる最小化された距離誤差の大きさ(距離誤差の大きさは所定値未満か)等の外部情報を利用して、幾何校正パラメータ推定部440によるカメラ幾何校正の結果を利用して良いか否かを判定する。更に、求められた幾何校正パラメータを利用して左右カメラ画像を平行化した場合、求められていた対応点ペアのうち平行化後の左右画像座標において縦誤差が発生していない対応点ペアの存在比率が所定の割合(例えば95%)を超えているかどうかで利用可否を判定する。
幾何校正反映部460では、利用可否判定部450において利用可能と判定された場合において、幾何校正パラメータ推定部440で推定された左右カメラ100,110の幾何を示すパラメータ基礎行列を利用して平行化画像を生成するための画像変形のアフィンテーブルの更新を実行する。
<図6 視差画像生成部500>
視差画像生成部500は、左右カメラ100,110で撮像された左右画像と、カメラ幾何校正部400でリアルタイムに更新される最新のアフィンテーブルに基づいて視差画像を生成する。本実施形態の視差画像生成部500は、図6に示すように平行化画像生成部510と、ステレオマッチング部520と、距離演算部530として機能する。
平行化画像生成部510は、カメラ幾何校正部400にて更新された平行化画像生成のためのアフィンテーブルを利用して左右平行化画像を生成する。ステレオマッチング部520は、平行化された左右画像に対してステレオマッチングを実施して視差画像を生成する。距離演算部530は、左右カメラ100,110の基線長や、カメラの内部パラメータ(焦点距離やセルサイズ)を利用して視差画像から3次元の距離変換を実施することで左右画像上の任意の物体までの距離を演算する。
<図15 制御装置10の処理フローチャート>
ここで上記のように左画像を上下に2分割した場合に制御装置10が実行する処理フローについて説明する。制御装置10は所定の周期で図15に示す一連の処理を繰り返している。
ステップS01では、まず、制御装置10(視点変換部200)は左右カメラ(ステレオカメラ)100,110で撮像された左右画像を入力する。
ステップS02では、制御装置10(視点変換部200)は、ステップS04で入力した左画像を上下2分割することを決定する。なお、右画像については分割を行わない。
ステップS03では、制御装置10(視点変換部200)は、左画像を上下に2分割し、そのうち消失点VPを含む領域を上側領域111と設定する。上側領域111は消失点VPを含み遠方の景色が撮像される傾向のある領域であり、視点変換を施されることなくそのまま対応点探索に利用される。
ステップS04では、制御装置10(視点変換部200)は、左画像から上側領域111を除いた領域(上側領域111の下方に位置する領域)を下側領域112と設定し、ステップS05に処理を移行する。下側領域112は、自車が走行する路面が撮像物の大半を占める領域であり、左右カメラ100,110から比較的近傍の路面では左右カメラ100,110で見え方の変化が特に大きいので視点変換の実施のために分割する。
ステップS05では、制御装置10(視点変換部200)は、下側領域112を視点変換するための変換パラメータの生成と、視点変換後の下側領域112上の対応点を逆変換により視点変換前の座標上に戻すための逆変換パラメータを生成する。ここで生成される変換パラメータによる視点変換は、下側領域112の少なくとも一部が平面であると仮定し、その平面に対する左右カメラ100,110の位置及び姿勢を推定し、その推定した左右カメラ100,110の位置及び姿勢に基づいて下側領域112を右カメラ110の視点からの画像に変換するものである。
ステップS06では、制御装置10(視点変換部200)は、ステップS05で生成した変換パラメータを利用して左画像の下側領域112を視点変換する。
ステップS07では、制御装置10(視点変換部200)は、ステップS03で分割した上側領域111と、ステップS06で視点変換した下側領域112を合わせた視点変換画像を生成する。そして、制御装置10(対応点探索部300)は、その視点変換画像とステップS01で入力した右画像に対して対応点探索を実施する。すなわち、変形を実施していない上側領域111と変形を実施した下側領域112の画像上の特徴点及び特徴量を基準として右画像の対応点を探索する処理が実行される。これにより、視点変換後の左画像の下側領域112と、視点変換未実施の右画像の下側領域112とから、特徴点及び特徴量を基準として複数の対応点の集合である第1対応点群が抽出され、視点変換前の左画像の上側領域111と、視点変換未実施の右画像の上側領域111とから、特徴点及び特徴量を基準として複数の対応点の集合である第2対応点群が抽出される。
ステップS08では、制御装置10(カメラ幾何校正部400)は、ステップS07で下側領域112から発見された複数の対応点(第1対応点群)のうち上下の領域111,112に跨がったものは排除し、残りの対応点についてはステップS05で生成した逆変換パラメータを利用して逆変換し、当該残りの対応点の座標値を原画像(ステップS01で入力した左画像)で対応点をとった場合の座標値に戻す。
ステップS09では、制御装置10(カメラ幾何校正部400)は、ステップS07で発見された上側領域111上の複数の対応点(第2対応点群)の座標値と、ステップS08で逆変換された下側領域112上の複数の対応点(第1対応点群)の座標値を集約する。このとき、第1対応点群のうち左画像上の対応点の座標は視点変換前の座標に逆変換した座標となり、第1対応点群のうち右画像上の対応点の座標は視点変換未実施の元々の座標となる。また、第2対応点群の座標は左右画像ともに視点変換前の座標となる。これにより上下側領域111,112すべての対応点の座標系が、左右の原画像での座標系で統一的に扱うことが可能になる。
ステップS10では、制御装置10(カメラ幾何校正部400)は、ノイズ除去を実施する。ステップS09で集約された対応点のなかから、画像上で散らばる座標系になるようにかつランダムに8組の対応点ペアを選択し、選択した対応点ペア(入力対応点)を基にいわゆる8点法により基礎行列の値を計算する。そして、その基礎行列の値をベースにはずれ値とならなかった基礎行列の入力対応点を、その後の処理で利用できるようにフラグを立ててはずれ値となった入力対応点と区別する。
ステップS11では、制御装置10(カメラ幾何校正部400)は、ステップS10でノイズと判定されなかった対応点の座標を利用し、幾何校正のパラメータ推定を実施する。上記の手法で得られた基礎行列を初期値として利用して、画像上の対応点と、基礎行列を利用して算出された推定点との距離誤差をコスト関数として最小化する最適化問題を解く。これにより8点法と比較して高精度な幾何校正パラメータを演算できる。
ステップS12では、制御装置10(カメラ幾何校正部400)は、ステップS11で演算した距離誤差の大きさが所定値未満であるか、対応点の数が所定値以上か等の情報を利用して、ステップS11で演算した幾何校正パラメータを利用して良いか判定する。ここで幾何校正パラメータが利用可能と判断された場合にはステップS13に処理を進める。一方、利用不可と判断された場合には、アフィンテーブルを更新せずにステップS14に処理を進める。
ステップS13では、制御装置10(カメラ幾何校正部400)は、前フレームに利用していた左右画像の平行化のためのアフィンテーブルをステップS11で演算した幾何校正パラメータに基づいて更新する。
ステップS14では、制御装置10(視差画像生成部500)は、記憶されているアフィンテーブルを利用して左右画像の平行化画像を生成し、これを利用してステレオマッチングを実施し視差画像を生成する。
上記のように較正した本実施形態の車載環境認識装置では、左右カメラ100,110(左右画像)で見え方の大きく異なる領域(下側領域112)に視点変換を施すことで、左右画像から発見される対応点の数を大幅に増加した。すなわち、カメラ100により撮像された左画像の下側領域112を、右カメラ110の視点からの見え方に近づくように変形することで、視点変換前よりも数の多い密な対応点の探索結果を対応点探索部300で得ることができる。この密な対応点を利用することで、カメラ幾何校正部400による処理では高精度な幾何校正が可能となる。幾何校正により正確に平行化された左右のペア画像を利用することで、視差画像生成部500における高密度かつ高精度な視差画像の生成が可能となる。
なお、上記では左右画像を上側領域と下側領域に分割し、下側領域については左画像に視点変換を実施してから対応点を探索し、上側領域については左右画像ともに視点変換を実施することなく対応点を探索したが、左右画像を複数の領域に分割する構成は必須ではない。例えば、視点変換後の左画像と視点変換未実施の右画像から複数の対応点(第1対応点群)を抽出し、視点変換前の左画像と視点変換未実施の右画像から複数の対応点(第2対応点群)を抽出して左右カメラ100,110の幾何校正を行っても良い。
<視点変換の変形例>
視点変換部200による視点変換の他の例について説明する。上記ではカメラ画像を上下に2分割する方式について説明したが、6分割にする方式や、自由な領域に分割する方式が利用可能である。
(1)6分割による視点変換
カメラの幾何校正は、画像上の全体から対応点が取れたほうが精度が向上する。ある固定箇所から密に対応点が得られたような場合に、そのまま対応点を利用すると対応点が密に得られた部分だけの幾何校正が小さくなるように計算されるため、画像全体から満遍なく対応点が得られたほうが本来の幾何校正すべき値に近い値が得られることが多い。しかし、画像全体において特徴点の抽出、特徴量の記述、対応点の探索などを実行すると処理負荷が重くなる。
そこで図13に示すように画像を6領域に分割し、この6領域に関して左右画像上で対応点を探す方法を選定する。この方法では、制御装置10は、左画像を6つの矩形領域に分割し、その6つの矩形領域には、自車走行中に各矩形領域に出現すると予測される平面属性が付与されており、その6つの矩形領域に付与された平面属性が妥当か否かを前フレームの視差画像を基に判断し、その6つの矩形領域において平面属性が妥当と判断された矩形領域のうち、左右カメラ100,110の距離が所定の閾値未満の矩形領域を変換対象領域に決定し、その変換対象領域に対する左右カメラ100,110の位置及び姿勢を推定し、その推定した左右カメラ100,110の位置及び姿勢に基づいて変換対象領域を右カメラの視点からの画像に変換し、その6つの領域から変換対象領域を除いた残りの領域と変換対象領域を合わせたものを視点変換後の左画像とする。6つの矩形領域は、左画像を縦に2つ、横に3つに分割して得られ、2行3列で各矩形領域が配置されている。画像を上段と下段の2段に分け、上段の左側から第1領域、第2領域、第3領域と称し、下段の左側から第4領域、第5領域、第6領域と称する。6つの矩形領域における下側の3つの矩形領域(第4-6領域)の平面属性は「路面」であり、6つの矩形領域における上側の3つの矩形領域のうち左右に位置する2つの矩形領域(第1、第3領域)の平面属性は「壁」であり、6つの矩形領域における上側の3つの矩形領域のうち中央に位置する矩形領域(第2領域)の平面属性は「無限遠」である。
この方法は、特徴点抽出、記述の処理時間の削減、対応点探索候補の絞込みに効果がある。
この方法による視点変換に際して、自車走行中に各領域に出現すると予測される平面属性を決定しておくと、6領域毎に変形量を選択しやすい。例えば、図13に示す一例のように、基本を考えると、下段の3つの領域(第4-6領域)は従来どおり路面(地面)と仮定した視点変換による視点変換を実施する。上側の無限遠(消失点)辺りにある真ん中の領域(第2領域)は遠景や空しか入っていないために、変形無しとする。上側の左右の領域(第1,第3領域)であるが、これは走行路の風景にもよるが、街中を走行中などは、建築物や樹木などが走行路に対して「壁」のように左右に存在することが多々ある。このような場合には、走行路左右に存在する壁を想定した変換を実施する。路面や壁などを或る固定値を想定して変換してもよいし、図13の真ん中の図のように、壁の横位置と回転だけを、前フレームの視差画像から推定しておいてそれを利用するような手法でも良い。分割した領域内の視差値を距離に変換して平面推定を実施し、はずれ値の多さや、最終推定平面からある距離の範囲内にどれだけの何%の視差点群が占有するかなどを利用して平面に近似してよいかの判断を実施しても良い。これにより平面近似が可能と判別された場合には、この平面が2つのカメラ視点から見て近距離かつ視点を変えたことによる見え方の違いが大きいかどうかも計算する。見え方の違いが小さい場合にはそもそも視点変換の必要性が低い。見え方の違いが大きい場合に視点変換を行うと、対応点の探索性能が大幅に上がるため、多少の誤差が視点変換にあったとしても変換前の原画像で対応点探索を実施するよりも大幅に密な対応点の取得が可能となる。
図13の各矩形領域内に示したように、自車走行中に各矩形領域に出現すると予測される平面属性が予め各領域に付されている。例えば、上段の左右の領域(第1,第3領域)は「壁」、下段の3つの領域(第4-6領域)は「路面」、上段の中央の領域(第2領域)は「無限遠」という平面属性が付されており、前フレームの視差値から推定される平面がこれらの属性が規定する平面と類似しているか否かを判定する。予め付された平面属性と異なる場合には、うまく平面近似できなかったと仮定し、視点変換を実施しない。これにより間違えた視点変換を避けることが可能となる。また、予め平面属性を決めているため、不安定要素となるはずれ値除去も比較的実施しやすく、推定するパラメータが絞り込まれるので安定性が強化される。
なお、上記のように6つの矩形領域に分割した場合、上段の左右に位置する2つの領域(第1,第3領域)は、走行路に沿った建物や樹木などがある場合に壁相当の平面(平面属性が「壁」の領域)があることを想定した視点変換を利用可能である。しかし、田舎道で走行路の周囲の立体物が少ない場合等にはその2つの領域に「平面」の属性を付与することなく、例えば「無限遠」等と非平面の属性を付与した方が対応点が多くなる場合もある。このため前フレームの視差画像から各領域に現れる風景の3次元構造の傾向を理解し、その後に視点変換の実施の有無を決定して対応点探索を実施しても良い。
(2)自由領域分割による視点変換
また、GPUなどを活用した視点変換を実施する場合には、3次元の平面にカメラ画像を貼って変形すればよいので、矩形領域にこだわらずに自由な領域でカメラ画像を分割できる。そこで図16に示すように各領域の境界線に斜め線も利用した領域分割を実施する。前フレームの視差画像から得られる情報(例えば、路面領域推定結果と路端領域推定結果)に基づいて画像内に平面に近似可能な部分が存在するか否かを判断する。そして、平面に近似可能な部分と判断された部分を含む領域を路面平面領域と推定する。このとき当該領域から左右カメラ100,110までの距離が閾値未満か否かを判定し、距離が閾値未満の領域を路面平面領域、すなわち視点変換を行う領域として設定しても良い。また同様に、同一物体について左右カメラ100,110で見え方が大きく異なる領域であるか否かを判定しても良い。
また、路端領域の近辺には建築物や樹木がたっていることから、走行路の進行方向に沿って壁があると仮定した領域分割を画像の色合いと3次元の両方を活用して、領域分割を実施しても良い。分割した領域のそれぞれについて、3次元の平面に近似可能か否かを上記6領域の場合と同様に前フレームの視差画像から推定する。平面に近似可能な場合にはその平面に応じた視点変換を実施する。
先述の矩形領域よりも適切で柔軟な領域で画像を分割しているため、画面全体を比較的有効に活用することが可能となる。ただし、カメラ画像の背景が複雑な場合には、領域の分割が実施しづらく、安定的な判定は6領域のようにある程度、どのような平面になるかわかっている前提を利用するものの方が安定性が高い。
(3)左右カメラ双方の視点変換
上記の例ではステレオカメラの一方のカメラ(左カメラ100)の画像を他方のカメラ(右カメラ110)の視点からの画像に変換する場合について説明したが、ステレオカメラの両方のカメラ(左右カメラ100,110)の画像を他の視点(例えば、左右カメラ100,110間に位置する所定の視点)からの画像に変換しても良い。図17の例では、左右画像を上下2分割にしている。そして、それぞれの下側領域を、左右カメラ100,110の光軸の真ん中(すなわちステレオカメラの場合のベースラインの中央)に光軸を有する他のカメラの視点からの画像に視点変換している。
このように左右画像を視点変換すると、左右画像のそれぞれに視点変換による画質劣化が生じるため、同等の画質劣化状態でマッチングを実施でき、マッチングスコアの向上が見込める。更に、この方法の利点は環境認識装置が3つ以上のカメラを備え、複数カメラのペアから三角測量を実施するような場合であって、どのカメラ主体で3次元復元すべきかが明確でない多視点カメラによる3次元測量時に利用しやすい。このように本発明には図14に示すような右カメラ主体の3次元復元である必要性はない。
・第2実施形態
上記の実施形態では視差画像生成部500における視差画像の生成に視点変換画像を利用しなかったが、視差画像の生成に視点変換画像を利用しても良い。本実施形態の制御装置10は視差画像生成部500Aを備えている。他の部分については第1実施形態と同じであるとし、説明は省略する。
<図7 視差画像生成部>
図7に示す視差画像生成部500Aは、領域別視点変換平行化画像生成部550と、領域別マッチング部560と、結果統合部570と、距離演算部580を備えている。
長基線長のステレオカメラでは、対応点探索と同様に視差画像生成時のステレオマッチングにおいても、近距離の被写体の見え方が左右カメラ100,110で大きく異なり得る。このためステレオマッチングにおいても視差のマッチングが困難になるおそれがある。しかし、第1実施形態の対応点探索のようにステレオマッチング時にも視点変換を行えば、路面など平面で構成されるシーンについては、その平面の視差を密に得ることができる。また、対応点同様に遠方の風景に関しては変形しなくとも対応点がそれなりに得ることができる。路面形状を解析したり、小さな凹凸を解析したりする目的や、自車両がどこを走行してよいかなど路面平面を主に観測するような目的のアルゴリズムに対しては、対応点の手法と同様に左画像を視点変換し、左右画像のステレオマッチングを行うことが好ましい。
そこで、本実施形態では、まず、領域別視点変換平行化画像生成部550において、第1実施形態と同様に遠方と近傍で2つの領域(上側領域、下側領域)に左画像を分割する。そして、上側領域は視点変換を実施せず、下側領域は右カメラ視点への視点変換をアフィンテーブルによる平行化と同時に実施する。なお、平行化後に画像分割して視点変換を行っても良い。視点変換時の変換パラメータや平行化時(幾何校正時)のアフィンテーブルは第1実施形態と同様に視点変換部200とカメラ幾何校正部400で演算されたものを利用するものとする。次に、領域別マッチング部560において、画像生成部550で生成した2つの領域について個別に視差値を演算して個別に視差画像を生成する。結果統合部570において、領域別マッチング部560で演算された視差値のうち、下側領域に属する視差値(視差画像)には視点変換に応じた補正を施すことで上側領域と下側領域で視差値の意味合いを合わせる補正を実施し、その後に上側領域と下側領域の視差値(視差画像)の統合を実施する。更に、距離演算部580においては、左右カメラ100,l10の基線長の情報と左右カメラ100,110の内部パラメータの情報を利用して、結果統合部570で統合した視差画像から距離を演算する。これにより左右画像で見え方の大きく異なり得る下側領域(カメラから近距離の路面領域)については従前のステレオマッチングよりも多数の密な対応点に基づく視差画像が得られるので視差画像の精度が向上する。
ただし、大半が路面であっても下側領域の端に歩行者がいる場合などは、視点変換画像を利用したステレオマッチングでは、ほぼ路面付近に存在する物体は、密な視差画像を得ることができるが、反対に歩行者部分は視点変換しない方が視差画像を綺麗に得られることがある。そこで、別の実施形態として、下側領域については、領域分割及び平行化の後に視点変換無しで左右画像(つまり、右画像と視点変換前の左画像のペア(第1ペア))をマッチングした結果と、領域分割及び平行化の後に視点変換有りで左右画像(つまり、右画像と視点変換後の左画像のペア(第2ペア))をマッチングした結果の双方を生成し、2つのマッチング結果のうち、どれだけ左右画像が類似していたかを示すマッチングスコアが高い方を利用して視差値及び視差画像を生成しても良い。この際、視点変換有りのマッチング結果を逆変換した状態に戻し、更に、どれだけ左右画像が類似していたかを示すマッチングスコアも両方の場合の各視差値から参照可能な状態としておくと良い。この手法であれば、例えば下側領域内に歩行者などの立体物が存在しており視点変換後の画像によるステレオマッチングではマッチングスコアが低下することが回避されるので視差画像の精度の平均を向上できる。
<図18 制御装置10による視差画像生成処理のフローチャート>
ここで上記のように視差画像生成時に左画像を上下に2分割した場合に制御装置10(視差画像生成部500A)が実行する処理フローについて説明する。制御装置10は視差画像の要求指令の入力に基づいて図18に示す一連の処理を繰り返している。なお、図中のステップDS02-DS04で実行されるキャリブレーション用の対応点探索や幾何校正パラメータの推定・更新の処理は、どのような手法を利用してもよく、図15に示した第1実施形態の方法に限られず、公知の方法を利用しても構わない。また、ここでは、既に平行化のためのキャリブレーションは左右画像に実施済みとして、第1実施形態の視点変換を視差画像生成に応用する方法の一例を示す。
ステップDS01では、まず、制御装置10(視差画像生成部500A)は左右カメラ(ステレオカメラ)100,110で撮像された左右画像を入力する。
ステップDS02では、制御装置10(対応点探索部300)は、左右画像の対応点を探索する。
ステップDS03では、制御装置10(カメラ幾何校正部400)は、左右画像の平行化を実施するための幾何校正パラメータを推定する。
ステップDS04では、制御装置10(カメラ幾何校正部400)は、ステップD02で演算された幾何校正パラメータでもって、左右画像の平行化画像を作成する際に利用される幾何校正用のパラメータを更新する。このとき、左右カメラ100,110の相対位置や姿勢の推定値や、路面とステレオカメラの位置姿勢のパラメータ更新も実施しても良い。
ステップDS05では、制御装置10(視差画像生成部500A)は、ステップDS01で入力した左画像を上下2分割することを決定する。なお、右画像については分割を行わない。
ステップDS06では、制御装置10(視差画像生成部500A)は、左画像を上下に2分割し、そのうち消失点VPを含む領域を上側領域111と設定する。上側領域111は消失点VPを含み遠方の景色が撮像される傾向のある領域であり、視点変換を施されることなくそのままステレオマッチング(ステップDS07)に利用される。ただし、特に下側領域112において路面以外の物体の視差を重要視するような場合や処理に余裕がある場合には、左画像の全てを上側領域に設定し、視点変換を実施することなく右画像とステレオマッチングを実施しても良い(ステップDS07)。
ステップDS08では、制御装置10(視差画像生成部500A)は、左画像から上側領域111を除いた領域(上側領域111の下方に位置する領域)を下側領域112と設定する。下側領域112は、自車が走行する路面が撮像物の大半を占める領域であり、左右カメラ100,110から比較的近傍の路面では左右カメラ100,110で見え方の変化が特に大きいので視点変換の実施のために分割する。
そして、制御装置10(視差画像生成部500A)は、下側領域112を視点変換するための変換パラメータの生成と、視点変換後の下側領域112上の対応点を逆変換により視点変換前の座標上に戻すための逆変換パラメータを生成する。ここで生成される変換パラメータによる視点変換は、下側領域112の少なくとも一部が平面であると仮定し、その平面に対する左右カメラ100,110の位置及び姿勢を推定し、その推定した左右カメラ100,110の位置及び姿勢に基づいて下側領域112を右カメラ110の視点からの画像に変換するものである。
さらに、制御装置10(視差画像生成部500A)は、生成した変換パラメータを利用して左画像の下側領域112を視点変換する。
なお、このステップDS08で生成する視点変換画像は、左画像の視点を右カメラ110の視点に変換したような視点変換画像を生成しても良いし。左右カメラ100,110の中心位置にカメラがあると仮定したように左右カメラの画像を、ステレオカメラの重心位置に持っていったような画像変換をしても良い。
ステップDS07では、制御装置10(視差画像生成部500A)は、ステップDS06の上側領域111とこれに対応する右画像の領域をステレオマッチングして視差値を演算と視差画像の生成を行う。これと同時に、ステップDS09では、制御装置10(視差画像生成部500A)は、ステップDS08で視点変換した下側領域112とこれに対応する右画像の領域をステレオマッチングして視差値を演算と視差画像の生成を行う。
ステップDS10では、制御装置10(視差画像生成部500A)は、ステップDS10で生成された視点変換画像ベースの視差値を、逆変換パラメータを利用して逆変換することで視差値の視点変換分の換算を実施する。
ステップDS11では、制御装置10(視差画像生成部500A)は、視点変換前の平行化画像座標上における2枚の画像(左右画像)に重畳領域がある場合には、視点変換前の下側領域112と右画像の対応部分のマッチングスコアと、視点変換後の下側領域112と右画像の対応部分のマッチングスコアとを比較し、マッチングスコアが高い方の視差値を下側領域の視差値として選択する。これにより路面においては視点変換した場合の視差を優先的に利用し、立体物が存在する場合等には視点変換しない場合の視差を優先的に利用するようにスコアマッチングの比較が作用するので視差画像の精度が向上する。
ステップDS12では、制御装置10(視差画像生成部500A)は、ステップDS07で生成した上側領域111の視差画像と、ステップDS11の比較を介して選択された下側領域112の視差画像を一枚の視差画像(合成視差画像)として合成することで、従来よりも密でノイズの少ない視差画像生成が可能となる。
なお、本実施形態では、左画像を上下に分割する場合について説明したが、左右画像で見え方の大きく異なる領域であって平面に近似できる部分が含まれる領域であれば、視点変換による視差値の精度向上効果が望める。すなわち、上記で説明した下側領域とは異なる領域に視点変換を実施してステレオマッチングを行っても良く、この種の領域としては第1実施形態で視点変換を行う領域が含まれる。
<その他>
図15のフローチャートにおいてステップS10,S12は省略可能である。
本発明は,上記の各実施形態に限定されるものではなく,その要旨を逸脱しない範囲内の様々な変形例が含まれる。例えば,本発明は,上記の各実施形態で説明した全ての構成を備えるものに限定されず,その構成の一部を削除したものも含まれる。また,ある実施形態に係る構成の一部を,他の実施形態に係る構成に追加又は置換することが可能である。
また,上記の制御装置10に係る各構成や当該各構成の機能及び実行処理等は,それらの一部又は全部をハードウェア(例えば各機能を実行するロジックを集積回路で設計する等)で実現しても良い。また,上記の制御装置10に係る構成は,演算処理装置(例えばCPU)によって読み出し・実行されることで当該装置の構成に係る各機能が実現されるプログラム(ソフトウェア)としてもよい。当該プログラムに係る情報は,例えば,半導体メモリ(フラッシュメモリ,SSD等),磁気記憶装置(ハードディスクドライブ等)及び記録媒体(磁気ディスク,光ディスク等)等に記憶することができる。
また,上記の各実施形態の説明では,制御線や情報線は,当該実施の形態の説明に必要であると解されるものを示したが,必ずしも製品に係る全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えて良い。
100…左カメラ,110…右カメラ,111…上側領域,112…下側領域,200…視点変換部,210…領域設定部,220…変換パラメータ生成部,221…視差解析部,222…視点変換属性決定部,223…変換パラメータ演算部,230…逆変換パラメータ計算部,240…視点変換画像生成部,300…対応点探索部,310…特徴点抽出部,320…特徴量記述部,330…最大誤差設定部,340…対応点探索部,350…信頼度計算部,400…カメラ幾何校正部,410…対応点逆変換補正部,420…対応点集約部,430…ノイズ対応点削除部,440…幾何校正パラメータ推定部,450…利用可否判定部,460…幾何校正反映部,500…視差画像生成部,510…平行化画像生成部,520…ステレオマッチング部,530…距離演算部

Claims (8)

  1. 第1カメラ及び第2カメラと、
    前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
    を備え、
    前記視点変換は、前記制御装置が、前記第1画像にパラメータを変化させながらアフィン変換を施して複数の変換画像を生成し、前記複数の変換画像のそれぞれと前記第2画像の対応点の抽出を実施し、前記複数の変換画像の中で前記対応点の数が最も多くかつ所定の閾値以上の変換画像を、前記第1画像を前記第2カメラの視点からの画像に変換した画像とする視点変換である
    ことを特徴とする車載環境認識装置。
  2. 第1カメラ及び第2カメラと、
    前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
    を備え、
    前記視点変換は、
    前記制御装置が、
    前記第1画像を消失点を含む又は消失点と接する上側領域と前記上側領域の下方に位置する下側領域の2つの領域に上下に2分割し、
    前記下側領域の少なくとも一部が平面であると仮定し、
    前記平面に対する前記第1カメラ及び前記第2カメラの位置及び姿勢を推定し、
    その推定した前記平面に対する前記第1カメラ及び前記第2カメラの位置及び姿勢に基づいて前記下側領域を前記第2カメラの視点からの画像に変換し、
    その変換後の前記下側領域と前記上側領域を合わせたものを視点変換後の第1画像とする視点変換である
    ことを特徴とする車載環境認識装置。
  3. 第1カメラ及び第2カメラと、
    前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
    を備え、
    前記視点変換は、
    前記制御装置が、
    前記第1画像を複数の領域に分割し、
    前記複数の領域内に平面に近似可能な部分が存在するか否かを前フレームの視差画像を基に判断し、
    前記複数の領域のうち前記平面に近似可能な部分が存在する領域のうち前記第1カメラ及び前記第2カメラからの距離が所定の閾値未満の領域を変換対象領域に決定し、
    前記変換対象領域に対する前記第1カメラ及び前記第2カメラの位置及び姿勢を推定し、
    その推定した前記第1カメラ及び前記第2カメラの位置及び姿勢に基づいて前記変換対象領域を前記第2カメラの視点からの画像に変換し、
    前記複数の領域から前記変換対象領域を除いた残りの領域と前記変換対象領域を合わせたものを視点変換後の第1画像とする視点変換である
    ことを特徴とする車載環境認識装置。
  4. 第1カメラ及び第2カメラと、
    前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
    を備え、
    前記視点変換は、
    前記制御装置が、
    前記第1画像を複数の矩形領域に分割し、
    前記複数の矩形領域には、自車走行中に各矩形領域に出現すると予測される平面の属性が付与されており、
    前記複数の矩形領域に付与された平面の属性が妥当か否かを前フレームの視差画像を基に判断し、
    前記複数の矩形領域において前記平面の属性が妥当と判断された矩形領域のうち、前記第1カメラ及び前記第2カメラからの距離が所定の閾値未満の矩形領域を変換対象領域に決定し、
    前記変換対象領域に対する前記第1カメラ及び前記第2カメラの位置及び姿勢を推定し、
    その推定した前記第1カメラ及び前記第2カメラの位置及び姿勢に基づいて前記変換対象領域を前記第2カメラの視点からの画像に変換し、
    前記複数の領域から前記変換対象領域を除いた残りの領域と前記変換対象領域を合わせたものを視点変換後の第1画像とする視点変換である
    ことを特徴とする車載環境認識装置。
  5. 請求項4の車載環境認識装置において、
    前記複数の矩形領域は、前記第1画像を縦に2つ、横に3つに分割して得られる6つの矩形領域であり、
    前記6つの矩形領域における下側の3つの矩形領域の平面の属性は路面であり、
    前記6つの矩形領域における上側の3つの矩形領域のうち左右の2つの矩形領域の平面の属性は壁であり、
    前記6つの矩形領域における上側の3つの矩形領域のうち中央の矩形領域の平面の属性は無限遠であることを特徴とする車載環境認識装置。
  6. 第1カメラ及び第2カメラと、
    前記第1カメラによって撮像された第1画像と前記第2カメラによって撮像された第2画像の少なくとも一方を変形することで前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、前記視点変換前の前記第1画像及び前記第2画像における前記複数の対応点の座標を利用して前記第1カメラ及び前記第2カメラの幾何校正を行う制御装置と
    を備え、
    前記制御装置は、前記第1画像及び前記第2画像を共通の視点からの画像に変換する視点変換を行った後にステレオマッチングして視差値を取得し、前記視差値に対して前記視点変換に応じた補正を施して視差画像を生成する
    ことを特徴とする車載環境認識装置。
  7. 請求項2の車載環境認識装置において、
    前記制御装置は、前記第2画像と前記視点変換後の第1画像をステレオマッチングして視差値を取得し、前記視差値のうち前記下側領域に属するものは前記視点変換に応じた補正を施して視差画像を生成することを特徴とする車載環境認識装置。
  8. 請求項7の車載環境認識装置において、
    前記制御装置は、前記第2画像と前記視点変換前の第1画像からなる第1ペアと、前記第2画像と前記視点変換後の第1画像からなる第2ペアの2つのペアでステレオマッチングを実施し、前記2つのペアのうちステレオマッチングのマッチングスコアが高い方を利用して視差画像を生成することを特徴とする車載環境認識装置。
JP2018135236A 2018-07-18 2018-07-18 車載環境認識装置 Active JP7219561B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018135236A JP7219561B2 (ja) 2018-07-18 2018-07-18 車載環境認識装置
CN201980046818.8A CN112424565B (zh) 2018-07-18 2019-07-04 车载环境识别装置
PCT/JP2019/026561 WO2020017334A1 (ja) 2018-07-18 2019-07-04 車載環境認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018135236A JP7219561B2 (ja) 2018-07-18 2018-07-18 車載環境認識装置

Publications (2)

Publication Number Publication Date
JP2020012735A JP2020012735A (ja) 2020-01-23
JP7219561B2 true JP7219561B2 (ja) 2023-02-08

Family

ID=69164301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018135236A Active JP7219561B2 (ja) 2018-07-18 2018-07-18 車載環境認識装置

Country Status (3)

Country Link
JP (1) JP7219561B2 (ja)
CN (1) CN112424565B (ja)
WO (1) WO2020017334A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7465671B2 (ja) * 2020-02-20 2024-04-11 株式会社Subaru 画像処理装置および画像処理方法
KR20210147405A (ko) * 2020-05-28 2021-12-07 삼성전자주식회사 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
JP2024003407A (ja) * 2022-06-27 2024-01-15 日立Astemo株式会社 外界認識装置及び外界認識方法
WO2024009386A1 (ja) * 2022-07-05 2024-01-11 日立Astemo株式会社 画像処理装置及び画像処理方法
WO2024157410A1 (ja) * 2023-01-26 2024-08-02 日立Astemo株式会社 画像処理装置、撮像装置及び画像処理方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243456A (ja) 2000-02-29 2001-09-07 Toshiba Corp 障害物検出装置及び障害物検出方法
JP2001273488A (ja) 2000-03-27 2001-10-05 Toshiba Corp 障害物検出装置
JP2003209858A (ja) 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2003256875A (ja) 2002-02-27 2003-09-12 Fuji Heavy Ind Ltd ステレオ画像の位置ずれ調整装置、位置ずれ調整方法、およびステレオ式監視装置
JP2004258266A (ja) 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ及びそれを用いた距離画像入力装置
JP2005251123A (ja) 2004-03-08 2005-09-15 National Institute Of Advanced Industrial & Technology 画像処理装置および画像処理方法
JP2006054504A (ja) 2004-08-09 2006-02-23 Olympus Corp 画像生成方法および装置
JP2009041972A (ja) 2007-08-07 2009-02-26 Toshiba Corp 画像処理装置及びその方法
JP2009276233A (ja) 2008-05-15 2009-11-26 Toyota Central R&D Labs Inc パラメータ計算装置、パラメータ計算システムおよびプログラム
JP2012075060A (ja) 2010-09-30 2012-04-12 Hitachi Automotive Systems Ltd 画像処理装置及びそれを用いた撮像装置
WO2016189878A1 (ja) 2015-05-27 2016-12-01 京セラ株式会社 演算装置、カメラ装置、車両及びキャリブレーション方法
JP2017528685A (ja) 2014-05-30 2017-09-28 オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited 車両位置の推定

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3897984B2 (ja) * 2001-02-02 2007-03-28 三菱電機株式会社 監視カメラのキャリブレーション方法及び道路監視用カメラ
JP2008187566A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
JP5820787B2 (ja) * 2012-08-30 2015-11-24 株式会社デンソー 画像処理装置、及びプログラム
JP2015119372A (ja) * 2013-12-19 2015-06-25 株式会社日立製作所 マルチカメラ撮影システムおよびマルチカメラ撮影画像の合成方法
CN107194972B (zh) * 2017-05-16 2021-04-02 成都通甲优博科技有限责任公司 一种摄像机标定方法及系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243456A (ja) 2000-02-29 2001-09-07 Toshiba Corp 障害物検出装置及び障害物検出方法
JP2001273488A (ja) 2000-03-27 2001-10-05 Toshiba Corp 障害物検出装置
JP2003209858A (ja) 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2003256875A (ja) 2002-02-27 2003-09-12 Fuji Heavy Ind Ltd ステレオ画像の位置ずれ調整装置、位置ずれ調整方法、およびステレオ式監視装置
JP2004258266A (ja) 2003-02-25 2004-09-16 Olympus Corp ステレオアダプタ及びそれを用いた距離画像入力装置
JP2005251123A (ja) 2004-03-08 2005-09-15 National Institute Of Advanced Industrial & Technology 画像処理装置および画像処理方法
JP2006054504A (ja) 2004-08-09 2006-02-23 Olympus Corp 画像生成方法および装置
JP2009041972A (ja) 2007-08-07 2009-02-26 Toshiba Corp 画像処理装置及びその方法
JP2009276233A (ja) 2008-05-15 2009-11-26 Toyota Central R&D Labs Inc パラメータ計算装置、パラメータ計算システムおよびプログラム
JP2012075060A (ja) 2010-09-30 2012-04-12 Hitachi Automotive Systems Ltd 画像処理装置及びそれを用いた撮像装置
JP2017528685A (ja) 2014-05-30 2017-09-28 オックスフォード ユニバーシティ イノベーション リミテッドOxford University Innovation Limited 車両位置の推定
WO2016189878A1 (ja) 2015-05-27 2016-12-01 京セラ株式会社 演算装置、カメラ装置、車両及びキャリブレーション方法

Also Published As

Publication number Publication date
JP2020012735A (ja) 2020-01-23
WO2020017334A1 (ja) 2020-01-23
CN112424565B (zh) 2023-01-03
CN112424565A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
JP7219561B2 (ja) 車載環境認識装置
JP5870273B2 (ja) 物体検出装置、物体検出方法及びプログラム
CN110348454B (zh) 匹配局部图像特征描述符
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
CN110992356A (zh) 目标对象检测方法、装置和计算机设备
KR102455632B1 (ko) 스테레오 매칭 방법 및 장치
JP2017526082A (ja) 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体
JP2019138822A (ja) 3次元計測システム及び3次元計測方法
CN112083403B (zh) 用于虚拟场景的定位追踪误差校正方法及系统
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
CN111142514B (zh) 一种机器人及其避障方法和装置
JP4701848B2 (ja) 画像マッチング装置、画像マッチング方法および画像マッチング用プログラム
US20170069072A1 (en) Image processing apparatus, image processing system, and image processing method
WO2020209046A1 (ja) 物体検出装置
CN114519681A (zh) 自动标定方法及装置、计算机可读存储介质、终端
US10949988B2 (en) Information processing apparatus, information processing method, and program
JP2009186287A (ja) 平面パラメータ推定装置、平面パラメータ推定方法及び平面パラメータ推定プログラム
JP4524514B2 (ja) 画像処理装置、画像処理方法、および記録媒体
CN114764823A (zh) 自校正的深度计算方法、系统、介质及深度图像处理设备
JP2019120590A (ja) 視差値算出装置、視差値算出方法及びプログラム
JP7195785B2 (ja) 3次元形状データを生成する装置、方法、及びプログラム
JP6843552B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP2017045124A (ja) 視差検出装置
JP6655869B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018049396A (ja) 形状推定方法、形状推定装置および形状推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230127

R150 Certificate of patent or registration of utility model

Ref document number: 7219561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150