JP2004257837A - Stereo adapter imaging system - Google Patents
Stereo adapter imaging system Download PDFInfo
- Publication number
- JP2004257837A JP2004257837A JP2003048323A JP2003048323A JP2004257837A JP 2004257837 A JP2004257837 A JP 2004257837A JP 2003048323 A JP2003048323 A JP 2003048323A JP 2003048323 A JP2003048323 A JP 2003048323A JP 2004257837 A JP2004257837 A JP 2004257837A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- stereo adapter
- stereo
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、ステレオアダプタを装着した車載カメラを用いて距離計測を行うステレオアダプタ撮像システムに関する。
【0002】
【従来の技術】
車載カメラに関しては種々の技術が提案されている(例えば、特許文献1乃至3参照)。
【0003】
上記特許文献1には、2眼のステレオカメラを構成するのに、特殊で頑強なカメラシャーシの両端にカメラを固定し、シャーシを車体にフロントガラスと隙間を設けて固定する技術が開示されている。この技術によれば、直射日光防止、温度によるねじれ防止になる。
【0004】
また、上記特許文献2には、カメラから得られた画像をカメラパラメータに基づき三次元空間の空間モデルにマッピングする技術が開示されている。この技術により、簡便に三次元画像を提供することができる。
【0005】
また、上記特許文献3には、移動体に基線長だけ隔たってそれぞれ配置された障害物探査用投・受光部を有し、投光部から互いに交差するように光ビームを放射して障害物からの反射光を受光部で受光し、移動体と障害物との距離及び両者の相対速度を検出する距離・速度検出手段と、該距離・速度検出手段の検出出力から前期相対速度の基線に垂直な成分を算出する算出手段とを具備する距離・速度予知装置が開示されている。
【0006】
【特許文献1】
特許3148749号公報
【0007】
【特許文献2】
特許3286306号公報
【0008】
【特許文献3】
特許3214932号公報
【0009】
【発明が解決しようとする課題】
しかしながら、上述した特許文献3に開示された技術では、車両に光ビームなどの特殊なセンサを搭載する必要があり、コストがかかるという問題があった。また、従来の車載カメラでは、2眼式のステレオカメラを利用したものが多く、以下のような問題があった。
【0010】
(1)ステレオカメラ同期問題:2台のカメラの同期をとるために複雑な回路構成や特殊なカメラを利用する必要があった。
【0011】
(2)撮像素子感度ばらつき問題:2台のカメラ、特にCCD,CMOS等の撮像素子の感度などにばらつきがあるために、ステレオカメラが撮影した左右の画像間で、同一被写体の明るさや色の違い等が現れるため、正確でロバストなステレオマッチングを実現することが困難であった。
【0012】
(3)機械的強度問題:2台のステレオカメラをベースライン分の間隔をおいて配置するため、車載環境においては、高温、高湿などの悪環境下で2台のステレオカメラの位置ずれやたわみなどのずれが発生し易いという問題があり、ただ単に2台のカメラを配置するだけでは機械的強度が弱いという問題があった。従来技術でこれを解決するためには、カメラを高温多湿でも確実に固定するための頑強で特殊な取り付け治具を必要とした。
【0013】
(4)キャリブレーション問題:2台のステレオカメラを利用するために、カメラキャリブレーションが複雑になるという問題があった。
【0014】
本発明は、上記の点に鑑みてなされたもので、機械的構造が本質的に頑強なステレオアダプタを利用したステレオ計測に基づく三次元距離計測を行い、その情報をもとに車両の安全走行を提供できるステレオアダプタ撮像システムを提供することを目的とする。
【0015】
【課題を解決するための手段】
上記の目的を達成するために、請求項1に記載の発明によるステレオアダプタ撮像システムは、車両に装着し、距離計測を行うステレオアダプタ撮像システムにおいて、
撮像光学系を有する撮像装置と、
上記撮像装置でステレオ画像を撮影するために、複数視点から見た像を1つの上記撮影光学系に導くステレオアダプタと、
上記撮像装置で撮影したステレオ画像より三次元再構成を含む処理を行い、三次元距離情報を提供する処理装置と、
上記撮像装置及び処理装置を制御する制御装置と、
を具備することを特徴とする。
【0016】
また、請求項2に記載の発明によるステレオアダプタ撮像システムは、請求項1に記載の発明によるステレオアダプタ撮像システムにおいて、上記制御装置は、上記処理装置から得られた処理結果を画面に表示する表示装置を有することを特徴とする。
【0017】
また、請求項3に記載の発明によるステレオアダプタ撮像システムは、請求項1に記載の発明によるステレオアダプタ撮像システムにおいて、上記制御装置は、運転者に警告を発する警告装置を更に有することを特徴とする。
【0018】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
【0019】
[第1の実施の形態]
図1は、本発明の第1の実施の形態に係るステレオアダプタ撮像システムの構成を示す図であり、本ステレオアダプタ撮像システムは、ステレオアダプタ101、撮像装置102、処理装置103、制御装置104、入力装置105、警告装置106、運転装置107、表示装置108、車速センサ109、測距レーダ110、照度センサ111、外部カメラ112、GPS113、VICS114、及び外部通信装置115からなる。
【0020】
ここで、上記ステレオアダプタ101は、図2に示すように、カメラ等の撮像装置102内部にある撮像光学系102Aの前方に取り付けられ、撮像素子102Bに視差画像201を形成するために用いられるものであり、同一被写体1からの光を所定距離離間した2つの受光部位(ミラー101A−1,101A−2)で受光し、この受光した各々の光を撮像装置102の撮像光学系102Aに導く光学系(ミラー101B−1,101B−2)が設けられている。
【0021】
なお、ステレオアダプタ101の構成としては、このような構造に限定されるものではなく、当然、各種の変形、変更が可能である。例えば、ミラー101B−1,101B−2は上下反転しても良く、その際、撮像装置102は被写体1の向きに位置することになる。
【0022】
このようなステレオアダプタ101を利用することにより、ステレオ画像撮影用でない一般の撮像装置を用いて、簡便にステレオ画像を撮影することができる。また、ステレオアダプタ101は、2台の撮像装置を用いてステレオ画像を撮影する方式と比べて機械的強度があるため、左右の画像が常に安定して取得できる。さらに、1つのCCD,CMOSなどの撮像素子で撮像することにより、2台の撮像装置間に起因する感度ばらつきを抑えることが可能となり、2台の撮像装置設置に伴う、キャリブレーションの手間や、位置合わせ等の煩雑さを軽減できる。
【0023】
そして、本実施の形態では、このようなステレオアダプタ101と撮像装置102(あるいはそれらに加えて処理装置103)によって、ステレオアダプタカメラ116を構成している。このステレオアダプタカメラ116は、図3に示すように、車両300の車内および車外の任意の位置(ハッチングして示す位置)に装着することが可能である。車両300の車外に装着する際は、車両のボンネット、ピラー、ヘッドライト等に装着可能であり、車外のさまざまな方向から撮影が可能である。その際、ステレオアダプタカメラ116に防滴、防汚、熱線等の処理を施すことにより、耐久性が向上する。また、車両300の車内に装着する際は、ダッシュボート上、ルームミラー等に装着可能であり、汚れ等に強いという特徴を持つ装着箇所となる。
【0024】
本実施の形態によると、車両300の車外を様々な方向から撮影することが可能となり、運転者の死角を無くす効果がある。また、本ステレオアダプタ撮像システムにより、詳細は後述するように、三次元距離情報が取得でき、対象物との距離によって、運転者に危険を警告し、安全走行を促すことができる。
【0025】
なお、この発明の実施の形態は、当然、各種の変形、変更が可能である。
【0026】
例えば、ステレオアダプタカメラ116は、図3にハッチングして示した装着箇所以外にも装着可能であり、また、ステレオアダプタカメラ116の個数を増やしたり減らしても良く、さらには一個のステレオアダプタカメラ116であっても良い。また、図4で示されるように、車外で使用するためには、ミラー前にガラスカバーやプラスチックカバーなどのカバー116Aを付けることにより、塵、雨、結露等の汚れ対策ができる。さらに、これらのカバー116Aは開閉機構付きや、ワイパー、エアーダクト等の装置が付いていても良い。
【0027】
一方、処理装置103は、上記ステレオアダプタ101を通して撮像装置102から撮影された画像から三次元再構成等の処理を行い、三次元距離画像等の作成を行う。制御装置104は、画像情報と車両情報を統括する役割を持っており、例えば、処理装置103で処理された結果を表示装置108に表示したり、処理装置103で得られた距離情報と車速センサ109等の情報とを分析して、警告装置106に警告を発生させたり、運転装置107を制御して運転者に安全運転を促すことができるようになっている。また、入力装置105は、例えば、リモコン等の入力機器を用いて制御装置104に指示を与え、モード等の切り換えを行うことができる。
【0028】
さらに、警告装置106は、音声装置106A,振動装置106Bなどから成り、例えば、音声装置106Aはスピーカ等からの音声、振動装置106Bは運転席シートの振動により運転者に警告を発するものである。
【0029】
本実施の形態によると、ステレオアダプタ101から得られた画像情報と車両情報を統合することができ、表示装置108による画像情報の表示、警告装置106による警告、運転装置107の制御等により、運転者に安全走行を促すことができる。
【0030】
本実施の形態では、ステレオアダプタ101と撮像装置102と処理装置103などは別々の装置部として構成されているものとして説明してきたが、勿論、こうした装置構成としてはいろいろな変形例を考えることができる。
【0031】
例えば、ステレオアダプタ101と撮像装置102と処理装置103などは、ユニットとして一体化し、画像撮影後に物体データなどを出力する部分を担当とし、制御装置104との通信には、有線ばかりでなく無線でも通信できることが可能である。無線通信としては、一般的な通信プロトコルばかりではなく、ローカル通信を可能とするBlue Tooth、IR通信でも良い。
【0032】
図5は、上記処理装置103の構成を表したものである。本実施の形態では、処理装置103は、フレームメモリ103A、レクティフィケーション処理部103B、三次元再構成部103C、物体認識部103D、キャリブレーション部103Eから構成される。
【0033】
即ち、上記ステレオアダプタ101を介して撮像装置102が撮像した画像は、該処理装置103内のフレームメモリ103Aに一時的に格納される。この際、撮像装置102がアナログ信号を送出する場合には、フレームメモリ103A内でデジタル信号に変換される。撮像装置102がデジタル信号を送出する場合には、そのままデジタル信号として格納される。そして、格納されたデジタル信号の画像であるデジタル画像202は、レクティフィケーション処理部103Bに送出される。レクティフィケーション処理部103Bでは、供給されたデジタル画像202を、ステレオ対応が容易になるような画像変換を行うと共に、その結果を左画像203及び右画像204として、三次元再構成部103Cに送出する。三次元再構成部103Cでは、それら左画像203と右画像204の各画素に関する対応点探索を行い、その対応関係を用いて、視差画像あるいは三次元距離画像205を作成する。そして、物体認識部103Dは、その視差画像あるいは三次元距離画像205を利用して、その中にある物体あるいは物体領域を認識し、その結果である物体データ206を出力する。
【0034】
一方、キャリブレーション部103Eは、レクティフィケーション処理部103Bあるいは三次元再構成部103Cあるいは物体認識部103Dで必要となる上記撮像装置102の特性パラメータやステレオアダプタ101の特性パラメータなどを算出する。そして、レクティフィケーション処理部103Bへは、レクティフィケーションに必要となる撮像装置102の特性パラメータやステレオアダプタ101の特性パラメータ(レクティフィケーションパラメータ207)を受け渡し、三次元再構成部103Cへは、距離計測に必要となるステレオアダプタ101の特性パラメータ(三次元再構成用パラメータ208)などを受け渡す。一方、物体認識部103Dへは、視差画像や距離画像を規定するパラメータ(物体認識用パラメータ209)を受け渡す。
【0035】
(1) 数学的準備
以下、このような処理装置103を構成する各部の詳細を説明するものであるが、これらの各部を説明を開始する前に、ステレオアダプタ101を利用した場合の、三次元再構成に基本となる数学的な説明を行う。
【0036】
まず、ステレオアダプタ101を利用して撮像装置102で画像を撮影すると、その画像は、撮像装置102内の撮像素子102B(例えばCCDやCMOSなどの半導体素子)で画像として結像されると共に画像信号となる。この画像信号はアナログあるいはデジタル信号であるが、処理装置103内では、デジタル画像データとなる。デジタルデータは二次元配列として表現できるが、勿論、六方細密充填のようなハニカム構造の二次元配列でも良いことは当然である。また、インターレース方式の画像では、一つのフレームの中に偶数,奇数フィールド間のずれが発生する可能性があるが、このずれが処理に影響を与える場合には、垂直方向に画像を半分にしたり、偶数,奇数フィールドを別々に処理することによって、距離分解能を落とさずに、ずれの影響を解決することができる。さらに、時系列方向に画像の差分を算出し、動体検出等を行い、移動体の領域のみを処理したりすることによって高速化することも考えられる。ここでは簡単のために、処理装置103内のフレームメモリ103Aで規定される画像について、その画素は正方あるいは長方格子状に定義できると仮定する。
【0037】
いま、画像の座標系を(u,v)と定義する。このとき、ステレオアダプタ101と撮像装置102を規定するために、ワールド座標系を定義する。例えば、このワールド座標系は、車体や車両300が規定する基準座標系であると考えても良い(この基準座標系に関しては、詳しく後述する)。このワールド座標系をWとする。また、ワールド座標系で定義される点P(x,y,z)を、ステレオアダプタ101を介して撮影した際のフレームメモリ103A内の画像位置を(u,v)とするとき、実際には、図6の(A)に示すようにステレオアダプタ101で撮影される画像は、図6の(B)に示すように、あたかも2台の撮像装置(カメラ)で2台のフレームメモリが存在するかのごとく通常のステレオカメラに展開することができる。例えば、ステレオアダプタ101と撮像装置102とフレームメモリ103Aの光学的特性をピンホールカメラでモデル化することを考える。
【0038】
即ち、左画像203に関連するピンホールカメラモデルの座標系を左カメラ座標系Lとし、右画像204に関連するピンホールカメラモデルの座標系を右カメラ座標系Rとする。また、左カメラ座標系L内の点を(xL,yL,zL)、その画像対応点を(uL,vL)、右カメラ座標系R内の点を(xR,yR,zR)、その画像対応点を(uR,vR)とすると、uL,vL,uR,vRは、図6の(A)及び(B)におけるカメラ位置CL,CRを考慮しながら、
【数1】
(2) レクティフィケーション処理部103B
ワールド座標系で定義される点P(x,y,z)の左画像内での位置を(uL,vL)、右画像内での位置を(uR,vR)とし、左画像で想定される撮像装置102とフレームメモリ103Aに対応する左カメラLのワールド座標系における位置CL(左カメラ座標系の原点)と、右画像で想定される撮像装置102とフレームメモリ103Aに対応する右カメラRのワールド座標系における位置CR(右カメラ座標系の原点)を考えることができる。このとき、ワールド座標系Wの点P(x,y,z)から左(uL,vL)へ射影される変換式と、同一の点から右(uR,vR)へ射影される変換式は、以下のように書くことができる。
【0039】
【数2】
【0040】
一方、撮像装置102の撮像光学系102Aの光学レンズなどのレンズディストーションが三次元計測の要求精度に対して無視できない場合には、レンズディストーションを含めた光学系を考える必要がある。この場合には、上記式(3)及び式(4)は、以下に示すような式(5)及び式(6)で表現することができる。これらの式では、レンズディストーションを表現するのにラディアルディストーション(Radial Distortion)とタンジェンシャルディストーション(Tangential Distortion)を表したものであるが、勿論これら以外のディストーション表現であっても良い。
【0041】
【数3】
【0042】
【数4】
【0043】
以降、説明を簡単にするために、式(1)で表されるピンホールカメラモデルを中心に説明する。
【0044】
上記のように、左カメラLと右カメラRに基づいてワールド座標系W内の点P(x,y,z)とその左画像と右画像への射影点(uL,vL)と(uR,vR)を考えるが、一般的なステレオカメラシステムと同様に、これらの対応する点同士が、必ずしも同一の縦方向の座標値vを有するとは限らない。即ち、vL=vRであるとは限らないわけである。この条件が成立しないと、後述する三次元再構成部103Cでのステレオマッチング(対応点探索)に膨大な計算量を有することになる。従って、例えば文献E. Trucco and A. Verri, Introductory Techniques for 3−D Computer Vision, Prentice Hall, 1998に述べられているように、レクティフィケーションの処理を行うのが一般的である。具体的には、図7に示されるように、ステレオアダプタ101で得られる1枚の画像中の左画像領域と右画像領域で、左画像領域にある各画素(uL,vL)の右画像領域における対応点が、同一の縦画像座標となるように、左画像領域と右画像領域の両方を座標変換する。例えばその方法は、以下のように書くことができる。
【0045】
【数5】
【0046】
【数6】
【0047】
【数7】
【0048】
【数8】
【0049】
【数9】
【0050】
【数10】
【0051】
このように、回転変換を考えることにより、レクティフィケーションを実現することができる。
【0052】
【数11】
【0053】
[レクティフィケーション処理ステップ]
具体的なステップは、以下の通りである。
【0054】
【数12】
【0055】
【数13】
【0056】
ここではレクティフィケーション処理の一手法を説明したが、勿論この方法には各種の手法がある。その変形に関しては文献E. Trucco and A. Verri, Introductory Techniques for 3−D Computer Vision, Prentice Hall, 1998に示されているので、ここでは詳しく述べない。また本説明では、レンズのディストーションが小さいとしてレクティフィケーション処理を説明してきたが、式(5)や式(6)で示されるようなレンズディストーションがある場合には、それらを予め除去してレクティフィケーション処理をすることができることは明白である。例えば、レンズディストーション除去を含めた処理を考えると、具体的なステップは以下の通りである。
【0057】
[ディストーション除去を含むレクティフィケーションステップ]
【数14】
【0058】
【数15】
【0059】
以上、レクティフィケーション処理の数学的基本を説明してきたが、図5におけるレクティフィケーション処理部103Bでは、このような数学的手法に基づいて、ステレオアダプタ101と撮像装置102で撮影された画像を左右の画像である左画像203と右画像204を生成する機能を有する。
【0060】
(3) 三次元再構成部103C
三次元再構成部103Cでは、上記レクティフィケーション処理部103Bが生成した左画像203および右画像204を利用して、左画像203の各画素点に対応する右画像204の対応点を探索し、その対応点間の関係に基づいて、三次元距離画像205を生成する機能を有する。
【0061】
ここでは、その方法を説明する。先に説明したように、レクティフィケーション処理部103Bからの出力である画像では、左画像203の各ラインと右画像204の同一ラインを扱うとき、左画像203のそのライン上の画素に対応する点は、右画像204の同一ライン上になければならないという必要条件を与えるものである。この必要条件は、一般的に、エピポーラライン拘束条件と呼ばれる。この三次元再構成部103Cでは、この条件を利用しながら左画像203の各画素点に対応する右画像204内の画素点を探索することをまず行う。
【0062】
これらの手法に関しては、参考文献:松山他編、コンピュータビジョン:技術評論と将来展望、新技術コミュニケーションズ、1998, pp. 123−137に表されるように、いわゆるステレオマッチングの手法では、area−based matchingの手法とfeature−based matchingの両方の手法が考えられる。本三次元再構成部103Cでは、この何れを利用しても良い。ここでは、簡単のために、area−based matchingの手法を採用して三次元再構成を行う方法について解説する。
【0063】
【数16】
【0064】
類似度(あるいは非類似度)の定義としては、1)局所領域(ウィンドウ)内の各画素間の差の絶対値の和(SAD)、2)局所領域内の各画素間の差の2乗和(SSD)、3)局所領域内の各画素間の正規化相関(NCC)などがあり、SADあるいはSSDの場合には、その値を最小とするもの、NCCの場合には正規化相関を最大とするものによって、最適な対応点とするわけである。
【0065】
【数17】
【0066】
【数18】
【0067】
というようにすることも可能である。このように信頼度を考慮する場合には、勿論、未対応点を有する画素が左画像203あるいは右画像204に存在することもあり得る。
【0068】
【数19】
【0069】
【数20】
【0070】
このようにして三次元再構成部103Cでは、左画像203の画素に対応する三次元座標値(x,y,z)を計算することができる。ここで、(x,y,z)は、レクティフィケーション処理で利用したレクティフィケーション座標系Rectを基準とした三次元座標値である。
【0071】
今までの説明では、左画像203の各画素を標準として対応点探索と三次元再構成を行ってきたが、勿論、右画像204を標準として対応点探索と三次元再構成を行うことも容易である。また、車両300の振動等により画像のぶれが生じる影響が大のときには、手ぶれ防止機能を付加して、画像のぶれ補正を行った後に、三次元再構成を行うことが考えられる。このために、振動を検知するジャイロセンサや加速度センサを付加する。この場合には、手ぶれ補正機能により、キャリブレーション時の光学中心情報が変動することが想定される。しかし、そのずれ量は、上記ジャイロセンサや加速度センサの手ぶれ補正情報から算出できる量であるので、そのずれ量分をレクティフィケーション処理部103Bで補正をかけることが可能である。または、ステレオアダプタ101装着時の画像フレームの変動量等を検知することにより、ジャイロセンサ、加速度センサ等の補正量に相当する情報を取得することも可能である。
【0072】
図10の(A)及び(B)は、このようにして算出された距離画像を示したものである。即ち、図10の(A)は撮影された画像であり、図10の(B)はその画像から距離を算出した結果を示す図であって、輝度が高いほど距離が近いことを示す。
【0073】
このようにして、三次元再構成部103Cは、三次元座標値(x,y,z)から構成される三次元距離画像205を生成する。この三次元距離画像205は、次に物体認識部103Dに送出される。また、物体認識部103Dが、視差画像を直接利用する場合には、三次元距離画像205の代わりに視差画像を送出しても良い。
【0074】
(4) 物体認識部103D
三次元距離画像205が、三次元再構成部103Cで生成された後、物体認識部103Dは、その三次元距離画像205内に含まれる各種物体を検出あるいは認識する。図11は、前方車載カメラに対する物体認識部103Dの構成例を表したものである。
【0075】
この物体認識部103Dは、例えば車が道路上を走行している場合に、車前方にある道路領域210と非道路領域211を抽出する道路抽出部103D1、道路領域210内から道路面にある二次元物体を抽出する道路面内物体抽出部103D2、及び、三次元距離画像205内から抽出された道路領域210と非道路領域211とを利用して、道路面にない障害物物体を認識する障害物認識部103D3から構成され、そして、道路面内物体抽出部103D2から物体データ206Aを出力し、障害物認識部103D3から物体データ206Bを出力するものである。
【0076】
いま、三次元再構成部103Cが出力した三次元点の集合をAallとする。このとき、道路抽出部103D1では、まず車前方にある領域の一部を抽出し、その中から滑らかな平面あるいは曲面を抽出する。この方法としては、例えば三次元距離画像205の各三次元座標値pi=(xi,yi,zi)について、その近傍の値を求めて法線ベクトルniを推定する。そして、その法線ベクトルniのヒストグラムを作成し、そのヒストグラム中のピークとなる主法線ベクトルnを求める。このようにして求めた主法線ベクトルnが道路面の主法線ベクトルであると仮定する。このように主法線ベクトルnが求まったところで、nを法線とするような三次元座標点pi=(xi,yi,zi)を三次元距離画像205を構成する全データの集合Aallから選択する。即ち、各三次元座標pi=(xi,yi,zi)に対して、
ntpi=d …(27)
で平面を近似し、その中の未知パラメータdを異常値を除去しながら推定する方法を採用する。このようにしてnとdを推定した後、各点pi=(xi,yi,zi)がこの道路を記述する平面内にあるかどうかを判定することになる。その判定方法としては、フィッティング誤差であるεが
ε=|ntpi−d|<threshold …(28)
なる閾値thresholdの範囲にあるものは、道路面内にあると判定する。このようにして得られた三次元点の集合をAroadとする。またAroadの集合にノイズ成分が含まれている場合には、適切なノイズフィルタを適用してノイズ除去した道路面内の点の集合をAroadと再定義する。
【0077】
道路面内物体抽出部103D2では、道路面内の点集合Aroadの中から、道路の特徴として重要となるランドマークなどを抽出する。これらランドマークとしては、白線などのレーン情報、レーン内にある各種文字コードなどである。これらを認識するために、まず道路面内物体抽出部103D2では、点集合Aroadに対応するレクティフィケーションが施された左画像203あるいは右画像204からレーンや文字コードに対応する画像特徴を抽出する。この方法については、例えば塙他、自動車用ステレオ画像認識装置の実用化、第3回動画像処理実利用化ワークショップ, 2002, pp.106−110、または、大塚他、エッジ方向成分を用いたレーンマーク認識、第3回動画像処理実利用化ワークショップ, 2002, pp.96−101などに紹介されているので、その方法の詳細についてはここでは詳しく述べない。ただし、本方式では、最初に道路面が三次元構造として抽出されているので、道路面以外にあるレーンに似た画像特徴や文字コードなどを誤って抽出する確率が少なくなっていることが特徴である。そして、このように画像から抽出された道路特徴(白線や文字コードなど)は、その特徴とともに三次元データとして表現できるというメリットがあるわけである。このことについては後述する。
【0078】
次にAroadの補集合として、非道路領域の点の集合を
【数21】
として定義する。この非道路領域Anon−roadに対して処理を施して、障害物などの物体認識をするのが障害物認識部103D3である。障害物認識部103D3では、非道路領域211以外の障害物を三次元点群データにより解析する。具体的には、Anon−road内の三次元データをクラスタ分析することにより解析することになる。この方法には、以下のような方法がある。
【0079】
まず、非道路領域211内の点集合Anon−roadを細かく分割して、小領域の部分集合群{Bi}
【数22】
を構成する。これは、例えば画像処理で良く用いられるblobの形で構成されるわけである。例えば、図12の(A)に示されるように、画像処理で良く用いられるblob群で構成される。図12の(A)において、距離に基づいて抽出された領域であるBiが、領域blob群212として表現され、同一の濃淡レベルは距離を表すとすると、本来は同一物体内の領域が、図に示す通り、分割される可能性があるわけである。
【0080】
そこで、この部分集合Biの属性情報を算出する。この属性情報としては、例えば、位置、色、グレー階調などである。これらの属性パラメータをベクトルの形qiで表現する(ここでiは領域に関するインデックスであり、qiはm次元ベクトルである。)そしてこの属性に関しては、その平均値と分布の広がりを表す共分散行列も付与することにする。例えば、Biの属性の中の位置に関する平均値は重心となり、その共分散行列は位置に関する2次モーメント(moment of inertia)となるわけである。このとき、これら小領域Biと小領域Bjが統合できるかを、
【数23】
このようにして、いったん小領域の分割した後、領域の統合処理や膨張処理を行うことで、道路面内に無い物体を領域として分離しかつ分類することができるわけである。こうして得られた領域は、その領域の属性が物体データとして送出される。図12の(A)で統合された領域を、図12の(B)に示す。この図12の(B)において、参照番号213は、統合された領域blob群で物体を構成した場合を示している。
【0081】
(5) キャリブレーション部103E
キャリブレーション部103Eは、レクティフィケーション処理部103B、三次元再構成部103C、物体認識部103Dで必要となる各種パラメータを主にオフラインで推定する処理部である。即ち、ステレオアダプタ101を車両300などに最初に設置したり、その設置位置を変更した際にのみ行う処理を担当する。
【0082】
【数24】
【0083】
一方、三次元再構成部103Cで使用される式(24),式(25),式(26)で使用される各種固定パラメータも、本キャリブレーション部103Eで算出される。
【0084】
また、物体認識部103Dで使用されるパラメータとしては、車体とステレオアダプタ101との位置関係に関するパラメータがある。即ち、物体認識部103Dで、撮像装置座標系に基づいて計測あるいは認識された物体や障害物の位置は、以下に述べる位置関係に関するキャリブレーション結果に基づいて、車両300からの距離や相対的な位置として算出することができるようになる。つまり、レクティフィケーション処理部103Bで説明したワールド座標系と車両300が規定する座標系を同一なものにするように、撮像装置102と車両300間の位置関係を規定するものである。こうしたパラメータの算出は、以下のような方法を採用すれば良い。即ち、ステレオアダプタ101を介して撮像装置102で撮影された画像を処理するわけである。つまり、車体あるいは車体外にある車体に対して相対的な場所が既知な特徴点を撮像装置102で撮影することにより、撮像装置102と車体との相対的な位置関係を推定するものである。
【0085】
ステレオアダプタ101などのステレオ撮影装置を利用して、車体(車両300)に相対する障害物や物体を認識および位置姿勢推定を正確に行うためには、ステレオ撮影装置の車体(車両300)に対する相対的な位置姿勢を正確に行う必要がある。
【0086】
これを行う方法としては、車両300と撮像装置102の取り付け設計値に基づく方法が最も容易であることは明白である。即ち、車両300の基準座標系と撮像装置102が規定する座標系間の座標変換パラメータが設計値で与えられれば良い。この理想的な場合に、例えば、車両300の最前方のバンパ中央を車両300の基準座標系として、この座標系をM(xM,yM,zM)で表し、撮像装置102の座標系(ステレオ撮影装置の場合には、レクティフィケーションで基準となる座標系)をS(xS,yS,zS)で表すとすれば、撮像装置座標系Sから車両基準座標系Mへの座標変換を式:
【数25】
で表すことが可能となる。ここで(MRS,MTS)は3×3の回転行列と三次元並進ベクトルを表す。このような座標変換が求まれば、撮像装置102の座標系Sで計測されたデータは、車両300が基準とする座標系Mでの表現が可能となるので、例えば、撮像装置102を基準として計測した障害物までの距離情報に関しても、同様に車両300が基準とする座標系の原点から障害物までの距離として表現することができるわけである。即ち、障害物が撮像装置102の座標系で(xS,yS,zS)と表されれば、式(32)を利用することで車両座標系での位置(xM,yM,zM)にすることが可能となり、例えば車両座標系Mの原点から障害物までの距離は、
【数26】
と表現できるわけで、これらを利用すれば、処理装置103内で先に説明されたような各種の距離表現や警告に利用することができるわけである。
【0087】
しかしながら、撮像装置102を車両300に正確に取り付ける設計値が得られている場合には、上記のような方法を採用することができるが、車両300に任意に取り付ける場合や、設計値が必ずしも正確ではない場合には、正確なキャリブレーション処理を施す必要がある。このように、撮像装置102の取り付けの設計値が正確に与えられない場合のキャリブレーション処理について、これから説明する。
【0088】
具体的には、これらを求める方法としては、図13の(A)に参照番号214,215,216で示すように、(1)車両300に関するCADモデルを利用する方法、(2)特別なキャリブレーション治具を車両300に簡易的に取り付ける方法、(3)車両300を正確な位置に駐車して路上に配置されたキャリブレーションマーカを利用する方法が考えられる。
【0089】
例えば、車両300のCADモデルを利用する場合について、図13の(A)を参照して解説する。
【0090】
図13の(A)において、特徴抽出部103E1において、ステレオアダプタカメラ116で撮影された後レクティフィケーション処理を行ったステレオ画像217を画像処理して、キャリブレーションに必要な特徴データを抽出および算出する。その後、位置姿勢推定部103E2により、この特徴抽出部103E1が出力する特徴データ218と車両CADモデル214とを用いて、撮像装置102と車両300間の相対的位置姿勢を推定する。そして、この位置姿勢推定部103E2は、その推定した撮像装置102と車両300間の相対的位置姿勢情報を、式(32)で表現されるような座標変換パラメータ219として算出することになる。
【0091】
本形態では、車両CADモデル214を利用する方法を説明するが、ここでは簡単のために、撮像装置102は車両300の前方を観察するカメラであるとして、これからその方法を説明する。これは、図13の(B)にあるように、車両ボンネットなど前部にある特徴点あるいはマーク点などを画像処理方法によって抽出および認識するわけである。この特徴点としては、曲面構成で曲率が急に変化する点、ヘッドランプ上部のエッジ部、あるいは曲線や直線成分であっても良い。これらは、車両CADモデル214から車両座標系で規定された正確な位置座標が予めわかっているわけである。いま、これらn個の特徴点の車両座標系Mでの座標値を
【数27】
また、直線や曲線などの場合には、例えば文献A. Kosaka and A. C. Kak, Stereo vision for industrial applications, Handbook of Industrial Robotics, Second Edition, edited by S. Nof, Chapter 14, John Wiley, 1999のような方法で画像内からそれらを抽出して、線分あるいは曲線分として表現できる形で抽出する。こうして、左画像203あるいは右画像204から得られた特徴点は、その画像内位置座標が特徴データ218として表現されることになる。
【0092】
【数28】
【0093】
例えば文献:A. Kosaka and A. C. Kak, Stereo vision for industrial applications, Handbook of Industrial Robotics, Second Edition, edited by S. Nof, Chapter 14, John Wiley, 1999、あるいは文献:R. Haralick and L. Shapiro. ”Computer and Robot Vision ”, Addison Wesley, Vol 2, 1992の方法で、撮像装置102の座標系Sと車両座標系Mの間の座標変換パラメータ(MRS,MTS)を求めることができる。この作業は、位置姿勢推定部103E2が担当する。その方法に関しては、上記の文献に詳しく説明されているので、ここでは詳細には述べない。
【0094】
一方、ステレオ画像217を撮影する撮像装置102の左画像203あるいは右画像204に車両300の前方が撮影できないような場合には、車両300にキャリブレーション治具を取り付けることで、同様に撮像装置102と車両300間の座標変換パラメータ(MRS,MTS)を算出することができる。即ち、図14に示すように、例えば車両300の前方にキャリブレーション治具117を装着し、そのキャリブレーション治具117を、撮像装置102で撮影することで座標変換パラメータ(MRS,MTS)を算出するわけである。この際、キャリブレーション治具117には、キャリブレーション用のマーカ118が設置されており、その座標値は車両座標系Mで既知となるように設計されている。
【0095】
【数29】
【0096】
【数30】
【0097】
以上、説明してきたように、キャリブレーション部103Eは、撮像装置102に関わるキャリブレーションや、レクティフィケーションで必要となるパラメータの算出や、撮像装置102の座標系と車両300が規定する座標系間のキャリブレーションなどを行う。
【0098】
次に、図1における表示装置108の表示例について説明する。
即ち、表示装置108は、処理装置103により、撮影された画像に対して前述した三次元再構成等の処理を行って抽出した道路の平面あるいは曲面形状を、図18に示すように、その表示部108A上に表示するものであり、更にこのとき、車両300から等間隔離れた道路面上の点群を直線あるいは曲線L1,L2,L3でスーパーインポーズ表示する。さらに、処理装置103によってその道路上の前方を走る車両T1,T2等を認識することで、該表示装置108は、その前方車両を外包する楕円を表示すると共に、前方車両T1,T2等までの距離を表示する。
【0099】
また、処理装置103が信号や標識等を認識し、図19に示すように表示部108Aの一部に設けた拡大表示エリア108A1にそれを拡大表示したり、処理装置103がレーンを認識し、図20に示すようにフロントガラスに矢印等のマーク108B1,108B2を投影表示して、運転者が見落とし易い情報を視覚的に提供するようにしても良い。
【0100】
このような表示形態によると、運転者に視覚的な情報を提供できるため、安全走行を促すことができる。また、客観的な距離情報を表示するため、運転者の錯覚等のあやまりを低減でき、危険を早い段階で回避することができる。
【0101】
なお、この発明の実施の形態は、当然、各種の変形、変更が可能である。
【0102】
例えば、図18に示したような直線あるいは曲線L1等の数は何本でも良く、車両T1等は障害物や人間等でも良い。また、外包する楕円は長方形であっても良く、距離表示は数字の他に色等の表現でも良い。外包する楕円または長方形は必ずしも必要ではなく、L1等の表現のみでも良い。さらに、図21に示すように、認識した道路上にグリッドを表示する形態も考えられる。また、図22に示すように車両300(前方を走る車両T1,T2等及び自車A1)を上方から表示する形態や、図23に示すように横から表示する形態が考えられる。また、本実施の形態では、二次元の表示であるが、当然、俯瞰図のような三次元表示も可能である。
【0103】
さらに、表示装置108の表示部としては、図20に参照番号108Cで示すように、カーナビゲーション装置の画面を用いることなどが考えられるが、当然、ヘッドアップディスプレイや、ヘッドマウンドディスプレイ等の専用のディスプレイを用いる方法も考えられる。また、ルームミラーの一部や、図20に参照番号108Dで示すように、メーター類の脇に表示部を組み込むという手段も考えられる。
【0104】
また、図24に示すように、様々な情報を組み合わせた表示の形態も考えられる。即ち、地図情報108A2や、信号や標識等の認識結果を表示する部分108A3を、車外を撮影した画像108A4と組み合わせて提示する方法も考えられる。また、警告メッセージ等を表示する部分108A5、モード等を切り換えることのできる部分108A6が備わっていても良い。
【0105】
また、図21,図22,図23の他に三次元空間内において、代表距離位置平面に車両T1,T2等の二次元画像を表示するようにしても良い。これにより、奥行き情報がより明確になり、物体の認識がし易くなる。
【0106】
[第2の実施の形態]
次に、本発明の第2の実施形態を説明する。上記第1の実施の形態では、ステレオ再構成された距離画線を用いて、物体認識する方法に関して説明したが、本第2の実施の形態では、さらにステレオ画像であることを有効に利用した物体認識部の方法について説明する。即ち、物体認識部103Dの別の実施形態について解説する。
【0107】
図25は、本実施の形態における物体認識部103Dの構成を表したものである。即ち、本実施の形態においては、三次元再構成部103Cが出力した三次元距離画像205と同時に、ステレオアダプタ101あるいはステレオカメラが撮影した後にレクティフィケーションされた左画像203あるいは右画像204も物体認識部103Dに入力する。この本物体認識部103D内部には、レクティフィケーションされた左画像203あるいは右画像204の少なくとも一つを入力し、その画像の領域を分割する画像領域分割部103D4と、この画像領域分割部103D4が生成した領域データ220と上記入力された三次元距離画像205とを処理して、物体領域を抽出する物体抽出部103D5とが構成され、この物体抽出部103D5は、障害物や物体のデータである物体データ206を出力するものである。
【0108】
上記画像領域を分割する方法は、例えばSplit−and−Merge法、Spedge−and−Medge法など、数多く知られている。本実施の形態では、このうちの何れの方法であってもかまわない。
【0109】
特に車載カメラでの応用では、前方の障害物検知が重要となるので、障害物の境界線を極めて正確に求める必要がない場合が多い。そのような場合には、例えば、図26の(A)に示されるような縦方向の直線あるいは曲線に感度のあるエッジ抽出フィルタをかけたものと、図26の(B)に示されるような横方向の直線あるいは曲線に感度のあるエッジ抽出フィルタをかけたものと、の両者から得られるエッジを統合して、領域の境界線を構成し、それらの境界線で囲まれる領域に分割する方法で、領域分割することでも良い。例えば、図27の(A)のような原画像に、縦方向エッジ抽出フィルタをかけた結果を図27の(B)に、横方向エッジ抽出フィルタをかけた結果を図27の(C)に、エッジを統合した結果を図27の(D)に、そして領域抽出した結果を図27の(E)に示す。なお、図27の(B)及び(C)で、抽出されたエッジは、正の強度を持つエッジと負の強度を持つエッジとで色を変えて表現してある。また、図27の(E)で示される分割された領域は、異なる色でその領域を表現している。
【0110】
このようにして得られた領域抽出された領域データ220と上記三次元再構成部103Cが算出した三次元距離画像205とに基づいて、物体抽出部103D5は、三次元距離画像205に含まれる物体データ206を算出することを行う。この方法は、領域抽出された各領域Ri(i=1,2,…,n)について、その領域内に含まれる三次元距離画像205の測距点を集める方法である。いま、これらの点をpj(i=1,2,…,m)とする。このとき、pjの中にある異常値を取り除いた後、領域Riに関する平面あるいは曲面のフィッティングを行う。こうしてフィッティングされた平面あるいは曲面をもって、領域が固有する表面形状を近似するわけである。このようにして得られた三次元表面形状をさらに統合しながら、三次元距離画像205を物体あるいは障害物レベルで統合する処理を行い、物体あるいは障害物の検知および認識を行うことになる。このようにすれば、予め三次元距離画像205を簡単な方法で、分割やグルーピングすることができるので、高速に物体認識を行うことができるようになる。
【0111】
また、以上の方法では、路面の認識や標識やレーンマーカなどの認識について詳細には説明しなかったが、その方法は前述した第1の実施の形態で説明した方法と同様である。
【0112】
さらにここでは、路面上のレーンや白線検知の方法に関しても説明する。本実施の形態では、その方法について画像からレーンで抽出する方法と、ステレオ画像を利用した方法について説明する。
【0113】
図28は、その構成を示したものである。即ち、この場合の物体認識部103Dは、左画像203あるいは右画像204の二次元画像を入力して画像変換する画像変換部103D6、この画像変換部103D6によって変換された画像にエッジフィルタを適用して、路面上の白線候補を抽出するエッジ抽出部103D7、このエッジ抽出部103D7によって抽出されたエッジが、路面上のレーンであるかを判定する白線判定部103D8、この白線判定部103D8によって判定されて白線として認定された白線成分を、元の画像座標に変換する逆画像変換部103D9から構成される。
【0114】
ここで、左画像203あるいは右画像204の二次元画像を入力して視点に基づいた画像変換する画像変換部103D6では、路面上の白線が、画像内でほぼ垂直方向に並ぶような変換を施すものである。具体的な例は、原画像の横軸をc、縦軸をrとする。このとき具体的な画像変換としては、極座標変換がある。例えば、図29の(A)及び(B)に示されるような画像領域〔cmin,cmac]×[rmin,rmax]とし、極座標の原点を(c0,r0)として、その原点からの距離dと角度t=thetaとする。このとき、(d,t)を座標変換された極座標の横軸と縦軸にとると、車前方にある白線は、ほぼ垂直方向に配列される。
【0115】
例えば、図27の(A)に示される原画像の下部である白線が存在する部分を切り出し、その部分(図30の(A))を上記のような極座標変換を行うと、図30の(B)に示すような極座標表現画像が生成できる。
【0116】
次に、エッジ抽出部103D7では、この極座標表現画像に縦方向のエッジに敏感なエッジフィルタを施すことによりエッジ成分の抽出を行う。例えば、図30の(B)に示される画像にこのようなエッジ抽出フィルタをかけると、図31の(A)に示されるエッジが抽出される。こうして、ある方向にのみ敏感なエッジ抽出フィルタをかけることで、路面上の影の影響やノイズなどに強いエッジ抽出フィルタを構成することができる。
【0117】
こうして抽出されたエッジ画像について、白線であると判定できるエッジを判定するのは白線判定部103D8である。例えば、この白線判定部103D8では、エッジ強度が正負反転しているほぼ平行であるようなエッジ部分を抽出し、それらの部分群が白線としてある長さ以上存在し、角度方向が存在し得るかなどの、エッジの属性を判断することにより、白線であるかどうかの判定をするわけである。このように白線判定された部分を、図31の(B)内の太線で示す。
【0118】
こうして白線判定部103D8で認定された白線は、元の画像の座標系への逆変換され、白線データ206Cが得られる。この逆変換は、逆画像変換部103D9が担当する。こうして変換されたものを図32に示す。この図32においては、判定された白線が、白線画像108A7として原画像に重畳表示されている。
【0119】
このように、極座標変換のような画像変換を用いることで、白線に対応するようなエッジ成分を効率的に抽出することができ、かつその判定も容易になるという効果がある。
【0120】
以上説明してきた方法は、左あるいは右画像203,204から白線を算出する方法である。勿論この方法は、左画像203と右画像204の両方に適用すると、同一の白線が左画像203と右画像204内から抽出されることになる。即ち、それらの対応をとることにより、上記第1の実施の形態で説明したように白線部分の三次元再構成を行うことが可能となり、そうして三次元再構成されたデータに基づき、路面の三次元情報を計測することができる。またさらに、左画像203あるいは右画像204で誤って認識された白線部分の誤認識判定にも利用することができるので、車両誘導の有効な効果を得ることができる。
【0121】
以上実施の形態に基づいて本発明を説明したが、本発明は上述した実施の形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
【0122】
例えば、上記ステレオアダプタ101の取り付け方法は、その取り付け箇所によって縦置き、横置き等様々な形態が考えられ、例えば、ピラー等に装着するときは、上記ステレオアダプタ101を縦に付けても良い。これにより、車両の形状に適した取り付け方法となり、また、縦置きにすることによって横方向の画角が広がることや、基線長を縦にすることによって縦方向に特徴分布を有した対象物体の認識が容易になる、車両の縦構造物を有効に利用して省スペースな設置が可能、などの効果がある。
【0123】
また、上記撮像装置102は、夜間にヘッドライトを点灯させることによって、その感度を変化させるように構成することが考えられる。あるいは、この処理は、照度センサ等のセンサ類での検出結果に基づいて行っても良い。また、ヘッドライトをハイビームにすることによって、撮像装置102の撮像距離を変化させても良い。
【0124】
車載応用の場合には、車速に応じて観測する画像範囲を変更することが必要になる。例えば高速では、画角を狭くして遠方の障害物を詳細に観察することにより、障害物までのより正確な距離を算出することが重要となる。低速では、逆に画角を広くして画像を処理して、広角に存在する障害物を検知することが重要となる。このように、車速の変化に応じた画角の変化に対応しながらも、処理する画像領域内の解像度を出来るだけ変更しない方法としては(すなわち処理する範囲内の画素数をほぼ一定にするには)、撮影装置内に含まれる撮像素子数(画素数)を増加させておき、その読み出す画素のサンプリングを変化させる、いわゆる電子ズームの方法が有効である。このような電子ズームのズーム値あるいは画像内処理範囲、すなわち実際的には撮影される画角を、車速に応じて変化させて距離計測を行うことを、本ステレオアダプタ撮影装置に適用することも可能である。こうした車速による制御を行うことで、障害物検知をよりロバストあるいは正確に行うことができるようになる。
【0125】
また、ステレオアダプタ撮影装置では、本来は左右2台分の画像を一枚の画像として撮像することになるため、撮影画角によっては、画像の上下部分で、三次元再構成に不要となる画像領域が存在することがある。こうした不必要な処理領域は、もちろん撮影装置で入力する必要がないわけである。例えば撮像素子としてCCDあるいはCMOSなどを利用する場合に、その有効範囲だけを走査しながら素子の電気出力を、フレームメモリなどに転送する場合には、こうした不要処理領域を除いた矩形領域のみをフレームメモリなどに転送することも可能である。こうした転送を行うことで、車載応用のステレオアダプタ撮影装置では、転送量を減少させることが可能となり、処理速度を向上させることができる。
【0126】
また、上記表示装置108については、運転操作等によって表示形式が変化しても良い。例えば、シフトレバーをバックギアに入れたときには、表示部108Aは車両後方の映像を流し、ハンドルを左に切ったときには、車両左前方向の映像を流す等が考えられる。
【0127】
なお、キャリブレーション部103Eにおいて、キャリブレーション結果を保存するようなメモリ等の記憶部材を具備しても良い。
【0128】
また、上記ステレオアダプタ101に用いられるレンズ、ミラー、フィルタの表面は、酸化チタン等の超親水処理コートを施しても良く、また、ステレオアダプタ101ならびに撮像装置102の撮影レンズを気密処理し、乾燥窒素などを封入しても良い。
【0129】
さらに、ステレオアダプタ101の各光学素子にヒータを設けたり、車載の曇止めデフロスタの気流を導くダクトや、独自に温風ヒータを一体化させるなどして、結露を防止したりしても良い。
【0130】
これにより、防露、防曇、水滴による結像性能の劣化を防ぐよう構成しても良い。
【0131】
また、冷却用のファンを設けたり、ステレオアダプタ101の筐体自体をヒートシンクとして用い、熱歪みや電子回路の誤動作を防ぐように構成しても良い。
【0132】
また、ステレオアダプタ101の光路に相当する部分は反射防止塗装を施すが、それ以外の部分は耐環境性を考慮して、赤外を反射するような塗装にしても良く、また、車種により問題となるフロントガラスなどへの映り込みを防ぐために、黒色塗装を施すようにしても良い。
【0133】
なお、以上の実施の形態で説明した各種処理や表示形態は、ステレオアダプタ101だけではなく、複数のカメラを用いたシステムにも同様に適用でき、同様の効果が得られることは言うまでもない。
【0134】
(付記)
前記の具体的実施の形態から、以下のような構成の発明を抽出することができる。
【0135】
(1) 車両に装着し、距離計測を行うステレオアダプタ撮像システムにおいて、
撮像光学系を有する撮像装置と、
上記撮像装置で視差画像を撮影するために、複数視点から見た像を1つの上記撮影光学系に導くステレオアダプタと、
上記撮像装置で撮影した視差画像より三次元再構成を含む処理を行い、三次元距離情報を提供する処理装置と、
上記撮像装置及び処理装置を制御する制御装置と、
を具備することを特徴とするステレオアダプタ撮像システム。
【0136】
(作用効果)
この(1)に記載のステレオアダプタ撮像システムによれば、機械的構造が本質的に頑強なステレオアダプタを利用したステレオ計測に基づく三次元距離計測を行い、その情報をもとに車両の安全走行を提供できる。また、悪環境下でも利用可能な車載の三次元計測装置を実現することができる。
【0137】
(2) 上記ステレオアダプタは、車外に装着されていることを特徴とする(1)に記載のステレオアダプタ撮像システム。
【0138】
(作用効果)
この(2)に記載のステレオアダプタ撮像システムによれば、ステレオアダプタを車外に装着することによって、フロントガラス等の写りこみをなくし、安定した画像の取得が行える。
【0139】
(3) 上記ステレオアダプタは、車内に装着されていることを特徴とする(1)に記載のステレオアダプタ撮像システム。
【0140】
(作用効果)
この(3)に記載のステレオアダプタ撮像システムによれば、ステレオアダプタを車内に装着することによって、安定した環境で画像の取得が行える。
【0141】
(4) 上記処理装置は、
上記撮像装置から得られた情報から距離を算出する距離算出部と、
この距離算出部による距離算出結果から三次元再構成を行う三次元再構成部と、
を有することを特徴とする(1)に記載のステレオアダプタ撮像システム。
【0142】
(作用効果)
この(4)に記載のステレオアダプタ撮像システムによれば、撮像装置から得られたステレオ画像に対して距離算出の処理を行い、その結果を基に三次元再構成等の処理を行う。
【0143】
(5) 上記制御装置は、上記処理装置から得られた処理結果を画面に表示する表示装置を有することを特徴とする(1)に記載のステレオアダプタ撮像システム。
【0144】
(作用効果)
この(5)に記載のステレオアダプタ撮像システムによれば、処理装置から得られた処理結果、例えば、三次元距離画像等の結果を画面に表示することができる。
【0145】
(6) 上記制御装置は、車載センサの情報を受け取ることを特徴とする(1)に記載のステレオアダプタ撮像システム。
【0146】
(作用効果)
この(6)に記載のステレオアダプタ撮像システムによれば、車両情報を提供する車載センサの情報を受け取り、状況に応じてシステムを制御することができる。
【0147】
(7) 上記制御装置は、外部通信装置の情報を受け取ることを特徴とする(1)に記載のステレオアダプタ撮像システム。
【0148】
(作用効果)
この(7)に記載のステレオアダプタ撮像システムによれば、外部通信装置の情報を受け取り、システムを制御することができる。
【0149】
(8) 上記制御装置は、運転者に警告を発する警告装置を更に有することを特徴とする(1)に記載のステレオアダプタ撮像システム。
【0150】
(作用効果)
この(8)に記載のステレオアダプタ撮像システムによれば、安全走行を促すため、運転者に警告を発することができる。
【0151】
(9) 上記表示装置は、車外の道路環境を表示する表示部を有することを特徴とする(5)に記載のステレオアダプタ撮像システム。
【0152】
(作用効果)
この(9)に記載のステレオアダプタ撮像システムによれば、運転者の死角となるような箇所も含めた車外の道路環境を表示することができる。
【0153】
(10) 上記表示装置は、車両前方の道路環境を表示する表示部を有することを特徴とする(5)に記載のステレオアダプタ撮像システム。
【0154】
(作用効果)
この(10)に記載のステレオアダプタ撮像システムによれば、車外前方の道路環境を運転者に知らせることができる。
【0155】
(11) 上記表示装置は、車両後方の道路環境を表示する表示部を有することを特徴とする(5)に記載のステレオアダプタ撮像システム。
【0156】
(作用効果)
この(11)に記載のステレオアダプタ撮像システムによれば、車外後方の道路環境を運転者に知らせることができる。
【0157】
(12) 上記表示装置は、車両側方の道路環境を表示する表示部を有することを特徴とする(5)に記載のステレオアダプタ撮像システム。
【0158】
(作用効果)
この(12)に記載のステレオアダプタ撮像システムによれば、車両側方の道路環境を運転者に知らせることができる。
【0159】
(13) 上記表示装置は、距離情報を撮影画像に重畳することを特徴とする(5)に記載のステレオアダプタ撮像システム。
【0160】
(作用効果)
この(13)に記載のステレオアダプタ撮像システムによれば、三次元距離画像等の結果を撮影した画面に重畳することによって、運転者に視覚的な情報を提供することができる。
【0161】
(14) 上記車載センサは、車速センサであることを特徴とする(6)に記載のステレオアダプタ撮像システム。
【0162】
(作用効果)
この(14)に記載のステレオアダプタ撮像システムによれば、車両の状況を検出し、それに応じた情報を運転者に提供できる。
【0163】
(15) 上記車載センサは、測距レーダであることを特徴とする(6)に記載のステレオアダプタ撮像システム。
【0164】
(作用効果)
この(15)に記載のステレオアダプタ撮像システムによれば、前車などとの距離を検出し、それに応じた情報を運転者に提供できる。
【0165】
(16) 上記車載センサは、照度センサであることを特徴とする(6)に記載のステレオアダプタ撮像システム。
【0166】
(作用効果)
この(16)に記載のステレオアダプタ撮像システムによれば、車両の状況を検出し、それに応じた情報を運転者に提供できる。
【0167】
(17) 上記車載センサは、外部カメラであることを特徴とする(6)に記載のステレオアダプタ撮像システム。
【0168】
(作用効果)
この(17)に記載のステレオアダプタ撮像システムによれば、車両の状況を検出し、それに応じた情報を運転者に提供できる。
【0169】
(18) 上記車載センサは、グローバル・ポジショニング・システム (GPS)であることを特徴とする(6)に記載のステレオアダプタ撮像システム。
【0170】
(作用効果)
この(18)に記載のステレオアダプタ撮像システムによれば、車両の位置を検出し、それに応じた情報を運転者に提供できる。
【0171】
(19) 上記車載センサは、Vehicle Information and Communication System (VICS)であることを特徴とする(6)に記載のステレオアダプタ撮像システム。
【0172】
(作用効果)
この(19)に記載のステレオアダプタ撮像システムによれば、交通情報を検出し、それに応じた情報を運転者に提供できる。
【0173】
(20) 上記警告装置は、距離計測結果に基づいて警告を発生することを特徴とする(8)に記載のステレオアダプタ撮像システム。
【0174】
(作用効果)
この(20)に記載のステレオアダプタ撮像システムによれば、処理装置から得られた障害物との距離計測結果に基づき運転者に警告を発生する。
【0175】
(21) 上記警告装置は、表示部を用いて警告を発生する警告発生表示部を有することを特徴とする(8)に記載のステレオアダプタ撮像システム。
【0176】
(作用効果)
この(21)に記載のステレオアダプタ撮像システムによれば、表示部を用いて警告を表示し、運転者に安全運転を促すことができる。
【0177】
(22) 上記警告装置は、音声を用いて警告を発生する音声発生装置を有することを特徴とする(8)に記載のステレオアダプタ撮像システム。
【0178】
(作用効果)
この(22)に記載のステレオアダプタ撮像システムによれば、音声を用いて運転者に警告を発することができる。
【0179】
(23) 上記警告装置は、振動を用いて警告を発生する振動発生装置を有することを特徴とする(8)に記載のステレオアダプタ撮像システム。
【0180】
(作用効果)
この(23)に記載のステレオアダプタ撮像システムによれば、振動を用いて運転者に警告を発することができる。
【0181】
(24) 上記音声発生装置は、スピーカを用いて警告を発生することを特徴とする(22)に記載のステレオアダプタ撮像システム。
【0182】
(作用効果)
この(24)に記載のステレオアダプタ撮像システムによれば、車両あるいは、システムに搭載されたスピーカを用いて音声を発生する。
【0183】
(25) 上記振動発生装置は、運転席のシートを振動させることを特徴とする(23)に記載のステレオアダプタ撮像システム。
【0184】
(作用効果)
この(25)に記載のステレオアダプタ撮像システムによれば、運転席のシートを振動させることで運転者に警告を発する。
【0185】
(26) 上記撮像装置は、車速に応じて画角を調整することを特徴とする(1)に記載のステレオアダプタ撮像システム。
【0186】
(作用効果)
この(26)に記載のステレオアダプタ撮像システムによれば、車速に応じて画角を調節することで、処理すべき画像範囲の大きさを一定にしながら、三次元再構成や物体認識を行うことができるので、よりロバストで正確な物体認識を実現することができる。特に車両の速度が大きいときには、遠方の物体についても詳細な三次元距離画像を生成することができるので、ロバストな物体認識を実現することができる。
【0187】
【発明の効果】
以上詳述したように、本発明によれば、機械的構造が本質的に頑強なステレオアダプタを利用したステレオ計測に基づく三次元距離計測を行い、その情報をもとに車両の安全走行を提供できるステレオアダプタ撮像システムを提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係るステレオアダプタ撮像システムの構成を示す図である。
【図2】ステレオアダプタの構成を説明するための図である。
【図3】ステレオアダプタカメラの車両への取り付け位置を示す図である。
【図4】ステレオアダプタの前面にカバーを取り付けた構成を示す図である。
【図5】処理装置の構成を示す図である。
【図6】(A)はステレオアダプタの視野を示す図であり、(B)はその展開図である。
【図7】レクティフィケーション処理を説明するための図である。
【図8】レクティフィケーション処理における座標変換方法を説明するための図である。
【図9】area−based matchingの手法を説明するための図である。
【図10】(A)は撮影された画像を示す図であり、(B)はその画像から距離を算出した結果を示す図である。
【図11】物体認識部の構成を示す図である。
【図12】(A)は距離に基づく領域blob群を説明するための図であり、(B)はblob統合化によって抽出された物体を説明するための図である。
【図13】(A)はキャリブレーション部の構成を示す図であり、(B)は車両ボンネットなど前部にある特徴点を説明するための図である。
【図14】車両へのキャリブレーション治具の装着状態を示す図である。
【図15】キャリブレーション治具を撮影した場合の特徴点を説明するための図である。
【図16】路面にキャリブレーションマーカを配置した場合のキャリブレーションマーカと車両の位置関係を示す図である。
【図17】路面に配置したキャリブレーションマーカを撮影した場合の特徴点を説明するための図である。
【図18】表示装置の表示例を示す図である。
【図19】表示装置の別の表示例を示す図である。
【図20】表示装置の他の表示例を示す図である。
【図21】表示装置の更に別の表示例を示す図である。
【図22】表示装置の他の表示例を示す図である。
【図23】表示装置の別の表示例を示す図である。
【図24】表示装置の更に別の表示例を示す図である。
【図25】本発明の第2の実施の形態に係るステレオアダプタ撮像システムにおける物体認識部の構成を示す図である。
【図26】(A)は縦方向エッジ抽出フィルタを示す図であり、(B)は横方向エッジ抽出フィルタを示す図である。
【図27】(A)は原画像を、(B)は縦方向エッジ抽出フィルタをかけた結果を、(C)は横方向エッジ抽出フィルタをかけた結果を、(D)はエッジを統合した結果を、(E)は領域抽出した結果をそれぞれ示す図である。
【図28】路面上の白線検知を行う場合の物体認識部の構成を示す図である。
【図29】極座標変換を説明するための図である。
【図30】(A)は図27の(A)の原画像の下部を切り出した図であり、(B)は(A)を極座標変換した極座標表現画像を示す図である。
【図31】(A)は図30の(B)に示される画像にエッジ抽出フィルタをかけた結果を示す図であり、(B)は白線と判定結果を示す図である。
【図32】認定された白線を元の画像の座標系へ逆変換した結果を示す図である。
【符号の説明】
101…ステレオアダプタ、101A−1,101A−2,101B−1,101B−2…ミラー、102…撮像装置、102A…撮像光学系、102B…撮像素子、103…処理装置、103A…フレームメモリ、103B…レクティフィケーション処理部、103C…三次元再構成部、103D…物体認識部、103D1…道路抽出部、103D2…道路面内物体抽出部、103D3…障害物認識部、103D4…画像領域分割部、103D5…物体抽出部、103D6…画像変換部、103D7…エッジ抽出部、103D8…白線判定部、103D9…逆画像変換部、103E…キャリブレーション部、103E1…特徴抽出部、103E2…位置姿勢推定部、104…制御装置、106…警告装置、106A…音声装置、106B…振動装置、108…表示装置、108A…表示部、108A1…拡大表示エリア、108B1,108B2…マーク、108A2…地図情報、108A3…信号や標識等の認識結果を表示する部分、108A4…車外を撮影した画像、108A5…警告メッセージ等を表示する部分、108A6…モード等を切り換えることのできる部分、108A7…白線画像、116…ステレオアダプタカメラ、116A…カバー、300…車両。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a stereo adapter imaging system that performs distance measurement using a vehicle-mounted camera equipped with a stereo adapter.
[0002]
[Prior art]
Various technologies have been proposed for in-vehicle cameras (for example, see
[0003]
[0004]
Further,
[0005]
Further, Patent Literature 3 has an obstacle detecting / projecting / light receiving unit which is disposed at a distance of a base line from a moving object, and emits a light beam so as to intersect each other from the light emitting unit. Distance / speed detecting means for receiving the reflected light from the light receiving unit and detecting the distance between the moving body and the obstacle and the relative speed of the two, and from the detection output of the distance / speed detecting means to the base line of the relative speed. A distance / velocity prediction device including a calculation unit for calculating a vertical component is disclosed.
[0006]
[Patent Document 1]
Japanese Patent No. 3148749
[0007]
[Patent Document 2]
Japanese Patent No. 3286306
[0008]
[Patent Document 3]
Japanese Patent No. 3214932
[0009]
[Problems to be solved by the invention]
However, in the technology disclosed in Patent Document 3 described above, it is necessary to mount a special sensor such as a light beam on a vehicle, and there is a problem that the cost is high. In addition, many conventional in-vehicle cameras use a binocular stereo camera, and have the following problems.
[0010]
(1) Stereo camera synchronization problem: In order to synchronize two cameras, it was necessary to use a complicated circuit configuration and a special camera.
[0011]
(2) Image sensor sensitivity variation problem: The brightness and color of the same subject are different between left and right images taken by a stereo camera due to variations in the sensitivity and the like of two cameras, especially image sensors such as CCD and CMOS. Because of differences, it has been difficult to achieve accurate and robust stereo matching.
[0012]
(3) Mechanical strength problem: Since two stereo cameras are arranged at intervals of a baseline, in a vehicle environment, the position of the two stereo cameras may be displaced in a bad environment such as high temperature and high humidity. There is a problem that displacement such as deflection is likely to occur, and there is a problem that mechanical strength is weak if two cameras are simply arranged. In order to solve this problem in the prior art, a robust and special mounting jig for securely fixing the camera even at high temperature and high humidity was required.
[0013]
(4) Calibration problem: There is a problem that camera calibration becomes complicated because two stereo cameras are used.
[0014]
The present invention has been made in view of the above points, and performs three-dimensional distance measurement based on stereo measurement using a stereo adapter whose mechanical structure is inherently robust, and performs safe driving of a vehicle based on the information. It is an object of the present invention to provide a stereo adapter imaging system that can provide a stereo adapter.
[0015]
[Means for Solving the Problems]
To achieve the above object, a stereo adapter imaging system according to the first aspect of the present invention is a stereo adapter imaging system that is mounted on a vehicle and performs distance measurement.
An imaging device having an imaging optical system;
A stereo adapter that guides images viewed from a plurality of viewpoints to one imaging optical system in order to capture a stereo image with the imaging device;
A processing device that performs processing including three-dimensional reconstruction from a stereo image captured by the imaging device, and provides three-dimensional distance information,
A control device for controlling the imaging device and the processing device;
It is characterized by having.
[0016]
The stereo adapter imaging system according to the second aspect of the present invention is the stereo adapter imaging system according to the first aspect of the present invention, wherein the control device displays on a screen a processing result obtained from the processing device. It is characterized by having a device.
[0017]
The stereo adapter imaging system according to the third aspect of the present invention is the stereo adapter imaging system according to the first aspect, wherein the control device further includes a warning device that issues a warning to a driver. I do.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0019]
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration of a stereo adapter imaging system according to a first embodiment of the present invention. The stereo adapter imaging system includes a
[0020]
Here, as shown in FIG. 2, the
[0021]
Note that the configuration of the
[0022]
By using such a
[0023]
In the present embodiment, the
[0024]
According to the present embodiment, it is possible to photograph the outside of the
[0025]
It is to be noted that various modifications and changes can be made to the embodiment of the present invention.
[0026]
For example, the
[0027]
On the other hand, the
[0028]
Further, the
[0029]
According to the present embodiment, the image information obtained from the
[0030]
In the present embodiment, the
[0031]
For example, the
[0032]
FIG. 5 illustrates a configuration of the
[0033]
That is, the image captured by the
[0034]
On the other hand, the
[0035]
(1) Mathematical preparation
Hereinafter, the details of each unit configuring the
[0036]
First, when an image is captured by the
[0037]
Now, the coordinate system of the image is defined as (u, v). At this time, a world coordinate system is defined to define the
[0038]
That is, the coordinate system of the pinhole camera model related to the
(Equation 1)
(2) Rectification processing unit 103B
Let the position of the point P (x, y, z) defined in the world coordinate system in the left image be (u L , V L ), The position in the right image is (u R , V R ), The position C in the world coordinate system of the left camera L corresponding to the
[0039]
(Equation 2)
[0040]
On the other hand, when the lens distortion of the optical lens of the imaging
[0041]
[Equation 3]
[0042]
(Equation 4)
[0043]
Hereinafter, for the sake of simplicity, the description will focus on the pinhole camera model represented by equation (1).
[0044]
As described above, based on the left camera L and the right camera R, the point P (x, y, z) in the world coordinate system W and its projection point (u) on the left and right images L , V L ) And (u R , V R ), These corresponding points do not always have the same vertical coordinate value v as in a general stereo camera system. That is, v L = V R Is not always the case. If this condition is not satisfied, an enormous amount of calculation is required for stereo matching (corresponding point search) in the three-
[0045]
(Equation 5)
[0046]
(Equation 6)
[0047]
(Equation 7)
[0048]
(Equation 8)
[0049]
(Equation 9)
[0050]
(Equation 10)
[0051]
Thus, rectification can be realized by considering rotation conversion.
[0052]
[Equation 11]
[0053]
[Rectification processing step]
The specific steps are as follows.
[0054]
(Equation 12)
[0055]
(Equation 13)
[0056]
Here, one method of the rectification process has been described, but of course, there are various methods in this method. The deformation is described in reference E. Trucco and A. Verri, Introductory Technologies for 3-D Computer Vision, Prentice Hall, 1998, and will not be described in detail here. Also, in this description, the rectification processing has been described assuming that the distortion of the lens is small. However, if there is a lens distortion as shown in Expressions (5) and (6), these are removed in advance and the rectification Obviously, the fiction processing can be performed. For example, when considering processing including lens distortion removal, specific steps are as follows.
[0057]
[Rectification step including distortion removal]
[Equation 14]
[0058]
(Equation 15)
[0059]
The mathematical basis of the rectification process has been described above. The rectification processing unit 103B in FIG. 5 converts an image captured by the
[0060]
(3) Three-
The three-
[0061]
Here, the method will be described. As described above, in the image output from the rectification processing unit 103B, when each line of the
[0062]
For these methods, see References: Matsuyama et al., Computer Vision: Technical Review and Future Prospects, New Technology Communications, 1998, pp. As represented by 123-137, in the so-called stereo matching method, both an area-based matching method and a feature-based matching method are conceivable. The three-
[0063]
(Equation 16)
[0064]
The similarity (or dissimilarity) is defined as 1) the sum of the absolute values of the differences between the pixels in the local region (window) (SAD), and 2) the square of the difference between the pixels in the local region. Sum (SSD), 3) Normalized correlation (NCC) between each pixel in the local area, and the like. In the case of SAD or SSD, the value is minimized. In the case of NCC, the normalized correlation is calculated. The optimum corresponding point is determined by the maximum value.
[0065]
[Equation 17]
[0066]
(Equation 18)
[0067]
It is also possible to do so. When the reliability is taken into account in this way, pixels having uncorresponding points may exist in the
[0068]
[Equation 19]
[0069]
(Equation 20)
[0070]
In this way, the three-
[0071]
In the description so far, the corresponding point search and the three-dimensional reconstruction have been performed using each pixel of the
[0072]
FIGS. 10A and 10B show the distance images calculated in this manner. That is, FIG. 10A is a photographed image, and FIG. 10B is a diagram showing a result of calculating a distance from the image, where the higher the luminance, the closer the distance.
[0073]
Thus, the three-
[0074]
(4)
After the three-
[0075]
The
[0076]
Assume that the set of three-dimensional points output by the three-
n t p i = D (27)
And a method of estimating an unknown parameter d therein while removing an abnormal value. After estimating n and d in this way, each point p i = (X i , Y i , Z i ) Is in the plane describing this road. As a determination method, ε which is a fitting error is
ε = | n t p i −d | <threshold (28)
Those that are within the range of the threshold threshold are determined to be within the road surface. The set of three-dimensional points obtained in this way is denoted by A load And Also A load If a set of points contains a noise component, the set of points on the road surface from which noise has been removed by applying an appropriate noise filter load Is redefined.
[0077]
In the road surface object extraction unit 103D2, the point set A in the road surface load , Landmarks and the like that are important as features of the road are extracted. These landmarks include lane information such as white lines, and various character codes in the lanes. In order to recognize these, first, the road surface object extraction unit 103D2 uses the point set A load Then, an image feature corresponding to a lane or a character code is extracted from the
[0078]
Then A load Set of points in the non-road area as the complement of
(Equation 21)
Is defined as This non-road area A non-road The obstacle recognition unit 103D3 performs processing on the object and recognizes an object such as an obstacle. The obstacle recognition unit 103D3 analyzes obstacles other than the
[0079]
First, the point set A in the
(Equation 22)
Is composed. This is configured in the form of a blob often used in image processing, for example. For example, as shown in FIG. 12A, it is composed of a blob group often used in image processing. In FIG. 12A, a region B, which is an area extracted based on the distance, i Is expressed as a region blob group 212, and assuming that the same gray level represents a distance, the region within the same object may be divided as shown in the figure.
[0080]
Therefore, this subset B i Is calculated. The attribute information includes, for example, a position, a color, and a gray gradation. These attribute parameters are represented by the vector form q i (Where i is an index for the area and q i Is an m-dimensional vector. For this attribute, a covariance matrix representing the average value and the spread of the distribution is also given. For example, B i The mean value for the position in the attribute is the center of gravity, and its covariance matrix is the moment of inertia for the position. At this time, these small areas B i And small area B j Can be integrated?
[Equation 23]
In this way, once the small region is divided, by performing the region integration process and the expansion process, an object that is not on the road surface can be separated and classified as a region. In the region thus obtained, the attribute of the region is transmitted as object data. The region integrated in FIG. 12A is shown in FIG. In FIG. 12B, reference numeral 213 indicates a case where an object is configured by an integrated area blob group.
[0081]
(5)
The
[0082]
(Equation 24)
[0083]
On the other hand, various fixed parameters used in the equations (24), (25), and (26) used in the three-
[0084]
The parameters used in the
[0085]
In order to accurately recognize an obstacle or an object facing the vehicle body (vehicle 300) and accurately estimate the position and orientation using a stereo photographing device such as the
[0086]
Obviously, the easiest way to do this is based on the mounting design values of the
(Equation 25)
Can be expressed by here( M R S , M T S ) Represents a 3 × 3 rotation matrix and a three-dimensional translation vector. If such coordinate conversion is obtained, the data measured in the coordinate system S of the
(Equation 26)
If these are used, it can be used for various distance expressions and warnings as described above in the
[0087]
However, when a design value for accurately attaching the
[0088]
Specifically, as a method for obtaining these, as shown by
[0089]
For example, a case where a CAD model of the
[0090]
In FIG. 13A, the feature extraction unit 103E1 performs image processing on a stereo image 217 that has been photographed by the
[0091]
In the present embodiment, a method using the
[Equation 27]
Further, in the case of a straight line or a curve, for example, reference Kosaka and A.K. C. Kak, Stereo vision for industrial applications, Handbook of Industrial Robotics, Second Edition, edited by S.K. These are extracted from the image by a method such as Nof, Chapter 14, John Wiley, 1999, and are extracted in a form that can be expressed as a line segment or a curve segment. In this manner, the feature points obtained from the
[0092]
[Equation 28]
[0093]
For example, reference: A. Kosaka and A.K. C. Kak, Stereo vision for industrial applications, Handbook of Industrial Robotics, Second Edition, edited by S.K. Nof, Chapter 14, John Wiley, 1999; Haralick and L. Shapiro. According to the method of “Computer and Robot Vision”, Addison Wesley,
[0094]
On the other hand, when it is not possible to photograph the front of the
[0095]
(Equation 29)
[0096]
[Equation 30]
[0097]
As described above, the
[0098]
Next, a display example of the
That is, the
[0099]
Further, the
[0100]
According to such a display mode, visual information can be provided to the driver, so that safe driving can be encouraged. In addition, since objective distance information is displayed, it is possible to reduce a driver's illusion and the like, and to avoid danger at an early stage.
[0101]
It is to be noted that various modifications and changes can be made to the embodiment of the present invention.
[0102]
For example, the number of straight lines or curves L1 and the like as shown in FIG. 18 may be any number, and the vehicle T1 and the like may be obstacles or people. Further, the ellipse to be wrapped may be a rectangle, and the distance display may be represented by a color or the like in addition to the numeral. The ellipse or rectangle to be wrapped is not necessarily required, and only the expression such as L1 may be used. Further, as shown in FIG. 21, a form in which a grid is displayed on the recognized road may be considered. In addition, a form in which the vehicle 300 (vehicles T1, T2, etc. running in front and the own vehicle A1) are displayed from above as shown in FIG. 22 or a form in which the
[0103]
Further, as a display unit of the
[0104]
Further, as shown in FIG. 24, a display form in which various pieces of information are combined is also conceivable. That is, a method of presenting the map information 108A2 and the portion 108A3 displaying the recognition result such as a signal and a sign in combination with the image 108A4 photographing the outside of the vehicle is also conceivable. Further, a portion 108A5 for displaying a warning message or the like and a portion 108A6 for switching modes or the like may be provided.
[0105]
In addition to FIGS. 21, 22, and 23, a two-dimensional image of the vehicle T1, T2, or the like may be displayed on a representative distance position plane in a three-dimensional space. As a result, the depth information becomes clearer, and the object can be easily recognized.
[0106]
[Second embodiment]
Next, a second embodiment of the present invention will be described. In the first embodiment, the method of recognizing an object using the stereo reconstructed distance object has been described. However, in the second embodiment, a stereo image is effectively used. The method of the object recognition unit will be described. That is, another embodiment of the
[0107]
FIG. 25 illustrates a configuration of the
[0108]
There are many known methods for dividing the image area, for example, a split-and-merge method, a speed-and-medge method, and the like. In the present embodiment, any of these methods may be used.
[0109]
Particularly, in the case of application to an in-vehicle camera, it is often not necessary to determine the boundary line of the obstacle very accurately because the detection of an obstacle in front is important. In such a case, for example, a vertical straight line or a curved line as shown in FIG. 26A is subjected to a sensitive edge extraction filter, and a vertical straight line or a curved line as shown in FIG. A method in which the edges obtained from both a horizontal straight line or a curved line that has been subjected to a sensitive edge extraction filter are integrated to form a boundary of an area, and divided into areas surrounded by the boundary. In this case, the area may be divided. For example, the result of applying a vertical edge extraction filter to the original image as shown in FIG. 27A is shown in FIG. 27B, and the result of applying the horizontal edge extraction filter is shown in FIG. 27 (D) shows the result of integrating the edges, and FIG. 27 (E) shows the result of region extraction. In FIGS. 27B and 27C, the extracted edges are represented by different colors between edges having a positive intensity and edges having a negative intensity. The divided areas shown in FIG. 27E represent the areas with different colors.
[0110]
Based on the
[0111]
In the above method, the recognition of the road surface and the recognition of the sign, the lane marker, and the like are not described in detail, but the method is the same as the method described in the first embodiment.
[0112]
Further, here, a method of detecting a lane on a road surface and a white line will be described. In the present embodiment, a method of extracting a lane from an image and a method of using a stereo image will be described.
[0113]
FIG. 28 shows the configuration. That is, the
[0114]
Here, the image conversion unit 103D6 that inputs a two-dimensional image of the
[0115]
For example, when a portion where a white line is present, which is a lower portion of the original image shown in FIG. 27A, is cut out and the portion ((A) in FIG. 30) is subjected to the above-described polar coordinate conversion, (FIG. A polar coordinate expression image as shown in B) can be generated.
[0116]
Next, the edge extraction unit 103D7 extracts an edge component by applying an edge filter sensitive to vertical edges to the polar coordinate expression image. For example, when such an edge extraction filter is applied to the image shown in FIG. 30B, the edge shown in FIG. 31A is extracted. In this way, by applying a sensitive edge extraction filter only in a certain direction, it is possible to configure an edge extraction filter that is strong against the influence of shadows on the road surface and noise.
[0117]
It is the white line determination unit 103D8 that determines an edge that can be determined as a white line in the edge image thus extracted. For example, the white line determination unit 103D8 extracts substantially parallel edge portions in which the edge intensities are inverted in the positive / negative direction, and whether those partial groups exist as a white line for a certain length or more, and whether there is an angular direction. By determining the attribute of the edge, for example, it is determined whether the edge is a white line. The portion determined as a white line in this way is indicated by a thick line in FIG.
[0118]
Thus, the white line recognized by the white line determination unit 103D8 is inversely transformed into the coordinate system of the original image, and
[0119]
As described above, by using an image conversion such as a polar coordinate conversion, an edge component corresponding to a white line can be efficiently extracted, and the determination thereof can be easily performed.
[0120]
The method described above is a method of calculating a white line from the left or
[0121]
Although the present invention has been described based on the above embodiments, the present invention is not limited to the above embodiments, and various modifications and applications are possible within the scope of the present invention. is there.
[0122]
For example, the
[0123]
Further, it is conceivable that the
[0124]
In the case of in-vehicle application, it is necessary to change the image range to be observed according to the vehicle speed. For example, at high speeds, it is important to calculate a more accurate distance to an obstacle by narrowing the angle of view and observing the distant obstacle in detail. At low speeds, on the contrary, it is important to process images with a wide angle of view and detect obstacles existing at a wide angle. As described above, as a method of responding to the change of the angle of view corresponding to the change of the vehicle speed and not changing the resolution in the image area to be processed as much as possible (that is, to make the number of pixels in the processing range almost constant) In other words, a so-called electronic zoom method in which the number of imaging elements (the number of pixels) included in the imaging device is increased and the sampling of pixels to be read out is changed is effective. Such distance measurement by changing the zoom value of the electronic zoom or the in-image processing range, that is, the angle of view actually taken according to the vehicle speed may be applied to the stereo adapter photographing apparatus. It is possible. By performing such control based on the vehicle speed, obstacle detection can be performed more robustly or accurately.
[0125]
In addition, since the stereo adapter photographing device originally captures two left and right images as one image, depending on the photographing angle of view, the upper and lower parts of the image may not be necessary for three-dimensional reconstruction. Regions may exist. Such unnecessary processing areas need not be input by the photographing apparatus. For example, when using a CCD or CMOS as an image sensor, when transferring the electrical output of the device to a frame memory while scanning only its effective range, only a rectangular area excluding such unnecessary processing area is framed. It is also possible to transfer to a memory or the like. By performing such a transfer, the amount of transfer can be reduced and the processing speed can be improved in the stereo adapter photographing apparatus for in-vehicle applications.
[0126]
The display format of the
[0127]
Note that the
[0128]
The surfaces of the lens, mirror, and filter used in the
[0129]
Further, a condensation may be prevented by providing a heater for each optical element of the
[0130]
Thereby, the configuration may be such that the image forming performance is prevented from deteriorating due to dew proofing, defogging and water droplets.
[0131]
Further, a cooling fan may be provided, or the housing of the
[0132]
The portion corresponding to the optical path of the
[0133]
Note that the various processes and display modes described in the above embodiments can be applied not only to the
[0134]
(Note)
From the above specific embodiments, inventions having the following configurations can be extracted.
[0135]
(1) In a stereo adapter imaging system mounted on a vehicle and measuring distance,
An imaging device having an imaging optical system;
A stereo adapter that guides images viewed from a plurality of viewpoints to one imaging optical system in order to capture a parallax image with the imaging device;
A processing device that performs processing including three-dimensional reconstruction from the parallax image captured by the imaging device, and provides three-dimensional distance information,
A control device for controlling the imaging device and the processing device;
A stereo adapter imaging system comprising:
[0136]
(Effect)
According to the stereo adapter imaging system described in (1), the three-dimensional distance measurement based on the stereo measurement using the stereo adapter having an essentially robust mechanical structure is performed, and the vehicle is driven safely based on the information. Can be provided. Further, it is possible to realize an in-vehicle three-dimensional measuring device that can be used even in a bad environment.
[0137]
(2) The stereo adapter imaging system according to (1), wherein the stereo adapter is mounted outside a vehicle.
[0138]
(Effect)
According to the stereo adapter imaging system described in (2), by mounting the stereo adapter outside the vehicle, reflection of a windshield or the like is eliminated, and a stable image can be obtained.
[0139]
(3) The stereo adapter imaging system according to (1), wherein the stereo adapter is mounted inside a vehicle.
[0140]
(Effect)
According to the stereo adapter imaging system described in (3), an image can be obtained in a stable environment by mounting the stereo adapter in the vehicle.
[0141]
(4) The processing device
A distance calculation unit that calculates a distance from information obtained from the imaging device;
A three-dimensional reconstruction unit that performs three-dimensional reconstruction from the distance calculation result by the distance calculation unit,
The stereo adapter imaging system according to (1), comprising:
[0142]
(Effect)
According to the stereo adapter imaging system described in (4), distance calculation processing is performed on a stereo image obtained from the imaging device, and processing such as three-dimensional reconstruction is performed based on the result.
[0143]
(5) The stereo adapter imaging system according to (1), wherein the control device includes a display device that displays a processing result obtained from the processing device on a screen.
[0144]
(Effect)
According to the stereo adapter imaging system described in (5), a processing result obtained from the processing device, for example, a result such as a three-dimensional distance image can be displayed on the screen.
[0145]
(6) The stereo adapter imaging system according to (1), wherein the control device receives information of a vehicle-mounted sensor.
[0146]
(Effect)
According to the stereo adapter imaging system described in (6), it is possible to receive the information of the on-board sensor that provides the vehicle information and control the system according to the situation.
[0147]
(7) The stereo adapter imaging system according to (1), wherein the control device receives information of an external communication device.
[0148]
(Effect)
According to the stereo adapter imaging system described in (7), the information of the external communication device can be received and the system can be controlled.
[0149]
(8) The stereo adapter imaging system according to (1), wherein the control device further includes a warning device that issues a warning to a driver.
[0150]
(Effect)
According to the stereo adapter imaging system described in (8), a warning can be issued to the driver to encourage safe driving.
[0151]
(9) The stereo adapter imaging system according to (5), wherein the display device includes a display unit that displays a road environment outside the vehicle.
[0152]
(Effect)
According to the stereo adapter imaging system described in (9), it is possible to display the road environment outside the vehicle including the location that may be the blind spot of the driver.
[0153]
(10) The stereo adapter imaging system according to (5), wherein the display device has a display unit that displays a road environment ahead of the vehicle.
[0154]
(Effect)
According to the stereo adapter imaging system described in (10), the driver can be notified of the road environment ahead of the vehicle.
[0155]
(11) The stereo adapter imaging system according to (5), wherein the display device includes a display unit that displays a road environment behind the vehicle.
[0156]
(Effect)
According to the stereo adapter imaging system described in (11), the driver can be notified of the road environment behind the vehicle.
[0157]
(12) The stereo adapter imaging system according to (5), wherein the display device includes a display unit that displays a road environment on a side of the vehicle.
[0158]
(Effect)
According to the stereo adapter imaging system described in (12), the driver can be notified of the road environment on the side of the vehicle.
[0159]
(13) The stereo adapter imaging system according to (5), wherein the display device superimposes distance information on a captured image.
[0160]
(Effect)
According to the stereo adapter imaging system described in (13), the driver can be provided with visual information by superimposing a result such as a three-dimensional range image on the captured screen.
[0161]
(14) The stereo adapter imaging system according to (6), wherein the on-vehicle sensor is a vehicle speed sensor.
[0162]
(Effect)
According to the stereo adapter imaging system described in (14), the situation of the vehicle can be detected, and information corresponding to the situation can be provided to the driver.
[0163]
(15) The stereo adapter imaging system according to (6), wherein the on-vehicle sensor is a ranging radar.
[0164]
(Effect)
According to the stereo adapter imaging system described in (15), it is possible to detect a distance from a preceding vehicle or the like and provide information corresponding to the distance to the driver.
[0165]
(16) The stereo adapter imaging system according to (6), wherein the on-vehicle sensor is an illuminance sensor.
[0166]
(Effect)
According to the stereo adapter imaging system described in (16), the situation of the vehicle can be detected, and information corresponding to the situation can be provided to the driver.
[0167]
(17) The stereo adapter imaging system according to (6), wherein the on-vehicle sensor is an external camera.
[0168]
(Effect)
According to the stereo adapter imaging system described in (17), the situation of the vehicle can be detected, and information corresponding to the situation can be provided to the driver.
[0169]
(18) The stereo adapter imaging system according to (6), wherein the on-vehicle sensor is a global positioning system (GPS).
[0170]
(Effect)
According to the stereo adapter imaging system described in (18), the position of the vehicle can be detected, and information corresponding to the position can be provided to the driver.
[0171]
(19) The stereo adapter imaging system according to (6), wherein the in-vehicle sensor is a Vehicle Information and Communication System (VICS).
[0172]
(Effect)
According to the stereo adapter imaging system described in (19), traffic information can be detected and information corresponding to the traffic information can be provided to the driver.
[0173]
(20) The stereo adapter imaging system according to (8), wherein the warning device generates a warning based on a distance measurement result.
[0174]
(Effect)
According to the stereo adapter imaging system described in (20), a warning is issued to the driver based on the distance measurement result to the obstacle obtained from the processing device.
[0175]
(21) The stereo adapter imaging system according to (8), wherein the warning device has a warning generation display unit that generates a warning using a display unit.
[0176]
(Effect)
According to the stereo adapter imaging system described in (21), a warning can be displayed using the display unit, and the driver can be prompted to drive safely.
[0177]
(22) The stereo adapter imaging system according to (8), wherein the warning device includes a sound generation device that generates a warning using a sound.
[0178]
(Effect)
According to the stereo adapter imaging system described in (22), a warning can be issued to the driver using sound.
[0179]
(23) The stereo adapter imaging system according to (8), wherein the warning device includes a vibration generating device that generates a warning using vibration.
[0180]
(Effect)
According to the stereo adapter imaging system described in (23), a warning can be issued to the driver using vibration.
[0181]
(24) The stereo adapter imaging system according to (22), wherein the sound generation device generates a warning using a speaker.
[0182]
(Effect)
According to the stereo adapter imaging system described in (24), sound is generated using a vehicle or a speaker mounted on the system.
[0183]
(25) The stereo adapter imaging system according to (23), wherein the vibration generator vibrates a driver's seat.
[0184]
(Effect)
According to the stereo adapter imaging system described in (25), a warning is issued to the driver by vibrating the driver seat.
[0185]
(26) The stereo adapter imaging system according to (1), wherein the imaging device adjusts an angle of view according to a vehicle speed.
[0186]
(Effect)
According to the stereo adapter imaging system described in (26), by adjusting the angle of view according to the vehicle speed, it is possible to perform three-dimensional reconstruction and object recognition while keeping the size of the image range to be processed constant. Therefore, more robust and accurate object recognition can be realized. Particularly when the speed of the vehicle is high, a detailed three-dimensional range image can be generated even for a distant object, so that robust object recognition can be realized.
[0187]
【The invention's effect】
As described in detail above, according to the present invention, a three-dimensional distance measurement based on stereo measurement using a stereo adapter having a mechanical structure that is inherently robust is performed, and a safe driving of the vehicle is provided based on the information. A stereo adapter imaging system that can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a stereo adapter imaging system according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating a configuration of a stereo adapter.
FIG. 3 is a diagram showing a mounting position of a stereo adapter camera to a vehicle.
FIG. 4 is a diagram showing a configuration in which a cover is attached to a front surface of a stereo adapter.
FIG. 5 is a diagram illustrating a configuration of a processing apparatus.
FIG. 6A is a view showing a field of view of a stereo adapter, and FIG. 6B is a developed view thereof.
FIG. 7 is a diagram illustrating a rectification process.
FIG. 8 is a diagram for explaining a coordinate conversion method in the rectification process.
FIG. 9 is a diagram for explaining an area-based matching technique.
10A is a diagram illustrating a captured image, and FIG. 10B is a diagram illustrating a result of calculating a distance from the image.
FIG. 11 is a diagram illustrating a configuration of an object recognition unit.
FIG. 12A is a diagram for explaining a region blob group based on a distance, and FIG. 12B is a diagram for explaining an object extracted by blob integration.
13A is a diagram illustrating a configuration of a calibration unit, and FIG. 13B is a diagram illustrating a feature point at a front portion such as a vehicle hood.
FIG. 14 is a diagram illustrating a state in which a calibration jig is mounted on a vehicle.
FIG. 15 is a diagram for explaining characteristic points when a calibration jig is photographed.
FIG. 16 is a diagram illustrating a positional relationship between a calibration marker and a vehicle when the calibration marker is arranged on a road surface.
FIG. 17 is a diagram for explaining feature points when a calibration marker arranged on a road surface is photographed.
FIG. 18 is a diagram illustrating a display example of the display device.
FIG. 19 is a diagram showing another display example of the display device.
FIG. 20 is a diagram illustrating another display example of the display device.
FIG. 21 is a diagram showing still another display example of the display device.
FIG. 22 is a diagram illustrating another display example of the display device.
FIG. 23 is a diagram showing another display example of the display device.
FIG. 24 is a diagram showing still another display example of the display device.
FIG. 25 is a diagram illustrating a configuration of an object recognition unit in the stereo adapter imaging system according to the second embodiment of the present invention.
26A is a diagram illustrating a vertical edge extraction filter, and FIG. 26B is a diagram illustrating a horizontal edge extraction filter.
27A shows an original image, FIG. 27B shows a result obtained by applying a vertical edge extraction filter, FIG. 27C shows a result obtained by applying a horizontal edge extraction filter, and FIG. (E) is a diagram showing a result of region extraction.
FIG. 28 is a diagram illustrating a configuration of an object recognition unit when detecting a white line on a road surface.
FIG. 29 is a diagram for describing polar coordinate conversion.
30A is a view obtained by cutting out a lower portion of the original image of FIG. 27A, and FIG. 30B is a view showing a polar coordinate expression image obtained by performing a polar coordinate conversion of FIG.
31A is a diagram illustrating a result obtained by applying an edge extraction filter to the image illustrated in FIG. 30B, and FIG. 31B is a diagram illustrating a white line and a determination result.
FIG. 32 is a diagram illustrating a result of inversely converting a recognized white line into a coordinate system of an original image.
[Explanation of symbols]
101: stereo adapter, 101A-1, 101A-2, 101B-1, 101B-2: mirror, 102: imaging device, 102A: imaging optical system, 102B: imaging device, 103: processing device, 103A: frame memory, 103B ··· Rectification processing unit, 103C ··· three-dimensional reconstruction unit, 103D ··· object recognition unit, 103D1 ··· road extraction unit, 103D2 ··· road surface object extraction unit, 103D3 ··· obstacle recognition unit, 103D4 ··· image area division unit 103D5: object extraction unit, 103D6: image conversion unit, 103D7: edge extraction unit, 103D8: white line determination unit, 103D9: inverse image conversion unit, 103E: calibration unit, 103E1: feature extraction unit, 103E2: position and orientation estimation unit, 104: control device, 106: warning device, 106A: audio device, 106B: Moving device, 108 ... Display device, 108A ... Display unit, 108A1 ... Enlarged display area, 108B1, 108B2 ... Mark, 108A2 ... Map information, 108A3 ... Part to display recognition results such as signals and signs, 108A4 ... Image, 108A5: a portion for displaying a warning message, etc., 108A6, a portion capable of switching modes, etc., 108A7, a white line image, 116, a stereo adapter camera, 116A, a cover, and 300, a vehicle.
Claims (3)
撮像光学系を有する撮像装置と、
上記撮像装置でステレオ画像を撮影するために、複数視点から見た像を1つの上記撮影光学系に導くステレオアダプタと、
上記撮像装置で撮影したステレオ画像より三次元再構成を含む処理を行い、三次元距離情報を提供する処理装置と、
上記撮像装置及び処理装置を制御する制御装置と、
を具備することを特徴とするステレオアダプタ撮像システム。In a stereo adapter imaging system mounted on a vehicle and measuring distance,
An imaging device having an imaging optical system;
A stereo adapter that guides images viewed from a plurality of viewpoints to one imaging optical system in order to capture a stereo image with the imaging device;
A processing device that performs processing including three-dimensional reconstruction from a stereo image captured by the imaging device, and provides three-dimensional distance information,
A control device for controlling the imaging device and the processing device;
A stereo adapter imaging system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003048323A JP2004257837A (en) | 2003-02-25 | 2003-02-25 | Stereo adapter imaging system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003048323A JP2004257837A (en) | 2003-02-25 | 2003-02-25 | Stereo adapter imaging system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004257837A true JP2004257837A (en) | 2004-09-16 |
Family
ID=33114307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003048323A Pending JP2004257837A (en) | 2003-02-25 | 2003-02-25 | Stereo adapter imaging system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004257837A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005088717A (en) * | 2003-09-17 | 2005-04-07 | Advanced Telecommunication Research Institute International | Alarm device for automobile |
WO2006121088A1 (en) * | 2005-05-10 | 2006-11-16 | Olympus Corporation | Image processing device, image processing method, and image processing program |
WO2006121087A1 (en) * | 2005-05-10 | 2006-11-16 | Olympus Corporation | Image processing device, image processing method, and image processing program |
JP2006331164A (en) * | 2005-05-27 | 2006-12-07 | Matsushita Electric Ind Co Ltd | Image processing apparatus |
JP2006333009A (en) * | 2005-05-25 | 2006-12-07 | Nissan Motor Co Ltd | Overlooking picture display and overlooking picture displaying method |
JP2007299144A (en) * | 2006-04-28 | 2007-11-15 | Mitsubishi Heavy Ind Ltd | Logo determination device, method and program |
JP2009199284A (en) * | 2008-02-21 | 2009-09-03 | Univ Of Tokyo | Road object recognition method |
JPWO2011030699A1 (en) * | 2009-09-11 | 2013-02-07 | アイシン精機株式会社 | Vehicle periphery monitoring device |
WO2013035353A1 (en) * | 2011-09-05 | 2013-03-14 | 三菱電機株式会社 | Image processing apparatus and image processing method |
JP2013203335A (en) * | 2012-03-29 | 2013-10-07 | Denso It Laboratory Inc | Object recognition apparatus |
JP2014056465A (en) * | 2012-09-13 | 2014-03-27 | Univ Of Tokyo | Environment restoration device, environment restoration method, and environment restoration program |
EP2835973B1 (en) * | 2013-08-06 | 2015-10-07 | Sick Ag | 3D camera and method for capturing of three-dimensional image data |
JP2016024602A (en) * | 2014-07-18 | 2016-02-08 | 日立オートモティブシステムズ株式会社 | Object detection apparatus and vehicle control system using the same |
CN112487576A (en) * | 2020-11-26 | 2021-03-12 | 新拓三维技术(深圳)有限公司 | Pipeline reverse modeling method |
-
2003
- 2003-02-25 JP JP2003048323A patent/JP2004257837A/en active Pending
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005088717A (en) * | 2003-09-17 | 2005-04-07 | Advanced Telecommunication Research Institute International | Alarm device for automobile |
WO2006121088A1 (en) * | 2005-05-10 | 2006-11-16 | Olympus Corporation | Image processing device, image processing method, and image processing program |
WO2006121087A1 (en) * | 2005-05-10 | 2006-11-16 | Olympus Corporation | Image processing device, image processing method, and image processing program |
JP4626400B2 (en) * | 2005-05-25 | 2011-02-09 | 日産自動車株式会社 | Overhead image display device and overhead image display method |
JP2006333009A (en) * | 2005-05-25 | 2006-12-07 | Nissan Motor Co Ltd | Overlooking picture display and overlooking picture displaying method |
JP2006331164A (en) * | 2005-05-27 | 2006-12-07 | Matsushita Electric Ind Co Ltd | Image processing apparatus |
JP2007299144A (en) * | 2006-04-28 | 2007-11-15 | Mitsubishi Heavy Ind Ltd | Logo determination device, method and program |
JP2009199284A (en) * | 2008-02-21 | 2009-09-03 | Univ Of Tokyo | Road object recognition method |
JPWO2011030699A1 (en) * | 2009-09-11 | 2013-02-07 | アイシン精機株式会社 | Vehicle periphery monitoring device |
WO2013035353A1 (en) * | 2011-09-05 | 2013-03-14 | 三菱電機株式会社 | Image processing apparatus and image processing method |
CN103764448B (en) * | 2011-09-05 | 2016-03-02 | 三菱电机株式会社 | Image processing apparatus and image processing method |
US9426364B2 (en) | 2011-09-05 | 2016-08-23 | Mitsubishi Electric Corporation | Image processing apparatus and image processing method |
CN103764448A (en) * | 2011-09-05 | 2014-04-30 | 三菱电机株式会社 | Image processing apparatus and image processing method |
JP5615441B2 (en) * | 2011-09-05 | 2014-10-29 | 三菱電機株式会社 | Image processing apparatus and image processing method |
JP2013203335A (en) * | 2012-03-29 | 2013-10-07 | Denso It Laboratory Inc | Object recognition apparatus |
JP2014056465A (en) * | 2012-09-13 | 2014-03-27 | Univ Of Tokyo | Environment restoration device, environment restoration method, and environment restoration program |
EP2835973B1 (en) * | 2013-08-06 | 2015-10-07 | Sick Ag | 3D camera and method for capturing of three-dimensional image data |
JP2016024602A (en) * | 2014-07-18 | 2016-02-08 | 日立オートモティブシステムズ株式会社 | Object detection apparatus and vehicle control system using the same |
CN112487576A (en) * | 2020-11-26 | 2021-03-12 | 新拓三维技术(深圳)有限公司 | Pipeline reverse modeling method |
CN112487576B (en) * | 2020-11-26 | 2024-04-02 | 新拓三维技术(深圳)有限公司 | Pipeline reverse modeling method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3028653C (en) | Methods and systems for color point cloud generation | |
JP4899424B2 (en) | Object detection device | |
US9858639B2 (en) | Imaging surface modeling for camera modeling and virtual view synthesis | |
JP5588812B2 (en) | Image processing apparatus and imaging apparatus using the same | |
WO2017159382A1 (en) | Signal processing device and signal processing method | |
CN110060297B (en) | Information processing apparatus, information processing system, information processing method, and storage medium | |
JP2020085886A (en) | Vehicle, vehicle positioning system, and method for positioning vehicle | |
JP5729158B2 (en) | Parking assistance device and parking assistance method | |
US11887336B2 (en) | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle | |
JP4414661B2 (en) | Stereo adapter and range image input device using the same | |
JP2004056763A (en) | Monitoring apparatus, monitoring method, and program for monitor | |
JP2018180772A (en) | Object detection device | |
JP2004257837A (en) | Stereo adapter imaging system | |
JP2019511780A (en) | Method for detecting an object near a road of a motor vehicle, computer device, driver assistance system, and motor vehicle | |
JP7131554B2 (en) | Image processing device, image processing method, and program | |
WO2019163315A1 (en) | Information processing device, imaging device, and imaging system | |
KR20210077792A (en) | System and method for dynamic stereoscopic calibration | |
JP2006318062A (en) | Image processor, image processing method and image processing program | |
JP2005217883A (en) | Method for detecting flat road area and obstacle by using stereo image | |
JP2006317193A (en) | Image processing apparatus, imaging processing method and program for processing image | |
CN116529758A (en) | Image and/or image point correction method, camera-based system and vehicle | |
AU2018102199A4 (en) | Methods and systems for color point cloud generation | |
JP5580062B2 (en) | Obstacle detection alarm device | |
CN114092548A (en) | Information processing device, information processing method, storage medium, and vehicle control system | |
WO2022190848A1 (en) | Distance measuring device, distance measuring system, and distance measuring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080422 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080902 |