JP2024003407A - 外界認識装置及び外界認識方法 - Google Patents
外界認識装置及び外界認識方法 Download PDFInfo
- Publication number
- JP2024003407A JP2024003407A JP2022102526A JP2022102526A JP2024003407A JP 2024003407 A JP2024003407 A JP 2024003407A JP 2022102526 A JP2022102526 A JP 2022102526A JP 2022102526 A JP2022102526 A JP 2022102526A JP 2024003407 A JP2024003407 A JP 2024003407A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- target
- matching
- imaging plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000003384 imaging method Methods 0.000 claims abstract description 197
- 230000009466 transformation Effects 0.000 claims abstract description 189
- 238000001514 detection method Methods 0.000 claims abstract description 80
- 230000008569 process Effects 0.000 claims abstract description 38
- 238000012545 processing Methods 0.000 claims description 32
- 238000006243 chemical reaction Methods 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000012795 verification Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 25
- 239000011159 matrix material Substances 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000009434 installation Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】見え方が異なる2つの画像に不特定の物標が映った場合であっても、この物標までの距離を推定できる外界認識装置を提供する。【解決手段】外界認識装置100は、物標検知部101による物標の検知結果に基づいて、画像40aにおける撮像平面を推定する撮像平面推定部111と、撮像平面推定部111が推定した撮像平面の情報と、複数の撮像部のカメラパラメータ103とに基づいて、画像41aにおける撮像平面に合わせた画像変換パラメータを推定する画像変換推定部112と、画像変換推定部112による画像変換パラメータを用いて画像変換した画像40aから検知された物標の特徴と、画像41aから検知された物標の特徴とを照合する特徴照合部105と、特徴照合部105による照合処理の結果に基づいて、物標の三次元位置を推定する位置推定部106と、を備える。【選択図】図3
Description
本発明は、外界認識装置及び外界認識方法に関する。
自動運転や高度運転支援システムの実現においては、車両の外界を監視し、走行経路にある障害物や、走行経路のレーン情報などの車両の走行に必要な物体を検知するカメラの重要性が高まっている。特に、物体の検知性能を高めるために、車両に複数台のカメラを搭載し、カメラから車両の周囲の情報を取得して、周囲の状況を認識する機能が実現されている。
このような外界を認識するカメラの種類として、例えば、複数のカメラを使用したステレオカメラがある。ステレオカメラは、所定の間隔を空けて2つのカメラが車両に配置されたものである。そして、2つのカメラが撮影した画像の重複領域の視差を利用して、撮影された物体までの距離を計測することができる。
ステレオカメラには、2台のカメラの光軸を平行に設置した平行ステレオカメラや、光軸を非平行に設置した非平行ステレオカメラなどが存在する。また、2台以上のカメラを使用したカメラシステムをマルチビューステレオシステムと呼称することもある。
車両に搭載された電子制御装置(以下、ECU(Electronic Control Unit)と呼ぶ)は、複数のカメラが撮影した複数の画像を用いて、物体までの距離を測定することで、車両の前方にある物体との接触可能性を把握できる。しかし、異なる位置にある2つのカメラでは同じ物体を撮像していたとしても、一般に2つのカメラ間で物体の映り方が異なる。映り方の違う画像同士を照合した場合、一方の画像と他方の画像とで映り方の違うパターンと似たパターンがあった場合に、誤った位置で画像を照合する可能性がある。
誤った位置で画像を照合してしまうと、照合結果に基づいて測定される物体までの距離を誤ることに繋がり、車両の誤制御に繋がる可能性がある。実世界における物体の形状や平面のモデルが分かれば、各画像上での映り方が幾何学的に求まるため、形状や平面などを予測して照合することで誤照合が抑制できると考えられる。
特許文献1には、「第1カメラによって撮像された第1画像と第2カメラによって撮像された第2画像の少なくとも一方を変形することで第1画像及び第2画像を共通の視点からの画像に変換する視点変換を行った後に複数の対応点を抽出し、視点変換前の第1画像及び第2画像における複数の対応点の座標を利用して第1カメラ及び第2カメラの幾何校正を行う」と記載されている。
また、特許文献2には、「撮像手段により撮像されたステレオカメラ画像情報が、下向きで路面や床面等の監視対象面を撮像したものであることから、従来のほぼ水平方向に向いて設置されたステレオカメラによるステレオカメラ画像情報と比較して、監視対象面により向き合うような画像情報とすることにより、さらに、この下向きのステレオカメラ画像情報を平行化変換処理した平行化画像情報に基づいて3D距離画像情報を生成するので、監視対象面に対して上から見下ろす俯瞰画像となるため、路面や床面に対する距離を高精度で求めることができる。」と記載されている。
画像に映っている物体毎に、自車両から物体までの距離を算出する方法を変えるのが適切であるが、特許文献1及び2に開示された技術では、画像内の特定の場所には特定の物体が映っていることを前提とした処理が行われていた。このため、画像内の特定の場所に不特定の物体が映っていた場合、その物体までの距離の測定を誤ることがあった。また、特許文献1及び2に開示された技術では、自車両に正対した物体までの距離を算出することができても、自車両に正対していない物体(例えば、側壁、ガードレール)等の距離を誤ることがあった。
本発明はこのような状況に鑑みて成されたものであり、見え方が異なる2つの画像に不特定の物標が映った場合であっても、この物標までの距離を推定できるようにすることを目的とする。
本発明に係る外界認識装置は、外界に対する撮像視野の少なくとも一部が重複する複数の撮像部のうち、少なくとも第一の撮像部から取得した第一画像に基づいて、物標を検知する第一の物標検知部と、複数の撮像部のうち、第二の撮像部から取得した第二画像に基づいて、物標を検知する第二の物標検知部と、第一の物標検知部による物標の検知結果に基づいて、第一画像における撮像平面を推定する撮像平面推定部と、撮像平面推定部が推定した撮像平面の情報と、複数の撮像部の撮像パラメータとに基づいて、第二画像における撮像平面に合わせた画像変換パラメータを推定する画像変換推定部と、画像変換推定部による画像変換パラメータを用いて画像変換した第一画像から検知された物標の特徴と、第二画像から検知された物標の特徴とを照合する特徴照合部と、特徴照合部による照合処理の結果に基づいて、物標の三次元位置を推定する位置推定部と、を備える。
本発明によれば、見え方が異なる2つの画像に不特定の物標が映った場合であっても、この物標までの距離を推定できるようになる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
以下、本発明を実施するための形態について、添付図面を参照して説明する。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。
[第1の実施形態]
図1は、第1の実施形態に係る車両1に搭載されるカメラの位置、車両1を基準とした世界座標系、画像座標系について示す図である。
図1は、第1の実施形態に係る車両1に搭載されるカメラの位置、車両1を基準とした世界座標系、画像座標系について示す図である。
図1Aは、車両1のフロント、左側面、右側面にそれぞれ、フロントカメラ10、左カメラ20、右カメラ30を設けた構成例を示す。以下の説明で、フロントカメラ10、左カメラ20、右カメラ30を区別しない場合、単に「カメラ」とも呼ぶ。
図1Aでは、フロントカメラ10の撮影範囲10a、左カメラ20の撮影範囲20a、右カメラ30の撮影範囲30aが一点鎖線で区切って示されている。撮影範囲10a,20aは、一部の範囲が重なっている。同様に、撮影範囲10a,30aは、一部の範囲が重なっており、撮影範囲20a,30aは、一部の範囲が重なっている。これらの重なった範囲では、同じものがそれぞれのカメラで撮影された画像に映り込む。
車両1に設置されたカメラが撮影した画像により、車両1に搭載されたECU(後述する図3に示す外界認識装置100)は、歩行者、他の車両、白線、路面などの、車両1の周囲に存在する物体の物体情報と、車両1から物体までの距離、物体のサイズ、物体の速度などの物理量を推定して取得する。そして、他のECU(不図示の自動運転制御ECU)は、取得した物理量に基づいて車両1の制御量を決定し、車両1の自動運転や運転支援等を実施する。以下の説明では、車両1の走行に影響を与える可能性のある物体(路面、人、ガードレール、白線等)を「物標」と呼ぶ。
図1Bは、車両1の位置を原点とした世界座標系の例を示す。この世界座標系では、車両1の進行方向にX軸をとり、該X軸と直交する水平方向にY軸をとり、鉛直方向にZ軸をとる。車両1以外の物標の位置は、世界座標系により推定される。このため、車両1から物標までの距離も推定される。
車両1から物標までの距離の推定方法にはいくつかある。代表的な距離の推定方法として、複数のカメラが同じ物標を撮像する場合に、三角測量の原理で物標までの距離を計測する方法がある。この方法では、道路上に存在する世界座標の任意の点を斉次座標系で転置行列X=(X,Y,Z,1)Tとし、カメラの回転角に関わる外部パラメータ行列をRとし、カメラの設置位置に関わる外部パラメータ行列をTとする。そして、外部パラメータ行列R,Tの行列をP=(R|T)とし、カメラの焦点距離や光学中心など内部状態を管理する内部パラメータ行列をKとする。
図1Cは、画像内で物標を特定するための画像座標系の例を示す。この画像座標系では、画像の左上を原点として水平方向にu軸をとり、垂直方向にv軸をとる。そして、カメラが撮像した画像内における物標の位置が(u,v)で特定される。
ここで、転置行列Xが撮像された画像座標を斉次座標系で転置行列u=(u,v,1)Tとし、スケールパラメータをsとし、透視投影モデルのレンズで仮定するとそれぞれのカメラについて式(1)が成り立つ。スケールパラメータsはスカラー値である。また、式(1)における記号上の添え字はカメラの種類を表す。ここでは、2つのカメラを識別するために、一方のカメラの添え字を「0」とし、他方のカメラの添え字を「1」としている。なお、式(1)にて、スケールパラメータsが無ければ、式(1)の右辺が左辺の定数倍になってしまう。そこで、式(1)の右辺が左辺の定数倍にならないようにするためにスケールパラメータsが設けられる。
一つのカメラの画像座標が与えられた場合、この画像座標から物標の三次元点を復元することは何らかの前提条件なしには不可能である。しかし、同じ位置Xを映す2つのカメラの組があった場合には、位置Xの同一箇所が画像座標(u0,u1)で表されるのであれば、式(2)を用いて最小二乗法を解くことで三次元点Xを推定することができる。ただし、式変形の形によっては、式(2)を用いた解き方に限る必要はない。
ここで、図1Aを参照して、式(2)の意味を説明する。
フロントカメラ10の画角は、撮影範囲10aに示されるように、フロントカメラ10の設置位置における三角形の頂角である。同様に、左カメラ20の画角は、撮影範囲20aに示されるように、左カメラ20の設置位置における三角形の頂角である。右カメラ30の画角は、撮影範囲30aに示されるように、右カメラ30の設置位置における三角形の頂角である。
フロントカメラ10の画角は、撮影範囲10aに示されるように、フロントカメラ10の設置位置における三角形の頂角である。同様に、左カメラ20の画角は、撮影範囲20aに示されるように、左カメラ20の設置位置における三角形の頂角である。右カメラ30の画角は、撮影範囲30aに示されるように、右カメラ30の設置位置における三角形の頂角である。
フロントカメラ10の画角と、左カメラ20の画角が重複する領域が車両1の左前方にある。このため、2つのカメラの画角が重複する領域に映る物標に対して三角測量の原理で距離が推定できる。同様に、フロントカメラ10の画角と、右カメラ30の画角が重複する領域(車両1の右前方)についても、三角測量の原理で距離が推定できる。
2つの画像に共通して映る物標を、2つの画像の同一位置で効率的に探索するためには、式(3)に示すエピポール拘束式が用いられる。この式を使う際には、片方の画像に映った物標の画像座標を与えた場合に、もう片方の画像に映った物標の画像座標の位置の候補が直線上にあるため、画像全体ではなく、その直線上を探索すればよいという条件を与える。エピポール拘束式で用いられる基本行列は、上に示した2つのカメラ(例えば、フロントカメラ10と左カメラ20)の外部パラメータ行列と内部パラメータ行列から導かれる。
また、上記に示したパラメータ群を適切に用いて平行化という前処理を施せば、世界座標の任意の点Xが同一の画像の高さに並ぶ画像に変換することができる。平行化された画像の横方向に探索するという簡易な処理で物標の同一位置の探索を実施できる。これは平行ステレオカメラの原理である。いずれにせよ、2つの画像から物標の同一位置を探索することは、各画像を撮像したカメラに固有のパラメータや設置条件の情報などから推定することが可能である。ここで、両画像とは、図1では、フロントカメラ10と左カメラ20の画像、フロントカメラ10と右カメラ30の画像、左カメラ20と右カメラ30の画像の組み合わせが想定される。このように2つの画像を探索して物標の同一位置を求めることを以下では簡単に「照合する」と呼ぶ。
なお、画像情報を照合する手法にはいくつかあり、典型的な手法としてテンプレートマッチングが挙げられる。テンプレートマッチングは、一方の画像から関心のある物標の画像座標の周辺を矩形などの小さい領域で切り出し、その矩形内の画素分布に近い領域を他方の画像から小さい矩形領域を移動しながら適当なコスト関数を用いて探索する手法である。比較手法としては差分絶対値和、差分二乗和などが基本的な手法として知られる。
画像情報を照合する別の手法としては、画像内における物標の角(コーナー)などの画像特徴の高い部分における画像座標をまず探索して特徴点とした上で、この特徴点の周辺の画像特徴量をベクトル化(特徴量化)して保持する方法がある。特徴量化の手法としてはSIFT(Scale Invariant Feature Transform)、ORB(Oriented FAST and Rotated BRIEF)などが代表的なものとして知られ、深層学習ベースの手法も存在する。深層学習ベースの手法は、2つの画像間で特徴量同士を照合する手法である。
ここで、2つのカメラの画角の重複領域にて同一の物標が映る画像について説明する。
図2は、図1に示したフロントカメラ10と左カメラ20が撮像した車両1の前景の画像の例を示す図である。フロントカメラ10の画像を「フロントカメラ画像」と呼び、左カメラ20が撮像した画像を「左カメラ画像」と呼ぶ。
図2は、図1に示したフロントカメラ10と左カメラ20が撮像した車両1の前景の画像の例を示す図である。フロントカメラ10の画像を「フロントカメラ画像」と呼び、左カメラ20が撮像した画像を「左カメラ画像」と呼ぶ。
車両1の手前には横断歩道があり、奥には直方体状の物標が存在する。横断歩道と直方体上の物標は、いずれも左カメラ画像とフロントカメラ画像に映っている。ここで、左カメラ画像に映る横断歩道の一部の領域21,22を破線の矩形枠で表す。同様にフロントカメラ画像に映る横断歩道の一部の領域11,12を破線の矩形枠で表す。領域21,11の組み合わせ、領域22,12の組み合わせのように左カメラ画像の矩形枠に対応する場所が、フロントカメラ画像にも存在している。しかし、左カメラ画像とフロントカメラ画像とで、矩形枠の内部(横断歩道の一部)の見え方が大きく異なる。
このように大きく見え方が異なる2つの画像に映る同じ場所の画像を照合するのは、上述したテンプレートマッチングでは難しく、特徴点又は特徴量を用いた照合であっても難しい。通常、テンプレートマッチングは、画像中の同じ位置にある画素同士を比較するが、見え方が異なるとマッチングしにくくなる。また、見え方が異なる画像同士で特徴点又は特徴量が作成されることでも、互いに画像をマッチングしにくくなる。このため、本来異なる形状同士が照合されたり、本来同一と判断されるべき形状が画像内で見つからず照合されなかったりする。このように異なる画像に映る同じ物標の照合が正しく行われなければ、その物標までの距離を誤って推定する可能性がある。
そこで、本発明者は、片方の画像に対してどのような変換をすれば、大きく見え方が異なる2つの画像の照合時に物標の差分が少なくなるかを検討した。以下に、2つの画像に映る同一物の照合の性能を上げることが可能な本発明の各実施形態に係る外界認識装置及び物標照合方法について、図3以降の図面を参照して説明する。外界認識装置は、車両1に搭載されるECUに構成されるソフトウェアにより、その機能が実現される。
図3は、第1の実施形態に係る外界認識装置100の内部構成例を示すブロック図である。外界認識装置100は、例えば、車両1に搭載されるECUの一形態である。また、以下の説明では、外界認識装置100が搭載される車両1を他の車両2と区別するため、「自車両1」とも呼ぶ。
外界認識装置100は、車両1に搭載される装置である。外界とは、例えば、外界認識装置100が搭載される車両1の外のことであり、外界認識装置100は、外界に存在する様々な物標を認識する。物標の認識結果は、例えば、物標の属性、物標の大きさ、車両1から物標までの距離等の情報を含む。
外界認識装置100には、2つの撮像部40,41が撮像した2つの画像がそれぞれ入力される。撮像部40は、例えば、図1に示した左カメラ20であり、左カメラ20が撮像した画像40aを物標検知部101に出力する。
撮像部41は、例えば、図1に示したフロントカメラ10であり、フロントカメラ10が撮像した画像41aを物標検知部102に出力する。
撮像部40,41の図1に示した各カメラの組み合わせは、フロントカメラ10と右カメラ30、左カメラ20と右カメラ30としてもよい。
外界認識装置100には、2つの撮像部40,41が撮像した2つの画像がそれぞれ入力される。撮像部40は、例えば、図1に示した左カメラ20であり、左カメラ20が撮像した画像40aを物標検知部101に出力する。
撮像部41は、例えば、図1に示したフロントカメラ10であり、フロントカメラ10が撮像した画像41aを物標検知部102に出力する。
撮像部40,41の図1に示した各カメラの組み合わせは、フロントカメラ10と右カメラ30、左カメラ20と右カメラ30としてもよい。
外界認識装置100は、2つの物標検知部101,102、カメラパラメータ103、照合条件決定部104、特徴照合部105、及び位置推定部106を備える。
物標検知部101は、撮像部40から入力した画像に対する物標検知処理を行う。この第一の物標検知部(物標検知部101)は、外界に対する撮像視野の少なくとも一部が重複する複数の撮像部のうち、少なくとも第一の撮像部(撮像部40)から取得した第一画像(画像40a)に基づいて、物標を検知する。
物標検知部102は、撮像部41から入力した画像に対する物標検知処理を行う。この第二の物標検知部(物標検知部102)は、複数の撮像部のうち、第二の撮像部(撮像部41)から取得した第二画像(画像41a)に基づいて、物標を検知する。
物標検知部102は、撮像部41から入力した画像に対する物標検知処理を行う。この第二の物標検知部(物標検知部102)は、複数の撮像部のうち、第二の撮像部(撮像部41)から取得した第二画像(画像41a)に基づいて、物標を検知する。
物標検知部101,102で行われる物標検知処理は、例えば、入力された画像40a,41aから車両2や白線、歩行者、車両1の走行可能領域、ガードレール、側壁などを検知する処理である。図2に示したような領域11,12,21,22に示される各画像の一部が物標検知処理の結果として後続の機能部に出力される。なお、物標検知部101,102は、物標検知処理を通じて、物標毎に画像解析をすることで物標の属性を求めることもできる。物標検知部101による物標検知処理の結果は、照合条件決定部104の撮像平面推定部111に出力される。物標検知部102による物標検知処理の結果は、特徴照合部105に出力される。以下の説明では、物標検知処理の結果を「物標の検知結果」とも呼ぶ。
また、撮像部40が撮像した画像は、物標検知部101を介して、照合条件決定部104に入力され、さらに照合条件決定部104を介して特徴照合部105に入力される。撮像部41が撮像した画像は、物標検知部102を介して、特徴照合部105に入力される。
照合条件決定部104は、画像40a,41aにおいて検知された同じ物標が互いに対応する位置を特徴照合部105が照合するための照合条件を決定する。この照合条件決定部104は、撮像平面推定部111及び幾何変換推定部112を備える。
撮像平面推定部(撮像平面推定部111)は、物標検知部(物標検知部101)による物標の検知結果に基づいて、第一画像(画像40a)における撮像平面を推定する。この撮像平面推定部111は、物標検知部101から入力した物標の検知結果に基づいて、各物標が実世界でどのような平面で構成されているかを推定する。各物標を構成する平面を撮像平面と呼び、撮像平面の平面方程式で表現される。撮像平面推定部(撮像平面推定部111)は、物標の大きさ、及び物標までの距離に基づいて、撮像平面を推定する。また、撮像平面推定部(撮像平面推定部111)は、物標が撮像された画像領域において撮像平面を推定する。なお、平面方程式は、例えば、パラメータ(α,β,γ,δ)で表される。撮像平面推定部111が推定した撮像平面の方程式は、幾何変換推定部112に出力される。
画像変換推定部(幾何変換推定部112)は、撮像平面推定部(撮像平面推定部111)が推定した撮像平面の情報と、複数の撮像部の撮像パラメータ(カメラパラメータ103)とに基づいて、複数の撮像部のうち、第二画像(画像41a)における撮像平面に合わせた画像変換パラメータ(幾何変換パラメータ)を推定する。例えば、幾何変換推定部112は、撮像平面推定部111から入力した撮像平面の方程式と、カメラパラメータ103とに基づいて、撮像部40,41で撮像されている場所における画像間の幾何変換パラメータを推定する。カメラパラメータ103として、例えば、上述した式(1)に含まれるK及びPがある。ただし、カメラパラメータ103は、固定値としてもよい。
なお、撮像平面推定部111及び幾何変換推定部112は物標検知部102側にあってもよい。
なお、撮像平面推定部111及び幾何変換推定部112は物標検知部102側にあってもよい。
特徴照合部(特徴照合部105)は、画像変換推定部(幾何変換推定部112)による画像変換パラメータ(幾何変換パラメータ)を用いて画像変換した第一画像(画像40a)から検知された物標の特徴と、第二画像(画像41a)から検知された物標の特徴とを照合する。この特徴照合部105は、物標検知部101が検知した物標に幾何変換を行った変換結果の特徴と、物標検知部102から入力した物標の検知結果の特徴とを照合する。このため、特徴照合部105は、幾何変換推定部112により推定された幾何変換パラメータを用いて、画像40aから検知された物標の形状を変換する。その後、特徴照合部105は、形状が変換された物標の形状と、画像41aから検知された物標の形状とを照合し、自車両1から物標までの距離を算出する。自車両1から物標までの距離が特徴照合部105による照合結果として位置推定部106に出力される。照合結果は、例えば、照合される物標を含む画像領域ごとに、不一致を0%、完全一致を100%とする値で表してもよい。そして、特徴照合部105は、80%以上の照合結果であれば、この照合結果は信頼度が高いと判断し、信頼度が高い照合結果を位置推定部106に出力してもよい。
位置推定部(位置推定部106)は、特徴照合部(特徴照合部105)による照合処理の結果に基づいて、物標の三次元位置を推定する。例えば、位置推定部106は、特徴照合部105による照合結果に基づいて、世界座標系(図1Bを参照)における物標の三次元位置(「位置推定結果」と呼ぶ)を推定する。この時、位置推定部106は、自車両1から物標までの距離を算出し、物標ごとの距離を位置推定結果に含めることができる。位置推定結果は、自車両1に搭載された他のECU(例えば、自動運転制御用のECU)による自車両1の車両制御に用いられたり、自車両1の周辺にある物標の奥行き情報を求めるために用いられたりする。
次に、外界認識装置100を構成する計算機80のハードウェア構成を説明する。
図4は、計算機80のハードウェア構成例を示すブロック図である。計算機80は、本実施の形態に係る外界認識装置100として動作可能なコンピューターとして用いられるハードウェアの一例である。本実施の形態に係る外界認識装置100は、計算機80(コンピューター)がプログラムを実行することにより、図3に示した各機能ブロックが連携して行う画像処理方法を実現する。
図4は、計算機80のハードウェア構成例を示すブロック図である。計算機80は、本実施の形態に係る外界認識装置100として動作可能なコンピューターとして用いられるハードウェアの一例である。本実施の形態に係る外界認識装置100は、計算機80(コンピューター)がプログラムを実行することにより、図3に示した各機能ブロックが連携して行う画像処理方法を実現する。
計算機80は、バス84にそれぞれ接続されたCPU(Central Processing Unit)81、ROM(Read Only Memory)82、及びRAM(Random Access Memory)83を備える。さらに、計算機80は、不揮発性ストレージ85及びネットワークインターフェイス86を備える。
CPU81は、本実施の形態に係る各機能を実現するソフトウェアのプログラムコードをROM82から読み出してRAM83にロードし、実行する。RAM83には、CPU81の演算処理の途中で発生した変数やパラメータ等が一時的に書き込まれ、これらの変数やパラメータ等がCPU81によって適宜読み出される。ただし、CPU81に代えてMPU(Micro Processing Unit)を用いてもよい。外界認識装置100における各機能部の機能は、CPU81、ROM82及びRAM83により実現される。
不揮発性ストレージ85としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フレキシブルディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ又は不揮発性のメモリ等が用いられる。この不揮発性ストレージ85には、OS(Operating System)、各種のパラメータの他に、計算機80を機能させるためのプログラムが記録されている。ROM82及び不揮発性ストレージ85は、CPU81が動作するために必要なプログラムやデータ等を記録しており、計算機80によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記憶媒体の一例として用いられる。カメラパラメータ103等の各種の値は、RAM83又は不揮発性ストレージ85に保存され、適宜読み出される。
ネットワークインターフェイス86には、例えば、NIC(Network Interface Card)等が用いられ、NICの端子に接続されたLAN(Local Area Network)、専用線等を介して各種のデータを外部の装置と送受信することが可能である。
ここで、撮像平面推定部111が行う処理について、図5を参照して説明する。
図5は、フロントカメラ10で撮像された画像の例を示す。
図5Aは、直進方向に、他の車両2、人物、ガードレール、側壁が映っている画像である。図5Aでは、領域51が路面の検知結果を表し、領域52がガードレールの検知結果を表し、領域53が人物の検知結果を表し、領域54が側壁の検知結果を表している。このように領域51~54が物標の検知結果として用いられる。
図5は、フロントカメラ10で撮像された画像の例を示す。
図5Aは、直進方向に、他の車両2、人物、ガードレール、側壁が映っている画像である。図5Aでは、領域51が路面の検知結果を表し、領域52がガードレールの検知結果を表し、領域53が人物の検知結果を表し、領域54が側壁の検知結果を表している。このように領域51~54が物標の検知結果として用いられる。
撮像平面推定部111は、ある画像座標における検知結果に従って、例えば、その撮像平面を、平面方程式であるαX+βY+γZ+δ=0に従うようにパラメータ(α,β,γ,δ)を推定する。
例えば、物標検知部101が画像から物標を検知した結果が領域51のような路面であるとする。この場合、撮像平面推定部111は、その画像座標で撮像された平面を車両1が接地して走行している車両接地面として、Z=0、つまり(α,β,γ,δ)=(0,0,1,0)として推定する。なお、物標の検知結果が坂道の場合は、平面方程式は、例えばhX+Z+k=0と表される。つまり、撮像平面推定部111は、(α,β,γ,δ)=(h,0,1,k)として推定することができる。
図5Bは、自車両1の斜め前に他の車両2が映っている画像である。ここでは、自車両1の前方にカーブした道路がある場面が想定される。例えば、物標検知部101による検知結果が他の車両2であって、領域55のように直方体のバウンディングボックスとして検知結果が出力される場合を想定する。この場合、撮像平面推定部111は、領域55で表される直方体の形状から、直方体の正面、背面及び側面を撮像平面とした各面の平面方程式を推定する。なお、領域55のバウンディングボックスの正面とは、車両2の前方の面であり、背面とは車両2の後方の面であり、側面とは車両2の左右の面である。
ここで、物標検知部101により検知された他の車両2が、Z=0の平面に直立していると仮定する。このため、撮像平面推定部111は、領域55で表される直方体の面の平面方程式は、例えばaX+bY+d=0と表される。つまり、撮像平面推定部111は、(α,β,γ,δ)=(a,b,0,d)として平面方程式のパラメータを推定する。本明細書では、平面方程式のパラメータを推定することを「撮像平面を推定する」とも呼ぶ。
ただし、直方体の面によって実際の係数値は異なる。実際の係数値はセンサから出力される、自車両1から他の車両2までの推定距離などを用いる。例えば、路面と他の車両2の接地面の位置、並びに単眼カメラの設置位置及び設置角度から距離を推定可能とする公知の測定原理を用いることで、検知結果が距離の推定情報を含むことがある。この場合、撮像平面推定部111は、検知結果に含まれる距離の推定情報に基づいて、車両1の側面などの平面方程式も推定可能である。このため、撮像平面推定部111は、推定した平面方程式を推定結果として出力することもできる。
また、例えば、検知結果が歩行者や障害物である場合を想定する。この場合、図5Aの領域52,53に示したように矩形のバウンディングボックスが検知結果として出力されただけでは、撮像平面推定部111は、撮像平面を明確には推定できない。そこで、撮像平面推定部111は、例えば、自車両1の進行方向に垂直な面ができていると仮定する。そして、撮像平面推定部111は、平面方程式を、X+e=0と表す。つまり、撮像平面推定部111は、(α,β,γ,δ)=(1,0,0,e)として、平面方程式のパラメータを推定することができる。他にも、図5Aに示したガードレールが映る領域52、側壁が映る領域54に対して、直方体のバウンディングボックスが検知結果として出力されると、撮像平面推定部111は、直方体の側面に対応する撮像平面の平面方程式を推定することができる。なお、撮像平面推定部111は、各カメラへの光線の到来方向、又は各カメラの光軸に対して物体が垂直に正対していると仮定して、物体毎に平面方程式のパラメータ(α,β,γ,δ)を推定してもよい。
ところで、ポールや木などの立体物に対して属性が付与されておらず、検知結果の属性が不明な領域がある場合も想定される。この場合、撮像平面推定部111は、ポールや木の位置に所定の高さの立体物を想定し、車両1の進行方向に垂直な面が出来ていると仮定する。そして、撮像平面推定部111は、検知結果を歩行者としたように、検知結果の属性が不明な領域に矩形のバウンディングボックスを仮定して、平面方程式のパラメータを推定することも可能である。
なお、撮像平面推定部111が撮像平面を推定する方法の他の例として、物標の検知結果に対して単純な線形方程式ではなく、二次方程式や多次方程式を用いることも考えられる。その場合は、撮像平面推定部111は、画像上で着目している位置に従って、多次方程式を区分的な線形式に分割して近似し、撮像平面を推定する。以上のように、撮像平面推定部111は、物標の検知結果に基づいて、物標の撮像平面を推定する。
次に、幾何変換推定部112が幾何変換パラメータを推定する方法について説明する。
幾何変換推定部112は、撮像平面推定部111で推定された撮像平面の推定結果とカメラパラメータ103に基づいて2つのカメラ(撮像部40,41)で撮像された2つの画像40a,41aの幾何変換パラメータを推定する。この幾何変換パラメータの推定方法の一例について説明する。
幾何変換推定部112は、撮像平面推定部111で推定された撮像平面の推定結果とカメラパラメータ103に基づいて2つのカメラ(撮像部40,41)で撮像された2つの画像40a,41aの幾何変換パラメータを推定する。この幾何変換パラメータの推定方法の一例について説明する。
まず、片方の画像(撮像部40が撮像した画像40a)に対して処理された撮像平面推定部111の推定結果を用いる。幾何変換推定部112は、撮像部40が撮像した画像内のある画素座標に着目した場合に、その画素座標に対する平面方程式を平面変換行列に変換する。幾何変換推定部112は、例えば、Zについて平面方程式を整理して、式(4)に示すように平面変換行列Cを導入する。そして、4次元の世界座標(斉次座標)Xを一次元圧縮し、X’として整理する。
幾何変換推定部112は、X’を用いることで、式(1)に示したs0u0,s1u1を、式(5)、式(6)のように変換できる。幾何変換推定部112は、式(5)と式(6)を連立して整理することで、射影変換行列H(幾何変換パラメータ)を式(7)のように導くことができる。なお、照合条件決定部104に入力したカメラパラメータ103は、式(1)に含まれるK及びPがあるため、式(5)~式(7)で用いられる。式(7)により、2つの画像40a,41aの相対関係が表される。
なお、幾何変換推定部112は、前述した平行化処理を使用した場合や、カメラの設置位置、平面方程式によっては、射影変換よりも変換パラメータ数が少ないアフィン変換や剪断変換等で幾何変換が済む場合もある。幾何変換推定部112が幾何変換に用いる変換パラメータが少なければ、幾何変換推定部112による計算時間の短縮につながる。そこで、幾何変換推定部112は、変換パラメータの数に合わせて変換の種類を切り替えてもよい。以降の処理では、画像変換の一例として、様々な種類の変換処理をまとめて「幾何変換」と呼ぶ。
特徴照合部105は、幾何変換推定部112による推定結果と、撮像部40,41で撮像された画像とを用いて、画像同士を照合する。特徴照合部105が2つの画像を照合する処理の例について、図6を参照して説明する。
図6は、特徴照合部105の処理の例を示す図である。特徴照合部105には、図3に示した撮像部40,41から画像40a,41aが入力される。
図6は、特徴照合部105の処理の例を示す図である。特徴照合部105には、図3に示した撮像部40,41から画像40a,41aが入力される。
画像40a内の任意の点に対する幾何変換推定部112の推定結果として幾何変換パラメータが用いられる。幾何変換パラメータは、上述した式(7)の射影変換行列Hとして表される。特徴照合部105では、撮像部40で撮像された画像40aと、幾何変換推定部112で推定された幾何変換パラメータとが入力され、画像40aの該当場所に対して幾何変換処理が行われる(S1)。
また、特徴照合部105には、撮像部41で撮像された画像41aが物標検知部102を介して入力される。そして、特徴照合部105は、ステップS1で幾何変換処理が行われた画像40aと、物標検知部102を介して入力された他方の画像41aとの画像照合処理が行われる(S2)。ただし、幾何変換される箇所は、画像40a,41aで同一部の物標が検知された位置を含む、この位置の周辺の領域である。
画像照合処理では、画像40aの幾何変換された箇所と、画像41aの対応する箇所とのテンプレートマッチングや、画像の特徴点の抽出処理、及び特徴量の抽出処理が行われる。射影変換の場合、幾何変換自体が移動成分を含むので、照合箇所は、幾何変換で与えられる位置の周辺である程度推定されていることと等価になる。このため、特徴照合部105は、幾何変換で与えられる位置の周辺を探索すればよい。ステップS2の後、処理結果が位置推定部106に出力される。
ここで、テンプレートマッチングの例について、図7を参照して説明する。
図7は、特徴照合部105が左カメラ画像とフロントカメラ画像を用いてテンプレートマッチングをする処理の様子を示す図である。ここでは、左カメラ画像が、図7に示した画像40aであり、フロントカメラ画像が、図7に示した画像41aであるとする。
図7は、特徴照合部105が左カメラ画像とフロントカメラ画像を用いてテンプレートマッチングをする処理の様子を示す図である。ここでは、左カメラ画像が、図7に示した画像40aであり、フロントカメラ画像が、図7に示した画像41aであるとする。
図2に示したように、左カメラ画像とフロントカメラ画像の一部に交差点の特徴的な部分(白線が交差する箇所)が映り込んだ領域21,22が存在する。この特徴的な部分は、フロントカメラ画像にもそれぞれ領域11,12として存在する。しかし、領域21,11の形状が異なっており、また、領域22,12の形状も異なっていたので、従来の方法では各領域の形状を単純にマッチングすることができなかった。
一方、本実施の形態に係る射影変換(幾何変換)を利用することで、左カメラ画像に含まれる領域21,22の物標は、図7の下側に示す領域71,72の形状に変換される。この時、領域71,72に含まれる形状は、それぞれ領域11,12に含まれる形状に近くなる。このため、特徴照合部105は、領域21,22に含まれる幾何変換前の形状を、フロントカメラ画像から探すよりも照合処理を簡単に行えるようになる。このように特徴部分を含む領域の形状が幾何変換されると、特徴照合部105が照合処理を簡単に行えるという効果が得られる。
なお、平面方程式がある画像領域内で一定である場合には、特徴照合部105がその領域を射影変換した後、テンプレートマッチングを行ってもよい。あるいは、特徴照合部105がテンプレートごとに射影変換を実施してもよい。
また、画像内の特徴点を抽出する処理、及び特徴量を抽出する処理(「特徴点及び特徴量の抽出」と呼ぶ)も同様である。特徴照合部105は、一旦、画像を射影変換した上で特徴点及び特徴量の抽出を実施してもよい。あるいは、特徴照合部105は、特徴点及び特徴量の抽出の処理内に射影変換を組み込んで、特徴点及び特徴量の抽出を実施してもよい。
位置推定部106は、特徴照合部105による照合の結果、求められた対応位置から上式(2)を用いて、世界座標系における物標の座標点を計算する。
外界認識装置100では、上述した構成にすることで、車両1、歩行者、道路など、車両1の走行中における環境変化に対応しつつ、2つの画像に映る物標の照合精度と、車両1から物標までの距離の推定精度とを上げることが可能となる。
外界認識装置100では、上述した構成にすることで、車両1、歩行者、道路など、車両1の走行中における環境変化に対応しつつ、2つの画像に映る物標の照合精度と、車両1から物標までの距離の推定精度とを上げることが可能となる。
以上説明した第1の実施形態に係る外界認識装置100では、自車両1から物標までの距離の推定をするために、車両の走行に伴って動的に変化する走行環境に合わせて、画像40a内の位置に応じた撮像平面の平面方程式を物標ごとに推定する。そして、外界認識装置100は、物標ごとに幾何変換を行って、画像41aから検知された物標と特徴を照合する。このため、外界認識装置100は、見え方が異なる2つの画像に不特定の物標が映った場合であっても、この物標までの距離を推定できる。また、位置推定部106は、特徴が照合された物標の位置を推定するため、物標までの距離の誤差を低減することが可能となる。
[第2の実施形態]
次に、本発明の第2の実施形態に係る外界認識装置100Aの構成例及び処理例について、図8を参照して説明する。
図8は、第2の実施形態に係る外界認識装置100Aの内部構成例を示すブロック図である。
次に、本発明の第2の実施形態に係る外界認識装置100Aの構成例及び処理例について、図8を参照して説明する。
図8は、第2の実施形態に係る外界認識装置100Aの内部構成例を示すブロック図である。
外界認識装置100Aは、撮像部40,41から入力する2つの画像に対して、それぞれ撮像平面の推定処理と、幾何変換パラメータの推定を実施する。このため、外界認識装置100Aは、第一画像(画像40a)から検知される物標と、第二画像(画像41a)から検知される物標に対して、それぞれ設けられた複数の撮像平面推定部(撮像平面推定部111,113)と、複数の画像変換推定部(幾何変換推定部112,114)と、を備える。図8に示すように、外界認識装置100Aが備える照合条件決定部104Aは、撮像平面推定部111,113、幾何変換推定部112,114を備える。撮像平面推定部111,113は同じ機能を持ち、幾何変換推定部112,114は同じ機能を持つ。
物標検知部101は、撮像部40で撮像された画像から物標を検知する。この検知結果に対して、撮像平面推定部111が撮像平面を推定し、幾何変換推定部112が幾何変換パラメータを推定する。
同様に、物標検知部102は、撮像部41で撮像された画像から物標を検知する。この物標の検知結果に対して、撮像平面推定部113が撮像平面を推定し、幾何変換推定部114が幾何変換パラメータを推定する。
同様に、物標検知部102は、撮像部41で撮像された画像から物標を検知する。この物標の検知結果に対して、撮像平面推定部113が撮像平面を推定し、幾何変換推定部114が幾何変換パラメータを推定する。
特徴照合部105Aは、幾何変換推定部112,114を通じて二つの結果を受け取る。このため、特徴照合部105Aの機能は、図3に示した第1の実施形態に係る特徴照合部105の機能とは異なる。
特徴照合部105Aの機能を実装する方法には、いくつか想定される。その一つの方法では、特徴照合部105Aが、一方の幾何変換推定部112により推定された幾何変換パラメータを使って画像40aを幾何変換した結果と、画像41aとの照合結果を得る。また、特徴照合部105Aが、他方の幾何変換推定部114により推定された幾何変換パラメータを使って画像41aを幾何変換した結果と、画像40aとの照合結果を得る。そして、特徴照合部105Aが得た2つの照合結果を比較する。2つの照合結果より、同じ場所で同じ物標が照合されたことが判明した場合に、いずれの照合結果も信頼度が高いとみなすことができる。
そこで、特徴照合部(特徴照合部105A)は、一方の画像変換推定部(幾何変換推定部112)により推定された画像変換パラメータ(幾何変換パラメータ)を使って第一画像(画像40a)を画像変換(幾何変換)した結果と、第二画像(画像41a)との照合結果を取得し、他方の画像変換推定部(幾何変換推定部114)により推定された画像変換パラメータ(幾何変換パラメータ)を使って第二画像(画像41a)を幾何変換した結果と、第一画像(画像40a)との照合結果を取得し、それぞれの照合結果を比較して、第一画像(画像40a)から検知される物標と、第二画像(画像41a)から検知される物標が同じ三次元位置で照合した場合に、照合結果に高い信頼度を付与する。ここでの照合結果に付与される信頼度は、各画像から検知された物標ごとに、同じ三次元位置で照合されなかったら不一致を0%とし、同じ三次元位置で照合されたら100%とする値で表してもよい。そして、特徴照合部105は、80%以上の信頼度であれば、信頼度が高い照合結果を位置推定部106に出力してもよい。
また、特徴照合部105Aは、推定される撮像平面を照合してもよい。そこで、特徴照合部105Aは、撮像平面推定部111が推定する撮像平面と、撮像平面推定部113が推定する撮像平面とを比較する。この時、特徴照合部105Aは、撮像平面推定部113が推定する撮像平面を基準とし、撮像平面推定部111が推定する撮像平面が異なる場合には、照合結果の信頼度が低いため、照合ミスと判定する。そして、特徴照合部105Aは、推定した撮像平面の対象である物標に関して、特徴の照合結果を位置推定部106に出力しない対応ができる。このように、特徴照合部105Aは、信頼度が高い照合結果のみを残して位置推定部106に照合結果を出力したり、信頼度が低い照合結果をノイズと判断して照合結果を出力しなかったりする。このため、位置推定部106は、照合結果の信頼度が高い物標に限定して、この物標の位置及び距離を推定することが可能となる。
以上説明した第2の実施形態に係る外界認識装置100Aでは、照合条件決定部104Aが、撮像平面推定部111,113、幾何変換推定部112,114を備える構成とした。そして、特徴照合部105Aが、幾何変換推定部112,114から出力される推定結果のうち、一方の推定結果を基準にとって推定結果を照合することで、照合結果の信頼度を求めることができる。このため、特徴照合部105Aによる照合結果の信頼度の高低に基づいて、物標を正しく照合できたか判定しやすくなり、位置推定部106による物標の位置の推定も正確に行えるようになる。
[第3の実施形態]
次に、本発明の第3の実施形態に係る外界認識装置100Bの構成例及び処理例について、図9と図10を参照して説明する。
次に、本発明の第3の実施形態に係る外界認識装置100Bの構成例及び処理例について、図9と図10を参照して説明する。
物標検知部101により指定された画像領域の中に複数の属性の物標が混在する場合に、図9に示す照合条件決定部104Bが各属性の物標を正確に検知するためにはいくつかの方法が考えられる。例えば、照合条件決定部104Bは、物標検知部101が検知した物標の検知結果を受け取ると、物標検知部101により検知された物標の属性や、撮像平面推定部111により推定された平面方程式から照合対象である物標の前景となる物標を優先して計測する方法が考えられる。
また、物標検知部101により物標ごとに複数の属性が検知された場合、照合条件決定部104Bは、支配的な物標の属性を選択する方法をとってもよい。支配的な物標とは、例えば、画像領域に複数の物標が映る場合に前景となる物標である。この場合、特徴照合部105は、被支配的な物標に対して前景となる、支配的な物標の属性に従って物標の特徴を照合し、物標の位置を推定する。ここでは、画像40a,41aから検知された複数の物標のうち、支配的な物標を選択することが可能な外界認識装置100Bが有する照合条件決定部104Bについて説明する。
図9は、第3の実施形態に係る外界認識装置100Bの内部構成例を示すブロック図である。第3の実施形態に係る外界認識装置100Bでは、物標検知部101により指定された画像領域の中に複数の属性の物標が混在する場合に、特定の物標を特徴照合部105によるテンプレートマッチングの対象として選択する処理が行われる。
外界認識装置100Bが備える照合条件決定部104Bは、撮像平面推定部111、幾何変換推定部112に加えて、変換選択部115を備える。
変換選択部(変換選択部115)は、第一画像(画像40a)及び第二画像(画像41a)から検知される複数の物標のうち、距離が近い物標を選択して、選択された物標に対して画像変換推定部(幾何変換推定部112)が推定した画像変換パラメータ(幾何変換パラメータ)を選択する。例えば、変換選択部115は、幾何変換推定部112で推定された複数の物標に対する幾何変換パラメータから、支配的な属性を有する物標に対して推定された幾何変換パラメータを選択する。そして、変換選択部115が選択した幾何変換パラメータが特徴照合部105に出力される。
変換選択部(変換選択部115)は、第一画像(画像40a)及び第二画像(画像41a)から検知される複数の物標のうち、距離が近い物標を選択して、選択された物標に対して画像変換推定部(幾何変換推定部112)が推定した画像変換パラメータ(幾何変換パラメータ)を選択する。例えば、変換選択部115は、幾何変換推定部112で推定された複数の物標に対する幾何変換パラメータから、支配的な属性を有する物標に対して推定された幾何変換パラメータを選択する。そして、変換選択部115が選択した幾何変換パラメータが特徴照合部105に出力される。
特徴照合部(特徴照合部105)は、変換選択部(変換選択部115)により選択された画像変換パラメータ(幾何変換パラメータ)を用いて、第一画像(画像40a)から検知された物標の画像変換を行う。そして、特徴照合部105は、幾何変換後の物標の特徴と、物標検知部102により検知された物標の特徴とを照合し、照合結果を位置推定部106に出力する。
ここで、図9に示した照合条件決定部104Bで行われる処理の具体例について、図10を参照して説明する。ここでは例として、照合条件決定部104Bが平面方程式を用いて、自車両1に近い、すなわち手前にある物標の属性を選択する例を示す。
図10は、車両2と背景が混在する領域56,57の例を示す図である。車両2は、自車両1に対向して走行しているものとする。
領域56では、車両2の左側の一部と、背景である路面とが混在している。また、領域57では、車両2の下側の一部と、背景である路面とが混在している。通常、画像の上側に路面が含まれている場合、立体物の方が路面よりも手前にある。特徴照合部105によるテンプレートマッチングの対象となる枠が領域56である場合、背景よりも前方にある車両2の形状がマッチングの対象として優先して採用される。
逆に、画像に立体物と路面とが含まれている場合、画像の下側にある路面の方が立体物よりも手前にある。特徴照合部105によるテンプレートマッチングの対象となる枠が領域57である場合、車両2の下部と路面との接合点の方が自車両に近いため、自車両1よりも前方にある路面の形状がマッチングの対象として優先して採用される。
他の例として、車両制御の観点から、自車両1が接触した場合に走行への影響が大きい立体物(例えば、車両2)を優先し、単純に車両ごとの属性の情報からマッチングの対象として決定してもよい。この場合、変換選択部(変換選択部115)は、自車両の走行に影響の大きい属性を持つ物標を優先して選択する。この結果、位置推定部106により、自車両の走行に影響の大きい属性を持つ物標までの距離が優先して推定されるので、自車両は、距離が推定された物標を回避する等の制御が可能となる。
以上説明した第3の実施形態に係る外界認識装置100Bでは、画像40aにおける一つの画像領域に複数の属性の物標が検知された場合に、一つの物標に対する幾何変換パラメータを選択して、この物標の幾何変換を行い、画像41aの対応する画像領域の物標と照合することができる。このため、特徴照合部105では画像40a,41aの照合対象となる物標が一致しやすく、位置推定部106では、照合された物標の位置推定も正確に行える。
[第4の実施形態]
次に、本発明の第4の実施形態に係る外界認識装置100Cの構成例及び処理例について、図11と図12を参照して説明する。
次に、本発明の第4の実施形態に係る外界認識装置100Cの構成例及び処理例について、図11と図12を参照して説明する。
撮像平面推定部111が推定する路面のモデル(平面方程式)は、自車両1に対して物標が遠方であるほど、実際の平面モデルからずれることが予想される。つまり、物標検知部101の検知結果に基づいて撮像平面推定部111が推定する平面方程式は、その平面方程式自身が誤差を含む場合がある。このため、平面方程式に含まれる誤差が、特徴照合部105Bによる特徴照合の精度に影響を与える可能性が想定される。ここでは、平面方程式に含まれる誤差が、特徴照合部105Bによる特徴照合の精度に影響を与えない外界認識装置100Cの構成例について説明する。
図11は、第4の実施形態に係る外界認識装置100Cの内部構成例を示すブロック図である。第4の実施形態に係る外界認識装置100Cでは、平面方程式が誤差を含む場合に、物標の特徴を照合する処理を行う。
外界認識装置100Cは、図3に示した外界認識装置100と同様の構成としているが、照合条件決定部104Cの幾何変換推定部112Aに接続される誤差推定部107を備える点が異なる。
誤差推定部(誤差推定部107)は、撮像平面推定部(撮像平面推定部111)により推定された撮像平面の誤差を推定する。例えば、誤差推定部107は、撮像平面推定部111によって推定される平面方程式の誤差を推定し、推定結果を幾何変換推定部112Aに出力する。平面方程式の誤差は、例えば、事前に行われる実験や設計段階で決定される値である。誤差推定部107による誤差の推定結果としては、物標が遠方であればあるほど誤差の出力を大きくする方式が考えられる。そこで、誤差推定部107は、自車両1に対して遠方の物体に大きな誤差を推定し、自車両1に対して近方の物体に小さな誤差を推定する。
誤差推定部(誤差推定部107)は、撮像平面推定部(撮像平面推定部111)により推定された撮像平面の誤差を推定する。例えば、誤差推定部107は、撮像平面推定部111によって推定される平面方程式の誤差を推定し、推定結果を幾何変換推定部112Aに出力する。平面方程式の誤差は、例えば、事前に行われる実験や設計段階で決定される値である。誤差推定部107による誤差の推定結果としては、物標が遠方であればあるほど誤差の出力を大きくする方式が考えられる。そこで、誤差推定部107は、自車両1に対して遠方の物体に大きな誤差を推定し、自車両1に対して近方の物体に小さな誤差を推定する。
誤差推定部107から出力される誤差の使い方の一つとして、例えば、誤差推定部107による誤差の推定結果が一定以上となる平面方程式に対して、幾何変換推定部112Aが幾何変換パラメータを出力しないようにする。この結果、特徴照合部105Bは、幾何変換推定部112Aが推定する幾何変換パラメータを使用しなくてすむ。このような処理を行うのは、特徴照合部105Bが撮像平面を幾何変換することが、逆に特徴の照合処理に悪影響を与えることが予想されるためである。特徴照合部105Bが幾何変換パラメータを使用しない場合には、撮像平面の幾何変換を実施せず、画像40a,41aから検知された物標をそのまま照合する。
画像変換推定部(幾何変換推定部112A)は、撮像平面の誤差に基づいて、画像変換される撮像平面の誤差の範囲を決定する。そして、幾何変換推定部112Aは、誤差推定部107から入力した平面方程式の誤差の推定結果を用いて、撮像平面推定部111が推定した撮像平面に対して推定した幾何変換パラメータの出力可否を判定する。このように撮像平面の誤差の範囲が決定されるので、誤差の大きな撮像平面に対して推定された幾何変換パラメータは出力されなくなる。
特徴照合部105Bは、幾何変換推定部112Aから幾何変換パラメータが出力されない場合には、画像40a,41aの物標が検知された領域を幾何変換せずに照合し、照合結果を位置推定部106に出力する。
特徴照合部105Bは、幾何変換推定部112Aから幾何変換パラメータが出力されない場合には、画像40a,41aの物標が検知された領域を幾何変換せずに照合し、照合結果を位置推定部106に出力する。
以上説明した第4の実施形態に係る外界認識装置100Cでは、幾何変換推定部112Aが平面方程式の誤差の推定結果を用いて、幾何変換パラメータの出力可否を判定する。幾何変換パラメータが出力されない場合、特徴照合部105Bは、物標が検知された領域を幾何変換せずに照合するため、誤差の大きい平面方程式を用いた撮像平面から幾何変換した領域を照合した場合に比べて、物標の特徴を照合する精度が向上する。
[第4の実施形態の変形例]
ここで、誤差推定部107が出力する誤差の推定結果を使う別の方法について説明する。
図12は、外界認識装置100Cの変形例に係る幾何変換推定部112Aと特徴照合部105Bの内部構成例を示すブロック図である。ここでは、図11に示した外界認識装置100Cのうち、幾何変換推定部112Aと特徴照合部105Bの構成例を重点的に説明する。
ここで、誤差推定部107が出力する誤差の推定結果を使う別の方法について説明する。
図12は、外界認識装置100Cの変形例に係る幾何変換推定部112Aと特徴照合部105Bの内部構成例を示すブロック図である。ここでは、図11に示した外界認識装置100Cのうち、幾何変換推定部112Aと特徴照合部105Bの構成例を重点的に説明する。
撮像平面推定部111が撮像平面から推定した平面方程式のパラメータが、本来のパラメータ(α,β,γ,δ)に対して、経験的に誤差(±εα,±εβ,±εγ,±εδ)だけずれると仮定する。この場合、幾何変換推定部112Aは、この誤差幅の範囲で、撮像平面の推定結果を撮像平面ごとにNパターン分複製する。複製の仕方は様々な方法があるが、図12には、そのうちの一つの方法を実行可能な幾何変換推定部112Aの構成例及び処理の例を示す。
図12に示す画像変換推定部(幾何変換推定部112A)は、誤差推定部(誤差推定部107)により推定された撮像平面の誤差に基づいて複数の撮像平面を生成し、複数の撮像平面のそれぞれに対して複数の画像変換パラメータ(幾何変換パラメータ)を推定する。この幾何変換推定部112Aは、撮像平面N生成部112A-1と、幾何変換N推定部112A-2を備える。
撮像平面N生成部112A-1は、例えばランダムで上記の誤差幅に収まるようにパラメータを振り、撮像平面推定部111が推定した平面方程式のパラメータに加算して、Nパターンの複数の撮像平面を生成する。
幾何変換N推定部112A-2は、生成されたNパターンの撮像平面のそれぞれに対して複数の幾何変換パラメータを推定する。このため、幾何変換N推定部112A-2は、Nパターンの幾何変換パラメータを推定することが可能である。幾何変換N推定部112A-2が推定した幾何変換N推定部112A-2は、特徴照合部105Bに出力される。
特徴照合部(特徴照合部105B)は、複数の画像変換パラメータ(幾何変換パラメータ)を用いて画像変換された第一画像(画像40a)から検知された物標の特徴と、第二画像(画像41a)から検知された物標の特徴との照合処理を複数回行って、評価が高い照合処理の結果を位置推定部(位置推定部106)に出力する。この特徴照合部105Bは、特徴N照合部105B-1及び特徴照合結果選択部105B-2を備える。
特徴N照合部105B-1には、幾何変換推定部112Aの幾何変換N推定部112A-2からNパターンの幾何変換パラメータの推定結果が入力される。そして、特徴N照合部105B-1は、入力されたNパターンの幾何変換パラメータの推定結果に基づいて、物標の特徴に対するN回の異なる照合処理を行う。このN回の照合処理の結果は、それぞれ特徴照合結果選択部105B-2に出力される。
特徴照合結果選択部105B-2は、特徴N照合部105B-1から入力したN回の照合処理の結果のうち、最も照合時の評価が高い照合処理の結果を選択し、選択した照合処理の結果を位置推定部106に出力する。
位置推定部106は、特徴照合部105Bから入力した照合処理の結果に基づいて、物標の位置を推定する。
位置推定部106は、特徴照合部105Bから入力した照合処理の結果に基づいて、物標の位置を推定する。
以上説明した第4の実施形態の変形例に係る外界認識装置100Cは、幾何変換推定部112A及び特徴照合部105Bを備えることで、撮像平面のNパターン分の推定結果からNパターンの幾何変換パラメータの推定結果を得られる。そして、Nパターンの幾何変換パラメータの推定結果によりN回の照合処理が行われた後、最も照合時の評価が高い照合処理の結果が選択される。このため、撮像平面推定部111により推定される平面方程式のパラメータが、本来のパラメータに対して誤差を含む場合であっても、位置推定部106が画像40a,41aに映る物標の位置推定を正確に行えるようになる。
[第5の実施形態]
次に、本発明の第5の実施形態に係る外界認識装置100Dの構成例及び処理例について、図13を参照して説明する。
図13は、外界認識装置100Dの内部構成例を示すブロック図である。
次に、本発明の第5の実施形態に係る外界認識装置100Dの構成例及び処理例について、図13を参照して説明する。
図13は、外界認識装置100Dの内部構成例を示すブロック図である。
外界認識装置100Dは、物標検知部101,102、照合条件決定部104、位置推定部106に加えて、視差算出部108及び視差妥当性検証部109を備える。
視差算出部(視差算出部108)は、撮像部40から入力する第1画像(画像40a)、及び撮像部41から入力する第2画像(画像41a)から視差を算出して、第1画像(画像40a)と第2画像(画像41a)に映る物標の位置を照合する。すなわち、視差算出部108は、物標検知部101の物標の検知結果に基づいて撮像平面推定部111が推定する平面方程式を用いずに、画像40a,41aの視差を算出する。視差算出部108が視差を算出する方法として、視差を計測する公知の方法を用いてよい。視差算出部108は、視差を算出することで、画像40a,41aに映る同一物標が対応する位置を照合した結果を第2の照合結果として視差妥当性検証部109に出力する。
視差妥当性検証部109は、第1の実施形態に係る特徴照合部105を変形したものである。特徴照合部(視差妥当性検証部109)は、画像変換パラメータ(幾何変換パラメータ)を用いて画像変換した第1画像(画像40a)から検知された物標の特徴と、第2画像(画像41a)から検知された物標の特徴とを照合した第1の照合結果と、視差により照合された第2の照合結果とを比較し、比較結果の妥当性に基づいて、第1の照合結果又は第2照合結果を位置推定部(位置推定部106)に出力する。すなわち、視差妥当性検証部109は、撮像平面推定部111が推定する平面方程式を用いて幾何変換推定部112が推定した幾何変換パラメータにより幾何変換された画像領域の物標と、画像41aの画像領域の物標とを照合し、第1の照合結果を求める。そして、視差妥当性検証部109は、第1の照合結果と第2の照合結果とを比較し、視差算出部108による第2の照合結果の妥当性を検証する。視差妥当性検証部109による照合結果の妥当性は、例えばテンプレートマッチングにおいてはマッチング度合いの高さにより判断される方法などが想定される。
なお、撮像平面推定部111により平面方程式が推定された範囲では、幾何変換推定部112が推定した幾何変換パラメータに基づいて幾何変換された物標の照合精度が高いことが想定される。ただし、撮像平面推定部111による平面方程式の推定無しで、視差算出部108が画像40a,41aから算出した視差により物標の対応位置を求める方法は、平面方程式による条件分岐が発生しない。このため、視差算出部108をハードウェア化すれば、視差の算出処理の高速化をしやすくなるというメリットがある。
そこで、視差妥当性検証部109は、平面方程式と幾何変換パラメータにより求められる第1の照合結果を限定し、この限定した第1の照合結果を、視差算出部108による第2の照合結果が正しいか否かの検証処理に用いる。このように処理を行うのは、視差妥当性検証部109が画像40a,41aに共通して含まれる全ての物標に対して平面方程式と幾何変換パラメータにより求められる第1の照合結果を求めるのは、視差妥当性検証部109の処理負荷が高くなるからである。
視差妥当性検証部109は、限定した第1の照合結果と、第2の照合結果とを比較し、幾何変換を用いた第1の照合結果の妥当性が高い場合には、第1の照合結果を採用し、位置推定部106に第1の照合結果を出力する。例えば、自車両1に近い位置で検知された物標であれば、視差が大きくなるため、視差により照合された第2の照合結果の妥当性が低くなる。一方、この物標が自車両1に近い位置にあると、撮像平面が正確に推定されるため、幾何変換による第1の照合結果の妥当性が高くなる。そこで、位置推定部106は、上述した第1の実施形態に係る外界認識装置100と同様に、第1の照合結果を用いて物標の位置を推定する。
なお、視差妥当性検証部109は、第1の照合結果と第2の照合結果とを比較し、第2の照合結果の妥当性が低い場合に、画像40a,41aの視差を算出して照合された第2の照合結果を位置推定部106に出力する。例えば、自車両1から遠い位置で検知された物標であれば、視差が小さくなるため、視差により照合された第2の照合結果の妥当性が高くなる。一方、この物標が自車両1に遠い位置にあるので、撮像平面が不正確に推定されるため、幾何変換による第1の照合結果の妥当性が低くなる。このため、位置推定部106は、第2の照合結果を用いて物標の位置を推定する。なお、第2の照合結果の妥当性が低い場合、第1の照合結果と第2の照合結果とで差が大きい物標が存在する。そこで、視差妥当性検証部109は、この物標が映る画像領域について、再び第1の照合結果と第2の照合結果とを比較してもよい。
以上説明した第5の実施形態に係る外界認識装置100Dでは、照合条件決定部104から出力された幾何変換パラメータにより幾何変換された画像40aの画像領域と画像41aの画像領域とで照合した第1の照合結果と、視差算出部108が算出した視差を用いた画像40a,41aの第2の照合結果とを比較して照合結果の妥当性が検証される。そして、視差妥当性検証部109は、照合結果の妥当性に応じて、位置推定部106に出力する結果を、第1の照合結果、又は第2の照合結果のいずれかに決定する。第1の照合結果と第2の照合結果の比較による妥当性が低い場合には、位置推定部106が第2の照合結果を用いて物標の位置を推定することができる。このため、物標が自車両1に近い位置にあるか、遠い位置にあるかで、第1の照合結果又は第2の照合結果のいずれかが位置推定部106に出力される。このため、位置推定部106が様々な位置にある物標の位置を高速に推定することができる。
[変形例]
なお、上述した各実施の形態では、本発明を車両1に搭載される外界認識装置として説明したが、この外界認識装置は、例えば、複数のカメラを備える自走型のロボット、複数のカメラが撮影した映像により構内を監視するインフラ監視システムで用いられてもよい。インフラ監視システムでは、例えば、一つの場所に複数のカメラが設置される構成が想定される。
なお、上述した各実施の形態では、本発明を車両1に搭載される外界認識装置として説明したが、この外界認識装置は、例えば、複数のカメラを備える自走型のロボット、複数のカメラが撮影した映像により構内を監視するインフラ監視システムで用いられてもよい。インフラ監視システムでは、例えば、一つの場所に複数のカメラが設置される構成が想定される。
また、上述した各実施の形態に加えて、機械学習の結果から直接距離を算出する機能を有する外界認識装置を構成することもできる。この場合、外界認識装置が機械学習により物標までの距離を算出することが可能になると、画像から物標が検知された時点で距離を算出することができ、外界認識装置の演算負荷を低減することができる。
また、上述した各実施の形態に加えて、外界認識装置は、従来のステレオカメラで用いられる視差マッチングを実施してもよい。この場合、外界認識装置は、複数の画像を照合した結果から最も照合結果が良いと推定される結果を参照し、さらに予め用意した地図情報を用いて物標ごとの位置関係を推定することもできる。
なお、本発明は上述した各実施形態に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。
例えば、上述した各実施形態は本発明を分かりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ここで説明した実施形態の構成の一部を他の実施形態の構成に置き換えることは可能であり、さらにはある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
例えば、上述した各実施形態は本発明を分かりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ここで説明した実施形態の構成の一部を他の実施形態の構成に置き換えることは可能であり、さらにはある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1,2…車両、40,41…撮像部、40a,41a…画像、100…外界認識装置、101,102…物標検知部、103…カメラパラメータ、104…照合条件決定部、105…特徴照合部、106…位置推定部、111…撮像平面推定部、112…幾何変換推定部、113…撮像平面推定部、114…幾何変換推定部
Claims (10)
- 外界に対する撮像視野の少なくとも一部が重複する複数の撮像部のうち、少なくとも第一の撮像部から取得した第一画像に基づいて、物標を検知する第一の物標検知部と、
複数の前記撮像部のうち、第二の撮像部から取得した第二画像に基づいて、物標を検知する第二の物標検知部と、
前記第一の物標検知部による前記物標の検知結果に基づいて、前記第一画像における撮像平面を推定する撮像平面推定部と、
前記撮像平面推定部が推定した前記撮像平面の情報と、前記複数の撮像部の撮像パラメータとに基づいて、前記第二画像における撮像平面に合わせた画像変換パラメータを推定する画像変換推定部と、
前記画像変換推定部による画像変換パラメータを用いて画像変換した前記第一画像から検知された前記物標の特徴と、前記第二画像から検知された前記物標の特徴とを照合する特徴照合部と、
前記特徴照合部の照合結果に基づいて、前記物標の三次元位置を推定する位置推定部と、を備える
外界認識装置。 - 前記撮像平面推定部は、前記物標の大きさ、及び前記物標までの距離に基づいて、前記撮像平面を推定する
請求項1に記載の外界認識装置。 - 前記撮像平面推定部は、前記物標が撮像された画像領域において前記撮像平面を推定する
請求項2に記載の外界認識装置。 - 前記第一画像から検知される前記物標と、前記第二画像から検知される前記物標に対して、それぞれ設けられた複数の前記撮像平面推定部と、複数の前記画像変換推定部と、を備え、
前記特徴照合部は、一方の前記画像変換推定部により推定された前記画像変換パラメータを使って前記第一画像を画像変換した結果と、前記第二画像との照合結果を取得し、他方の前記画像変換推定部により推定された前記画像変換パラメータを使って前記第二画像を画像変換した結果と、前記第一画像との照合結果を取得し、それぞれの前記照合結果を比較して、前記第一画像から検知される前記物標と、前記第二画像から検知される前記物標が同じ三次元位置で照合した場合に、前記照合結果に高い信頼度を付与する
請求項3に記載の外界認識装置。 - 前記第一画像及び前記第二画像から検知される複数の前記物標のうち、自車両からの距離が近い前記物標を選択して、選択された前記物標に対して前記画像変換推定部が推定した前記画像変換パラメータを選択する変換選択部を備え、
前記特徴照合部は、前記変換選択部により選択された前記画像変換パラメータを用いて、前記第一画像から検知された物標の画像変換を行う
請求項3に記載の外界認識装置。 - 前記変換選択部は、前記自車両の走行に影響の大きい属性を持つ前記物標を優先して選択する
請求項5に記載の外界認識装置。 - 前記撮像平面推定部により推定された前記撮像平面の誤差を推定する誤差推定部を備え、
前記画像変換推定部は、前記撮像平面の誤差に基づいて、画像変換される前記撮像平面の誤差の範囲を決定する
請求項3に記載の外界認識装置。 - 前記画像変換推定部は、前記誤差推定部により推定された前記撮像平面の誤差に基づいて複数の撮像平面を生成し、複数の前記撮像平面のそれぞれに対して複数の前記画像変換パラメータを推定し、
前記特徴照合部は、複数の前記画像変換パラメータを用いて画像変換した前記第一画像から検知された特徴と、前記第二画像から検知された特徴との照合処理を複数回行って、評価が高い前記照合処理の結果を前記位置推定部に出力する
請求項7に記載の外界認識装置。 - 前記第一画像及び前記第二画像から視差を算出して、前記第一画像と前記第二画像に映る物標の位置を照合する視差算出部を備え、
前記特徴照合部は、前記画像変換パラメータを用いて画像変換した前記第一画像から検知された前記物標の特徴と、前記第二画像から検知された前記物標の特徴とを照合した第1の照合結果と、前記視差により照合された第2の照合結果とを比較し、比較結果の妥当性に基づいて、前記第1の照合結果又は前記第2の照合結果を前記位置推定部に出力する
請求項3に記載の外界認識装置。 - 外界に対する撮像視野の少なくとも一部が重複する複数の撮像部のうち、少なくとも第一の撮像部から取得した第一画像に基づいて、第一の物標検知部が物標を検知する処理と、
複数の前記撮像部のうち、第二の撮像部から取得した第二画像に基づいて、第二の物標検知部物標を検知する処理と、
撮像平面推定部が、前記第一の物標検知部による前記物標の検知結果に基づいて、前記第一画像における撮像平面を推定する処理と、
前記撮像平面推定部が推定した前記撮像平面の情報と、前記複数の撮像部の撮像パラメータとに基づいて、画像変換推定部が、前記第二画像における撮像平面に合わせた画像変換パラメータを推定する処理と、
前記画像変換推定部による画像変換パラメータを用いて画像変換した前記第一画像から検知された前記物標の特徴と、前記第二画像から検知された前記物標の特徴とを照合する処理と、
照合処理の結果に基づいて、前記物標の三次元位置を推定する処理と、を含む
外界認識方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022102526A JP2024003407A (ja) | 2022-06-27 | 2022-06-27 | 外界認識装置及び外界認識方法 |
PCT/JP2023/014887 WO2024004325A1 (ja) | 2022-06-27 | 2023-04-12 | 外界認識装置及び外界認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022102526A JP2024003407A (ja) | 2022-06-27 | 2022-06-27 | 外界認識装置及び外界認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024003407A true JP2024003407A (ja) | 2024-01-15 |
Family
ID=89382603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022102526A Pending JP2024003407A (ja) | 2022-06-27 | 2022-06-27 | 外界認識装置及び外界認識方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024003407A (ja) |
WO (1) | WO2024004325A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6392693B2 (ja) * | 2015-03-20 | 2018-09-19 | 株式会社デンソーアイティーラボラトリ | 車両周辺監視装置、車両周辺監視方法、及びプログラム |
JP6760656B2 (ja) * | 2017-11-24 | 2020-09-23 | 国立大学法人 岡山大学 | 物体識別方法 |
JP7219561B2 (ja) * | 2018-07-18 | 2023-02-08 | 日立Astemo株式会社 | 車載環境認識装置 |
-
2022
- 2022-06-27 JP JP2022102526A patent/JP2024003407A/ja active Pending
-
2023
- 2023-04-12 WO PCT/JP2023/014887 patent/WO2024004325A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024004325A1 (ja) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111160302B (zh) | 基于自动驾驶环境的障碍物信息识别方法和装置 | |
CN110807350B (zh) | 用于面向扫描匹配的视觉slam的系统和方法 | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
JP3367170B2 (ja) | 障害物検出装置 | |
EP3159121A1 (en) | Device for updating map of mobile robot and method therefor | |
US20160292533A1 (en) | Image processing apparatus for estimating three-dimensional position of object and method therefor | |
EP3159126A1 (en) | Device and method for recognizing location of mobile robot by means of edge-based readjustment | |
CN112997187A (zh) | 基于鸟瞰图点云的二维对象边界框信息估计 | |
US9042639B2 (en) | Method for representing surroundings | |
JP2007527569A (ja) | 立体視に基づく差し迫った衝突の検知 | |
JP6021689B2 (ja) | 車両諸元計測処理装置、車両諸元計測方法及びプログラム | |
EP2757524A1 (en) | Depth sensing method and system for autonomous vehicles | |
CN110543807B (zh) | 验证障碍物候选的方法 | |
US20050232463A1 (en) | Method and apparatus for detecting a presence prior to collision | |
EP3159122A1 (en) | Device and method for recognizing location of mobile robot by means of search-based correlation matching | |
WO2017051480A1 (ja) | 画像処理装置及び画像処理方法 | |
CN111937036A (zh) | 用于处理传感器数据的方法、设备和具有指令的计算机可读存储介质 | |
EP3324359B1 (en) | Image processing device and image processing method | |
US20210394761A1 (en) | Method and Processing Unit for Determining Information With Respect to an Object in an Environment of a Vehicle | |
CN112424565B (zh) | 车载环境识别装置 | |
KR102082254B1 (ko) | 차량 인식 시스템 | |
KR20210090384A (ko) | 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치 | |
CN111144404A (zh) | 遗留物体检测方法、装置、系统、计算机设备和存储介质 | |
US11861914B2 (en) | Object recognition method and object recognition device | |
KR102188164B1 (ko) | 3차원 데이터를 이용한 도로 인식 방법 |