JPWO2013133129A1 - 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 - Google Patents
移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 Download PDFInfo
- Publication number
- JPWO2013133129A1 JPWO2013133129A1 JP2014503799A JP2014503799A JPWO2013133129A1 JP WO2013133129 A1 JPWO2013133129 A1 JP WO2013133129A1 JP 2014503799 A JP2014503799 A JP 2014503799A JP 2014503799 A JP2014503799 A JP 2014503799A JP WO2013133129 A1 JPWO2013133129 A1 JP WO2013133129A1
- Authority
- JP
- Japan
- Prior art keywords
- likelihood
- image
- moving object
- virtual
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Navigation (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
移動物体位置姿勢推定装置は、撮像部2と、対比画像取得部と、尤度設定部12と、移動物体位置姿勢推定部13とを備える。撮像部2は、移動物体周辺を撮像して、撮像画像を取得する。対比画像取得部は、予め定めた位置及び姿勢角から見た時の対比画像を取得する。尤度設定部12は、撮像画像と対比画像とを比較し、撮像画像内の遠方位置画素と対比画像内の遠方位置画素とが一致した場合には対比画像の姿勢角尤度を高く設定し、撮像画像内の近傍位置画素と対比画像内の近傍位置画素とが一致した場合には対比画像の位置尤度を高く設定する。移動物体位置姿勢推定部13は、姿勢角尤度が高く設定された対比画像の姿勢角に基づいて移動物体の姿勢角を推定し、位置尤度が高く設定された対比画像の位置に基づいて移動物体の位置を推定する。
Description
本発明は、移動物体の位置及び姿勢角を推定する移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法に関する。
三次元地図とカメラの撮像画像を比較することによって移動物体の位置を算出する技術として、例えば下記の特許文献1に記載された技術が知られている。この特許文献1では、先ず、車両に備えられた車載カメラにより得られる現実の映像からエッジを抽出したエッジ画像を作成する。周囲環境のエッジの位置や形状を三次元で記録した三次元地図を車載カメラの位置及び姿勢で投影した仮想画像を作成する。そして、エッジ画像と仮想画像とが一致するように車載カメラの位置及び姿勢角を調整する。これによって、車載カメラの三次元空間での位置と姿勢角を推定している。
しかしながら、特許文献1において、現実の映像と仮想画像が一致していても、この一致した場所が車載カメラから遠い場合、車載カメラの位置の誤差が大きい可能性がある。逆に、一致した位置が車載カメラから近い場合、車載カメラの姿勢角の誤差が大きい可能性がある。
そこで、本発明は、上述した実情に鑑みて提案されたものであり、精度良く移動物体の位置及び姿勢角を推定することができる移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法を提供することを目的とする。
本発明の第1態様に係わる移動物体位置姿勢推定装置は、移動物体の位置及び姿勢角を推定する移動物体位置姿勢推定装置であって、撮像部と、対比画像取得部と、尤度設定部と、移動物体位置姿勢推定部とを備える。撮像部は、移動物体周辺を撮像して、撮像画像を取得する。対比画像取得部は、予め定めた位置及び姿勢角から見た時の対比画像を取得する。尤度設定部は、撮像部により取得された撮像画像と対比画像取得部により取得された対比画像とを比較し、撮像画像内の遠方位置画素と対比画像内の遠方位置画素とが一致した場合には対比画像の姿勢角尤度を高く設定し、撮像画像内の近傍位置画素と対比画像内の近傍位置画素とが一致した場合には対比画像の位置尤度を高く設定する。移動物体位置姿勢推定部は、尤度設定部により姿勢角尤度が高く設定された対比画像の姿勢角に基づいて移動物体の姿勢角を推定し、尤度設定部により位置尤度が高く設定された対比画像の位置に基づいて移動物体の位置を推定する。
本発明の第2態様に係わる移動物体位置姿勢推定方法は、移動物体の位置及び姿勢角を推定する移動物体位置姿勢推定方法である。移動物体位置姿勢推定方法では、移動物体周辺を撮像した撮像画像と予め定めた位置及び姿勢角から見た時の対比画像とを比較する。撮像画像内の遠方位置画素と対比画像内の遠方位置画素とが一致した場合には対比画像の姿勢角尤度を高く設定する。撮像画像内の近傍位置画素と対比画像内の近傍位置画素とが一致した場合には対比画像の位置尤度を高く設定する。姿勢角尤度が高く設定された対比画像の姿勢角に基づいて移動物体の姿勢角を推定する。位置尤度が高く設定された対比画像の位置に基づいて移動物体の位置を推定する。
以下、本発明の実施の形態について図面を参照して説明する。
(第1実施形態)
図1を参照して、本発明の第1実施形態に係わる移動物体位置姿勢推定装置の構成を説明する。第1実施形態に係わる移動物体位置姿勢推定装置は、ECU(Engine Control Unit)1と、カメラ(撮像部の一例)2と、3次元地図データベース3と、車両センサ群4とを備える。車両センサ群4には、GPS受信機41、アクセルセンサ42、ステアリングセンサ43、ブレーキセンサ44、車速センサ45、加速度センサ46、車輪速センサ47、及び、ヨーレートセンサ等のその他センサ48が含まれる。なお、ECU1は、実際にはROM、RAM、演算回路等にて構成されている。ECU1は、ROMに格納された移動物体位置姿勢推定用のコンピュータプログラムに従って処理を実行することによって、仮想画像取得部11(対比画像取得部の一例)、尤度設定部12、移動物体位置姿勢推定部13として機能する。
(第1実施形態)
図1を参照して、本発明の第1実施形態に係わる移動物体位置姿勢推定装置の構成を説明する。第1実施形態に係わる移動物体位置姿勢推定装置は、ECU(Engine Control Unit)1と、カメラ(撮像部の一例)2と、3次元地図データベース3と、車両センサ群4とを備える。車両センサ群4には、GPS受信機41、アクセルセンサ42、ステアリングセンサ43、ブレーキセンサ44、車速センサ45、加速度センサ46、車輪速センサ47、及び、ヨーレートセンサ等のその他センサ48が含まれる。なお、ECU1は、実際にはROM、RAM、演算回路等にて構成されている。ECU1は、ROMに格納された移動物体位置姿勢推定用のコンピュータプログラムに従って処理を実行することによって、仮想画像取得部11(対比画像取得部の一例)、尤度設定部12、移動物体位置姿勢推定部13として機能する。
カメラ2は、例えばCCD等の固体撮像素子を用いたものである。以下、移動物体が車両である場合について説明する。カメラ2は、例えば車両のフロント部分(位置)に、車両前方を撮像可能な方向(姿勢角)で設置される。カメラ2は、所定時間毎に車両周辺を撮像して撮像画像を取得する。取得された撮像画像は、ECU1に供給される。
3次元地図データベース3は、例えば路面表示を含む周囲環境のエッジ等の三次元位置情報が記憶されている。本実施形態において、3次元地図データベース3には、三次元位置情報として、白線、停止線、横断歩道、路面マーク等の路面表示の他に、縁石、建物等の構造物のエッジ情報が記憶されている。これらの三次元位置情報は、エッジの集合体で定義される。エッジが長い直線の場合には、エッジは例えば1m毎に区切られるため、極端に長いエッジは存在しない。直線の場合には、各エッジは、直線の両端点を示す3次元位置情報を持っている。曲線の場合には、各エッジは、曲線の両端点と中央点を示す3次元位置情報を持っている。
車両センサ群4は、ECU1に接続されている。車両センサ群4は、各センサ41〜48により検出した各種のセンサ値をECU1に供給する。ECU1は、車両センサ群4の出力値を用いることで、車両の概位置、及び単位時間に車両が進んだ移動量を示すオドメトリをそれぞれ算出する。
ECU1は、カメラ2により撮像された撮像画像と3次元地図データベース3に記憶された3次元位置情報とを用いて車両の位置及び姿勢角の推定を行う電子制御ユニットである。なお、ECU1は、他の制御に用いるECUと兼用しても良い。
特に、移動物体位置姿勢推定装置は、カメラ2により撮像した撮像画像と、予め定めた位置及び姿勢角から見た時の対比画像とを比較して、車両の位置及び姿勢角を推定する。なお、実施形態では「予め定めた位置及び姿勢角から見た時の対比画像」の一例として、「三次元地図データを仮想位置及び仮想姿勢角から撮像した画像に変換した仮想画像」を用いる。ここで、図2(a)に示すような撮像画像が得られ、図2(b)のようなエッジ画像が得られたとする。一方、3次元位置情報をカメラ2の位置及び姿勢角に投影した仮想画像が図2(c)のようになったとする。図2(b)の撮像画像と図2(c)の仮想画像とを比較すると、遠方位置(A)及び近傍位置(B)の双方で一致しているため、仮想画像を生成した仮想位置及び仮想姿勢角が、自車両の位置及び姿勢角に相当すると推定できる。しかし、仮想位置が右方向に位置ずれした場合には、仮想画像は、図2(d)に示すようになる。この場合、図2(a)の撮像画像と図2(d)の撮像画像とを比較すると、遠方位置(A)は一致しているが、近傍位置(B)は大きくずれてしまう。逆に、図2(c)の仮想画像の仮想姿勢角をずらし(図示せず)、図2(a)の撮像画像と比較すると、近傍位置(B)は一致するが、遠方位置(A)は大きくずれる。
このような現象に着目して、移動物体位置姿勢推定装置は、撮像画像内の近傍位置画素と仮想画像内の近傍位置画素とが一致した場合には仮想画像の仮想位置が尤もらしいと判断する。逆に、移動物体位置姿勢推定装置は、撮像画像内の遠方位置画素と仮想画像内の遠方位置画素とが一致した場合には仮想画像の仮想姿勢角が尤もらしいと判断する。
以下、移動物体位置姿勢推定装置の動作について、図3に示す位置姿勢推定アルゴリズムを参照して説明する。なお、本実施形態では、車両の3自由度の位置(前後方向,横方向,上下方向)及び3自由度の姿勢角(ロール,ピッチ,ヨー)を推定するものとする。また、図3に示す位置姿勢推定アルゴリズムは、ECU1によって、例えば100msec程度の間隔で連続的に行われる。
先ずステップS1において、ECU1は、カメラ2により撮像された映像を取得し、当該映像に含まれる撮像画像から、エッジ画像を算出する。本実施形態におけるエッジとは、画素の輝度が鋭敏に変化している箇所を指す。エッジ検出方法としては、例えばCanny法を用いることができる。これに限らず、エッジ検出手法は、他にも微分エッジ検出など様々な手法を使用してもよい。
また、ECU1は、カメラ2の撮像画像から、エッジの輝度変化の方向やエッジ近辺のカラーなど抽出することが望ましい。これにより、後述するステップS5及びステップS6において、3次元地図データベース3にも記録しておいた、これらエッジ以外の情報も用いて位置尤度、姿勢角尤度を設定して、車両の位置及び姿勢角を推定してもよい。
次のステップS2において、ECU1は、車両センサ群4から得られるセンサ値から、1ループ前の位置姿勢推定アルゴリズムにて算出した車両の位置からの移動量であるオドメトリを算出する。なお、位置姿勢推定アルゴリズムを開始して最初のループの場合は、オドメトリをゼロとして算出する。
ECU1は、車両センサ群4から得られる各種センサ値を用いて、車両が単位時間に進んだ移動量であるオドメトリを算出する。このオドメトリ算出方法としては、例えば、車両運動を平面上に限定した上で、各車輪の車輪速センサ及びステアリングセンサにより検出されたセンサ値から、車速及びヨーレイトを算出し、単位時間での移動量と回転量を算出すれば良い。ECU1は、車輪速を車速やGPS受信機41の測位値の差分で代用してもよく、ヨーレートセンサを操舵角で代用してもよい。なお、オドメトリの算出方法は、様々な算出手法が考えられるが、オドメトリが算出できればどの手法を用いても良い。
次のステップS3において、ECU1(対比画像取得部)は、予め定めた位置及び姿勢角から見た時の対比画像を取得する。具体的には、対比画像取得部の一例としての仮想画像取得部11は、ステップS2にて算出したオドメトリから、複数の仮想(予測)位置及び仮想(予測)姿勢角の候補を算出する。複数の仮想位置及び仮想姿勢角の候補は、自車位置及び姿勢角の候補である。このとき、仮想画像取得部11は、1ループ前のステップS6にて推定された車両位置から、今回のステップS2で算出したオドメトリ分だけ移動させる。仮想画像取得部11は、移動させた車両位置の近傍で、複数の仮想位置及び仮想姿勢角の候補を算出する。ただし、位置姿勢推定アルゴリズムを開始して初めてのループの場合には、ECU1は前回の車両位置情報を持っていない。このため、仮想画像取得部11は、車両センサ群4に含まれるGPS受信機41からのデータを初期位置情報とする。又は、仮想画像取得部11は、前回に停車時に最後に算出した車両位置及び姿勢角を記憶しておき、初期位置及び姿勢角情報にしてもよい。
このとき、仮想画像取得部11は、車両センサ群4の測定誤差や通信遅れによって生じるオドメトリの誤差や、オドメトリで考慮できない車両の動特性を考慮に入れ、車両の位置や姿勢角の真値が取り得る可能性がある複数の仮想位置及び仮想姿勢角の候補を複数個生成する。この仮想位置及び仮想姿勢角の候補は、位置及び姿勢角の6自由度のパラメータに対してそれぞれ誤差の上下限を設定し、この誤差の上下限の範囲内で乱数表等を用いてランダムに設定する。
なお、本実施形態では、仮想位置及び仮想姿勢角の候補を500個作成する。また、位置及び姿勢角の6自由度のパラメータに対する誤差の上下限は、前後方向,横方向,上下方向、ロール,ピッチ,ヨーの順に±0.05[m],±0.05[m],±0.05[m],±0.5[deg] ,±0.5[deg],±0.5[deg]とする。この仮想位置及び仮想姿勢角の候補を作成する数や、位置及び姿勢角の6自由度のパラメータに対する誤差の上下限は、車両の運転状態や路面の状況を検出或いは推定して、適宜変更することが望ましい。例えば、急旋回やスリップなどが発生している場合には、平面方向(前後方向,横方向,ヨー)の誤差が大きくなる可能性が高いので、この3つのパラメータの誤差の上下限を大きくし、且つ仮想位置及び仮想姿勢角の候補の作成数を増やすことが望ましい。
ステップS3において、仮想画像取得部11は、所謂パーティクルフィルタを用いて複数の仮想位置及び仮想姿勢角の候補を設定してもよい。このとき、仮想画像取得部11は、1ループ前のステップS6で生成された複数の仮想位置及び仮想姿勢角の候補である各パーティクル(候補点)の位置及び姿勢角を、オドメトリ分だけ移動させる。具体的には、図4に示すように、1ループ前に推定されていた車両V(t1)の位置及び姿勢角のパーティクルPと周囲のパーティクルP1〜P5を、オドメトリ分だけ移動させる。この結果、仮想画像取得部11は、新たな車両V(t2)の位置及び姿勢角を推定するためのパーティクルP10〜15を設定する。これにより、仮想画像取得部11は、今回における複数の仮想位置及び仮想姿勢角の候補を算出する。すなわち、各パーティクルの位置及び姿勢角を、複数の仮想位置及び仮想姿勢角の候補とする。なお、車両センサ群4の測定誤差や通信遅れによって生じるオドメトリの誤差や、オドメトリで考慮できない車両の動特性を考慮に入れて、各パーティクルの位置情報及び姿勢角情報をオドメトリ分だけ移動させ、その後に、上記のように位置及び姿勢角の6自由度のパラメータに対する誤差の上下限の範囲内で乱数表等を用いてランダムに変化させることが更に好ましい。
ただし、位置姿勢推定アルゴリズムを開始して初めてのループの場合には、各パーティクルは位置情報及び姿勢角情報を持っていない。このため、車両センサ群4に含まれるGPS受信機41の検出データを初期位置情報としてもよい。又は、前回停車時に最後に推定した車両位置から、各パーティクルの位置情報及び姿勢角情報を設定してもよい。本実施形態では、初めてのループの場合、前回停車時に最後に推定した車両位置から、位置及び姿勢角の6自由度のパラメータに対する誤差の上下限を設定する。そして、この誤差の上下限の範囲内で乱数表等を用いてランダムに各パーティクルの位置情報及び姿勢角を設定する。本実施形態では、初めてのループの場合はパーティクルを500個作成する。また、各パーティクルの6自由度のパラメータに対する誤差の上下限は、前後方向,横方向,上下方向、ロール,ピッチ,ヨーの順に±0.05[m],±0.05[m],±0.05[m],±0.5[deg] ,±0.5[deg],±0.5[deg]とする。
次のステップS4において、仮想画像取得部11は、ステップS3で作成した複数の仮想位置及び仮想姿勢角の候補のそれぞれについて仮想画像(投影画像)を作成する。このとき、仮想画像取得部11は、例えば3次元地図データベース3に記憶されたエッジ等の三次元位置情報を、仮想位置及び仮想姿勢角から撮像したカメラ画像となるように変換して、仮想画像を作成する。この仮想画像は、仮想位置及び仮想姿勢角の各候補が実際の自車両の位置及び姿勢角と合致しているか否かを評価するための評価用画像である。仮想画像への変換処理では、カメラ2の位置を示す外部パラメータと、カメラ2の内部パラメータが必要となる。外部パラメータは、車両位置(例えば中心位置)からカメラ2までの相対位置を予め計測しておくことで、仮想位置及び仮想姿勢角の候補から算出すればよい。また内部パラメータは、予めキャリブレーションをしておけばよい。
なお、ステップS1においてカメラ2により撮像した撮像画像からエッジの輝度変化の方向や、エッジ近辺のカラーなどについてもカメラ画像から抽出できる場合には、それらについても三次元位置情報を3次元地図データベース3に記録しておき、仮想画像を作成することが更に好ましい。
ステップS5において、ECU1(尤度設定部12)は、ステップS3で設定した複数の仮想位置及び仮想姿勢角の候補それぞれにおいて、ステップS1で作成したエッジ画像と、ステップS4で作成した仮想画像とを比較する。尤度設定部12は、比較した結果に基づいて、仮想位置及び仮想姿勢角の候補ごとに、位置尤度及び姿勢角尤度を設定する。位置尤度とは、仮想位置の候補がどれぐらい実際の車両の位置に対して尤もらしいかを示す指標である。姿勢角尤度とは、仮想姿勢角の候補がどれぐらい実際の車両の姿勢角に対して尤もらしいかを示す指標である。尤度設定部12は、仮想画像とエッジ画像との一致度が高いほど、位置尤度或いは姿勢角尤度を高く設定する。なお、位置尤度或いは姿勢角尤度の求め方については後述する。
尤度設定部12は、撮像画像と仮想画像とを比較し、撮像画像内の遠方位置画素と仮想画像内の遠方位置画素とが一致した場合には仮想画像の姿勢角尤度を高く設定する。尤度設定部12は、撮像画像と仮想画像とを比較し、撮像画像内の近傍位置画素と仮想画像内の近傍位置画素とが一致した場合には仮想画像の位置尤度を高く設定する。遠方位置画素及び近傍位置画素は、例えば、撮像画像及び仮想画像の位置によって設定してもよい。例えば、撮像画像及び仮想画像内の縦方向における中間位置より所定幅だけ下方向の範囲を、遠方位置画素が存在する画像領域に設定してもよい。また、撮像画像及び仮想画像内の縦方向における底面位置より所定幅だけ上方向の範囲を、近傍位置画素が存在する画像領域に設定してもよい。この距離は、三次元地図をカメラ2に投影したときの仮想画像を求める際、カメラ2の位置を仮定しているため求めることが可能である。
具体的には、尤度設定部12は、仮想画像上とエッジ画像上のエッジが一致するか否か、すなわち、仮想画像上のエッジが存在する画素座標位置に、エッジ画像上のエッジが存在しているかを判断する。尤度設定部12は、仮想画像上とエッジ画像上のエッジが一致する場合には、その一致したエッジについて3次元地図データベース3を参照して、その一致したエッジの三次元空間上での位置を求める。そして、位置尤度を求めている仮想位置及び仮想姿勢角の候補の位置情報と、その一致したエッジ部との距離L(単位:m)を求め、その距離Lの逆数を位置尤度like_p(単位:なし)とする。なお、尤度設定部12は、仮想画像上とエッジ画像上のエッジが一致しない場合には位置尤度like_pに0を設定する。
尤度設定部12は、この処理を仮想画像上の全画素に対して実施する。尤度設定部12は、車両から近い部分でエッジ画像と仮想画像とが一致していた場合、当該画素に大きい位置尤度like_pを設定する。ECU1は、逆に、車両から遠い部分でエッジ画像と仮想画像とが一致していた場合、当該画素に小さい位置尤度like_pを設定する。尤度設定部12は、全画素の位置尤度like_pの総和を、仮想画像についての位置尤度LIKE_P(単位:なし)とする。
尤度設定部12は、位置尤度like_pを求めるときに、図5に示すように、車両からの距離に応じて上限値を設けてもよい。尤度設定部12は、所定距離Lthp以上の近傍でエッジ画像(撮像画像)の画素と仮想画像の画素が一致した場合には、所定の上限値lthpとなるように位置尤度like_pを設定する。又は、尤度設定部12は、車両からの距離が近くなるほど、尤度like_pの増加幅を少なくしてもよい。なお、本実施形態では距離Lthpは1.0[m]が設定される。
具体的には、尤度設定部12は、予め車両からの距離と位置尤度like_pとの関係を記述した位置尤度設定マップを用意しておく。ECU1は、位置尤度設定マップを参照して、エッジ画像と仮想画像とが一致した車両からの距離に応じて位置尤度like_pを設定する。
これにより、極端に車両(カメラ2)からの距離が近い部分に対して抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、位置推定誤差を小さくすることができる。
ECU1は、姿勢角尤度も求める。尤度設定部12は、仮想画像上とエッジ画像上のエッジ部が一致する場合には、位置尤度LIKE_Pを求めた時と同様に、一致した画素の車両からの距離L(単位:m)を求める。尤度設定部12は、車両からの距離Lを10で除した値を姿勢角尤度like_a(単位:なし)とする。なお、仮想画像上とエッジ画像上のエッジ部が一致しない場合には姿勢角尤度like_aに0を設定する。
尤度設定部12は、姿勢角尤度like_aを設定する処理を仮想画像上の全画素に対して実施する。尤度設定部12は、車両から遠い部分でエッジ画像と仮想画像とが一致していた場合、当該画素に大きい姿勢角尤度like_aを設定する。尤度設定部12は、逆に、車両から近い部分でエッジ画像と仮想画像とが一致していた場合、当該画素に小さい姿勢角尤度like_aを設定する。尤度設定部12は、全画素の姿勢角尤度like_aの総和を、仮想画像についての姿勢角尤度LIKE_A(単位:なし)とする。
尤度設定部12は、姿勢角尤度like_aを求めるときに、図6に示すように、車両からの距離に応じて上限値を設けてもよい。ECU1は、所定距離Ltha以上の遠方でエッジ画像(撮像画像)の画素と仮想画像の画素が一致した場合には、所定の上限値lthaとなるように姿勢角尤度like_aを設定する。又は、ECU1は、車両からの距離が遠くなるほど、姿勢角尤度like_aの増加幅を少なくしてもよい。なお、本実施形態では距離Lthaは30.0[m]が設定される。
具体的には、尤度設定部12は、予め車両からの距離と姿勢角尤度like_aとの関係を記述した姿勢角尤度設定マップを用意しておく。ECU1は、姿勢角尤度設定マップを参照して、エッジ画像と仮想画像とが一致した車両からの距離に応じて姿勢角尤度like_aを設定する。
これにより、極端に車両(カメラ2)からの距離が遠い部分に対して抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、姿勢角推定誤差を小さくすることができる。
尤度設定部12は、各仮想画像について位置尤度LIKE_P及び姿勢角尤度LIKE_Aを求める。すなわち、仮想位置及び仮想姿勢角の各候補について位置尤度LIKE_P及び姿勢角尤度LIKE_Aを算出する。尤度設定部12は、複数の仮想位置及び仮想姿勢角の候補についての全結果を用いて、位置尤度LIKE_P、姿勢角尤度LIKE_Aのそれぞれの合計値が1になるよう正規化する。
次のステップS6において、移動物体位置姿勢推定部13は、ステップS5にて位置尤度LIKE_P及び姿勢角尤度LIKE_Aが求められた複数の仮想位置及び仮想姿勢角の候補を用いて、最終的な車両の位置及び姿勢角を算出する。移動物体位置姿勢推定部13は、姿勢角尤度LIKE_Aが高く設定された仮想画像の姿勢角に基づいて実際の車両の姿勢角を推定する。移動物体位置姿勢推定部13は、位置尤度LIKE_Pが高く設定された仮想画像の位置に基づいて実際の車両の位置を推定する。
このとき、移動物体位置姿勢推定部13は、例えば、位置尤度LIKE_Pが最も高く設定された仮想画像の仮想位置及び仮想姿勢角を、車両の実際の位置及び姿勢角として算出してもよい。又は、移動物体位置姿勢推定部13は、姿勢角尤度LIKE_Aが最も高く設定された仮想画像の仮想位置及び仮想姿勢角を、車両の実際の位置及び姿勢角として算出してもよい。又は、移動物体位置姿勢推定部13は、位置尤度LIKE_Pと姿勢角尤度LIKE_Aとの和が最も高い仮想画像の仮想位置及び仮想姿勢角を、車両の実際の位置及び姿勢角として算出してもよい。又は、移動物体位置姿勢推定部13は、仮想位置及び仮想姿勢角の各候補に対して、各仮想画像の位置尤度LIKE_Pに応じた重み付けを行い、重みづけされた仮想位置及び仮想姿勢角の平均値を、車両の実際の位置及び姿勢角として算出してもよい。又は、移動物体位置姿勢推定部13は、仮想位置及び仮想姿勢角の各候補に対して、各仮想画像の姿勢角尤度LIKE_Aに応じた重み付けを行い、重みづけされた仮想位置及び仮想姿勢角の平均値を、車両の実際の位置及び姿勢角として算出してもよい。又は、移動物体位置姿勢推定部13は、仮想位置及び仮想姿勢角の各候補に対して、各仮想画像の位置尤度LIKE_Pと姿勢角尤度LIKE_Aの和に応じた重み付けを行い、重み付けされた仮想位置及び仮想姿勢角の平均値を車両の実際の位置及び姿勢角として算出してもよい。
ステップS3においてパーティクルフィルタを用いた場合、先ず、各パーティクルに対して、位置尤度LIKE_P及び姿勢角尤度LIKE_Aの各々に応じた重みを設定する。そして、移動物体位置姿勢推定部13は、位置尤度LIKE_Pが最も高いパーティクルの仮想位置を、実際の車両の位置とする。又は、移動物体位置姿勢推定部13は、複数のパーティクルの仮想位置に対して位置尤度LIKE_Pに応じた重み付けを行い、重みづけされた複数のパーティクルの仮想位置の平均値を車両の実際の位置として算出してもよい。又は、移動物体位置姿勢推定部13は、姿勢角尤度LIKE_Aが最も高いパーティクルの仮想姿勢角を、車両の実際の姿勢角として算出してもよい。又は、移動物体位置姿勢推定部13は、複数のパーティクルの仮想姿勢角に対して姿勢角尤度LIKE_Aに応じた重み付けを行い、重みづけされた複数のパーティクルの仮想姿勢角の平均値を、車両の実際の姿勢角として算出してもよい。
更に、仮想画像取得部11は、各パーティクルのリサンプリングを、位置尤度LIKE_Pと姿勢角尤度LIKE_Aに基づいて行う。すなわち、複数の仮想画像の姿勢角尤度及び複数の仮想画像の位置尤度に基づいて、複数の仮想位置及び仮想姿勢角を再設定する。
具体的には、仮想画像取得部11は、位置尤度LIKE_Pと姿勢角尤度LIKE_Aの和が最も高いパーティクルを中心として、各パーティクルのリサンプリングを行う。又は、仮想画像取得部11は、各パーティクルの位置情報と姿勢角情報とを一旦分離し、位置情報のみのパーティクルについては位置尤度LIKE_Pに基づいてリサンプリングを行い、姿勢角情報のみのパーティクルについては姿勢角尤度LIKE_Aに基づいてリサンプリングを行う。その後、仮想画像取得部11は、ランダムに、位置情報のみのパーティクルと姿勢角情報のみのパーティクルの位置情報と姿勢角情報を組み合わせて、新たに位置情報と姿勢角情報を持ったパーティクルを再構成してもよい。
ECU1は、以上のようなステップS1乃至ステップS6を繰り返して行うことによって、逐次、車両の位置と姿勢角を算出できる。
以上詳細に説明したように、本実施形態として示した移動物体位置姿勢推定装置によれば、撮像画像と仮想画像とを比較し、撮像画像内の遠方位置画素と仮想画像内の遠方位置画素とが一致した場合には仮想画像の姿勢角尤度を高く設定する。一方、撮像画像内の近傍位置画素と仮想画像内の近傍位置画素とが一致した場合には仮想画像の位置尤度を高く設定する。そして、移動物体位置姿勢推定装置は、姿勢角尤度を高く設定した仮想画像の仮想姿勢角に基づいて実際の移動物体の姿勢角を推定する。一方、位置尤度を高く設定した仮想画像の仮想位置に基づいて実際の移動物体の位置を推定する。
移動物体位置姿勢推定装置によれば、位置と姿勢角に対して別々の尤度を設定し、現実の映像と仮想映像とが一致した場所までの距離に応じて、位置と姿勢角を別々に調整して推定することができる。具体的には、カメラ2から遠い場所で撮像画像と仮想画像が一致していた場合には、仮想姿勢角は真値に近いが仮想位置の誤差が大きい可能性がある。このため、姿勢角尤度をより大きく設定できるが、位置尤度はあまり大きく設定しない。一方、カメラ2から近い場所で撮像画像と仮想画像が一致していた場合には、位置尤度をより大きく設定し、逆に、姿勢角尤度はあまり大きく設定しない。
撮像画像と仮想画像が一致した場所がカメラ2から遠い場合には、仮想位置の誤差が大きい場合がある。逆に、撮像画像と仮想画像が一致した場所がカメラ2から近い場合には仮想姿勢角の誤差が大きい場合がある。この移動物体位置姿勢推定装置によれば、精度良く移動物体の位置及び姿勢角を推定することができる。
また、所定距離以上の遠方で撮像画像の画素と仮想画像の画素が一致した場合には、姿勢角尤度の増加幅を少なく又は所定の上限値となるように仮想画像の姿勢角尤度を設定する。これにより、移動物体位置姿勢推定装置によれば、一致させる映像の中に極端にカメラ2からの距離が遠い部分が含まれていた時に、この遠方部分での一致度合いによって姿勢角尤度が決定されないようにできる。このため、極端にカメラ2からの距離が遠い部分から抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、姿勢角の推定誤差を小さくすることができる。
更に、所定距離以上の近傍で撮像画像の画素と仮想画像の画素が一致した場合には、位置尤度の増加幅を少なく又は所定の上限値となるように仮想画像の位置尤度を設定する。これにより、カメラ2から一定距離以内で2つの映像が一致していた場合に位置尤度を大きくしすぎないようにする。したがって、移動物体位置姿勢推定装置によれば、極端にカメラ2からの距離が近い部分から抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、位置の推定誤差を小さくすることができる。
更に、移動物体位置姿勢推定装置によれば、複数のパーティクル(候補点)を設定して各パーティクルについての位置尤度LIKE_P及び姿勢角尤度LIKE_Aを設定する。各パーティクルについての位置尤度LIKE_P及び姿勢角尤度LIKE_Aに基づいて、車両の位置及び姿勢角を求める。そして、位置尤度LIKE_P及び姿勢角尤度LIKE_Aに基づいてパーティクルをリサンプリングできる。
ここで、パーティクルフィルタにおいて、推定する次数がnとした場合、推定精度をa倍とするためには、散布するパーティクルの数も原理的にaのn乗倍に増やす必要がある(確率ロボティクス・第4章3節((著)Sebastian Thrun/Wolfram Burgard/Dieter Fox,(訳)上田隆一,(発行)(株)毎日コミュニケーションズ))。既存技術では、例えば三次元での位置情報と姿勢角情報を同時に推定する場合、その次数は6次となる。よって、推定精度を2倍に上げようとすると演算時間は64倍となり、推定精度を3倍に上げようとすると演算時間は729倍に増加してしまう。
これに対し、本実施形態に係わる移動物体位置姿勢推定装置によれば、位置情報と姿勢角情報とを別々に扱うことができる。したがって、原理的に推定精度を2倍に上げようとした場合には演算時間は23×2=16倍となり、推定精度を3倍に上げようとした場合で演算時間は33×2=54倍となるため、演算負荷を大きく低減できる。
(第2実施形態)
本発明の第2実施形態では、車両の位置及び姿勢角の各々を異なる仮想画像を用いて推定する移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法を説明する。
(第2実施形態)
本発明の第2実施形態では、車両の位置及び姿勢角の各々を異なる仮想画像を用いて推定する移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法を説明する。
具体的に、第1実施形態では、仮想位置及び仮想姿勢角の組合せからなる候補点(パーティクル)を複数設定し、各候補点について取得された仮想画像に基づいて、車両の位置及び姿勢角を推定した。これに対して、第2実施形態では、複数の仮想位置に基づく車両近傍領域の仮想画像を取得し、車両近傍領域の仮想画像を用いて車両の位置を推定する。そして、複数の仮想姿勢角に基づく車両遠方領域の仮想画像を取得し、車両遠方領域の仮想画像を用いて車両の姿勢角を推定する。つまり、車両の位置及び姿勢角の推定に、異なる仮想画像を用いている点が相違する。
なお、第2実施形態に係わる移動物体位置姿勢推定装置のハードウェア構成は、図1に示した構成と同じであり、説明を省略する。ただし、ECU1のソフトウェア構成、すなわち、仮想画像取得部11、尤度設定部12、移動物体位置姿勢推定部13は、以下に示すように相違する。
次に、移動物体位置姿勢推定装置の動作について、図7に示す位置姿勢推定アルゴリズムを参照して説明する。なお、本実施形態では、車両の3自由度の位置(前後方向,横方向,上下方向)及び3自由度の姿勢角(ロール,ピッチ,ヨー)を推定するものとする。また、図7に示す位置姿勢推定アルゴリズムは、ECU1によって、例えば100msec程度の間隔で連続的に行われる。
ステップS1〜S2の処理は、図3を参照して説明したステップS1〜S2と同じであり、説明を省略する。
ステップS2の後にステップS13に進み、ECU1(仮想画像取得部11)は、ステップS2にて算出したオドメトリから、6自由度を有する初期予測位置及び初期予測姿勢角を算出する。具体的に、仮想画像取得部11は、1ループ前のステップS16で推定された車両の位置から、今回のステップS2で算出したオドメトリ分だけ移動させた位置を初期予測位置に設定する。ただし、位置姿勢推定アルゴリズムを開始して初めてのループの場合には、ECU1は前回の車両位置情報を持っていない。このため、仮想画像取得部11は、車両センサ群4に含まれるGPS受信機41からのデータを初期予測位置とする。又は、仮想画像取得部11は、前回に停車時に最後に算出した車両位置及び姿勢角を記憶しておき、初期予測位置及び初期予測姿勢角としてもよい。
ステップS14に進み、仮想画像取得部11は、ステップS13で算出された初期予測位置及びその近傍において、複数の仮想位置を設定する。このとき、仮想画像取得部11は、車両センサ群4の測定誤差や通信遅れによって生じるオドメトリの誤差や、オドメトリで考慮できない車両の動特性を考慮に入れ、車両の位置の真値が取り得る可能性がある複数の仮想位置を生成する。仮想位置は、位置に含まれる3自由度のパラメータに対してそれぞれ誤差の上下限を設定し、この誤差の上下限の範囲内で、所定間隔で設定する。本実施形態では、位置に含まれる3自由度のパラメータに対する誤差の上下限は、前後方向,横方向,上下方向の順に±0.2[m],±0.1[m],±0.05[m]とし、それぞれ0.01[m]の間隔で仮想位置を設定する。したがて、40×20×10=8000の仮想位置が作成される。誤差の上下限及び所定間隔は、車両の運転状態や路面の状況を検出或いは推定して、適宜変更することが望ましい。例えば、急旋回やスリップなどが発生している場合には、平面方向(前後方向,横方向)の誤差が大きくなる可能性が高い。よって、3つのパラメータの誤差の上下限を大きくすることが好ましい。
ステップS15に進み、仮想画像取得部11は、評価点投影方法を用いて、ステップS14で設定した仮想位置ごとに、車両に近い領域の仮想画像を作成する。ただし、ステップS15における仮想画像の作成は、車両1の位置を推定することを目的としている。よって、3次元地図データベース3に記憶されたエッジ等の三次元位置情報のうち車両1の近傍にある情報のみを、評価点投影手段を用いて仮想位置及び仮想姿勢角から撮像した仮想画像に変換する。本実施形態では、各仮想位置から距離3m以内にあるエッジ等の三次元位置情報のみを投影して仮想画像を作成する。なお、ステップS15において用いる仮想姿勢角としては、1ループ前のステップS19で推定された車両の姿勢角、或いはステップS13で求めた初期予測姿勢角を用いればよい。
ステップS16に進み、尤度設定部12は、ステップS15で作成した車両に近い領域の各仮想画像と撮像画像とを比較する。具体的には、ステップS15で作成された仮想画像の各々について、仮想画像に含まれるエッジと撮像画像に含まれるエッジからなるエッジ画像を比較し、仮想画像内のエッジとエッジ画像内のエッジとの一致度合いを算出する。例えば、車両近傍の仮想画像とエッジ画像の間でエッジが一致する画素数、即ち、エッジが存在する仮想画像上の画素座標位置に、エッジ画像上のエッジが存在している画素数を一致度合いとして計数する。そして、尤度設定部12は、仮想画像内のエッジと撮像画像内のエッジとの一致度合いが高いほど、位置尤度を高く設定する。
続けて、移動物体位置姿勢推定部13は、尤度設定部12により位置尤度が高く設定された仮想画像の仮想位置に基づいて車両の位置を推定する。例えば、移動物体位置姿勢推定部13は、ステップS15で作成した複数の仮想画像のうち、一致する画素の数が最も多かった仮想画像の仮想位置を車両1の実際の位置として算出する。又は、移動物体位置姿勢推定部13は、各仮想位置に対して、各仮想画像の位置尤度に応じた重み付けを行い、重みづけされた仮想位置の平均値を、車両の実際の位置として算出してもよい。
このように、ステップS14〜S16の処理によって、複数の仮想位置に基づく車両近傍領域の仮想画像を取得し、車両近傍領域の仮想画像を用いて車両の位置を推定することができる。
次に、ステップS17に進み、仮想画像取得部11は、ステップS13で算出された初期予測姿勢角を参照して、複数の仮想姿勢角を設定する。このとき、仮想画像取得部11は、車両センサ群4の測定誤差や通信遅れによって生じるオドメトリの誤差や、オドメトリで考慮できない車両の動特性を考慮に入れ、車両の姿勢角の真値が取り得る可能性がある複数の仮想姿勢角を生成する。仮想姿勢角は、姿勢角に含まれる3自由度のパラメータに対してそれぞれ誤差の上下限を設定し、この誤差の上下限の範囲内で、所定間隔で設定する。本実施形態では、姿勢角に含まれる3自由度のパラメータに対する誤差の上下限は、ロール,ピッチ,ヨーの順に±0.5[deg] ,±0.5[deg],±0.5[deg]とし、それぞれ0.05[deg]の間隔で仮想姿勢角を設定する。したがて、20×20×20=8000の仮想位置が作成される。ステップS14の位置の場合と同様に、誤差の上下限及び所定間隔は、車両の運転状態や路面の状況を検出或いは推定して、適宜変更することが望ましい。例えば、急旋回やスリップなどが発生している場合には、ヨー角の誤差が大きくなる可能性が高い。よって、ヨー角の誤差の上下限を大きくする、或いは段差乗り越えのような場合にはピッチ角の誤差の上下限を大きくすることが好ましい。
ステップS18に進み、仮想画像取得部11は、評価点投影方法を用いて、ステップS17で設定した仮想姿勢角ごとに、車両から遠い領域の仮想画像を作成する。ただし、ステップS18における仮想画像の作成は、車両1の姿勢角を推定することを目的としている。よって、3次元地図データベース3に記憶されたエッジ等の三次元位置情報のうち車両1から遠方にある情報のみを、評価点投影手段を用いて仮想位置及び仮想姿勢角から撮像した仮想画像に変換する。本実施形態では、ステップS13で算出した初期予測位置或いはステップS16で算出した車両1の位置から距離20m以遠にあるエッジ等の三次元位置情報のみを投影して仮想画像を作成する。なお、ステップS18において用いる仮想位置としては、1ループ前のステップS19で推定された車両の位置、或いはステップS13で求めた初期予測位置を用いればよい。なお、極端に遠方まで投影しても投影の処理に時間がかかる上、カメラ2の解像度ではエッジが一致している否かを区別できない。このため、本実施形態では距離50m以遠のエッジ等の三次元位置情報は投影しない。
ステップS19に進み、尤度設定部12は、ステップS18で作成した車両から遠い領域の各仮想画像と撮像画像とを比較する。具体的には、ステップS18で作成された仮想画像の各々について、仮想画像に含まれるエッジと撮像画像に含まれるエッジからなるエッジ画像とを比較し、仮想画像内のエッジとエッジ画像内のエッジとの一致度合いを算出する。例えば、車両遠方の仮想画像とエッジ画像の間でエッジが一致する画素数、即ち、エッジが存在する仮想画像上の画素座標位置に、エッジ画像上のエッジが存在している画素数を一致度合いとして計数する。そして、尤度設定部12は、仮想画像内のエッジと撮像画像内のエッジとの一致度合いが高いほど、姿勢角尤度を高く設定する。
続けて、移動物体位置姿勢推定部13は、尤度設定部12により姿勢角尤度が高く設定された仮想画像の仮想姿勢角に基づいて車両の姿勢角を推定する。例えば、移動物体位置姿勢推定部13は、ステップS18で作成した複数の仮想画像のうち、一致する画素の数が最も多かった仮想画像の仮想姿勢角を車両1の実際の姿勢角として算出する。又は、移動物体位置姿勢推定部13は、各仮想姿勢角に対して、各仮想画像の姿勢角尤度に応じた重み付けを行い、重みづけされた仮想姿勢角の平均値を、車両の実際の姿勢角として算出してもよい。
このように、ステップS17〜S19の処理によって、複数の仮想姿勢角に基づく車両遠方領域の仮想画像を取得し、車両遠方領域の仮想画像を用いて車両の姿勢角を推定することができる。
ECU1は、以上のようなステップS1〜ステップS19の処理を繰り返して行うことによって、逐次、車両の位置と姿勢角を算出できる。
以上説明したように、本実施形態では、車両の位置及び姿勢角の各々を異なる仮想画像を用いて推定する。具体的には、複数の仮想位置に基づく車両近傍領域の仮想画像を取得し、車両近傍領域の仮想画像を用いて車両の位置を推定する。そして、複数の仮想姿勢角に基づく車両遠方領域の仮想画像を取得し、車両遠方領域の仮想画像を用いて車両の姿勢角を推定する。これにより、位置と姿勢角に対して別々の尤度を設定し、現実の映像と仮想映像とが一致した場所までの距離に応じて、位置と姿勢角を別々に調整して推定することができる。よって、精度良く移動物体の位置及び姿勢角を推定することができる。
また、所定距離以上の遠方で撮像画像の画素と仮想画像の画素が一致した場合には、姿勢角尤度の増加幅を少なく又は所定の上限値となるように仮想画像の姿勢角尤度を設定してもよい。これにより、移動物体位置姿勢推定装置によれば、一致させる映像の中に極端にカメラ2からの距離が遠い部分が含まれていた時に、この遠方部分での一致度合いによって姿勢角尤度が決定されないようにできる。このため、極端にカメラ2からの距離が遠い部分から抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、姿勢角の推定誤差を小さくすることができる。
更に、所定距離以上の近傍で撮像画像の画素と仮想画像の画素が一致した場合には、位置尤度の増加幅を少なく又は所定の上限値となるように仮想画像の位置尤度を設定してもよい。これにより、カメラ2から一定距離以内で2つの映像が一致していた場合に位置尤度を大きくしすぎないようにする。したがって、移動物体位置姿勢推定装置によれば、極端にカメラ2からの距離が近い部分から抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、位置の推定誤差を小さくすることができる。
以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。
上述した実施形態では車両を例にしたが、少なくとも1台以上のカメラを搭載した移動物体であれば、航空機や船舶などにも適用可能である。
また、上述した実施形態では車両の6自由度の位置(前後方向,横方向,上下方向)及び姿勢角(ロール,ピッチ,ヨー)を求めているが、これに限らない。例えば、サスペンション等を有さない、工場などで用いられる無人搬送車などのように3自由度での位置(前後方向,横方向)及び姿勢角(ヨー)を推定する場合にも、本実施形態が適用可能である。具体的には、このような車両であれば、上下方向の位置と、ロールおよびピッチといった姿勢角は固定であるので、予めこれらのパラメータを計測しておいたり、3次元地図データベース3を参照して求めるようにすればよい。
なお、第1及び第2実施形態では、「予め定めた位置及び姿勢角から見た時の対比画像を取得する対比画像取得部」として、「三次元地図データを仮想位置及び仮想姿勢角から撮像した画像に変換して、仮想画像を取得する仮想画像取得部11」を例示した。しかし、「対比画像取得部」はこれに限定されない。例えば、対比画像取得部は、カメラ2が過去に撮像した撮像画像を対比画像として取得してもよい。この場合、移動物体位置姿勢推定部13は、尤度設定部12により姿勢角尤度が高く設定された対比画像を撮像した時の車両の姿勢角に基づいて車両の姿勢角を推定し、尤度設定部12により位置尤度が高く設定された対比画像を撮像した時の車両の位置に基づいて車両の位置を推定すればよい。これにより、位置と姿勢角に対して別々の尤度を設定し、現在の撮像映像と過去の撮像画像(対比画像)とが一致した場所までの距離に応じて、位置と姿勢角を別々に調整して推定することができる。よって、精度良く移動物体の位置及び姿勢角を推定することができる。
特願2012−049372号(出願日:2012年3月6日)の全内容は、ここに援用される。
本実施形態に係わる移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法によれば、遠方位置で撮像画像と仮想画像とが一致した場合には姿勢角尤度を高くし、近傍位置で撮像画像と仮想画像とが一致した場合には位置尤度を高くするので、位置誤差が大きい遠方での一致により姿勢角尤度を設定し、姿勢角誤差が大きい近傍での一致により位置尤度を設定できる。これにより、精度良く移動物体の位置及び姿勢角を推定することができる。よって、本発明は、産業上の利用可能性を有する。
1 ECU
2 カメラ(撮像部)
3 3次元地図データベース
11 仮想画像取得部(対比画像取得部)
12 尤度設定部
13 移動物体位置姿勢推定部
2 カメラ(撮像部)
3 3次元地図データベース
11 仮想画像取得部(対比画像取得部)
12 尤度設定部
13 移動物体位置姿勢推定部
Claims (8)
- 移動物体の位置及び姿勢角を推定する移動物体位置姿勢推定装置であって、
前記移動物体周辺を撮像して、撮像画像を取得する撮像部と、
予め定めた位置及び姿勢角から見た時の対比画像を取得する対比画像取得部と、
前記撮像部により取得された撮像画像と前記対比画像取得部により取得された対比画像とを比較し、前記撮像画像内の遠方位置画素と前記対比画像内の遠方位置画素とが一致した場合には前記対比画像の姿勢角尤度を高く設定し、前記撮像画像内の近傍位置画素と前記対比画像内の近傍位置画素とが一致した場合には前記対比画像の位置尤度を高く設定する尤度設定部と、
前記尤度設定部により前記姿勢角尤度が高く設定された前記対比画像の姿勢角に基づいて前記移動物体の姿勢角を推定し、前記尤度設定部により前記位置尤度が高く設定された前記対比画像の位置に基づいて前記移動物体の位置を推定する移動物体位置姿勢推定部と
を有することを特徴とする移動物体位置姿勢推定装置。 - 前記対比画像取得部は、三次元地図データを仮想位置及び仮想姿勢角から撮像した画像に変換して、仮想画像を取得する仮想画像取得部であり、
前記尤度設定部は、前記撮像部により取得された撮像画像と前記仮想画像取得部により取得された仮想画像とを比較し、前記撮像画像内の遠方位置画素と前記仮想画像内の遠方位置画素とが一致した場合には前記仮想画像の姿勢角尤度を高く設定し、前記撮像画像内の近傍位置画素と前記仮想画像内の近傍位置画素とが一致した場合には前記仮想画像の位置尤度を高く設定し、
前記移動物体位置姿勢推定部は、前記尤度設定部により前記姿勢角尤度が高く設定された前記仮想画像の仮想姿勢角に基づいて前記移動物体の姿勢角を推定し、前記尤度設定部により前記位置尤度が高く設定された前記仮想画像の仮想位置に基づいて前記移動物体の位置を推定する
ことを特徴とする請求項1に記載の移動物体位置姿勢推定装置。 - 前記対比画像取得部は、前記撮像部が過去に撮像した前記撮像画像を前記対比画像として取得し、
前記移動物体位置姿勢推定部は、前記尤度設定部により前記姿勢角尤度が高く設定された前記対比画像を撮像した時の前記移動体の姿勢角に基づいて前記移動物体の姿勢角を推定し、前記尤度設定部により前記位置尤度が高く設定された前記対比画像を撮像した時の前記移動体の位置に基づいて前記移動物体の位置を推定する
ことを特徴とする請求項1に記載の移動物体位置姿勢推定装置。 - 前記尤度設定部は、前記撮像画像及び前記対比画像内の遠方位置画素のうち、所定距離以上の遠方で前記撮像画像の画素と前記対比画像の画素が一致した場合には、尤度の増加幅を少なく又は所定の上限値となるように前記対比画像の姿勢角尤度を設定することを特徴とする請求項1乃至請求項3の何れか一項に記載の移動物体位置姿勢推定装置。
- 前記尤度設定部は、前記撮像画像及び前記対比画像内の近傍位置画素のうち、所定距離以上の近傍で前記撮像画像の画素と前記対比画像の画素が一致した場合には、尤度の増加幅を少なく又は所定の上限値となるように前記対比画像の位置尤度を設定することを特徴とする請求項1乃至請求項4の何れか一項に記載の移動物体位置姿勢推定装置。
- 前記仮想画像取得部は、仮想位置及び仮想姿勢角が設定された候補点を複数設定して、前記候補点ごとに仮想画像を取得し、前記尤度設定部は、各仮想画像と撮像画像とを比較して姿勢角尤度及び位置尤度を設定し、前記移動物体位置姿勢推定部は、複数の仮想画像の姿勢角尤度に基づいて前記移動物体の姿勢角を推定し、複数の仮想画像の位置尤度に基づいて前記移動物体の位置を推定し、
前記仮想画像取得部は、複数の仮想画像の姿勢角尤度及び複数の仮想画像の位置尤度に基づいて、前記複数の候補点を再設定すること
を特徴とする請求項2、4及び5の何れか一項に記載の移動物体位置姿勢推定装置。 - 前記対比画像取得部は、複数の位置を設定し、前記位置ごとに前記移動体に近い領域の前記対比画像を取得し、
前記尤度設定部は、前記移動体に近い領域の各対比画像と前記撮像画像とを比較して、前記対比画像内のエッジと前記撮像画像内のエッジとの一致度合いが高いほど、前記位置尤度を高く設定し、
前記移動物体位置姿勢推定部は、前記尤度設定部により前記位置尤度が高く設定された前記対比画像の位置に基づいて前記移動物体の位置を推定し、
前記対比画像取得部は、複数の姿勢角を設定し、前記姿勢角ごとに前記移動体から遠い領域の前記対比画像を取得し、
前記尤度設定部は、前記移動体から遠い領域の各対比画像と前記撮像画像とを比較して、前記対比画像内のエッジと前記撮像画像内のエッジとの一致度合いが高いほど、前記姿勢角尤度を高く設定し、
前記移動物体位置姿勢推定部は、前記尤度設定部により前記姿勢角尤度が高く設定された前記対比画像の姿勢角に基づいて前記移動物体の姿勢角を推定する
ことを特徴とする請求項1に記載の移動物体位置姿勢推定装置。 - 移動物体の位置及び姿勢角を推定する移動物体位置姿勢推定方法であって、
前記移動物体周辺を撮像した撮像画像と、予め定めた位置及び姿勢角から見た時の対比画像とを比較し、
前記撮像画像内の遠方位置画素と前記対比画像内の遠方位置画素とが一致した場合には前記対比画像の姿勢角尤度を高く設定し、前記撮像画像内の近傍位置画素と前記対比画像内の近傍位置画素とが一致した場合には前記対比画像の位置尤度を高く設定し、
前記姿勢角尤度が高く設定された前記対比画像の姿勢角に基づいて前記移動物体の姿勢角を推定し、前記位置尤度が高く設定された前記対比画像の位置に基づいて前記移動物体の位置を推定する
を有することを特徴とする移動物体位置姿勢推定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014503799A JP5804185B2 (ja) | 2012-03-06 | 2013-02-28 | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012049372 | 2012-03-06 | ||
JP2012049372 | 2012-03-06 | ||
JP2014503799A JP5804185B2 (ja) | 2012-03-06 | 2013-02-28 | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 |
PCT/JP2013/055470 WO2013133129A1 (ja) | 2012-03-06 | 2013-02-28 | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013133129A1 true JPWO2013133129A1 (ja) | 2015-07-30 |
JP5804185B2 JP5804185B2 (ja) | 2015-11-04 |
Family
ID=49116610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014503799A Active JP5804185B2 (ja) | 2012-03-06 | 2013-02-28 | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9797981B2 (ja) |
EP (1) | EP2824425B1 (ja) |
JP (1) | JP5804185B2 (ja) |
CN (1) | CN104204726B (ja) |
WO (1) | WO2013133129A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3070430B1 (en) * | 2013-11-13 | 2019-08-14 | Nissan Motor Co., Ltd. | Moving body position estimation device and moving body position estimation method |
US20150226573A1 (en) * | 2014-02-11 | 2015-08-13 | Qualcomm Incorporated | Pedometer integrated pedestrian positioning |
EP3147629B1 (en) * | 2014-05-20 | 2019-07-10 | Nissan Motor Co., Ltd | Object detection device and object detection method |
EP3159122A4 (en) * | 2014-06-17 | 2018-05-30 | Yujin Robot Co., Ltd. | Device and method for recognizing location of mobile robot by means of search-based correlation matching |
KR102232517B1 (ko) * | 2014-09-15 | 2021-03-26 | 삼성전자주식회사 | 이미지 촬영 방법 및 이미지 촬영 장치 |
CN106488143B (zh) * | 2015-08-26 | 2019-08-16 | 刘进 | 一种生成视频数据、标记视频中物体的方法、系统及拍摄装置 |
DE202015008708U1 (de) * | 2015-12-18 | 2017-03-21 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Fahrzeugpositioniersystem |
CN105809701B (zh) * | 2016-03-25 | 2019-03-08 | 成都易瞳科技有限公司 | 全景视频姿态标定方法 |
JP6758160B2 (ja) * | 2016-11-10 | 2020-09-23 | 株式会社デンソーアイティーラボラトリ | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム |
JP6959032B2 (ja) * | 2017-05-17 | 2021-11-02 | 株式会社Soken | 位置推定装置、移動装置 |
CN108335329B (zh) * | 2017-12-06 | 2021-09-10 | 腾讯科技(深圳)有限公司 | 应用于飞行器中的位置检测方法和装置、飞行器 |
JP6839677B2 (ja) * | 2018-03-26 | 2021-03-10 | 康二 蓮井 | 移動距離測定装置、移動距離測定方法、及び移動距離測定プログラム |
JP7190261B2 (ja) * | 2018-04-27 | 2022-12-15 | 日立Astemo株式会社 | 位置推定装置 |
JP7010778B2 (ja) * | 2018-06-29 | 2022-01-26 | 国立大学法人東海国立大学機構 | 観測位置推定装置、その推定方法、及びプログラム |
CN109003305B (zh) * | 2018-07-18 | 2021-07-20 | 江苏实景信息科技有限公司 | 一种定位定姿方法及装置 |
CN108871314B (zh) * | 2018-07-18 | 2021-08-17 | 江苏实景信息科技有限公司 | 一种定位定姿方法及装置 |
JP7204612B2 (ja) * | 2019-08-06 | 2023-01-16 | 株式会社東芝 | 位置姿勢推定装置、位置姿勢推定方法及びプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB8925196D0 (en) * | 1989-11-08 | 1990-05-30 | Smiths Industries Plc | Navigation systems |
US5422828A (en) * | 1991-12-18 | 1995-06-06 | Choate; William C. | Method and system for image-sequence-based target tracking and range estimation |
US5638116A (en) * | 1993-09-08 | 1997-06-10 | Sumitomo Electric Industries, Ltd. | Object recognition apparatus and method |
JP3833786B2 (ja) * | 1997-08-04 | 2006-10-18 | 富士重工業株式会社 | 移動体の3次元自己位置認識装置 |
JP3052286B2 (ja) * | 1997-08-28 | 2000-06-12 | 防衛庁技術研究本部長 | 飛行システムおよび航空機用擬似視界形成装置 |
JP2001344597A (ja) * | 2000-05-30 | 2001-12-14 | Fuji Heavy Ind Ltd | 融合視界装置 |
US6690883B2 (en) * | 2001-12-14 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Self-annotating camera |
JP2005326168A (ja) * | 2004-05-12 | 2005-11-24 | Fuji Photo Film Co Ltd | 運転支援システム、車両、および運転支援方法 |
JP3846494B2 (ja) * | 2004-07-13 | 2006-11-15 | 日産自動車株式会社 | 移動障害物検出装置 |
US8818076B2 (en) * | 2005-09-01 | 2014-08-26 | Victor Shenkar | System and method for cost-effective, high-fidelity 3D-modeling of large-scale urban environments |
JP2007316966A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 移動ロボット、その制御方法及びプログラム |
JP4870546B2 (ja) * | 2006-12-27 | 2012-02-08 | 株式会社岩根研究所 | レイヤー生成・選択機能を備えたcvタグ映像表示装置 |
DE102006062061B4 (de) * | 2006-12-29 | 2010-06-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera |
JP5183071B2 (ja) * | 2007-01-22 | 2013-04-17 | 任天堂株式会社 | 表示制御装置および表示制御プログラム |
US8050458B2 (en) * | 2007-06-18 | 2011-11-01 | Honda Elesys Co., Ltd. | Frontal view imaging and control device installed on movable object |
JP5227065B2 (ja) | 2008-01-25 | 2013-07-03 | 株式会社岩根研究所 | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 |
US7826666B2 (en) * | 2008-02-27 | 2010-11-02 | Honeywell International Inc. | Methods and apparatus for runway segmentation using sensor analysis |
US8269842B2 (en) * | 2008-06-11 | 2012-09-18 | Nokia Corporation | Camera gestures for user interface control |
GB0818561D0 (en) * | 2008-10-09 | 2008-11-19 | Isis Innovation | Visual tracking of objects in images, and segmentation of images |
US8427536B2 (en) * | 2009-11-19 | 2013-04-23 | Qualcomm Incorporated | Orientation determination of a mobile station using side and top view images |
JPWO2012133371A1 (ja) | 2011-03-28 | 2014-07-28 | 日本電気株式会社 | 撮像位置および撮像方向推定装置、撮像装置、撮像位置および撮像方向推定方法ならびにプログラム |
-
2013
- 2013-02-28 EP EP13758148.4A patent/EP2824425B1/en active Active
- 2013-02-28 WO PCT/JP2013/055470 patent/WO2013133129A1/ja active Application Filing
- 2013-02-28 JP JP2014503799A patent/JP5804185B2/ja active Active
- 2013-02-28 US US14/383,012 patent/US9797981B2/en active Active
- 2013-02-28 CN CN201380013066.8A patent/CN104204726B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104204726A (zh) | 2014-12-10 |
US20150015702A1 (en) | 2015-01-15 |
EP2824425B1 (en) | 2017-05-17 |
EP2824425A4 (en) | 2015-05-27 |
US9797981B2 (en) | 2017-10-24 |
EP2824425A1 (en) | 2015-01-14 |
WO2013133129A1 (ja) | 2013-09-12 |
JP5804185B2 (ja) | 2015-11-04 |
CN104204726B (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5804185B2 (ja) | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 | |
JP4814669B2 (ja) | 3次元座標取得装置 | |
JP5966747B2 (ja) | 車両走行制御装置及びその方法 | |
JP5958366B2 (ja) | 車載画像処理装置 | |
EP3176013A1 (en) | Predictive suspension control for a vehicle using a stereo camera sensor | |
JP4702569B2 (ja) | 車両用画像処理装置 | |
JP5867176B2 (ja) | 移動物体位置姿勢推定装置及び方法 | |
EP3032818B1 (en) | Image processing device | |
JP2018124787A (ja) | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム | |
JP6171593B2 (ja) | 視差図からの対象追跡方法及びシステム | |
WO2017051480A1 (ja) | 画像処理装置及び画像処理方法 | |
JP5834933B2 (ja) | 車両位置算出装置 | |
JP2007256029A (ja) | ステレオ画像処理装置 | |
JP5310027B2 (ja) | 車線認識装置、及び車線認識方法 | |
US10614321B2 (en) | Travel lane detection method and travel lane detection device | |
JP7145770B2 (ja) | 車間距離測定装置、誤差モデル生成装置および学習モデル生成装置とこれらの方法およびプログラム | |
JP6044084B2 (ja) | 移動物体位置姿勢推定装置及び方法 | |
JP2009139325A (ja) | 車両用走行路面検出装置 | |
KR20160125803A (ko) | 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법 | |
JP2012159470A (ja) | 車両用画像認識装置 | |
JP5891802B2 (ja) | 車両位置算出装置 | |
JP5903901B2 (ja) | 車両位置算出装置 | |
JP5760523B2 (ja) | 走路推定装置及びプログラム | |
JP2004038760A (ja) | 車両用走行路認識装置 | |
JP5330341B2 (ja) | 車載カメラを用いた測距装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150804 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150817 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5804185 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |