JP2021193340A - 自己位置推定装置 - Google Patents

自己位置推定装置 Download PDF

Info

Publication number
JP2021193340A
JP2021193340A JP2020099244A JP2020099244A JP2021193340A JP 2021193340 A JP2021193340 A JP 2021193340A JP 2020099244 A JP2020099244 A JP 2020099244A JP 2020099244 A JP2020099244 A JP 2020099244A JP 2021193340 A JP2021193340 A JP 2021193340A
Authority
JP
Japan
Prior art keywords
image
vehicle
self
posture
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020099244A
Other languages
English (en)
Other versions
JP7456857B2 (ja
Inventor
貴大 酒井
Takahiro Sakai
盛彦 坂野
Morihiko Sakano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faurecia Clarion Electronics Co Ltd filed Critical Faurecia Clarion Electronics Co Ltd
Priority to JP2020099244A priority Critical patent/JP7456857B2/ja
Priority to EP21177853.5A priority patent/EP3922523A1/en
Publication of JP2021193340A publication Critical patent/JP2021193340A/ja
Application granted granted Critical
Publication of JP7456857B2 publication Critical patent/JP7456857B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/14Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by recording the course traversed by the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】自己位置推定装置において、自己位置を精度よく推定する。【解決手段】自己位置推定装置10は、目標とする地点までの経路を移動する自車両の、当該経路における位置及び姿勢を推定する自己位置推定装置10であって、自車両に搭載されたカメラにより所定の周期で撮像された画像を順次取得して、それらの画像から特徴点を抽出するとともに、一周期前に取得した画像における特徴点との対応付けを行う画像情報計算部11と、自車両の移動距離の算出に必要な車両情報を取得して、画像のうち、2つの画像の取得時刻間における移動距離を推定するスケール推定部12と、スケール推定部12により推定した移動距離と画像情報計算部11において対応付けを行った特徴点の、画像における位置関係とに基づいて、自車両の位置及び姿勢を推定する位置姿勢推定部13と、を備える。【選択図】図1

Description

本発明は、自己位置推定装置に関する。
駐車位置を指定し、自動車の現在位置等から指定した駐車位置までの経路を設定し、その自動車を、運転者による運転操作なしで自律移動させる自動駐車システムが提案されている。この自動駐車システムは、駐車位置までの経路に従って自動車を正確に自律移動させるために、走行中の自動車の位置を高精度に推定することが求められる。
現在知られている自動駐車システムにおいては、車両速度やハンドル転舵角等の、車両情報によるデッドレコニング(Dead Reckoning;自律航法)に加えて、カメラなどの外界認識センサを用いることにより、自己の位置(自己位置)を高精度に推定しようとする試みがある。
しかし、カメラはLiDAR(light detection and ranging;光による検知と測距)等と比較して安価であるものの、その撮像画像からは、2次元的な情報しか取得することができない。このため、撮像画像中の物体の大きさが一定せず、撮像画像中の物体を追跡することにより行う自己位置の推定技術は、移動距離の推定結果に大きな誤差を生じる。
撮像画像と車両情報を利用した自己位置の推定に関して、移動体の移動に伴って移動する撮像部により順次撮像された複数の撮像画像に基づいて、撮像画像中に存在する特徴点の、実空間での位置(実位置)を推定する3次元位置推定装置が知られている(例えば、特許文献1参照)。
この3次元位置推定装置は、前述の複数の撮像画像中において、1個又は複数個の特徴点をそれぞれ抽出し、その特徴点について複数の撮像画像間での対応付けを行う特徴点対応付け手段と、移動体の挙動に関わる挙動情報を取得する挙動情報取得手段と、挙動情報に基づいて複数の撮像画像を撮像する間の移動体の移動量(移動体移動量)を算出する移動量算出手段と、複数の撮像画像間での特徴点の移動量と移動体移動量とに基づいて実位置を推定する実位置推定手段と、複数の撮像画像のいずれかの撮像画像に実位置を再投影した際の撮像画像上の位置を表す抽出位置との差異を検出し、その差異が小さくなるように移動体移動量を補正する移動量補正手段と、複数の撮像画像での特徴点の移動量と補正後の移動体移動量とに基づいて実位置を推定する補正後実位置推定手段と、を備えている。
特開2014-142241号公報
ところで、バレーパーキングのように長距離走行を含む自動駐車システムでは、駐車位置と周囲の障害物との位置関係によっては、複数回の旋回や切り返しを行う必要があるため、自車を駐車位置に正確に移動させるために、自車の向きと位置を精度よく求める必要がある。
しかし、特許文献1に開示された技術をそのような自動駐車システムに適用した場合、3次元位置に復元する際に、徐々にスケール誤差が累積するスケールドリフトが生じてしまう恐れがあった。これは、特許文献1の技術では、画像情報を利用して最終的な車両位置や姿勢を算出していることに起因している。
つまり、特許文献1による技術は、移動体から得られる車両情報に基づいて算出される並進ベクトル及び回転行列を初期位置として処理を行うが、最終的には画像から得られる情報を利用した最適化処理を行うため、スケールドリフトの発生を回避できない。
本発明は上記事情に鑑みなされたものであり、移動体から得られる情報に基づいて算出した移動距離を固定値として扱うことで、自己位置を精度よく推定することができる自己位置推定装置を提供することを目的とする。
本発明は、目標とする地点までの経路を移動する移動体の、前記経路における位置及び姿勢を推定する自己位置推定装置であって、前記移動体に搭載された撮像手段により所定の周期で撮像された画像を順次取得して、前記画像から特徴点を抽出するとともに、一周期前に取得した画像における特徴点との対応付けを行う画像情報計算部と、前記移動体の移動距離の算出に必要な車両情報を取得して、前記画像のうち、2つの画像の取得時刻間における前記移動距離を推定するスケール推定部と、前記スケール推定部により推定した前記移動距離と、前記画像情報計算部において対応付けを行った特徴点の、前記画像における位置関係とに基づいて、前記移動体の、前記経路における位置及び姿勢を推定する位置姿勢推定部と、を備えた自己位置推定装置である。
本発明に係る自己位置推定装置によれば、移動体から得られる情報に基づいて算出した移動距離を固定値として扱うことで、自己位置を精度よく推定できる。
本発明の一実施形態である自己位置推定装置の構成を示すブロック図である。 図1に示した実施形態1の自己位置推定装置による処理全体の流れを示すフローチャートである。 画像特徴点とエピポーラ線の関係を示した図である。 実施形態1の自己位置推定装置により解消される、対応する画像特徴点の推定位置における誤差の一例を示した図である。 自己位置推定装置が自車両の位置と姿勢を表すために使用する車両座標系を示す図である。 自己位置推定装置がセンサとしてのカメラの取付け位置と姿勢を表すためのセンサ座標系を示す図である。 実施形態2の自己位置推定装置の構成を示した図である。 処理時間による位置姿勢を反映するタイミングの遅れを示す図である。 実施形態2の自己位置推定装置の処理全体の流れを示したフローチャートである。 データ取得周期が原因となって発生する移動距離の誤差を示した図である。 実施形態による、車両情報の取得タイミングと画像の取得タイミングと位置及び姿勢の推定処理のタイミングとの関係を示す図である。
以下、本発明に係る自己位置推定装置の実施形態について、図面を用いて説明する。
[実施形態1]
図1は本発明の一実施形態である自己位置推定装置10の構成を示すブロック図である。図示の自己位置推定装置10は、乗用車などの移動体に搭載されており、自動駐車システムと組み合わされて使用されるものである。
ただし、本発明に係る自己位置推定装置は、自動駐車システムと組み合わされるものに限定されず、自動駐車システムと組み合わされないものであってもよい。
また、自己位置推定装置10は、移動体として乗用車に限定されず、乗用車以外の車両や、車両以外の移動体、例えば、走行可能な走行体を有する建設機械等に適用することもできる。
以下、自己位置推定装置10が搭載される移動体を「自車両」と称して説明する。また、自己位置推定装置10は予め決められた周期、例えば、時間100[ms](ミリ秒)ごとに周期的に動作する。そして、自己位置推定装置10は、自車両から、速度、ハンドル角度(ステアリングホイールの中立位置からの回転角度)、シフト位置及びブレーキ(制動装置)の状態などの車両情報30を取得する機能、自車両に設置されたカメラにより撮像された画像20を取得する機能を有する。
図1に示すように、自己位置推定装置10はその機能として、画像情報計算部11と、スケール推定部12と、位置姿勢計算部13と、を備えている。自己位置推定装置10は、例えばCPU、GPU、RAM、ROM等を有しており、ROMに格納された所定のプログラムをRAMに展開してCPUの演算処理を実行することにより、これらの機能を実現する。なお、自己位置推定装置10は、その一部又は全部の機能を、FPGA、ASICなどのハードウェアで実現する構成であってもよい。
自己位置推定装置10には、自車両に取り付けられたカメラにより撮像された画像20、及び自車両からCANなどを経由して取得した車両情報30が入力される。画像20は、カメラによって所定のフレームレートで順次撮像される。車両情報30は自車両から得られる自車両の移動に関する情報、及び移動に関する情報に準ずる情報であり、例えば車両速度、ハンドル角度、車両旋回半径、アクセルやブレーキの状態、シフトレバーの位置(状態)などである。車両情報30も画像20と同様に、所定のフレームレートで順次取得される。
画像情報計算部11は、入力された画像20に基づいて、その画像20に写った建物の角(コーナー部)といった画像として特徴的な点(特徴点)の座標を抽出し、時系列的に過去に入力された別の画像20から抽出した特徴点との座標の対応付けを行う。画像情報計算部11は、抽出した特徴点と、対応つけられた過去の特徴点との位置(座標)の情報を、位置姿勢計算部13に出力する。
スケール推定部12は、車両情報30を基に自車両の移動した実空間上での距離を推定する。移動距離は、車両速度及びタイヤの回転量などから推定することができる。スケール推定部12は、推定した移動距離を位置姿勢計算部13に出力する。
位置姿勢計算部13は、スケール推定部12が推定した移動距離を基に、自車両の運動特性(予め記憶されている)から、移動経路の候補を算出する。そして、位置姿勢計算部13は、画像情報計算部11が算出した特徴点と対応する過去の特徴点の情報を利用して、移動経路の候補上で最も整合性のとれる位置と姿勢を、自車両の位置と姿勢として設定する。設定した自車両の位置と姿勢は、後段のシステム、例えば、自動駐車システムへ出力される。なお、位置姿勢計算部13の処理内容については、後に、詳細に説明する。
次に、自己位置推定装置10が実施する処理についてフローチャートを参照して説明する。図2は図1に示した実施形態1の自己位置推定装置10による処理全体の流れを示すフローチャート、図3は画像特徴点とエピポーラ線の関係を示した図、図4は実施形態1の自己位置推定装置10により解消される、対応する画像特徴点の推定位置における誤差の一例を示した図である。
ここで、図2の説明に先立って、自己位置推定装置10の処理で用いられる座標系について説明する。図5は自己位置推定装置10が自車両の位置と姿勢を表すために使用する車両座標系を示す図、図6は自己位置推定装置10がセンサとしてのカメラの取付け位置と姿勢を表すためのセンサ座標系を示す図である。
図5に示した車両座標系では、自車両の向きに対して前後方向をx軸、左右方向をy軸、上下方向をそれぞれz軸としてそれぞれ定義する。また、x軸は自車両の進行方向の前方を正とし、y軸は自車両の進行方向に対して左側を正とし、z軸は自車両の高さ方向の上方向を正とする。x,y,zの各軸回りの回転であるroll、pitch、yawは、時計回り方向をそれぞれ正とする。
本実施形態において、図5の車両座標系を用いて、自車両の回転量と並進量を以下のように表現する。すなわち、θrollをx軸回りの回転量、θpitchをy軸回りの回転量、θyawをz軸回りの回転量、xcarをx軸方向の並進量、ycarをy軸方向の並進量、zcarをz軸方向の並進量とする。なお、回転量は自車両の姿勢の変化量に相当し、並進量は自車両の位置の変化量に相当する。
図6に示すセンサ座標系では、カメラを真上方向から見たときの左右方向をx軸、上下方向をy軸とそれぞれ定義し、カメラの撮像部の光軸方向をz軸と定義している。ここで、x軸は撮像部の右方向を正とし、y軸は撮像部の下方向を正とし、z軸は撮像部の撮像方向を正としている。また、x,y,zの各軸回りの回転は、時計回り方向をそれぞれ正としている。
本実施形態では、図6のセンサ座標系を用いて、カメラの回転量と並進量を以下のように表現し、これらを用いてカメラの位置と姿勢を表すこととする。すなわち、θxをx軸回りの回転量、θyをy軸回りの回転量、θzをz軸回りの回転量、xcameraをx軸方向の並進量、ycameraをy軸方向の並進量、zcameraをz軸方向の並進量とする。なお、回転量はカメラの姿勢に相当し、並進量はカメラの位置に相当する。
以下の説明では、車両座標系における自車両の回転量θroll,θpitch,θyaw及び並進量xcar,ycar,zcarは自己位置推定装置10における車両情報30を基にして、また、センサ座標系におけるセンサの回転量θx,θy,θz及び並進量xcamera,ycamera,zcameraは自己位置推定装置10における位置姿勢計算部13により、それぞれの任意の周期で計算されるものとする。
次に、図2に示した自己位置推定装置10の全体処理を示すフローチャートについて説明する。なお、図2に示す処理は、ユーザが自動駐車システム40を立ち上げたタイミングに同期して開始される。
図2のフローチャートに示す実施形態では、センサとして、自車両に取り付けた広角な単眼カメラを適用するものとして説明する。また、カメラ及び自車両から取得するデータ(画像20、車両情報30)は、例えば33[ms]の周期で取得される。また、画像20の画像サイズは、例えば幅640[ピクセル]×縦400[ピクセル]のものを想定する。
車両情報30は、自車両がどのように移動したかを計算するために必要となる情報を指す。まず、画像情報計算部11は、単眼カメラで撮像された画像20を取得して(S100)、その画像から画像特徴点を抽出する(S101)。画像特徴点とは、画像中に写る建物の角(コーナー部)など、一意に定まる特徴的な点の座標である。
本実施形態では、例えばORB(Oriented FAST and Rotated BRIEF)と呼ばれる周知の処理手法により、画像特徴点を抽出する。なお、ORBに代えて、他の処理手法、例えばHarrisのコーナー検出やTomasi、FAST(Features from Accelerated Segment Test)などの特徴量の記述がないコーナー点抽出手法や、SURFやSIFTなどの特徴点抽出手法などを用いてもよく、処理手法はORBに限定されない。
次いで、画像情報計算部11は、最新の画像から抽出された画像特徴点と、時系列的に1つ以前の処理周期で取得した画像から抽出した画像特徴点との対応付けを行う(S102)。ここでは、時系列に異なるタイミングで取得された撮像画像からそれぞれ抽出された画像特徴点のうち、同一の被写体の同じ部分を撮像した画像特徴点同士を互いに対応付ける。
この対応付けは、画像特徴点の特徴量同士の比較や、画像特徴点の周囲の画素値の比較などにより実施し、類似している特徴点同士を対応付ける。例えば、本実施形態で画像特徴点の抽出に使用されるORBの場合、バイナリで記述された特徴量の排他的論理和をとることで画像特徴点の特徴量の比較を行うことが可能である。
そして、比較の結果、差が小さいほど、同一被写体の同じ部分を撮像した特徴点の可能性が高くなる。また、Harrisなどの特徴量のない方法で検出したコーナー点の場合は、例えばSSD(Sum of Squared Difference)やKLT(Kanade-Lucas-Tomasi Feature Tracker)法などの画像特徴点の周辺画素の比較により、画像特徴点同士の対応付けを行うことができる。
また、画像特徴点の対応付け(S102)を行う際には、誤って対応付けされた画像特徴点に対する対応付け結果の除去を行うようにしてもよい。例えば、クロスチェックと呼ばれる公知の手法を用いて、画像特徴点の対応付け結果が正しいか否かを確認することができる。
詳細な説明は省略するが、この手法は、画像特徴点同士が対応付けされた二つの撮像画像を画像A、Bとすると、一方の画像Aから他方の画像Bへと対応付けを行った結果と、画像Bから画像Aへと対応付けを行った結果とを比較し、共通の結果が得られた場合はこれを画像特徴点の対応付け結果として採用する手法である。
次に、画像情報計算部11は、入力された画像から抽出され、かつ時系列的で1つ以前の処理周期で取得した画像で対応付けられた画像特徴点の歪み補正を行う(S103)。歪み補正とは、カメラのレンズの歪みによって生じる画像の歪みを補正するものである。一般的な方法としては、Zhangの手法がある。Zhangの手法では、最小二乗法によりパラメータを推定する。
具体的には、キャリブレーションボードなどの既知の3次元座標と画像中のキャリブレーションボードの画像座標の組を集めて、既知の3次元座標をカメラモデルによって画像中に投影した際の画像座標と、画像中の対応するキャリブレーションボードの画像座標の差が小さくなるようなパラメータを推定する。このパラメータを利用して画像特徴点を補正することでカメラレンズの歪みを除去し、より精度の高い画像特徴点の座標を得る。
次に、スケール推定部12は、自車両から、例えばCAN(Control Area Network)を通じて、車両情報30を取得する(S104)。車両情報30とは、移動距離を推定(計算)する(S105)ために必要となる情報を指す。例えば、自車両の速度や、タイヤの回転数などである。
移動距離を推定する処理は、取得した車両情報30を利用することで行う。例えば、タイヤの回転数を利用した方法であれば、自車両のタイヤ径に処理周期中にタイヤが回転した量を掛ければよい。また、車両速度を利用する場合には例えば、1秒当たりの車両速度を基にして、前回の処理からの移動距離を求めればよい。
次に、位置姿勢計算部13は、自車量の位置及び姿勢の設定・更新処理(S106)と、自車量の移動後の位置及び姿勢の計算処理(S107)と、画像情報11を利用した誤差の計算処理(S108)とを繰り返し演算する(S106〜S109)。
まず、位置姿勢計算部13は、最適化処理のために推定する姿勢の初期値の設定及びその更新を行う(S106)。今回、姿勢の初期位置の推定は、例えば画像情報から推定可能な5点法という公知の手法を用いる。この5点法は、2枚の画像中に5つ以上の対応点がある場合に利用可能な姿勢推定手法である。
ただし、5点法は、姿勢を精度よく推定できる一方で、スケールが不定となることが起こりうる。このため、位置姿勢計算部13は、5点法で推定した姿勢とスケール推定部12で推定したスケール(移動距離)と車両運動のモデルを利用して初期値となる位置及び姿勢を、以下の式(1)〜(4)にしたがって算出する。つまり、位置姿勢計算部13は、x−y平面上の位置と向きを推定する。以下に、自車両の運動モデルを想定する。
Figure 2021193340
ここで,Rはハンドル舵角から計算された旋回半径、ρは曲率、θyawは自車両の向き、Sは自車両の移動距離、xcar,ycarは車両座標上の座標、tは時刻である。また、ここで推定するのは、自車両の向きの時間的な変化量に相当するΔθyawtである。
また、本実施例では、自車両の向きの時間的な変化量に相当するΔθyawtの更新を反復法の一種であるレーベンバーグ・マーカート法により行う。なお、値の更新には、他の反復法であるガウスニュートン法などを用いてもよい。
位置姿勢計算部13は、式(3),(4)の結果を、カメラ座標系上での位置姿勢を表す行列形式に変換する(S107)。まず、式(5)を利用して、式(3),(4)の結果を車両座標系上の位置及び姿勢を表現する行列形式に変換する。次に、式(6)を利用して車両座標系上の位置及び姿勢から、カメラ座標系上での位置及び姿勢に変換する。
ここで、Posecartは時刻tでの車両座標上の位置と姿勢を表す行列、Posecameratは時刻tでのカメラ座標上での位置と姿勢を表す行列、Acar cameraは車両座標系からカメラ座標系へと値を変換する変換行列を示している。
Figure 2021193340
位置姿勢計算部13は、ステップ107(S107)の結果とステップ103(S103)の結果を利用して、ステップ107(S107)における誤差を計算する(S108)。本実施形態では、後述の式(9)に示した基礎行列を利用して計算したエピポーラ線と画像特徴点の距離を誤差とする方法を示す。
自車量の移動に伴うカメラの移動により、画像特徴点とエピポーラ線との間には、図3,4に示す関係がある。図3は、自車両の向きの時間的な変化量に相当するΔθyawtが正確に求められている場合における特徴点とエピポーラ線との関係を、また、図4は、自車両の向きの時間的な変化量に相当するΔθyawtに誤差が含まれる場合の特徴点とエピポーラ線との関係をそれぞれ示している。
自車両の向きの時間的な変化量に相当するΔθyawtが正確に求められている場合、図3に示すように、時系列的に1つ以前(時刻t−1)のカメラの位置Posecamerat-1での画像における画像特徴点とカメラ原点を結んだ直線(光線)を、もう一方(時刻tにおけるカメラの位置Posecameratでの)画像上へ投影した場合、カメラ間の移動量Poserefに対応する画像特徴点は、投影された直線(エピポーラ線)上に存在する。
一方、自車両の向きの時間的な変化量に相当するΔθyawtに誤差がある場合には、図4に示すように、カメラ間の移動量Poserefにも誤差が生じる(誤差が生じたカメラ間の移動量Pose′ref)ため、図4のように、時刻tの誤差を含むカメラの位置Pose′cameratでの画像に投影されたエピポーラ線と対応する画像特徴点との間で誤差が生じる。このため、このエピポーラ線と画像特徴点との誤差を解消するような自車両の向きの時間的な変化量に相当するΔθyawtを求めることにより、自車両の向きの時間的な変化量に相当するΔθyawtの誤差を解消することができる。
位置姿勢計算部13は、まず、時系列で1つ以前の時刻t−1におけるカメラ座標上での位置及び姿勢間との移動量を式(9)により計算する。次に、計算した時刻t−1,t間の移動量の並進成分を利用してスキュー行列を計算する。そして、時刻t−1,t間のカメラ移動量とカメラの内部パラメータ及びスキュー行列を利用して基礎行列を計算する。
ここで、SkewはPoserefの並進成分から計算したスキュー行列を、Cintrinsicは焦点距離や画像中心といったカメラの内部パラメータを、Ft-1,tは時刻t−1,t間のカメラ移動量から計算した基礎行列を示す。
Figure 2021193340
次に、位置姿勢計算部13は、式(9)で算出した基礎行列と特徴点を利用してエピポーラ線を計算し、対応する特徴点との距離を以下に示す式(10)〜(14)で計算する。エピポーラ線と特徴点の距離は、時刻tから時刻t−1の方向におけるものと、時刻t−1から時刻tの方向におけるものとの両方を計算する。
式(14)のSは特徴点の数を表しており、位置姿勢計算部13は、全ての画像特徴点とエピポーラ線の距離の2乗を総和したものを誤差とする(S108)。
上述したステップ106(S106)からステップ109(S106)までの繰り返しの処理では、この誤差が最小となる、自車両の向きの時間的な変化量に相当するΔθyawtを推定することを目的としている。ここで、Kはエピポーラ線、Dは特徴点とエピポーラ線Kとの距離、Ptは画像中の特徴点の位置、Residualsは画像特徴点とエピポーラ線Kから計算した誤差である。
Figure 2021193340
位置姿勢計算部13は、ステップ109(S109)において、繰り返し処理の終了判定を行う。本実施形態では、繰り返し処理の終了条件を3つ設定した。1つ目の条件は誤差の大きさに応じた条件である。特徴点とエピポーラ線の距離から計算される誤差の大きさが予め設定した閾値を下回った場合、つまり、誤差が閾値よりも小さい場合に、繰り返し処理を終了する。
2つ目の条件は、自車両の向きの時間的な変化量に相当するΔθyawtの変化量に関する条件である。すなわち、繰り返し処理の1つ以前の周期のΔθyawtと比較したとき、Δθyawtの値の変化量が閾値よりも予め設定した閾値を下回った場合に繰り返し処理を終了する。
3つ目の条件は、繰り返し処理の上限回数に関する条件である。これは、繰り返し処理の回数をカウントし、回数が予め設定した閾値に到達した場合は繰り返し処理を終了する。
これら3つの条件のうち、いずれか1つの条件でも満たした場合には、繰り返し処理(S106〜S109)の次の処理であるステップ110(S110)に進む。3つの条件のうち1つの条件も満たさなかった場合には、繰り返し処理を継続する。
繰り返し処理を終了した位置姿勢計算部13は、繰り返し処理で算出した自車両の移動量を他のシステムへ出力する(S110)。本実施形態では、カメラ座標上での自車両の移動を推定しているため、他のシステムへ出力する際には、以下の式(15)により、車両座標上での位置及び姿勢に変換する。ここで、Acar cameraはカメラ座標から車両座標への変換行列である。
Figure 2021193340
[実施形態1の変形例]
上述した実施形態1の自己位置推定装置をGPS(Global Positioning System)(又はGNSS(Global Navigation Satellite System))と組み合わせて利用する構成としてもよい。すなわち、自車両の上空が開けた環境であれば、自己位置推定装置が自車両の位置及び姿勢を計算するのではなく、GPSによって自車両の位置及び姿勢を計算することができ、これにより、位置及び姿勢を精度よく計算することができる。
ただし、立体駐車場や地下駐車場のようにGPS信号を受信することができない環境では、GPSを利用することができないため、GPS信号を受信することができない環境では、本発明に係る自己位置推定装置を利用することにより、自車両の位置や姿勢を算出すればよい.
つまり、上述した実施形態1の自己位置推定装置10により推定した自己位置推定結果と、受信したGPS信号に基づいて推定した自己位置推定結果とのうち、どちらの自己位置推定結果を利用するかを自己位置推定装置10が判定し、判定により選択した、より適切な自己位置推定結果を自動駐車システム40へ出力する。
自己位置推定装置10によるGPS信号を受信できているか否かの判断は、受信できているGPS信号の数、すなわちGPS信号に対応した衛星の数と、計算される位置及び姿勢の標準偏差とに基づいて行うことができる。
判断の1つ目の条件である衛星の数とは、各衛星から送信されているGPS信号を基に自己位置を計算する場合、4基以上の衛星からGPS信号を受信できている必要があるため、4個以上の衛星からGPS信号を受信できていないときは、この条件を満たさず、したがって、本実施形態1の自己位置推定装置10により推定した位置及び姿勢を自動駐車システム40に出力する。
判断の2つ目の条件である位置及び姿勢の標準偏差とは、GPS信号を利用して計算した位置及び姿勢のばらつきを示したものである。この条件は、後段の処理によって必要とされる精度が異なるため、一義的に定めることはできない。自動駐車を行うための条件として、例えば、自車両を駐車場の白線内に収めるように駐車させることを考慮して、位置の標準偏差σx,σyを例えば10[cm]以下、姿勢の標準偏差σyawを例えば1[°]以下に設定することができる。
[実施形態2]
図7は、自動駐車システムにおけるカメラECU40の機能の一部として本発明の自己位置推定装置を組み込む場合の実施形態(以下、実施形態2という)を示した図である。このように他の車載システムの一部として実行する場合、同システムの要求によっては、車両情報30および画像20の取得周期やタイミングが異なる場合が考えられる。
このような場合、各データの取得周期の差が原因となり、移動距離に誤差が生じる恐れがある。移動距離に誤差が生じると、移動距離を正確に推定できるという前提を失うため、自車両の姿勢を精度よく推定できない。
このため、この問題を解消する必要があるが、実施形態1の場合、図8に示すように、自己(自車両)の位置及び姿勢を算出するまでに時間を要するため、この要求を満たせないことがある。
そこで、基になる自己位置姿勢は高速に計算可能なデッドレコニングという手法で計算しておき、実施形態の自己位置推定装置により、デッドレコニングを補正して位置姿勢推定を高精度化する。
図7は、図1に示した自己位置推定装置10と同様に、乗用車などの移動体に搭載されており、自動駐車システム40の一部として機能する実施形態2の自己位置推定装置10aを示すブロック図である。
実施形態2は、図8に示すように、車両情報30の取得周期を20[ms]、画像20の取得周期を33[ms]、自己位置推定装置による自己位置推定の実行周期を99[ms]として説明する。そして、自車両から速度、ハンドル角度、シフト及びブレーキの状態など車両情報30を取得する機能、及びカメラから撮像した画像20を取得する機能を有する。
図7に示すように、自己位置推定装置10aはその機能として、画像情報計算部11と、スケール推定部12と、位置姿勢計算部13と、時刻差計算部14と、スケール補正部15および、位置姿勢推定結果検証部16とを備えている。自己位置推定装置10aは、例えば、CPU、GPU、RAM、ROM等を有しており、ROMに格納された所定のプログラムをRAMに展開してCPUが実行することにより、これらの機能を実現することができる。
なお、自己位置推定装置10が有する一部又は全ての機能を、FPGA,ASICなどのハードウェアを用いて実現してもよい。
自己位置推定装置10aには、自車両に取り付けられたカメラにより取得された画像20及び自車両からCANなどを経由して取得した車両情報30が入力される。画像20は、自車両に搭載されたカメラによって所定のフレームレートで順次取得される。
車両情報30は自車両から得られる自車両の移動に関する情報及びこれに準ずるものを指しており、例えば、自車両の速度、ハンドルの操舵量、自車両の旋回半径、アクセルやブレーキの状態、シフトレバーの状態(ポジション位置)などである。車両情報30も画像20と同様に所定のフレームレートで順次取得される。
画像情報計算部11、スケール推定部12、及び位置姿勢計算部13の処理内容は、実施形態1と同じであるため省略し、時刻差計算部14の処理内容から説明する。
時刻差計算部14では、入力される画像20と車両情報30との取得する周期の差から、スケール補正部15へ入力する補正量を計算する。取得周期のずれにより移動距離に生じる誤差を、図10を参照して説明する。
本実施形態2のシステムは、車両情報30を例えば20[ms]、画像20を例えば33[ms]の周期で取得し、位置及び姿勢の推定処理を例えば99[ms]の周期で行う。例えば、位置及び姿勢の推定は、時刻tのタイミングで動作したとする。
この場合、位置及び姿勢の推定処理で推定するのは、時刻t−1から時刻tまでの移動量である。この場合、位置及び姿勢の推定処理に利用できる画像20は、時刻t−1で取得したものと、時刻t−1から例えば99[ms]後に取得した画像である。
一方、車両情報30については、時刻t−1で取得した車両情報30と時刻t−1から例えば80[ms]後に取得した車両情報30となる。ここで、車両情報30と画像20とには、19[ms]の時間差が生じる。位置及び姿勢の推定処理に必要なスケール情報が99[ms]の間に移動した距離に対して、システム内では80[ms]分の移動距離しかないため、スケール(移動距離)に誤差が生じる。
時刻差計算部15は、この誤差を補間によって解消するために、各データを取得した時刻差を計算し、以下の式(16)により補正量を計算する。
ここで、timestampcarinfoは車両情報30の取得時刻を、timestampimageは画像20の取得時刻を、c_scaleは補正量を、それぞれ表す。
Figure 2021193340
スケール補正部15では、スケール推定部12で推定した移動距離に対して、時刻計算部14で計算した車両情報30と画像20との取得時刻差を基に計算した補正量を乗じる演算により、画像20を取得した時間間隔に一致するように線形補間の演算により移動距離を補正する。補正した移動距離の情報は、位置姿勢計算部13へ出力する。
位置姿勢推定結果検証部16は、位置姿勢計算13で推定した位置と姿勢の検証を行う。検証は、2つの条件を満たしているかを確認することで行う。
1つ目の条件は、位置姿勢計算部13で算出した画像特徴点とエピポーラ線との距離に基づいて計算した誤差が予め設定した誤差以下で、かつ収束しているか否かである。
他の1つの条件は、車両情報30から得られるハンドル操舵量と比較して、同じ方向に車両向きが変化しているか、また変化量に大きな差がないかを確認する。
大きな変化がないことの確認は、例えば、自動駐車を行う速度であれば、スリップによる誤差が極めて小さいと仮定できることから、タイヤ摩耗による誤差と空気圧変化による誤差を考慮して、約5%とすることができるため、ハンドル操舵量から計算した車両向きの変化との差が5%以内であれば、運動モデルを考慮した位置姿勢計算部13で精度よく位置姿勢が計算できたものとする。
ハンドル操舵量から計算する自車両の向きの変化は、ハンドル操舵量と移動距離とに基づいて算出することができる。検証の結果、上述した条件を満たしている場合には、自己位置推定結果を、位置姿勢推定結果統合部18に出力する。
位置姿勢推定部17では、20[ms]の周期で取得される車両情報30であるハンドル操舵量とタイヤの回転数とに基づいて計算した自車両の向きと位置(移動量)との変化量を基に、自車両の位置及び姿勢を計算する。
ハンドル操舵量とタイヤの回転数とに基づいて算出した移動量を基に、自車両の位置及び姿勢を計算する方法には、以下のような自車両の運動モデルを想定する。つまり、自動車について、x−y平面上の位置と向きとを推定する。
ここで、Rはハンドルの操舵角度から計算された旋回半径、ρは曲率、θyawは自車両の向き、sは自車両の移動距離、xcar及びycarは車両座標での座標、tは時刻である。なお、実施形態2では上述した車両運動モデルを利用して自車両の位置及び姿勢を計算したが、自車両の位置及び姿勢の算出は上述した車両運動モデルを利用した手法に限定されない。
位置姿勢推定結果統合部18は、位置姿勢推定部17により20[ms]周期で算出される自己(自車両)の位置及び姿勢(自己位置姿勢)と、位置姿勢推定結果検証部16により33[ms]周期で取得される画像情報とを利用して、推定した自己位置姿勢を統合する。
なお、自己位置姿勢の統合は、位置姿勢推定部17により20[ms]周期で計算される自己位置姿勢を基準として、20[ms]周期で計算されている自己位置姿勢を基準とした統合の方法を、図11に示す。
画像20を基に算出される位置及び姿勢の変化は、画像取得区間(図11における画像1〜画像2の間、及び画像2〜画像3の間)のものとなるが、画像20を利用して算出する方法は、車両情報30だけを利用して推定する方法と比較して処理に時間がかかるため、その処理時間分の遅延が生じる。
したがって、これらを考慮して自己位置姿勢を統合する必要がある。そのため、位置姿勢推定に利用した車両情報30及び画像20を取得した時刻のタイムスタンプをそれぞれ取得しておく。
そして、各範囲での位置姿勢の推定結果が出力され、自己位置姿勢を統合するときに、この各データを取得した時刻を表すタイムスタンプを基準として、図11に示した統合範囲1(画像1〜画像2)、統合範囲2(画像2〜画像3)のように、対応する画像間で推定した自己位置姿勢を利用し、過去に車両情報30だけを基に計算した自己位置姿勢と統合する。
図9に実施形態2の自己位置推定装置10aにおける全体処理を示したフローチャートを示す。ここで、S200〜S204,S206,S209〜S213は、実施形態1のS100〜S104,S105,S106〜S110と同じ処理であるため、説明を省略する。
S205(初期位置姿勢計算)は、自己位置推定装置10aを搭載した自動駐車システム40が起動した後に得られた車両情報30に基づいて、自己位置推定装置10aの処理が開始され、画像20を取得し始めた際の位置と姿勢(初期位置姿勢)を算出するという処理であり、図2に示した実施形態1のフローチャートにはないが、実施形態1のフローチャートに加えることは可能である。
また、S207(取得時刻差計算)とS208(取得時刻差による移動距離の補正)は、スケール推定部12が移動距離を推定(計算)した(S206)後に、時刻差計算部14とスケール補正部15とがそれぞれが行う。
以上、本発明に係る自己位置推定装置の実施形態について説明したが、本発明に係る自己位置推定装置は、上述した実施形態や変形例に限定されるものではない。例えば、本発明に係る自己位置推定装置は、実施形態や変形例の自己位置推定装置の全ての構成を備える必要はない。また、実施形態や変形例としては、説明した構成に他の実施形態の構成を付加することも可能であり、また、構成の一部について、追加、削除、置き換えることも可能である。
10,10a 自己位置推定装置
11 画像情報計算部
12 スケール推定部
13 位置姿勢計算部
14 時刻差計算部
15 スケール補正部
16 位置姿勢推定結果検証部
17 位置姿勢推定部
18 位置姿勢推定結果統合部
20 画像
30 車両情報
40 カメラECU(自動駐車システム用)

Claims (4)

  1. 目標とする地点までの経路を移動する移動体の、前記経路における位置及び姿勢を推定する自己位置推定装置であって、
    前記移動体に搭載された撮像手段により所定の周期で撮像された画像を順次取得して、前記画像から特徴点を抽出するとともに、一周期前に取得した画像における特徴点との対応付けを行う画像情報計算部と、
    前記移動体の移動距離の算出に必要な車両情報を取得して、前記画像のうち、2つの画像の取得時刻間における前記移動距離を推定するスケール推定部と、
    前記スケール推定部により推定した前記移動距離と、前記画像情報計算部において対応付けを行った特徴点の、前記画像における位置関係とに基づいて、前記移動体の、前記経路における位置及び姿勢を推定する位置姿勢推定部と、を備えた自己位置推定装置。
  2. 前記移動体の移動距離の算出に必要な車両情報は、前記移動体のタイヤの回転に応じて発生するパルス又は前記タイヤの回転量の情報であり、
    前記スケール推定部は、前記移動体の移動距離の算出に必要な車両情報を基に前記移動体の移動距離を推定する請求項1に記載の自己位置推定装置。
  3. 前記位置姿勢推定部は、前記移動体の運動モデルを用いて算出される複数の経路のうち、前記スケール推定部が推定した移動距離と、前記画像情報計算部において対応付けされた特徴点の前記画像における位置関係に基づいて、最も整合性がとれる前記移動体の位置及び姿勢を推定する請求項1に記載の自己位置推定装置。
  4. 前記画像と前記車両情報の取得時刻に差がある場合、前記画像の取得時刻に応じて、前記車両情報に基づいて推定した移動距離を補正する、請求項1から3のうちいずれか1項に記載の自己位置推定装置。
JP2020099244A 2020-06-08 2020-06-08 自己位置推定装置 Active JP7456857B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020099244A JP7456857B2 (ja) 2020-06-08 2020-06-08 自己位置推定装置
EP21177853.5A EP3922523A1 (en) 2020-06-08 2021-06-04 Self-position estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020099244A JP7456857B2 (ja) 2020-06-08 2020-06-08 自己位置推定装置

Publications (2)

Publication Number Publication Date
JP2021193340A true JP2021193340A (ja) 2021-12-23
JP7456857B2 JP7456857B2 (ja) 2024-03-27

Family

ID=76283666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020099244A Active JP7456857B2 (ja) 2020-06-08 2020-06-08 自己位置推定装置

Country Status (2)

Country Link
EP (1) EP3922523A1 (ja)
JP (1) JP7456857B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115143930A (zh) * 2022-06-27 2022-10-04 徐州徐工挖掘机械有限公司 一种单目摄像头测距方法、系统及挖掘机
CN115190271A (zh) * 2022-06-28 2022-10-14 慧之安信息技术股份有限公司 基于边缘计算的煤矿开发安全监控方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4020071B2 (ja) 2003-12-10 2007-12-12 日産自動車株式会社 周囲状況表示装置
JP5434608B2 (ja) 2010-01-08 2014-03-05 トヨタ自動車株式会社 測位装置及び測位方法
JP5863105B2 (ja) 2011-12-13 2016-02-16 アルパイン株式会社 車両移動量推定装置および障害物検出装置
JP6003673B2 (ja) 2013-01-23 2016-10-05 株式会社デンソー 3次元位置推定装置、車両制御装置、および3次元位置推定方法
DE102016217637A1 (de) 2016-09-15 2018-03-15 Volkswagen Aktiengesellschaft Odometrie-Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug
JP7212486B2 (ja) 2018-09-26 2023-01-25 フォルシアクラリオン・エレクトロニクス株式会社 位置推定装置

Also Published As

Publication number Publication date
JP7456857B2 (ja) 2024-03-27
EP3922523A1 (en) 2021-12-15

Similar Documents

Publication Publication Date Title
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
EP3367677B1 (en) Calibration apparatus, calibration method, and calibration program
JP4814669B2 (ja) 3次元座標取得装置
US11120277B2 (en) Apparatus and method for recognizing road shapes
US11814056B2 (en) Travel amount estimation apparatus
US20200090347A1 (en) Apparatus for estimating movement information
JP7456857B2 (ja) 自己位置推定装置
JP5587250B2 (ja) 測距装置
JP6768554B2 (ja) キャリブレーション装置
JP6988873B2 (ja) 位置推定装置および位置推定用コンピュータプログラム
JP5425500B2 (ja) キャリブレーション装置およびキャリブレーション方法
CN113091756A (zh) 位置推定装置、以及位置推定方法
CN113795726B (zh) 自身位置修正方法及自身位置修正装置
US11740103B2 (en) Map creation device, map creation system, map creation method, and storage medium
JP6959032B2 (ja) 位置推定装置、移動装置
WO2022202915A1 (ja) 自律走行車及び自律走行車の自己位置推定方法
JP7380443B2 (ja) 部分画像生成装置及び部分画像生成用コンピュータプログラム
JP7223587B2 (ja) 物体運動推定方法及び物体運動推定装置
JP5056436B2 (ja) 三次元地図生成装置、及びプログラム
JP7226714B2 (ja) 位置ずれ補正システム及びプログラム
JP6907952B2 (ja) 自己位置補正装置及び自己位置補正方法
CN117177891A (zh) 传感装置和车辆控制装置
JP2023181722A (ja) 自律走行車
JP2024005342A (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
JP2022180672A (ja) 外界認識装置、外界認識方法、および外界認識プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240314

R150 Certificate of patent or registration of utility model

Ref document number: 7456857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150