JP7404010B2 - 位置推定装置及び方法 - Google Patents

位置推定装置及び方法 Download PDF

Info

Publication number
JP7404010B2
JP7404010B2 JP2019171732A JP2019171732A JP7404010B2 JP 7404010 B2 JP7404010 B2 JP 7404010B2 JP 2019171732 A JP2019171732 A JP 2019171732A JP 2019171732 A JP2019171732 A JP 2019171732A JP 7404010 B2 JP7404010 B2 JP 7404010B2
Authority
JP
Japan
Prior art keywords
reference point
positioning information
rotation
position estimation
rotational
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019171732A
Other languages
English (en)
Other versions
JP2020064056A (ja
Inventor
ドンフン サゴン
ヒョンソン チャン
ミンジョン ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2020064056A publication Critical patent/JP2020064056A/ja
Application granted granted Critical
Publication of JP7404010B2 publication Critical patent/JP7404010B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/021Calibration, monitoring or correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、位置を推定する技術に関する。
車両用ナビゲーションシステムは、自動車などが移動しているときに複数の全世界位置測定システム(GPS、Global Positioning System)に属する人工衛星から送出されて伝搬して来る信号を受信して移動体の現在位置を確認し、また、移動体の速度を確認しなければならない。このような車両用ナビゲーション装置は、GPS受信機で受信した情報を用いて緯度、経度、及び高度情報を含む3次元の車両の現在位置を算出する。しかし、GPS信号は、約10m~100m程度のGPS位置誤差を有する。このような位置の誤差は、他の情報を用いて補正される。
実施形態の課題は、位置推定装置において、初期測位情報における回転誤差及び位置誤差を補償するための情報を算出することにある。
実施形態の課題は、位置推定装置において、初期測位情報における回転誤差を、回転パラメータを用いて補償することにある。
一実施形態に係る位置推定方法は、対象に対して推定された測位情報及びマップデータに基づいて第1回転基準点を決定するステップと、前記対象の前方に対するイメージデータから第2回転基準点を推定するステップと、前記第1回転基準点及び前記第2回転基準点に基づいて算出された回転パラメータを用いて、前記測位情報を補正するステップとを含む。
位置推定方法は、センサによって検出された検出データに基づいて前記対象の初期位置及び初期姿勢を含む初期測位情報を推定することによって前記測位情報を推定するステップをさらに含み得る。
前記第1回転基準点を決定するステップは、前記マップデータで前記測位情報に基づいて候補領域を抽出するステップと、前記候補領域に基づいて前記第1回転基準点を決定するステップとを含み得る。
前記候補領域を抽出するステップは、前記対象の前方で前記対象に隣接する領域を前記候補領域として抽出するステップを含み得る。
前記候補領域を抽出するステップは、前記対象が走行している車路に関する車路境界線を含む領域を前記候補領域として抽出するステップを含み得る。
前記第1回転基準点を決定するステップは、前記候補領域に含まれた車路境界線を延長するステップと、前記延長された車路境界線上の地点のうち、前記対象から閾値距離よりも遠い地点を前記第1回転基準点として決定するステップとを含み得る。
前記第2回転基準点を推定するステップは、消失点検出モデルに基づいて前記イメージデータから前記第2回転基準点を検出するステップを含み得る。
前記消失点検出モデルは、トレーニングイメージからトレーニング基準点を出力するようにトレーニングされたモデルを含み得る。
前記第2回転基準点を検出するステップは、前記イメージデータからランドマークオブジェクトを抽出するステップと、前記消失点検出モデルに基づいて前記ランドマークオブジェクトから前記第2回転基準点を検出するステップとを含み得る。
前記測位情報を補正するステップは、前記第1回転基準点及び前記第2回転基準点に基づいて回転パラメータを算出するステップと、前記算出された回転パラメータに基づいて前記測位情報を補正することによって最終測位情報を決定するステップとを含み得る。
前記回転パラメータを算出するステップは、前記第1回転基準点がイメージ平面に投影された地点が前記第2回転基準点にマッチングするように、前記第1回転基準点を補償するための回転パラメータを決定するステップを含み得る。
前記回転パラメータを算出するステップは、前記第1回転基準点の3次元座標、前記第2回転基準点の2次元座標、カメラ固有パラメータ、及び前記対象のロール角に基づいて前記回転パラメータを算出するステップを含み得る。
前記最終測位情報を決定するステップは、前記回転パラメータを用いて初期姿勢を補正することによって対象の最終姿勢を決定するステップを含み得る。
前記測位情報を補正するステップは、前記最終姿勢を決定した後、前記対象の初期位置に対する位置パラメータを算出するステップと、前記位置パラメータを用いて前記初期位置を補正することによって、対象の最終位置を決定するステップとをさらに含み得る。
前記最終位置を決定するステップは、前記初期位置に対して第1軸のオフセットを適用するステップと、前記初期位置に対して前記第1軸と区別される第2軸のオフセットを適用するステップとを含み得る。
前記第1軸のオフセットを適用するステップは、前記位置パラメータから前記対象の横軸に対応する成分を前記測位情報に反映するステップを含み、前記第2軸のオフセットを適用するステップは、前記位置パラメータから前記対象の長さ軸に対応する成分を前記測位情報に反映するステップを含み得る。
前記位置パラメータを算出するステップは、前記マップデータから検出されたマップランドマーク及び前記イメージデータから検出されたイメージランドマークに基づいて、前記位置パラメータを決定するステップを含み得る。
前記位置パラメータを決定するステップは、前記マップデータから検出されたマップランドマークの2次元座標と、それに対応するイメージランドマークの2次元座標との間の差に基づいて前記位置パラメータを算出するステップを含み得る。
一実施形態に係る位置推定装置は、イメージデータを検出するセンサと、対象に対して推定された測位情報及びマップデータに基づいて第1回転基準点を決定し、前記対象の前方に対する前記イメージデータから第2回転基準点を推定し、前記第1回転基準点及び前記第2回転基準点に基づいて算出された回転パラメータを用いて前記測位情報を補正するプロセッサとを含む。
位置推定装置は、測位において主要な要素である回転誤差を補償するための回転パラメータを、回転基準点などを用いて剛健に決定することができる。
位置推定装置は、回転パラメータ及び位置パラメータを算出し、最初の測位情報に反映することによって正確な最終測位情報を決定することができる。
一実施形態に係る位置推定装置の構成を示すブロック図である。 一実施形態に係る位置推定の誤差を説明する図である。 一実施形態に係る位置推定の誤差を説明する図である。 一実施形態に係る位置推定方法を説明するフローチャートを示す。 一実施形態に係るパラメータ算出を説明するための図である。 一実施形態に係る第1回転基準点を説明する図である。 一実施形態に係る第2回転基準点を説明する図である。 一実施形態に係る第2回転基準点を検出するための消失点検出モデルを説明する図である。 一実施形態に係る第2回転基準点を検出するための消失点検出モデルを説明する図である。 一実施形態に係る第2回転基準点を検出するための消失点検出モデルを説明する図である。 一実施形態に係る位置推定装置に対して推定された初期測位情報及び位置推定装置の実際の姿勢による回転基準点の誤差を説明する図である。 一実施形態に係る第1回転基準点及び第2回転基準点を用いて初期測位情報を補償する動作を説明する図である。 一実施形態に係る回転パラメータを用いて測位情報を補償する動作を説明する図である。 一実施形態に係る位置パラメータを用いて測位情報を補償する動作を説明する図である。 一実施形態に係る位置パラメータを用いて測位情報を補償する動作を説明する図である。
下記で説明する実施形態は様々な変更が加えられることができる。特許出願の範囲がこのような実施形態によって制限も限定もされることはない。各図面に提示された同じ参照符号は同じ部材を示す。
本明細書で開示されている特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示されたものであり、実施形態は様々な異なる形態で実施され、本明細書に説明された実施形態に限定されることはない。
本明細書で用いた用語は、単に特定の実施形態を説明するために用いられるものであって、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、添付図面を参照して説明することにおいて、図面符号に関係なく同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略する。実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明は省略する。
図1は、一実施形態に係る位置推定装置の構成を示すブロック図である。本明細書において「対象」は、位置推定装置100によって位置及び姿勢が推定されるオブジェクトを示す。例えば、位置推定装置100が車両に取り付けられる場合、その対象は車両であってもよい。
位置推定装置100は、センサ110、プロセッサ120、及びメモリ130を含む。
センサ110は、検出データを生成する。例えば、センサ110は、位置を推定するために用いられる情報を検出することで検出データを生成する。位置を推定するために用いられる情報は、GPS信号、加速度信号、速度信号、及びイメージ信号などの様々な信号を含む。プロセッサ120は、このような検出データを用いて一次的に初期測位情報を測定する。初期測位情報は、概略的に測定された、対象の位置及び姿勢を指示する情報を含む。例えば、センサ110は、IMU(Inertial Measurement Unit)及びGPS(Global Positioning System)モジュールを含む。センサ110は、対象の加速度及び角速度を示すIMU信号及びGPS信号を検出データとして取得する。
IMUは、慣性測定機(Inertial measurer)とも示す。IMUは、姿勢変換、位置移動に対する変化速度、及び変位量を測定し、例えば、並進運動(例えば、加速度)を検出する3軸加速度計と、回転運動(例えば、角速度)を検出する3軸ジャイロスコープから構成される。IMUは、外部情報に依存しないことから、加速度信号及び角速度信号を安定的に収集することができる。GPSモジュールは、3つ以上の人工衛星から送信された信号を受信し、衛星と位置推定装置100の位置を算出し、GNSS(Global Navigation Satellite System)と示してもよい。GPSモジュールは、1Hzで絶対位置を測定し、低いノイズしか有しないことから安定的に動作できる。IMU301は、100Hzで相対位置を測定し、高速で測定することができる。
また、センサ110は、イメージデータを検出する。例えば、センサ110はカメラセンサを含んでもよく、カメラセンサは可視光線領域の光線を受信し、光線の強度を検出する。カメラセンサは、赤色チャネル、青色チャネル、及び緑色チャネルのそれぞれに対応する光線の強度を検出してカラーイメージを生成する。ただし、センサ110をこれに限定することなく、センサ110は、赤外線センサ、ライダセンサ、レーダーセンサ、熱画像センサ、及び深度センサなどを含んでもよい。カメラセンサは、位置推定装置100の外部(例えば、位置推定装置100の前方向)を撮影してイメージデータを生成する。
プロセッサ120は、対象に対して推定された測位情報及びマップデータに基づいて第1回転基準点を決定する。本明細書において、対象は、位置推定装置100によって位置及び姿勢が推定されるオブジェクトを示す。例えば、位置推定装置100は、車両に搭載されてもよく、対象は車両であってもよい。測位情報は、対象の位置、姿勢、及び動き(例えば、速度及び加速度)などの情報を含む。
本明細書において、回転基準点は、対象に対して推定された測位情報で回転誤差を補正するための基準となる地点を示す。第1回転基準点は、マップデータを用いて決定された回転基準点を示す。例えば、第1回転基準点は、2次元のイメージ平面上の消失点に対応する3次元地点として、車路境界線上の地点のうちイメージセンサから十分に遠い地点を示す。第1回転基準点の決定は、下記の図6を参照して説明する。
プロセッサ120は、対象の前方に対するイメージデータから第2回転基準点を推定する。第2回転基準点は、上述したセンサ110によって検出されたイメージデータを用いて推定された回転基準点を示す。第2回転基準点は消失点の一種として、3次元空間で平行な二以上の直線(例えば、車路境界線)が2次元のイメージ平面に投影される場合、該当の直線は、任意の一点に収斂する地点を示す。第2回転基準点の決定は、下記の図7~図10を参照して説明する。
プロセッサ120は、第1回転基準点及び第2回転基準点に基づいて算出された回転パラメータを用いて測位情報を補正する。回転パラメータは、一次的に推定された初期測位情報及び対象の実際の位置及び姿勢間の誤差を補償するためのパラメータを示す。例えば、センサ110に含まれたカメラセンサは、対象(例えば、車両)の長手方向の軸に平行な光軸を有するよう対象に取り付けられる。この場合、カメラセンサも対象の動きと同じ動きを有するため、カメラセンサによって検出されるイメージデータは、対象の位置及び姿勢と一致する視覚的情報を含む。したがって、プロセッサ120は、初期測位情報に対応する第1回転基準点を、上述したイメージデータから検出された第2回転基準点にマッチングさせることができるように、回転パラメータを適用する。回転パラメータの算出については下記の図5を参照して説明し、回転パラメータの適用については下記の図11~図15を参照して説明する。
メモリ130は、位置推定方法を行うために要求されるデータを臨時的又は永久的に格納し得る。例えば、メモリ130は、イメージデータから回転基準点を検出するための消失点検出モデル及びそのモデルパラメータを格納してもよい。消失点検出モデルについては、下記の図9~図10を参照して説明する。
上述したように、位置推定装置100は、センサ110によって検出された検出データに基づいて、対象の初期位置及び初期姿勢を含む初期測位情報を推定する。初期測位情報は、姿勢誤差及び位置誤差を示し、以下の図2及び図3では初期測位情報に示される誤差について説明する。
図2及び図3は、一実施形態に係る位置推定の誤差を説明する図である。
一実施形態に係る位置推定装置は、GPS信号及び加速度信号などを用いて初期測位情報を測定する。図2は、初期測位情報で初期姿勢が実際の姿勢に対して回転誤差Δθを有する状況を示す。初期測位情報は、位置推定装置が取り付けられた対象が任意の初期位置及び初期姿勢を有するものを指示する。マップデータ(例えば、HD(high definition)マップ)によれば、初期測位情報に対応するマップ車路境界線210は、図2に示した通りである。一方、実際にイメージセンサによって撮影されたイメージデータに示されるイメージ車路境界線220は、マップ車路境界線210と他の角度を示す。したがって、位置推定装置は、このような回転誤差を下記の図5により算出された回転パラメータを用いて補償できる。
参考として、マップデータは、マップに関する情報を含んでもよく、例えば、ランドマークに関する情報を含んでもよい。例えば、ランドマークは、運転者に道路を走行するために必要な情報を提供するために任意の地理的位置に固定されたオブジェクトを示す。例えば、道路表示板及び信号機などがランドマークに属してもよい。韓国道路交通法によれば、ランドマークは合計6種のクラスに分類される。例えば、ランドマークは、注意標識、規制標識、指示標識、補助標識、路面表示、信号機などに分類される。ただし、ランドマークの各クラスごとの分類を上述したものに限定されることはない。国ごとにクラスの種類が変わり得る。
また、本明細書で車路境界線は車路を定義する線として、道路面にペインティングされた実線又は点線などであり、道路の外郭に沿って配置された縁石(kerb)などであってもよい。
図3は、初期測位情報で初期位置が実際の位置に対して位置誤差Δxを有する状況を示す。マップデータによれば、初期測位情報に対応するマップ車路境界線310は、図3に示す通りである。一方、実際にイメージセンサによって撮影されたイメージデータに示されるイメージ車路境界線320は、マップ車路境界線310と異なる位置に示される。したがって、位置推定装置は、このような位置誤差を下記の図12、図14、及び図15を参照して説明するように補償することができる。
図4は、一実施形態に係る位置推定方法を説明するフローチャートを示す。
まず、ステップS410において、位置推定装置は、対象に対して推定された測位情報及びマップデータに基づいて第1回転基準点を決定する。第1回転基準点の決定は、下記の図6を参照して説明する。
そして、ステップS420において、位置推定装置は、対象の前方に対するイメージデータから第2回転基準点を推定する。第2回転基準点の推定は、下記の図7~図10を参照して説明する。
次に、ステップS430において、位置推定装置は、第1回転基準点及び第2回転基準点に基づいて算出された回転パラメータを用いて測位情報を補正する。回転パラメータを用いた測位情報の補正については、下記の図12を参照して説明する。
図5は、一実施形態に係るパラメータ算出を説明するための図である。
一実施形態によれば、任意の位置誤差及び任意の回転誤差により補償された第1回転基準点510を、イメージ平面に投影された地点が第2回転基準点540にマッチングすると仮定する。このような仮定下で方程式をまとめると、第1回転基準点510がイメージ平面に投影された地点が第2回転基準点540にマッチングされるように回転パラメータを算出することができる。位置推定装置は、第1回転基準点510及び第2回転基準点540に基づいて回転パラメータを算出し得る。以下は、回転パラメータの算出のための数式を誘導する過程について説明する。
まず、第1回転基準点510は、マップデータ501から最初測位情報に基づいて決定される。例えば、最初測位情報により、マップデータ501上で対象の最初位置及び最初姿勢が決定される。このような対象の最初位置及び最初姿勢でイメージセンサによって撮影される車路境界線の消失点に対応する第1回転基準点510が決定される。上述したように、平行な二以上の車路境界線が3次元空間上で実際に交差しないこともある。ただし、この車路境界線を2次元イメージ平面に投影したとき、投影された車路境界線が交差するものと予測される地点が、第1回転基準点510として決定される。このような第1回転基準点510の決定については、下記の図6を参照して説明する。
ここで、最初測位情報、例えば、最初位置及び最初姿勢に上述したように任意の位置誤差及び姿勢誤差があると仮定すると、第1回転基準点510に対して位置/姿勢パラメータ補正520が適用される。例えば、位置パラメータ及び姿勢パラメータが第1回転基準点510に対して補償されてもよい。位置パラメータ及び姿勢パラメータが補償された第1回転基準点510に透視投影530が適用される場合、第1回転基準点510の2次元座標591が取得される。ここで、第1回転基準点510の2次元座標591は、入力イメージ503から検出された第2回転基準点540の2次元座標592と同一であると仮定する。このような第1回転基準点510及び第2回転基準点540の関係は次の数式のように示される。
Figure 0007404010000001

上述した数式(1)において、p、p、pはそれぞれ第1回転基準点510の3次元座標(例えば、x、y、z座標)を示す。t、t、tは位置パラメータ(例えば、位置誤差)のx、y、z変位値として、並進変換に対応する値を示す。θx、θy、及びθzはそれぞれx軸を基準とする回転誤差、y軸を基準とする回転誤差、z軸を基準とする回転誤差であって、回転パラメータを示す。
Figure 0007404010000002

はy軸を基準としてθyだけ回転するための回転変換を示し、
Figure 0007404010000003

はx軸を基準としてθxだけ回転するための回転変換を示し、
Figure 0007404010000004

はz軸を基準としてθzだけ回転するための回転変換を示す。
Figure 0007404010000005

は、回転変換及び並進変換が適用された第1回転基準点510の3次元座標を2次元座標で透視投影530変換した行列である。fはイメージセンサの焦点距離、c、cはカメラ固有情報502(例えば、カメラ固有パラメータ)として、それぞれ主点(principal point)のx座標及びy座標を示す。v’、v’、v’は、誤差の補正後にイメージ平面に投影された第1回転基準点510の3次元座標(例えば、x、y、z座標)を示す。
ここで、v’、v’、v’は3次元座標であるが、行列演算の便宜のために3次元座標に表現されたものであり、ホモジニアス座標(homogeneous coordinate)上の点であるため、下記の数式(2)のように2次元座標に表現されてもよい。
Figure 0007404010000006

上述した数式(1)を2次元平面座標にまとめると、次の数式(3)のように表現される。
Figure 0007404010000007

上述した数式(3)で、q及びqは下記の数式(4)のように示される。
Figure 0007404010000008

上述した数式(4)において、消失点(VP、vanishing point)の特性によれば、pはpに対して十分に大きいため(例えば、pz>>py)、p/pは0に収斂される。p/pはδxとして示される。δxは定数であってもよい。また、消失点の特性によれば、未知数t、t、t、θx、θy、θzのうちt、t、tが消去される。したがって、q、qは下記の数式(5)のように示される。
Figure 0007404010000009
したがって、qは消去され、qは回転パラメータのうちθyに対する値に表現される。そのため、上述した数式(3)を再びまとめると、下記の数式(6)に示される。
Figure 0007404010000010
上述した数式(6)において、車両のロール角が与えられれば(例えば、θz=0)、θx、θyに対する数式に整理される。上述した数式(6)において、未知数θx、θyを除いた残りの変数が全て与えられるため、下記の数式(7)のようにx軸回転及びy軸回転に対して2つの連立方程式が成立する。
Figure 0007404010000011
上述した数式(6)及び数式(7)は、第1回転基準点510の2次元座標591及び第2回転基準点540の2次元座標592が同一であるという仮定下で導き出される。したがって、位置推定装置は、上述した数式(6)及び数式(7)に基づいて、第1回転基準点510がイメージ平面で投影された地点が第2回転基準点540にマッチングするよう、第1回転基準点510を補償するための回転パラメータを決定し得る。例えば、位置推定装置は、第1回転基準点510の3次元座標、第2回転基準点540の2次元座標592、カメラ固有パラメータ、及び対象のロール角(例えば、θz)に基づいて、上述した数式(6)又は数式(7)を充足する回転パラメータを算出できる。
以下、図6を参照して第1回転基準点の3次元座標を決定する動作について説明する。
図6は、一実施形態に係る第1回転基準点を説明する図である。
一実施形態によれば、位置推定装置は、車路境界線の地点のうち対象610から十分遠い距離の地点を第1回転基準点650として決定する。上述したように、第1回転基準点650は、イメージ平面上で車路境界線631が交差して見えるはずの消失点に対応する。対象610からの距離が十分遠い地点であるほど、イメージ平面上の消失点に収斂されるためである。
例えば、位置推定装置は、マップデータで測位情報に基づいて候補領域620を抽出し得る。位置推定装置は、マップデータベース601から対象610の現在位置に関連するマップデータをロードする。例えば、位置推定装置は、対象610の前方で対象610に隣接する領域を候補領域620として抽出する。位置推定装置は、対象610が走行している車路632に関連する車路境界線631を含む領域を候補領域620として抽出する。位置推定装置が取り付けられた対象610が走行している車路632を定義する車路境界線631のうち、対象610に近い車路境界線631がイメージセンサによって安定的に撮影される可能性が高いためである。
そして、位置推定装置は、候補領域620に基づいて第1回転基準点650を決定する。一実施形態によれば、位置推定装置は、候補領域620に含まれた車路境界線631を延長し得る。例えば、位置推定装置は、候補領域620に含まれた車路境界線631を定義するウェイポイント(waypoints)のうち少なくとも二つのウェイポイントを選択し、選択されたウェイポイントを連結する直線を延長し得る。ただし、基準点の決定は、車路境界線631を延長することに限定されず、例えば車路境界線631を定義するウェイポイント間の平均的な傾きを算出し、算出された傾きを有する直線を延長してもよい。位置推定装置は、延長された車路境界線640上の地点のうち、対象610から閾値距離641よりも遠い地点を第1回転基準点650として決定する。このように決定された第1回転基準点650の3次元座標はp、p、pに表現される。図6では、説明の便宜のために2次元のトップビューに示したが、マップデータの3次元座標系は、対象610(例えば、対象610の外郭上の任意の一地点)を原点にする3次元座標系に変換されてもよい。したがって、第1回転基準点650は、対象610を基準とする座標系に表現される。
以下、図7は、上述した第1回転基準点650に対する比較の基準となる第2回転基準点について説明する。
図7は、一実施形態に係る第2回転基準点を説明する図である。
一実施形態に係る位置推定装置は、イメージデータから第2回転基準点720を検出する。位置推定装置は、消失点検出モデルに基づいてイメージデータから第2回転基準点720を検出する。
例えば、位置推定装置は、車路境界線710が交差して見える地点を第2回転基準点720として検出する。消失点検出モデルは、境界線の幾何構造(geometrical and structural)情報(例えば、傾きなど)が数学的にモデリングされたものである。位置推定装置は、数学的モデルに基づいて、検出された車路境界線から第2回転基準点720を検出する。
ただし、第2回転基準点720の検出がこれに限定されることなく、消失点検出モデルとして機械学習構造が使用される。機械学習構造を用いた第2回転基準点720の検出については、下記の図8~図10を参照して説明する。
図8~図10は、一実施形態に係る第2回転基準点を検出するための消失点検出モデルについて説明する図である。
一実施形態によれば、位置推定装置は、消失点検出モデル810,910,1010に基づいてイメージデータから第2回転基準点を検出する。消失点検出モデルは機械学習構造で実現され、例えば、ニューラルネットワークを含む。
ニューラルネットワークは、ディープニューラルネットワーク(DNN、deep neural network)の例示である。DNNは、完全接続ネットワーク(fully connected network)、ディープコンボリューショナルネットワーク(deep convolutional network)、及びリカレントニューラルネットワーク(recurrent neural network)などを含む。ニューラルネットワークは、ディープランニングに基づいて非線形関係にある入力データ及び出力データを互いにマッピングすることで、オブジェクト分類、オブジェクト認識、音声認識、及び映像認識などを行ってもよい。ディープランニングは、ビッグデータセットから映像又は音声認識のような問題を解決するための機械学習方式である。ディープランニングの指導式(supervised)又は非指導式(unsupervised)学習を介して入力データ及び出力データを互いにマッピングする。
ニューラルネットワークは、入力レイヤ、隠しレイヤ、及び出力レイヤを含む。入力レイヤ、隠しレイヤ、及び出力レイヤはそれぞれ複数のノードを含む。
隠しレイヤは、様々な数のレイヤを含む。入力データは、入力レイヤから入力されるが、これに限定されることなく、隠しレイヤに直接入力される。ニューラルネットワークで出力レイヤを除いたレイヤのノードは、出力信号を送信するためのリンクを介して次のレイヤのノードと接続される。リンク数は、次のレイヤに含まれたノード数に対応する。
隠しレイヤに含まれた各ノードには、以前のレイヤに含まれたノードの加重された入力に関する活性関数の出力が入力される。加重された入力は、以前のレイヤに含まれたノードの入力にシナプス加重値(synaptic weight)が乗算されたものである。シナプス加重値は、ニューラルネットワークのモデルパラメータに称されてもよい。活性関数は、シグモイド(sigmoid)、ハイパボリックタンジェント(hyperbolic tangent;tanh)及びReLU(rectified linear unit)を含んでもよく、活性関数によってニューラルネットワークに非線型性が形成される。出力レイヤに含まれた各ノードには以前のレイヤに含まれたノードの加重された入力が入力される。
ニューラルネットワークは、入力データが与えられれば、隠しレイヤを経て出力レイヤに分類及び認識しようとするクラス数に応じて関数値を算出し、そのうち最も大きい値を有するクラスに入力データを分類する。
ニューラルネットワークの幅と深度が十分大きければ、任意の関数を実できる程度の容量を有する。ニューラルネットワークが適切なトレーニング過程を介して多くのトレーニングデータを学習すれば、最適な認識性能を達成することができる。
図8は、消失点検出モデルの基本構造を示す。
本明細書において、消失点検出モデル810は、イメージデータ801から回転基準点情報809を出力するようにトレーニングされた機械学習構造である。例えば、消失点検出モデル810は、上述したニューラルネットワークで構成されるが、これに限定されることはない。回転基準点情報809は、第2回転基準点に対応する地点のイメージ平面上の2次元座標(例えば、x座標及びy座標)である。消失点検出モデル810で入力レイヤ及び出力レイヤの次元は固定されるという制限があるが、隠しレイヤの構造は制限されないこともある。
トレーニング装置は、消失点検出モデル810をトレーニングデータに基づいてトレーニングさせ得る。トレーニングデータは、トレーニング入力及びトレーニング出力の対を含む。トレーニング出力は、任意のトレーニング入力に対して与えられた実際のグランドトゥルースデータ(ground truth data)であり、トレーニング基準点(例えば、回転基準点の座標)であり得る。トレーニング装置は、消失点検出モデル810をトレーニングイメージからトレーニング基準点を出力するようにトレーニングさせ得る。例えば、トレーニング装置は、トレーニングイメージから消失点検出モデル810に基づいて算出された臨時出力、及びトレーニング基準点間の損失が最小化されるようにモデルパラメータをアップデートする。トレーニング装置は損失が収斂されるまでモデルパラメータのアップデートを繰り返す。このように、トレーニングされたモデルは、位置推定装置に格納される。
図9は、車路境界線検出モデル920及び消失点検出モデル910を用いる動作を説明する。
一実施形態に係る位置推定装置は、イメージデータ901からランドマークオブジェクトを抽出する。例えば、位置推定装置は、消失点検出モデル910に基づいてランドマークオブジェクトから回転基準点情報909として第2回転基準点を検出し得る。
例えば、位置推定装置は、ランドマークオブジェクトとして車路境界線を検出する。位置推定装置は、車路境界線検出モデル920に基づいて、イメージデータ901から車路境界線を検出する。車路境界線検出モデル920は、イメージデータ901から車路境界線に対応する地点を出力するようにトレーニングされたモデルであってもよい。
トレーニング装置は、予めトレーニングが完了した車路境界線検出モデル920をロードする。トレーニング装置は、トレーニングが完了した車路境界線検出モデル920に基づいて、イメージデータ901から車路境界線イメージを出力する。トレーニング装置は、車路境界線イメージから消失点検出モデル910に基づいて臨時出力を算出し、臨時出力及びトレーニング出力間の損失に基づいてモデルパラメータをアップデートする。ここで、トレーニング装置は、車路境界線検出モデル920のモデルパラメータを保持しながら、消失点検出モデル910のモデルパラメータだけをアップデートする。
ただし、これに限定されることなく、2つのモデルを次の図10に示すようにジョイントトレーニング(joint training)させてもよい。
図10は、図9と同じニューラルネットワーク構造をトレーニングさせる他の例示について説明する。
一実施形態によれば、位置推定装置は、イメージデータ1001から車路境界線検出モデル1020に基づいて車路境界線情報1008を出力する。位置推定装置は、車路境界線情報1008から消失点検出モデル1010に基づいて回転基準点情報1009を出力する。
例えば、トレーニング装置は、イメージデータ1001を車路境界線検出モデル1020に伝搬(propagate)させることにより車路境界線情報1008を算出する。また、トレーニング装置は、消失点検出モデル1010に車路境界線情報1008を伝搬させることにより回転基準点情報1009を算出する。トレーニング装置は、車路境界線情報1008に対する車路境界線損失及び回転基準点情報1009に対する基準点損失に基づいて、車路境界線検出モデル1020及び消失点検出モデル1010、2つのモデルのモデルパラメータを同時に又は順次にアップデートできる。このようなトレーニング過程で、消失点検出モデル1010のトレーニング及び車路境界線検出モデル1020のトレーニングは相互のトレーニングを補助する。
図11は、一実施形態に係る位置推定装置に対して推定された初期測位情報及び位置推定装置の実際の姿勢による回転基準点の誤差を説明する図である。
図11において、初期測位情報による姿勢の対象1110は、車路境界線に対して斜めに位置していると仮定する。ここで、対象1110の姿勢は、初期測位情報により仮想的に図示されている。図6を参照して説明したように、位置推定装置は、対象1110が走行している車路の境界線を定義する地点のうち、対象1110から閾値距離よりも遠い地点を第1回転基準点1150として決定する。初期測位情報による姿勢の対象1110に取り付けられたセンサ1111の視野角に対応するイメージ平面で第1回転基準点1150が投影される場合、第1回転基準点1150が投影された地点1151は、図11に示す通りである。
上述した初期測位情報とは異なって、実際の対象1120は、車路境界線と平行に位置してもよい。実際の対象1120のセンサ1121は、対象1120の前方に対するイメージを撮影する。位置推定装置は、図7~図10を参照して上述したように、イメージデータ1160から第2回転基準点1161を検出し得る。
上述したように、最初測位情報に含まれた誤差によって、第1回転基準点1150がイメージ平面に直ちに投影された地点と第2回転基準点1161は互いに異なる地点に示される。したがって、第1回転基準点1150がイメージ平面に投影された地点と第2回転基準点1161間の差1156は、最初の測位情報に含まれた誤差(例えば、回転誤差及び位置誤差など)に対応する。
一実施形態に係る位置推定装置は、図5を参照して上述したように、算出された回転パラメータを用いて最初測位情報を以下の図12に示すように補正する。
図12は、一実施形態に係る第1回転基準点及び第2回転基準点を用いて初期測位情報を補償する動作を説明する図である。図13は、一実施形態に係る回転パラメータを用いて測位情報を補償する動作を説明する図である。図14及び図15は、一実施形態に係る位置パラメータを用いて測位情報を補償する動作を説明する図である。
まず、位置推定装置は、マップデータ1201を取得する。ステップS1210において、位置推定装置は、マップデータ1201から最初測位情報に基づいて第1回転基準点を決定する。第1回転基準点の決定は図6を参照して上述したため、その説明は省略する。
一方、位置推定装置は、イメージデータ1202を取得する。ステップS1220において、位置推定装置は、消失点検出モデル1203に基づいて、イメージデータ1202から第2回転基準点を検出する。消失点検出モデル1203は、数学的モデル又は機械学習構造のモデルであり得る。
次に、ステップS1230において、位置推定装置は、回転パラメータ及び位置パラメータを用いて最初測位情報を補正する。
ステップS1231において、位置推定装置は、回転パラメータを算出し、回転パラメータを用いて最初測位情報を補正する。一実施形態によれば、位置推定装置は、第1回転基準点及び第2回転基準点に基づいて回転パラメータを算出する。例えば、位置推定装置は、第1回転基準点及び第2回転基準点から初期姿勢に対する回転パラメータを算出する。また、位置推定装置は、算出された回転パラメータに基づいて測位情報を補正することで最終測位情報を決定し得る。例えば、位置推定装置は、回転パラメータを用いて初期姿勢を補正することによって、対象の最終姿勢を決定し得る。図13に示すように、回転パラメータを用いて測位情報を補償1331することで、第1回転基準点がイメージ平面に投影される位置がセンサを基準にして回転される。
一実施形態によれば、位置推定装置は、上述したように最終姿勢を決定した後、対象の初期位置に対する位置パラメータを算出する。位置推定装置は、位置パラメータを用いて初期位置を補正することで、対象の最終位置を決定し得る。
例えば、ステップS1232において、位置推定装置は、第1軸の位置パラメータを算出し、第1軸の位置パラメータを用いて測位情報を補正する。位置推定装置は、初期位置に対して第1軸上のオフセットを適用する。位置推定装置は、位置パラメータから対象の横軸に対応する成分を測位情報に反映する。図14に示すように、第1軸の位置パラメータを用いて測位情報を補償1432することで、第1回転基準点がイメージ平面に投影される第1軸上の位置が移動される。
ステップS1233において、位置推定装置は、第2軸の位置パラメータを算出し、第2軸の位置パラメータを用いて測位情報を補正する。位置推定装置は、初期位置に対して第1軸と区別される第2軸上のオフセットを適用する。位置推定装置は、位置パラメータから対象の長さ軸に対応する成分を測位情報に反映する。図15に示すように、第2軸の位置パラメータを用いて測位情報を補償1533することで、第1回転基準点がイメージ平面に投影される第2軸上の位置が移動される。
一実施形態に係る位置推定装置は、マップデータ1201から検出されたマップランドマーク及びイメージデータ1202から検出されたイメージランドマークに基づいて、位置パラメータ(例えば、第1軸の位置パラメータ及び第2軸の位置パラメータ)を決定する。例えば、位置推定装置は、マップデータ1201から検出されたマップランドマークの2次元座標、及びそれに対応するイメージランドマークの2次元座標間の差に基づいて位置パラメータを算出する。参考として、位置推定装置は、イメージデータ1202から検出された各ランドマークにランドマークスコアを設定する。位置推定装置は、マップデータ1201に含まれたマップランドマークをイメージ平面(例えば、初期位置及び初期姿勢でセンサの視野角による平面)に投影し、イメージデータ1202に示されたイメージランドマーク間に重なる程度に応じてマッチングスコアを算出する。位置推定装置は、マップランドマークの2次元座標又はイメージランドマークの2次元座標移動により、最も高いマッチングスコアを示す座標移動値に対応する位置パラメータを決定し得る。
上述したように、位置推定装置は、回転パラメータ及び位置パラメータを算出し、最初測位情報に反映することで正確な最終測位情報を決定できる。
位置推定装置は、最終測位情報を介して対象がマップデータ1201上で予め決定された場所に到達したか否か、又は、経路から離脱したか否かを判断するための情報を提供する。位置推定装置は、車両用情報システムと結合される。また、位置推定方法は、車両用デバイスでソフトウェア、ウェブサービス、チップ形態に具現されて提供され得る。
一実施形態に係る位置推定装置は、AR(augmented reality)環境でイメージ及びマップデータ1201に基づいた測位に適用される。例えば、位置推定装置は価格が安くかつ小型化される。また、位置推定装置は、マップデータ1201のマップランドマーク及びイメージデータ1202のイメージランドマーク間に誤差が生じても、上述したように位置パラメータ及び回転パラメータを介して誤差を補償し得る。さらに、位置推定装置は、ランドマークの個数が制限されることなく(例えば、4個未満であっても)、位置パラメータ及び回転パラメータを決定し得る。
一実施形態に係る位置推定装置は、測位において主要な要素である回転誤差を補償するための回転パラメータを、回転基準点などを用いて剛健に決定することができる。
以上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DYIJDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
100:位置推定装置
110:センサ
120:プロセッサ
130:メモリ

Claims (20)

  1. 位置推定方法において、
    対象に対して推定された測位情報及びマップデータに基づいて第1回転基準点を決定するステップと、
    前記対象の前方に対するイメージデータから第2回転基準点を推定するステップと、
    前記第1回転基準点及び前記第2回転基準点に基づいて算出された回転パラメータを用いて、前記測位情報を補正するステップと、
    を含み、前記測位情報を補正するステップは、
    前記第1回転基準点の3次元座標、前記第2回転基準点の2次元座標、カメラ固有パラメータ、及び前記対象のロール角に基づいて回転パラメータを算出するステップと、
    前記算出された回転パラメータに基づいて前記測位情報を補正することによって最終測位情報を決定するステップと、
    を含む、位置推定方法。
  2. センサによって検出された検出データに基づいて前記対象の初期位置及び初期姿勢を含む初期測位情報を推定することによって前記測位情報を推定するステップをさらに含む、請求項1に記載の位置推定方法。
  3. 前記第1回転基準点を決定するステップは、
    前記マップデータから、前記測位情報に基づいて候補領域を抽出するステップと、
    前記候補領域に基づいて前記第1回転基準点を決定するステップと、
    を含む、請求項1又は2に記載の位置推定方法。
  4. 前記候補領域を抽出するステップは、前記対象の前方で前記対象に隣接する領域を前記候補領域として抽出するステップを含む、請求項3に記載の位置推定方法。
  5. 前記候補領域を抽出するステップは、前記対象が走行している車路に関する車路境界線を含む領域を前記候補領域として抽出するステップを含む、請求項3に記載の位置推定方法。
  6. 前記第1回転基準点を決定するステップは、
    前記候補領域に含まれた車路境界線を延長するステップと、
    前記延長された車路境界線上の地点のうち、前記対象から閾値距離よりも遠い地点を前記第1回転基準点として決定するステップと、
    を含む、請求項3に記載の位置推定方法。
  7. 前記第2回転基準点を推定するステップは、消失点検出モデルに基づいて前記イメージデータから前記第2回転基準点を検出するステップを含む、請求項1-6のうち何れか一項に記載の位置推定方法。
  8. 前記消失点検出モデルは、トレーニングイメージからトレーニング基準点を出力するようにトレーニングされたモデルを含む、請求項7に記載の位置推定方法。
  9. 前記第2回転基準点を検出するステップは、
    前記イメージデータからランドマークオブジェクトを抽出するステップと、
    前記消失点検出モデルに基づいて前記ランドマークオブジェクトから前記第2回転基準点を検出するステップと、
    を含む、請求項7に記載の位置推定方法。
  10. 前記回転パラメータを算出するステップは、前記第1回転基準点がイメージ平面に投影された地点が前記第2回転基準点にマッチングするように、前記第1回転基準点を補償するための回転パラメータを決定するステップを含む、請求項に記載の位置推定方法。
  11. 前記最終測位情報を決定するステップは、前記回転パラメータを用いて初期姿勢を補正することによって対象の最終姿勢を決定するステップを含む、請求項に記載の位置推定方法。
  12. 前記測位情報を補正するステップは、
    前記最終姿勢を決定した後、前記対象の初期位置に対する位置パラメータを算出するステップと、
    前記位置パラメータを用いて前記初期位置を補正することによって、対象の最終位置を決定するステップと、
    をさらに含む、請求項11に記載の位置推定方法。
  13. 前記最終位置を決定するステップは、
    前記初期位置に対して第1軸のオフセットを適用するステップと、
    前記初期位置に対して前記第1軸と区別される第2軸のオフセットを適用するステップと、
    を含む、請求項12に記載の位置推定方法。
  14. 前記第1軸のオフセットを適用するステップは、前記位置パラメータから前記対象の横軸に対応する成分を前記測位情報に反映するステップを含み、
    前記第2軸のオフセットを適用するステップは、前記位置パラメータから前記対象の長さ軸に対応する成分を前記測位情報に反映するステップを含む、請求項13に記載の位置推定方法。
  15. 前記位置パラメータを算出するステップは、前記マップデータから検出されたマップランドマーク及び前記イメージデータから検出されたイメージランドマークに基づいて、前記位置パラメータを決定するステップを含む、請求項12に記載の位置推定方法。
  16. 前記位置パラメータを決定するステップは、前記マップデータから検出されたマップランドマークの2次元座標と、それに対応するイメージランドマークの2次元座標との間の差に基づいて前記位置パラメータを算出するステップを含む、請求項15に記載の位置推定方法。
  17. 請求項1乃至16のいずれか一項に記載の位置推定方法をコンピュータに実行させるための命令語を含むコンピュータプログラム。
  18. 位置推定装置において、
    イメージデータを検出するセンサと、
    対象に対して推定された測位情報及びマップデータに基づいて第1回転基準点を決定し、前記対象の前方に対する前記イメージデータから第2回転基準点を推定し、前記第1回転基準点及び前記第2回転基準点に基づいて算出された回転パラメータを用いて前記測位情報を補正するプロセッサと、
    含み、前記測位情報を補正する場合に、前記プロセッサは、
    前記第1回転基準点の3次元座標、前記第2回転基準点の2次元座標、カメラ固有パラメータ、及び前記対象のロール角に基づいて回転パラメータを算出し、
    前記算出された回転パラメータに基づいて前記測位情報を補正することによって最終測位情報を決定する、位置推定装置。
  19. 前記対象は車両であり、
    前記センサは、前記車両に取り付けられる、請求項18に記載の位置推定装置。
  20. 前記測位情報は、GPS信号及び加速度信号から取得される情報を含む、請求項18に記載の位置推定装置。
JP2019171732A 2018-10-17 2019-09-20 位置推定装置及び方法 Active JP7404010B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0123488 2018-10-17
KR1020180123488A KR102627453B1 (ko) 2018-10-17 2018-10-17 위치 추정 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2020064056A JP2020064056A (ja) 2020-04-23
JP7404010B2 true JP7404010B2 (ja) 2023-12-25

Family

ID=66101993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171732A Active JP7404010B2 (ja) 2018-10-17 2019-09-20 位置推定装置及び方法

Country Status (5)

Country Link
US (2) US11023748B2 (ja)
EP (1) EP3640681B1 (ja)
JP (1) JP7404010B2 (ja)
KR (1) KR102627453B1 (ja)
CN (1) CN111060946A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102627453B1 (ko) * 2018-10-17 2024-01-19 삼성전자주식회사 위치 추정 장치 및 방법
US11061145B2 (en) * 2018-11-19 2021-07-13 The Boeing Company Systems and methods of adjusting position information
KR20210034253A (ko) * 2019-09-20 2021-03-30 삼성전자주식회사 위치 추정 장치 및 방법
WO2021205193A1 (ja) * 2020-04-08 2021-10-14 日産自動車株式会社 地図情報補正方法、運転支援方法及び地図情報補正装置
CN112668037B (zh) * 2020-06-02 2024-04-05 华控清交信息科技(北京)有限公司 一种模型训练方法、装置和电子设备
CN111882601B (zh) * 2020-07-23 2023-08-25 杭州海康威视数字技术股份有限公司 定位方法、装置及设备
CN112363196B (zh) * 2020-10-20 2023-10-31 北京嘀嘀无限科技发展有限公司 车辆属性确定方法、装置、存储介质和电子设备
CN112241718B (zh) * 2020-10-23 2024-05-24 北京百度网讯科技有限公司 车辆信息的检测方法、检测模型的训练方法和装置
CN112433193B (zh) * 2020-11-06 2023-04-07 山东产研信息与人工智能融合研究院有限公司 一种基于多传感器的模位置定位方法及系统
CN117215194B (zh) * 2023-09-28 2024-03-26 广东海洋大学 一种基于螺旋桨协同的轮缘控制器数据处理方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003014477A (ja) 2001-04-26 2003-01-15 Mitsubishi Electric Corp 映像ナビゲーション装置
JP2006208223A (ja) 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
JP2006284281A (ja) 2005-03-31 2006-10-19 Aisin Aw Co Ltd 自車情報認識装置及び自車情報認識方法
JP2009204385A (ja) 2008-02-27 2009-09-10 Mitsubishi Electric Corp 標定装置、標定方法および標定プログラム
JP2016139914A (ja) 2015-01-27 2016-08-04 パイオニア株式会社 表示装置、携帯端末及び制御方法
US20180165831A1 (en) 2016-12-12 2018-06-14 Here Global B.V. Pose error estimation and localization using static features

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446636B1 (ko) * 2002-11-21 2004-09-04 삼성전자주식회사 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법
US20100033571A1 (en) * 2006-09-28 2010-02-11 Pioneer Corporation Traffic information detector, traffic information detecting method, traffic information detecting program, and recording medium
DE102007008798A1 (de) * 2007-02-22 2008-09-04 Götting jun., Hans-Heinrich Anordnung zur Überprüfung eines berührungslos wirkenden Schutzsensors
US8131098B2 (en) * 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
US20090037039A1 (en) * 2007-08-01 2009-02-05 General Electric Company Method for locomotive navigation and track identification using video
WO2009098154A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
US8487991B2 (en) * 2008-04-24 2013-07-16 GM Global Technology Operations LLC Clear path detection using a vanishing point
JP2012511697A (ja) * 2008-12-09 2012-05-24 トムトム ノース アメリカ インコーポレイテッド 測地参照データベースを生成する方法
KR101121518B1 (ko) 2009-10-09 2012-02-28 고려대학교 산학협력단 로봇 이동 장치 지도 작성 방법
US9224050B2 (en) * 2010-03-16 2015-12-29 The University Of Sydney Vehicle localization in open-pit mining using GPS and monocular camera
GB2479577B (en) * 2010-04-15 2015-05-27 Samsung Electronics Co Ltd Improvements relating to wireless networks
JP5612915B2 (ja) 2010-06-18 2014-10-22 東芝アルパイン・オートモティブテクノロジー株式会社 移動体検出装置及び移動体検出方法
US8843290B2 (en) * 2010-07-22 2014-09-23 Qualcomm Incorporated Apparatus and methods for calibrating dynamic parameters of a vehicle navigation system
JP5731801B2 (ja) 2010-11-19 2015-06-10 東芝アルパイン・オートモティブテクノロジー株式会社 車両用画像処理装置および車両用画像処理方法
US9749594B2 (en) * 2011-12-22 2017-08-29 Pelco, Inc. Transformation between image and map coordinates
KR101342393B1 (ko) * 2012-04-27 2013-12-18 서울시립대학교 산학협력단 회전식 라인 카메라로 획득한 실내 전방위 영상의 지오레퍼런싱 방법
JP6141601B2 (ja) 2012-05-15 2017-06-07 東芝アルパイン・オートモティブテクノロジー株式会社 車載カメラ自動キャリブレーション装置
JP2014010636A (ja) 2012-06-29 2014-01-20 Denso Corp 電子機器
EP2704096A1 (de) * 2012-08-29 2014-03-05 Delphi Technologies, Inc. Verfahren zum kalibrieren einer Bilderfassungseinrichtung
KR101394770B1 (ko) * 2012-08-30 2014-05-15 주식회사 만도 곡선 차선 모델을 이용한 영상 안정화 방법 및 시스템
EP2904417A1 (en) * 2012-09-27 2015-08-12 Metaio GmbH Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
US9070202B2 (en) * 2013-03-14 2015-06-30 Nec Laboratories America, Inc. Moving object localization in 3D using a single camera
US9298992B2 (en) * 2014-02-20 2016-03-29 Toyota Motor Engineering & Manufacturing North America, Inc. Geographic feature-based localization with feature weighting
US10249056B2 (en) * 2014-04-11 2019-04-02 Nissan North America, Inc. Vehicle position estimation system
WO2015156821A1 (en) * 2014-04-11 2015-10-15 Nissan North America, Inc. Vehicle localization system
US9986173B2 (en) * 2014-05-16 2018-05-29 GM Global Technology Operations LLC Surround-view camera system (VPM) online calibration
JP6371655B2 (ja) 2014-09-22 2018-08-08 株式会社Subaru 車両挙動判定装置
US9821813B2 (en) * 2014-11-13 2017-11-21 Nec Corporation Continuous occlusion models for road scene understanding
WO2016130719A2 (en) * 2015-02-10 2016-08-18 Amnon Shashua Sparse map for autonomous vehicle navigation
JP6393214B2 (ja) 2015-03-03 2018-09-19 アルパイン株式会社 車線認識システム及びコンピュータプログラム
EP3078935A1 (en) 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image
JP6450294B2 (ja) 2015-09-30 2019-01-09 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出方法、及びプログラム
WO2017076929A1 (en) * 2015-11-02 2017-05-11 Starship Technologies Oü Device and method for autonomous localisation
US10318848B2 (en) * 2015-12-15 2019-06-11 Qualcomm Incorporated Methods for object localization and image classification
US10372968B2 (en) * 2016-01-22 2019-08-06 Qualcomm Incorporated Object-focused active three-dimensional reconstruction
KR101878685B1 (ko) * 2016-02-12 2018-07-16 서울과학기술대학교 산학협력단 지도 정보를 이용한 차량 측위 시스템 및 방법
US10802147B2 (en) * 2016-05-18 2020-10-13 Google Llc System and method for concurrent odometry and mapping
TWI622783B (zh) * 2016-05-24 2018-05-01 曦恩體感科技股份有限公司 混合定位方法及其電子裝置
DE102016209625A1 (de) * 2016-06-01 2017-12-07 Continental Teves Ag & Co. Ohg Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera
US10248124B2 (en) * 2016-07-21 2019-04-02 Mobileye Vision Technologies, Inc. Localizing vehicle navigation using lane measurements
CN107643086B (zh) * 2016-07-22 2021-04-13 北京四维图新科技股份有限公司 一种车辆定位方法、装置及系统
WO2018031678A1 (en) * 2016-08-09 2018-02-15 Nauto Global Limited System and method for precision localization and mapping
CN107886036B (zh) * 2016-09-30 2020-11-06 比亚迪股份有限公司 车辆控制方法、装置及车辆
CN106524922B (zh) * 2016-10-28 2019-01-15 深圳地平线机器人科技有限公司 测距校准方法、装置和电子设备
KR20180050823A (ko) * 2016-11-07 2018-05-16 삼성전자주식회사 3차원의 도로 모델을 생성하는 방법 및 장치
CN108334802B (zh) * 2017-01-20 2022-10-28 腾讯科技(深圳)有限公司 道路特征物的定位方法及装置
CN107728175A (zh) * 2017-09-26 2018-02-23 南京航空航天大学 基于gnss和vo融合的无人驾驶车辆导航定位精度矫正方法
KR102434580B1 (ko) * 2017-11-09 2022-08-22 삼성전자주식회사 가상 경로를 디스플레이하는 방법 및 장치
WO2019195415A1 (en) * 2018-04-03 2019-10-10 Mobileye Vision Technologies Ltd. Systems and methods for determining navigational parameters
US10981564B2 (en) * 2018-08-17 2021-04-20 Ford Global Technologies, Llc Vehicle path planning
US11037368B2 (en) * 2018-09-11 2021-06-15 Samsung Electronics Co., Ltd. Localization method and apparatus of displaying virtual object in augmented reality
KR102630991B1 (ko) * 2018-10-08 2024-01-30 주식회사 에이치엘클레무브 차량의 위치 결정 방법, 위치 결정 장치 및 주행 제어 시스템
KR102483649B1 (ko) * 2018-10-16 2023-01-02 삼성전자주식회사 차량 위치 결정 방법 및 차량 위치 결정 장치
KR102627453B1 (ko) * 2018-10-17 2024-01-19 삼성전자주식회사 위치 추정 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003014477A (ja) 2001-04-26 2003-01-15 Mitsubishi Electric Corp 映像ナビゲーション装置
JP2006208223A (ja) 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
JP2006284281A (ja) 2005-03-31 2006-10-19 Aisin Aw Co Ltd 自車情報認識装置及び自車情報認識方法
JP2009204385A (ja) 2008-02-27 2009-09-10 Mitsubishi Electric Corp 標定装置、標定方法および標定プログラム
JP2016139914A (ja) 2015-01-27 2016-08-04 パイオニア株式会社 表示装置、携帯端末及び制御方法
US20180165831A1 (en) 2016-12-12 2018-06-14 Here Global B.V. Pose error estimation and localization using static features

Also Published As

Publication number Publication date
CN111060946A (zh) 2020-04-24
EP3640681B1 (en) 2021-06-23
KR20200043006A (ko) 2020-04-27
US20210264171A1 (en) 2021-08-26
US11651597B2 (en) 2023-05-16
US11023748B2 (en) 2021-06-01
US20200125859A1 (en) 2020-04-23
EP3640681A1 (en) 2020-04-22
KR102627453B1 (ko) 2024-01-19
JP2020064056A (ja) 2020-04-23

Similar Documents

Publication Publication Date Title
JP7404010B2 (ja) 位置推定装置及び方法
US10788830B2 (en) Systems and methods for determining a vehicle position
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
US20200124421A1 (en) Method and apparatus for estimating position
KR101956447B1 (ko) 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법
US8295547B1 (en) Model-based feature tracking in 3-D and 2-D imagery
JP2001331787A (ja) 道路形状推定装置
JP2020529002A (ja) 地図データ、レーザ、およびカメラからのヨー誤差の確定
JP2009294214A (ja) 地形構造を用いたナビゲーション方法及びシステム
US11367213B2 (en) Method and apparatus with location estimation
KR102115004B1 (ko) 항공사진을 이용하여 3차원 지도를 생성하는 장치 및 방법
Luo et al. Fast terrain mapping from low altitude digital imagery
JP2024032805A (ja) 航空写真を利用して三次元地図を生成する装置及びその方法
CN114820793A (zh) 基于无人机的目标检测及目标点定位方法及系统
WO2021143664A1 (zh) 在载运工具中测量目标对象距离的方法、装置和载运工具
KR20200109116A (ko) 다중 모듈 기반의 그래프 구조를 이용한 무인체 위치 추정 시스템 및 그 방법
Hsu et al. Application of multisensor fusion to develop a personal location and 3D mapping system
KR101821992B1 (ko) 무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치
Hussnain et al. Enhanced trajectory estimation of mobile laser scanners using aerial images
JP7234840B2 (ja) 位置推定装置
Burdziakowski Towards precise visual navigation and direct georeferencing for MAV using ORB-SLAM2
KR20210057393A (ko) 정밀 항법 장치 및 그 장치의 동작 방법
Yingfei et al. Solving the localization problem while navigating unknown environments using the SLAM method
KR102555269B1 (ko) 전방향 영상센서 및 관성측정센서의 자세추정 융합 방법 및 시스템
WO2023017624A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231213

R150 Certificate of patent or registration of utility model

Ref document number: 7404010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150