JP2020076745A - 映像及びマップデータ基盤測位方法及び装置 - Google Patents

映像及びマップデータ基盤測位方法及び装置 Download PDF

Info

Publication number
JP2020076745A
JP2020076745A JP2019171729A JP2019171729A JP2020076745A JP 2020076745 A JP2020076745 A JP 2020076745A JP 2019171729 A JP2019171729 A JP 2019171729A JP 2019171729 A JP2019171729 A JP 2019171729A JP 2020076745 A JP2020076745 A JP 2020076745A
Authority
JP
Japan
Prior art keywords
positioning
image
determining
freedom
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019171729A
Other languages
English (en)
Inventor
現盛 張
Hyun-Sung Chang
現盛 張
▲みん▼廷 孫
Minjung Son
▲みん▼廷 孫
棟▲勳▼ 司空
Donghoon Sagong
棟▲勳▼ 司空
元煕 李
Weon Hee Lee
元煕 李
景夫 鄭
Kyung Boo Jung
景夫 鄭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2020076745A publication Critical patent/JP2020076745A/ja
Priority to JP2024013948A priority Critical patent/JP2024032933A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 映像とマップデータに基づいた測位方法を提供すること。【解決手段】 一実施形態に係る測位方法は、入力映像からオブジェクトの特徴を抽出し、マップデータに基づいて装置の測位によりオブジェクトが投影された映像を生成し、投影映像に含まれた頂点に対応する特徴値に基づいて測位を評価する。【選択図】 図3

Description

本発明は、映像及びマップデータ基盤測位方法及び装置に関する。
車両及びその他の運送手段の走行補助やゲーム、及び娯楽などの様々な分野で様々な形態の拡張現実(Augmentation Reality)サービスが提供されている。拡張現実をより正確に実感できるよう提供するために、様々な測位(localization)方法を用いることができる。例えば、センサ基盤の測位方法は、オブジェクトの位置と方向を把握するためにGPS(Global Positioning System)センサ及びIMU(Inertial Measurement Unit)センサなどのような様々なセンサを複合的に使用し得る。また、カメラ情報を使用するビジョン(vision)基盤の測位方法もある。
以下で説明する実施形態は、映像とマップデータに基づいた測位方法を提供する。実施形態は、映像の頂点とマップデータの頂点との間に対応関係を設定しなくても測位可能な技術を提供する。また、実施形態は、映像の特徴をパラメータ化したり、3次元変換と透視(perspective)変換に不変な関係を抽出したり、マップデータで探索するとき、このような不変な関係を容易に特定しなくても測位可能な技術を提供すること。
一側面に係る測位方法は、入力映像からオブジェクトの第1映像を生成するステップと、前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成するステップと、前記第1映像から、前記第2映像内の頂点に対応する特徴値をプーリングするステップと、前記プーリングされた特徴値に基づいて、前記候補測位のスコアを決定するステップを含む。
前記第1映像を生成するステップは、複数の特徴に対応する複数の特徴マップを生成するステップを含み得る。
前記第2映像を生成するステップは、前記マップデータから前記候補測位における視野範囲に該当する領域を抽出するステップと、前記領域に含まれた頂点を前記候補測位に対応する投影点に投影するステップを含み得る。
前記特徴値をプーリングするステップは、前記頂点の座標に基づいて、前記第1映像内のピクセルを選択するステップと、前記選択されたピクセルの特徴値を取得するステップを含み得る。
前記候補測位のスコアを決定するステップは、前記プーリングされた特徴値を合算するステップを含み得る。
前記合算するステップは、前記第1映像が複数の特徴に対応する複数の特徴マップを含む場合、前記特徴に対応して、決定した加重値に基づいて、前記特徴値を加重合算するステップを含み得る。
前記測位方法は、さらに、前記候補測位のスコアに基づいて、前記装置の測位を決定するステップを含み得る。
前記装置の測位を決定するステップは、複数の候補測位のスコアのうち最大スコアに対応する候補測位を前記装置の測位として決定するステップを含み得る。
前記装置の測位を決定するステップは、前記第2映像を複数の領域に分割するステップと、前記分割された領域で算出されるスコアを用いることによって、前記候補測位に含まれた複数の自由度の値を順次決定するステップを含み得る。
前記複数の自由度の値は、移動に関する3自由度の値と、回転に関する3自由度の値を含み得る。
前記分割するステップは、距離に関する第1基準に基づいて、前記第2映像を遠距離領域及び近距離領域に分割するステップと、消失点に関連する第2基準に基づいて、前記近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割するステップを含み得る。
前記複数の自由度の値を順次決定するステップは、前記遠距離領域に基づいて、回転関連自由度を決定するステップと、前記消失点指向近距離領域に基づいて、左右方向の移動関連自由度を決定するステップと、前記非消失点指向近距離領域に基づいて、前後方向の移動関連自由度を決定するステップを含み得る。
前記装置の測位を決定するステップは、前記第2映像に含まれた頂点のうち移動関連自由度による影響が第1閾値以下である遠距離頂点に基づいて、回転関連自由度を決定するステップと、前記第2映像から前記遠距離頂点を除いた近距離頂点のうち前後方向の移動関連自由度による影響が第2閾値以下である消失点指向近距離頂点に基づいて、左右方向の移動関連自由度を決定するステップと、前記近距離頂点のうち前記消失点指向近距離頂点を除いた非消失点指向近距離頂点に基づいて、前記前後方向の移動関連自由度を決定するステップを含み得る。
前記装置の測位を決定するステップは、前記プーリングされた特徴値の分布に基づいて、前記スコアを改善するための方向を決定するステップと、前記方向に基づいて前記候補測位を補正するステップを含み得る。
前記第1映像は、前記オブジェクトと近い程度を示す確率分布を含み、前記方向を決定するステップは、前記確率分布に基づいて前記方向を決定するステップを含み得る。
前記装置の測位を決定するステップは、前記補正された候補測位により前記オブジェクトが投影された補正された第2映像を生成するステップと、前記補正された第2映像に含まれた頂点に対応して、前記第1映像から特徴値をプーリングすることにより、前記補正された候補測位の補正されたスコアを決定するステップを含み得る。ここで、前記補正された候補測位の補正されたスコアが決定した条件が満たされるまで前記方向を決定するステップ、前記候補測位を補正するステップ、前記補正された第2映像を生成するステップ、及び、前記補正された候補測位の補正されたスコアを決定するステップは、繰り返し行われる。
前記測位方法は、拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、前記決定された測位に基づいて、前記仮想オブジェクトを表示するステップをさらに含み得る。
一実施形態に係る測位方法は、入力映像からオブジェクトの第1映像を生成するステップと、前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成するステップと、前記第2映像を複数の領域に分割するステップと、前記分割された領域と前記第1映像との間のマッチングによって、前記候補測位に含まれた複数の自由度の値を決定するステップを含む。
前記複数の自由度の値を決定するステップは、前記分割された領域で前記第1映像とのマッチングによって算出されるスコアを用いることで、前記候補測位に含まれた複数の自由度の値を順次決定するステップを含み得る。
前記複数の自由度の値を決定するステップは、分割された領域に対応して決定した自由度の値を変更しながら、該当領域内の頂点に対応して第1映像から特徴値をプーリングすることにより、前記自由度の変更された値によるスコアを算出するステップと、最大スコアに対応する自由度の値を選択するステップを含み得る。
前記複数の自由度の値は、移動に関する3自由度の値と、回転に関する3自由度の値を含み得る。
前記分割するステップは、距離に関する第1基準に基づいて、前記第2映像を遠距離領域及び近距離領域に分割するステップと、消失点に関連する第2基準に基づいて、前記近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割するステップを含み得る。
前記複数の自由度の値を決定するステップは、前記遠距離領域に基づいて、回転関連自由度を決定するステップと、前記消失点指向近距離領域に基づいて、左右方向の移動関連自由度を決定するステップと、前記非消失点指向近距離領域に基づいて、前後方向の移動関連自由度を決定するステップを含み得る。
前記複数の自由度の値を決定するステップは、前記第2映像に含まれた頂点のうち移動関連自由度による影響が第1閾値以下である遠距離頂点に基づいて、回転関連自由度を決定するステップと、前記第2映像から前記遠距離頂点を除いた近距離頂点のうち前後方向の移動関連自由度による影響が第2閾値以下である消失点指向近距離頂点に基づいて、左右方向の移動関連自由度を決定するステップと、前記近距離頂点のうち前記消失点指向近距離頂点を除いた非消失点指向近距離頂点に基づいて、前記前後方向の移動関連自由度を決定するステップを含み得る。
前記測位方法は、拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、前記決定された複数の自由度の値に基づいて、前記仮想オブジェクトを表示するステップをさらに含み得る。
前記入力映像は、車両の走行映像を含み、前記仮想オブジェクトは、走行経路情報を示し得る。
一実施形態に係る測位装置は、入力映像からオブジェクトの第1映像を生成し、前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成し、前記第1映像から、前記第2映像内の頂点に対応する特徴値をプーリングし、前記プーリングされた特徴値に基づいて、前記候補測位のスコアを決定する、少なくとも1つのプロセッサを含む。
一実施形態に係る測位装置は、入力映像からオブジェクトの第1映像を生成し、前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成し、前記第2映像を複数の領域に分割し、
前記分割された領域と前記第1映像との間のマッチングによって、前記候補測位に含まれた複数の自由度の値を決定する、少なくとも1つのプロセッサを含む。
一実施形態に係る測位装置は、装置に取り付けられ、1つ又はそれ以上の映像と前記装置の候補測位情報を検出するセンサと、前記映像からオブジェクトの第1映像を生成し、前記オブジェクトの位置を含むマップデータに基づいて、前記候補側上の情報により前記オブジェクトを投影する第2映像を生成し、前記第1映像から前記第2映像内の頂点に対応する特徴値をプーリングすることにより、前記候補側上の情報のスコアを決定し、前記スコアに基づいて前記装置の測位情報を決定する、プロセッサと、前記決定された測位情報に基づいて、前記マップデータ上仮想オブジェクトを視覚化する、ヘッドアップディスプレイ(HUD)を含む。
前記プロセッサは、距離に基づいて、前記第2映像を遠距離領域と近距離領域とに分割し、消失点に基づいて、前記近距離領域を消失点指向近距離領域と非消失点指向近距離領域に分割し得る。
前記プロセッサは、前記遠距離領域に基づいて、回転自由度を決定し、前記消失点指向近距離領域に基づいて、左右移動自由度を決定し、前記非消失点指向近距離領域に基づいて、前後移動自由度を決定し得る。
前記プロセッサは、神経網を用いて複数の特徴に対応する特徴マップを含む前記第1映像を生成し得る。
前記第2映像は、前記オブジェクトに対応する2次元頂点の投射を含み得る。
前記測位装置は、さらに、前記マップデータ、前記映像、前記第1映像、前記第2映像、前記スコア、及び、前記決定された測位情報と前記仮想オブジェクトのうち少なくとも1つを決定するように前記プロセッサを制御する命令語を含む、メモリを含み得る。
本発明の実施形態によると、映像とマップデータに基づいた測位方法を提供することができる。実施形態は、映像の頂点とマップデータの頂点との間に対応関係を設定しなくても測位が可能な技術を提供できる。また、実施形態は、映像の特徴をパラメータ化したり、3次元変換と透視変換に不変な関係を抽出したり、マップデータから探索時にこのような不変な関係を容易に特定しなくても測位が可能な技術を提供することができる。
一実施形態に係る拡張現実アプリケーションで測位の正確度の重要性を説明する図である。 一実施形態に係る拡張現実アプリケーションで測位の正確度の重要性を説明する図である。 一実施形態に係る拡張現実アプリケーションで測位の正確度の重要性を説明する図である。 一実施形態に係る測位スコアを算出する動作を説明する図である。 一実施形態に係る測位スコアを算出する動作を具体化した図である。 一実施形態に係る測位スコアを活用して、装置の測位を決定する動作を説明する図である。 一実施形態に係る測位候補のスコアを示す図である。 一実施形態に係る測位方法を示した動作フローチャートである。 一実施形態に係る最適化方式によって装置の測位を決定する動作を説明する図である。 一実施形態に係る最適化方式を示す動作フローチャートである。 一実施形態に係る最適化方式を示す動作フローチャートである。 一実施形態に係る最適化方式が適用された結果を段階的に示す図である。 一実施形態に係る最適化方式が適用された結果を段階的に示す図である。 一実施形態に係る最適化方式が適用された結果を段階的に示す図である。 一実施形態に係る最適化方式が適用された結果を段階的に示す図である。 一実施形態に係る最適化方式が適用された結果を段階的に示す図である。 一実施形態に係るパラメータ更新による測位方法を示した動作フローチャートである。 一実施形態に係るパラメータ更新による測位方法が適用された結果を段階的に示す図である。 一実施形態に係る特徴マップを生成する神経網を説明する図である。 一実施形態に係る測位装置を示すブロック図である。
実施形態に対する特定の構造的又は機能的な説明は、単なる例示を目的として開示されたものとして、様々な形態に変更される。したがって、実施形態は特定の開示形態に限定されるものではなく、本明細書の範囲は、技術的な思想に含まれる変更、均等物、ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に、第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
本明細書で用いられる用語は、単に特定の実施形態を説明するために使用されるものであり、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り、複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は、明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品、又はこれらの組み合わせが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれらの組み合わせ等の存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義がされない限り、技術的又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
下記に説明する実施形態は、ソフトウェア形態に具現化され、映像とマップデータ基盤の側位技術に適用され得る。例えば、実施形態は、拡張現実ヘッドアップディスプレイ(AR HUD)を実現するための核心技術である側位の精密度の向上に使用され得る。また、側位は、HUDの他にも多くの位置基盤サービスのために必要な技術であり、実施形態は、高精密側位のためにHDマップデータが与えられる環境で位置及び姿勢の推定のために使用され得る。
以下、実施形態を添付の図面を参照して詳説する。添付図面を参照して説明することにおいて、図面符号に関わらず、同じ構成要素には同じ参照符号を付与し、これに関する重複説明は省略することにする。
図1は、一実施形態に係る拡張現実アプリケーションで測位の正確度の重要性を説明する図である。
図1を参照すると、拡張現実(Augmented Reality)は、現実に基づいて情報を追加又は増強して提供する技術として、例えば、現実世界のイメージや背景映像に仮想イメージに該当する仮想オブジェクトを追加して示すことができる。拡張現実は、現実世界と仮想世界をよく調和することで、ユーザは実際及び仮想環境が分離されていることを認知できないまま、ユーザと仮想世界との間でリアルタイムに相互作用できる没入感を提供することができる。仮想オブジェクトを実際の映像に整合するためには、拡張現実を提供するユーザ装置(又は、ユーザ)の位置及び姿勢、言い換えれば、測位(localization)情報を把握しなければならない。
拡張現実を提供するための測位情報は、仮想オブジェクトを映像内の所望する所に位置させるために用いられる。以下、本明細書では、説明の便宜のために道路面に仮想オブジェクトに該当する走行案内車路を表示する場合を一例にして説明するが、必ずこれに限定されることはない。
図1Aを参照すると、測位誤差が小さい場合の拡張現実映像120が示されている。図1Bを参照すると、測位誤差が大きい場合の拡張現実映像140が示されている。
例えば、オブジェクト110の測位情報を基準として車両の基準経路を道路映像の上に表示すると仮定しよう。ここで、オブジェクトは、測位を行うユーザ端末及び/又は車両に該当する。オブジェクト110の測位の誤差が小さい場合、装置が表示しようとする仮想オブジェクトである走行案内車路115は、拡張現実映像120のように実際の道路映像と視覚的によく整列され得る。これとは異なって、オブジェクト130の測位の誤差が大きい場合、装置が表示しようとする仮想オブジェクトである走行案内車路135は、拡張現実映像140のように実際の道路映像と視覚的に円満に整列されない場合がある。
図1Cを参照すると、一実施形態に係る測位情報は、装置の位置及び装置の姿勢を含む。位置は、移動関連自由度で、横(Lateral)t、縦(Vertical)t、及び長さ(Longitudinal)t、言い換えれば、(x、y、z)のような3次元座標に該当する。また、姿勢は、回転関連自由度であって、ピッチ(Pitch)r、ヨー(Yaw)r、及びロール(Roll)rに該当する。位置は、例えば、GPSセンサ、ライダなどによって取得され、姿勢は、例えば、IMUセンサ、ジャイロセンサなどによって取得される。一実施形態に係る測位情報は、前述した位置及び姿勢を含む6自由度(Degree of Freedom;DoF)を有するものと理解される。
以下、本明細書において「車両(vehicle)」は道路上で走行中である車両を意味し、例えば、自律走行車両、先端運転者サポートシステム(Advanced Driver Assistance System;ADAS)を備えた知能型車両などを含む。「道路(road)」は、車両が走行する道を意味し、例えば、高速道路、国道、地方道路、高速国道、自動車専用道路などのような様々なタイプの道路を含む。道路は1つ又は複数の車路を含む。「車路(lane)」は、道路面上に表示された車線(lines)を介して区分される道路空間に該当する。車路は、該当の車路に隣接する左右車線(又は、車路境界線)によって区分される。また、「車線(line)」は道路面上に白色、青色、又は黄色に表示された実線、点線、曲線、及びジグザグなどの様々な形態の線として理解される。車線は、1つの車路を区分する一方側の車線に該当してもよく、1つの車路を区分する車線の対(pair)、言い換えれば、車路境界線に該当する左側車線及び右側車線であり得る。
下記で説明される実施形態は、スマート車両などの拡張現実ナビゲーション(Augmented Reality Navigation)システムで車線を表示したり、自律走行車両のステアリングを補助するための視覚情報を生成したり、又は、車両の走行のための様々な制御情報を提供するために活用される。また、実施形態は、車両内の走行補助又は完全自律走行のために設置されたHUD(Head Up Display)などの知能システムを含む機器に視覚情報を提供することで、安全で快適な走行を補助するために使用される。例えば、実施形態は、車両内の自律走行あるいは走行補助のために設置された知能システムの視覚的情報を解釈するために用いることができる。実施形態は、例えば、自律走行自動車、知能型自動車、アドバンスド運転者補助システム(ADAS)、ナビゲーションシステム、スマートフォン、及びモバイル機器などに適用される。
図2は、一実施形態に係る測位スコアを算出する動作を説明する図である。
図2を参照すると、一実施形態に係る測位装置は、マップデータQと映像Iに基づいて、測位パラメータθのスコアs(θ)を算出する。測位装置は、1つ又はそれ以上のソフトウェアモジュール、1つ又はそれ以上のハードウェアモジュール、又は、その様々な組合せで実現される。
以下で詳細に説明するが、実施形態は、マップデータの頂点と映像の特徴の対応関係を先決条件として要求しない。例えば、マップデータは、車線などのオブジェクトに該当する複数の3次元頂点を含むポイントクラウドであり得る。マップデータの3次元頂点は、測位パラメータに基づいて2次元頂点に投影される。映像の特徴は、映像に含まれたピクセル単位で抽出された特徴値を含む。
以下で説明する実施形態は、マップデータの頂点(例えば、2次元頂点)と映像の特徴(あるいは、ピクセル)が互いにどのように対応(あるいは、マッチング)されるかに関する情報を要求しない。また、映像内で抽出される特徴は、パラメータ化されなくてもよく、特徴間の関係を別に分析したり、マップデータで探索する必要がない。
測位パラメータθは、位置/姿勢情報パラメータであって、図1Cを参照して説明した6−自由度変数に定義される。一実施形態によれば、測位パラメータθは、概略的な位置/姿勢情報に該当する。測位装置は、映像とマップデータに基づいたスコアリング技術を活用し、測位パラメータθを補正することにより測位の正確度を向上させることができる。
例えば、測位装置は、映像Iから特徴を抽出して特徴マップを構成する。測位装置は、測位パラメータθに対する整合スコアを算出する。より具体的に、測位装置は、測位パラメータに基づいてマップデータQから頂点を投影し、特徴マップのピクセルのうち、投影された頂点の2次元座標に該当するピクセルの特徴値をプーリングすることで、整合スコアを算出する。測位装置は、整合スコアを増加させる方向に測位パラメータθを更新する。
ここで、装置は、一実施形態に係る測位方法を行う装置として、例えば、車両であってもよく、ナビゲーション、スマートフォンなどのようなユーザ装置であってもよい。測位情報は、前述のように装置の位置及び装置の姿勢を含む6自由度を有する。測位情報は、例えば、IMUセンサ、GPSセンサ、ライダセンサ及びレーダーなどのようなセンサの出力に基づいて取得され得る。
入力映像は、今後、拡張現実サービスのために仮想オブジェクトと共に表示される背景映像又はその他の映像に該当する。入力映像は、例えば、車両の走行映像を含む。ここで、走行映像は、例えば、車両に装着された撮影装置を用いて取得された走行映像であってもよく、1つ又は複数のフレームを含む。
測位装置は、撮影装置の出力に基づいて入力映像を取得する。撮影装置は、例えば、車両のウインドシールド(windshield)、ダッシュボード(dashboard)、バックミラー(rear−view mirror)などのように予め決定された位置に固定されて車両前方の走行映像を撮影する。撮影装置は、例えば、ビジョンセンサ、イメージセンサ、又は、これに類似の機能を行う装置を含んでもよく、単一映像を撮影したり、場合に応じて、フレームごとの映像を撮影してもよい。車両に固定された撮影装置と異なって、他の装置でキャプチャーされた映像が走行映像であってもよい。オブジェクトは、例えば、車線、道路面標識、信号機、表示板、縁石、歩行者及び構造物などを含む。車線は、例えば、車路境界線、道路中央線、停止線などのラインを含み、道路面標識は、例えば、駐停車禁止、横断歩道、牽引地域、制限速度表示などの標識を含む。
マップデータは、例えば、高精密(High Density;HD)のマップデータであってもよい。高精密地図は、自律走行のために高精密(例えば、センチメートル単位の精密度)を備えた3D立体地図である。高精密地図には、例えば、道路中央線、境界線などの車線単位の情報はもちろん、信号機、表示板、縁石、路面道路標識、各種の構造物などの情報が3次元デジタルの形態として含まれてもよい。高精密地図は、例えば、MMS(Mobile Mapping System)システムによって構築される。様々なセンサを装着した3次元空間情報照射システムであるMMSは、位置測定及び地形地物を測量するためのカメラ、ライダ(LIDAR)、GPSなどのセンサを装着した移動体を用いて細かい位置情報を取得することができる。
図3は、一実施形態に係る測位スコアを算出する動作を具体化した図である。
図3を参照すると、一実施形態に係る測位装置200は、コンバータ210,220、特徴抽出器230、及びプーリング器240を含む。コンバータ210は、パラメータθとマップデータQを受信し、3次元変換(T)を介してパラメータθによる装置の3次元位置及び3次元姿勢をマップデータQ上に適用する。一例として、コンバータ210は、マップデータからパラメータθに対応する位置及び姿勢における視野範囲に該当する領域を抽出する。コンバータ220は、透視変換(P)を介して装置の視点における投影映像を生成する。一例として、コンバータ220は、コンバータ210によって抽出された領域に含まれる3次元頂点をパラメータθに対応する2次元の投影面に投影してもよい。この場合、マップデータQに含まれた3次元頂点q はパラメータθによりT変換とP変換を経て投影映像内の2次元頂点p に変換される。ここで、kは、互いに異なる特徴あるいはクラスを指示するインデックスであり、iは、該当の特徴あるいはクラス内の頂点を指示するインデックスであり得る。
特徴抽出器230は、映像Iから特徴を抽出する。特徴は、オブジェクトの類型(あるいは、クラス)により1つ又はそれ以上の特徴マップF、F 235を含む。例えば、特徴マップFは映像内の車線に関する特徴を含み、特徴マップFは映像内の信号標識に関する特徴を含む。説明の便宜のために、2つの特徴マップF、F 235が抽出される場合を説明するが、実施形態はこのような場合に限定されることはない。
測位装置は、複数の特徴マップを抽出するための別途の特徴抽出器を含む。又は、測位装置は、複数の特徴マップをチャネルごとに出力する単一特徴抽出器(例えば、ディープニューラルネットワークなど)を含む。
抽出された特徴マップF、Fは、場合に応じてエラーを含むことがあり、これにより、その特徴の値をピクセル単位に正確に特定できない場合もある。この場合、各特徴マップは、各ピクセルごとに0と1との間の値を有し得る。ピクセルの特徴値は、各ピクセルごとの該当の特徴の強度を示す。
投影映像の2次元頂点p は、マップデータの3次元頂点p が映像Iにマッピングされるピクセルを意味する。数式(1)を参照すると、映像Iにマッピングされるピクセルで各特徴ごとにスコアが合算される。
ここで、T()はT変換を示し、P()はP変換を示す。この場合、P(T(q 、θ))はマッピング点を示し、F()はk番目の特徴あるいはクラスに該当する特徴マップでマッピング点による特徴値あるいはスコアを示す。ここで、マッピング点P(T(q 、θ))が整数ではない場合、四捨五入又は補間などの演算が実行される。数式(2)を参照すると、特徴ごとのスコアが加重合算されて最終的なスコアが計算され得る。
ここで、加重値wは任意の方法で設定される。例えば、加重値wは、一括的に同一に付与された加重値、あるいは訓練データによってチューニングされた値などに設定されてもよい。
図4は、一実施形態に係る測位スコアを活用して、装置の測位を決定する動作を説明する図である。実施形態に係る権利範囲を逸脱しない範囲で、図4に示された動作の順序は変更されたり、図4に示された動作のうち一部が省略されたり、図4に示された動作のうち少なくとも一部が並列的に処理されてもよい。
図4を参照すると、ステップS410において入力映像が受信され、ステップS430において特徴が抽出される。ステップS420においてマップデータが取得され、ステップS440において測位候補が取得される。ここで、測位候補は複数の測位候補を含む。
ステップS450において、測位候補によりマップデータの投影映像が生成される。測位候補が複数である場合、複数の測位候補による複数の投影映像が生成される。
ステップS460において、投影映像内の2次元頂点に対応して、特徴マップから特徴値がプーリングされる。また、ステップS460でプーリングされた特徴値に基づいて、測位候補のスコアが算出される。測位候補が複数である場合、測位候補ごとのスコアが算出される。
ステップS470において、ベストスコア(例えば、最大スコアなど)が検索される。ステップS480において、検索されたベストスコアを有する候補測位が装置の測位として決定される。
図面に示していないが、測位装置200は、拡張現実サービスのためにマップデータQ上で仮想オブジェクトを決定する。例えば、仮想オブジェクトは、走行経路情報を示す仮想のオブジェクトとして、矢印又は進行方向を示す道路表示などの形態に表現される。測位装置は、ステップS480で決定された測位情報に基づいて、仮想オブジェクトを入力映像と共にヘッドアップディスプレイ、ナビゲーション、又は、ユーザ装置のディスプレイ上に表示し得る。
図5は、一実施形態に係る測位候補のスコアを示す図である。
図5を参照すると、第1候補測位による投影映像と映像510との視覚的整列の程度は、第2候補測位による投影映像と映像520との視覚的整列の程度に比べて低い。そのため、第1候補測位に基づいて映像510の特徴マップからプーリングされたスコアは、第2候補測位に基づいて映像520の特徴マップからプーリングされたスコアよりも低く算出される。
図6は、一実施形態に係る測位方法を示した動作フローチャートである。実施形態に係る権利範囲を逸脱しない範囲で、図6に示された動作の順序は変更されたり、図6に示された動作のうち一部が省略されたり、図6に示された動作のうち少なくとも一部が並列的に処理されてもよい。
図6を参照すると、ステップS610において、入力映像から少なくとも1つの特徴マップが抽出される。ステップS620において、測位パラメータ(例えば、位置/姿勢パラメータ)の候補群が選ばれる。ステップS630において、評価する測位候補が存在するかを判断する。評価する測位候補が存在すれば、ステップS640において、測位候補による投影映像が生成され、ステップS650において、特徴ごとのスコアが算出される。ステップS660において、特徴ごとのスコアの加重合算により最終スコアが算出され、ステップS670において、予め評価された測位候補のうち、ベスト測位候補と最終スコアとの比較によりベスト測位候補の情報が更新される。
ステップS680でこれ以上評価する測位候補が存在しなければ、予め評価された測位候補のうちベスト測位候補が装置の測位に決定される。この場合、ベスト測位候補のパラメータが装置の位置/姿勢パラメータとして選ばれる。
図7は、一実施形態に係る最適化方式によって装置の測位を決定する動作について説明する図である。実施形態に係る権利範囲を逸脱しない範囲で、図7に示された動作の順序は変更されたり、図7に示された動作のうち一部が省略されたり、図7に示された動作のうち少なくとも一部が並列的に処理されてもよい。
図7を参照すると、ステップS710において入力映像が受信され、ステップS730において特徴マップが抽出される。ステップS720でマップデータが受信され、ステップS740において初期測位が受信され、ステップS750において初期測位による投影映像が生成される。
ステップS760において、一実施形態に係る最適化方式により初期測位が更新される。ステップS770において、装置の測位が最適化された測位に決定される。
以下、ステップS760の最適化方式を詳細に説明する。
図8は、一実施形態に係る最適化方式を示す動作フローチャートである。実施形態に係る権利範囲を逸脱しない範囲で、図8に示された動作の順序は変更されたり、図8に示された動作のうち一部が省略されたり、図8に示された動作のうち少なくとも一部が並列的に処理されてもよい。
一実施形態に係る測位装置は、全域的な最適化過程をサポートする。測位装置は、マップデータから投影された2次元頂点を特徴以外の他の基準(例えば、距離、消失点指向の有無など)に分類した後、分類された2次元頂点を測位パラメータの互いに異なる自由度を推定するために利用する。
一実施形態に係る測位装置は、投影映像を複数の領域に分割し、分割された領域と特徴マップとの間のマッチング(整合)を介して装置の測位を決定する。より具体的に、測位装置は、分割された領域で特徴マップとのマッチング(整合)を介して算出されるスコアを順次利用することで、測位に含まれた複数の自由度の値を順次決定する。例えば、測位装置は、分割された領域に対応して決定した自由度の値を変更しながら、該当領域に含まれる2次元頂点に対応して特徴マップから特徴値をプーリングする。測位装置は、プーリングされた特徴値に基づいて、自由度の変更された値によるスコアを算出する。その後、測位装置は、最大スコアに対応する値に該当自由度を決定する。
投影映像内の遠距離の頂点は、位置パラメータの変化にほとんど不変な特性を有する。このような特性に基づいて、測位装置は、まず遠距離頂点でスコアを算出して姿勢パラメータを決定する過程と、その後、近距離頂点でスコアを算出して位置パラメータを決定する過程を分離して実行する。そのため、各ステップごとに推定しなければならない自由度が低くなるため、探索時に複雑度や最適化時に局部的な収束可能性が減少する。
以下で説明するが、測位装置は、距離に関する第1基準に基づいて投影映像を遠距離領域及び近距離領域に分割し、消失点に関する第2基準に基づいて近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割する。ここで、遠距離領域は、移動関連の自由度による影響が予め決定されたレベル(あるいは、閾値)以下である2次元頂点を含む。また、消失点指向近距離領域は、前後方向の移動関連の自由度による影響が予め決定されたレベル(あるいは、閾値)以下である2次元頂点を含む。
また、測位装置は、測位パラメータの自由度のうち一部を事前のキャリブレーションによって決定された値に利用し得る。例えば、測位パラメータのうちrとtは事前キャリブレーションによって決定される。車両にカメラが設置された高さtとロールrは固定されているためである。
図8を参照すると、ステップS810において、入力映像から特徴マップが抽出された後、ステップS820において、マップデータの投影映像から遠距離頂点Qが選別される。遠距離頂点Qは、測位パラメータの自由度のうち移動関連自由度t、tによって実質的に影響が受けられない場合がある。そのため、ステップS830において、遠距離頂点Qに基づいて回転関連自由度r、rが決定される。回転関連自由度r、rは姿勢パラメータと称されてもよい。
より具体的に、測位装置は、rを変化させながら遠距離頂点Qを縦方向に平行移動させ、rを変化させながら遠距離頂点Qを横方向に平行移動させる。測位装置は、遠距離頂点Qに対応して算出されるスコアが決定した目標値以上になるように、r及びrの値を探索する。
ステップS840において、マップデータから近距離頂点が選別される。事前キャリブレーションによって決定されたr及びt、そして、遠距離頂点Qによって決定されたr及びrが適用された状態で、近距離頂点が選別される。
測位装置は、近距離頂点のうち消失点に向かう車線に該当する頂点Qを選別し、その他の頂点Qを選別する。頂点Qは、測位パラメータの自由度のうち前後方向の移動関連自由度tによって実質的に影響を受けないことがある。そのため、ステップS850において、頂点Qに基づいて移動関連自由度tが決定される。また、頂点Qに基づいて移動関連自由度tが決定される。移動関連自由度t、tは位置パラメータと称されてもよい。
図9は、一実施形態に係る最適化方式が適用された結果を段階的に示す図である。
図9Aを参照すると、特徴マップ910から抽出された特徴911とマップデータ920から投影された頂点921が示されている。マップデータ920上での初期測位が不正確であるため、特徴911と頂点921は互いに整合しない。以下、特徴911と頂点921が互いに整合するよう、測位パラメータの自由度が順次決定される過程について説明する。
車両に設置されたカメラは、道路面に相対的に一定の高さ及び一定のロール(roll)を有するという点に着眼して、t及びrは予めキャリブレーションされる。
図9Bを参照すると、測位装置は、特徴マップ910及びマップデータ920でロール効果を除去し得る。例えば、測位装置は、予めキャリブレーションされたrに基づいて特徴マップ910を回転930させることで、特徴マップ910においてロール効果を除去する。また、測位装置は、マップデータ920で初期測位の周辺頂点を検出し、検出された周辺頂点を平面に近似した後、平面のロールが除去されるようにマップデータ920を回転させる。
また、測位装置は、予めキャリブレーションされたtを用いて、マップデータ920の頂点の高さを補正する。
図9Cを参照すると、測位装置は初期測位を基準としてマップデータの投影映像内の遠距離頂点940を用いて平行移動に対応するrとrを導き出す。ここで、測位装置は、遠距離頂点940と特徴マップ910との相関度が予め決定された目標値以上になるよう、遠距離頂点940を平行移動させ得る。例えば、rを調整してマップデータ920上の頂点を回転945することにより、投影映像内の遠距離頂点940が特徴マップ910の特徴と円満に整合される。
図9Dを参照すると、測位装置は、投影映像内の頂点を分析して周辺車線950の消失点を求めることができる。測位装置は、周辺車線950の消失点を特徴マップ910内の定められた位置(例えば、特徴マップの中心など)に整列する。この場合、周辺車線は、z−方向移動に不変な特性を有するようになる。測位装置は、周辺車線950と特徴マップ910との相関度が予め決定された目標値以上になるよう、周辺車線950に該当する頂点をx方向に移動させる。例えば、tを調整し、マップデータ920上の頂点が移動955することにより、投影映像内の周辺車線950に該当する頂点が特徴マップ910の特徴と円満に整合される。
図9Eを参照すると、測位装置は、投影映像内の近距離頂点のうち消失点方向の車線を除いた残りの頂点960を用いてz方向移動を探索する。測位装置は、残りの頂点960と特徴マップ910との相関度が予め決定された目標値以上になるよう、残りの頂点960をz方向に移動させる。例えば、tを調整してマップデータ920上の頂点が移動965することにより、投影映像内の残りの頂点960が特徴マップ910の特徴と円満に整合される。
図10は、一実施形態に係るパラメータ更新による測位方法を示した動作フローチャートである。実施形態に係る権利範囲を逸脱しない範囲で、図10に示された動作の順序は変更されたり、図10に示された動作のうちの一部が省略されたり、図10に示された動作のうち少なくとも一部が並列的に処理されてもよい。
図10を参照すると、ステップS1010において、入力映像から特徴マップが抽出され、ステップS1020において、初期測位(例えば、位置/姿勢パラメータに対する初期値)が選ばれる。ステップS1030において、現在パラメータのスコアが算出され、現在パラメータのスコアが改善される方向が算出される。
一実施形態によれば、特徴マップは、オブジェクトに近い程度を示す確率分布を含む。例えば、特徴マップに含まれた特徴は、最も近いオブジェクトまでの距離に関する情報を0と1との間の正規化された値として含むことができる。この場合、特徴マップは、オブジェクトに向かう方向に関する情報を提供する。測位装置は、現在パラメータによってマップデータから投影された2次元頂点に対応し、特徴マップの特徴値をプーリングする。測位装置は、プーリングされた特徴値に基づいて現在パラメータのスコアが改善され得る方向を決定する。
ステップS1040において、繰り返し終了条件に該当するか否かが判断され、繰り返し終了条件に該当しない場合、ステップS1050において、パラメータが更新される。測位装置は、ステップS1030で算出した方向によりパラメータを更新する。繰り返し終了条件が満足するまで、ステップS1050、ステップS1030、及びステップS1040が繰り返し実行される。繰り返し終了条件は、パラメータのスコアが決定した目標値以上であるか否かを含む。一実施形態によれば、システムの安定性のために繰り返し終了条件は、繰り返し回数が決定した閾値を超過したか否かをさらに含んでもよい。
繰り返し終了条件に該当する場合、ステップS1060において、現在パラメータが最終測位(例えば、最終位置/姿勢パラメータ)として選ばれる。
図10に示す実施形態は、初期値θ_0から始まって段階的に良いパラメータにたどり着く過程であるが、このような局部的な最適化方式は、初期値が良くなければ良い性能を出すことができない。したがって、図10に示す実施形態は、初期値を別に推定するステップを選択的に含んでもよい。一例として、図8に示す実施形態によって取得されたパラメータを初期値と見なし、図10に示す実施形態が実行される。この場合、事前キャリブレーションを介して固定されたロール及びカメラの高さなどの値を実際の走行環境で発生する変化に適するように補正する効果を達成することができる。
図11は、一実施形態に係るパラメータ更新による測位方法が適用された結果を段階的に示す図である。
図11を参照すると、入力映像1105、第1映像1110、及び第2映像1120が示されている。第1映像1110は、入力映像1105に対応して生成される。また、第2映像1120は、マップデータに基づいて初期測位による測位情報x、y、z、r、r、rによりオブジェクトを投影して生成した映像であってもよい。第2映像1120は投影映像として、オブジェクトに該当する複数の2次元頂点を含む。
測位装置は、映像1130のように第1映像1110と第2映像1120をマッチングしてスコアscore lを算出する。測位装置は、例えば、第1映像1110に含まれた複数のピクセルのうち、第2映像1120に含まれたオブジェクトに対応するピクセルの値を合算してスコアを算出する。
例えば、第1映像1110に含まれた複数のピクセルは、隣接のオブジェクトとの距離に応じて0から1の間の値を有する。各ピクセルは、隣接のオブジェクトと近いほど1に近い値を有し、隣接のオブジェクトと遠いほど0に近い値を有する。測位装置は、第1映像1110に含まれた複数のピクセルのうち、第2映像1120とマッチングされるピクセルを抽出し、抽出されたピクセルの値を合算してスコアを算出する。
測位装置は、第1映像1110の方向性に基づいて、視覚的整列の程度、言い換えれば、スコアscore lが増加するように測位情報を補正する。測位装置は、第2映像1120に含まれたオブジェクトの測位が第1映像1110の方向性に適するよう測位補正値を算出する。測位装置は、測位補正値を初期測位による測位情報に適用することによって、測位情報をl→l’1140に更新する。例えば、測位装置は、第1映像1110に含まれた方向性に基づいて、第2映像1120のオブジェクトをどの方向に移動すればスコアが増加するかを判断する。測位情報を更新する場合、第2映像1120のオブジェクトが移動するため、測位装置は、第1映像1110に含まれた方向性に基づいて測位情報を更新する。
測位装置は、更新された測位情報l’により更新された第2映像1150を生成する。測位装置は、更新された第2映像1150と第1映像1110をマッチングしてスコアl’を算出する。
測位装置は、前述した過程を介してスコアが予め決定された基準以上にする測位補正値を算出し、最終的に最適化された測位情報l*を出力する。
図12は、一実施形態に係る特徴マップを生成する神経網を説明する図である。
図12を参照すると、入力映像1210を神経網1230に適用して第1映像に該当するディスタンスフィールドマップ1250を生成する過程が示されている。
神経網1230は、入力映像1210に基づいて入力映像1210に含まれたオブジェクトに対応する方向性を含む第1映像を生成するように予め学習された神経網であってもよい。神経網1230は、複数の人工ニューロン(ノード)を用いてソフトウェアやハードウェアで具現化された学習モデルを示し得る。神経網1230は、人工ニューロンを含む。神経網1230は、例えば、CNN(convolutional neural network)、DNN(Deep Neural Network)、RNN(recurrent neural network)、又はBLSTM(Bidirectional Long Short Term Memory)などのように様々な構造で実現できる。
神経網1230は、入力映像1210に含まれたオブジェクトをディスタンスフィールドマップ1250の形態に推定し得る。例えば、第1映像がディスタンスフィールドマップ1250のように近いオブジェクトに向かう方向性情報を含む場合、勾配降下方(gradient descent)などを活用するとき最適化の方向性を容易に決定することができる。また、ディスタンスフィールドマップ1250のように、オブジェクトに近い程度を示す確率の分布が映像の全般にわたっている場合、学習のためのデータ量を増やすことがあるため、疎なデータ(sparse data)によって学習された場合に比べて神経網の性能が向上する。
図13は、一実施形態に係る測位装置を示すブロック図である。
図13を参照すると、一実施形態に係る測位装置1300は、センサ1310、及びプロセッサ1330を含む。測位装置1300は、メモリ1350、通信インタフェース1370、及びディスプレイ装置1390をさらに含む。センサ1310、プロセッサ1330、メモリ1350、通信インタフェース1370、及びディスプレイ装置1390は、通信バス1305を介して接続される。ディスプレイ装置1390は、ユーザインタフェースをレンダリングするか、ディスプレイをレンダリングするか、ユーザ入力を受信する機能を提供する1つ又はそれ以上のハードウェア構成を含む。ディスプレイ装置1390は、前述した例示に限定されることなく、例えば、スマートフォン、メガネ型ディスプレイなどの様々な形態に実現できる。
センサ1310は、例えば、イメージセンサ、ビジョンセンサ、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサ、IMU(Inertial Measurement Unit)センサ、レーダー(Radar)、ライダ(Lidar)などを含む。複数のセンサ1310は車両の走行映像を含む入力映像を取得(撮影)する。センサ1310は、例えば、車両のGPS座標、位置、姿勢などのような測位情報以外にも、速度、加速度、走行方向、車両のハンドルステアリング角度、及び車両の速度などの検出情報を検出する。
実施形態は、映像の頂点とマップデータの頂点との間に対応関係を設定しなくても測位可能な技術を提供する。また、実施形態は、映像の特徴をパラメータ化したり、3次元変換と透視(perspective)変換に不変な関係を抽出したり、マップデータで探索時このような不変な関係を容易に特定しなくても測位可能な技術を提供する。
実施形態により、測位装置1300は、通信インタフェース1370を介して入力映像を含む様々なセンサの検出情報を取得する。実施形態により、通信インタフェース1370は、測位装置1300の外部に存在する他のセンサから走行映像を含む検出情報を受信する。
プロセッサ1330は、通信インタフェース1370及び/又はディスプレイ装置1390を介して補正された測位情報を出力したり、又は、補正された測位情報に基づいて、マップデータ上に仮想オブジェクトを入力映像と共に表示することによって拡張現実サービスを提供し得る。また、プロセッサ1330は、図1〜図13を参照して前述した少なくとも1つの方法又は少なくとも1つの方法に対応するアルゴリズムを行ってもよい
プロセッサ1330は、目的とする動作(desired operations)を実行させるための物理的な構造を有する回路を有するハードウェアで具現化されたデータ処理装置であり得る。例えば、目的とする動作は、プログラムに含まれたコード又は命令を含む。例えば、ハードウェアで具現化されたデータ処理装置は、マイクロプロセッサー(microprocessor)、中央処理装置(central processing unit)、プロセッサコア(processor core)、マルチ・コアプロセッサ(multi−core processor)、マルチプロセッサ(multiprocessor)、ASIC(Application−Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)を含む。
プロセッサ1330は、プログラムを実行し、測位装置1300を制御する。プロセッサ1330によって実行されるプログラムコードは、メモリ1350に格納される。
メモリ1350は、測位装置1300の測位情報、第1映像、第2映像、及び/又は、補正された測位情報を格納する。メモリ1350は、上述したプロセッサ1330における処理過程で生成される様々な情報を格納する。その他にも、メモリ1350は、各種のデータとプログラムなどを格納する。メモリ1350は、揮発性メモリ又は不揮発性メモリを含む。メモリ1350は、ハードディスクなどのような大容量格納媒体を備えて、各種のデータを格納する。
ディスプレイ装置1390は、プロセッサ1330によって補正された測位情報を出力したり、又は、補正された測位情報に基づいてマップデータ上に仮想オブジェクトを入力映像と共に表示し得る。
一実施形態に係る測位装置は、例えば、ヘッドアップディスプレイ(HUD)、又は、拡張現実グラス(AR Glasses)などのように撮影装置と測位装置間の視点が同一でない場合でも、撮影装置をベースに前述の測位方法を行った結果を用いて、測位装置の3D測位情報を更新することにより、視点に独立的な実行を行うことができる。また、一実施形態に係る測位装置は、移動端末又はスマートフォンのように撮影装置と測位装置の視点が同一である場合、3D測位情報を更新することが可能であることはもちろん、追加的に映像内で直接2D位置を補正する用途にも使用できる。
上述の実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現化される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は専用コンピュータを用いて具現化される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置が1つ使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことを把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現化され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DYIJDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述のように、たとえ実施形態が限定された図面によって説明されても、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術は、説明された方法と異なる順で実行されるし、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素は、説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
110、130 オブジェクト
115、135 走行案内車路
120、140 拡張現実映像
200 測位装置
910 特徴マップ
920 マップデータ

Claims (37)

  1. 入力映像からオブジェクトの第1映像を生成するステップと、
    前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成するステップと、
    前記第1映像から、前記第2映像内の頂点に対応する特徴値をプーリングするステップと、
    前記プーリングされた特徴値に基づいて、前記候補測位のスコアを決定するステップと、
    を含む、測位方法。
  2. 前記第1映像を生成するステップは、複数の特徴に対応する複数の特徴マップを生成するステップ、を含む、
    請求項1に記載の測位方法。
  3. 前記第2映像を生成するステップは、
    前記マップデータから前記候補測位における視野範囲に該当する領域を抽出するステップと、
    前記領域に含まれた頂点を前記候補測位に対応する投影点に投影するステップと、
    を含む、請求項1または2に記載の測位方法。
  4. 前記特徴値をプーリングするステップは、
    前記頂点の座標に基づいて、前記第1映像内のピクセルを選択するステップと、
    前記選択されたピクセルの特徴値を取得するステップと、
    を含む、請求項1乃至3いずれか一項に記載の測位方法。
  5. 前記候補測位のスコアを決定するステップは、前記プーリングされた特徴値を合算するステップ、を含む、
    請求項1乃至4いずれか一項に記載の測位方法。
  6. 前記合算するステップは、前記第1映像が複数の特徴に対応する複数の特徴マップを含む場合、前記特徴に対応して、決定した加重値に基づいて前記特徴値を加重合算するステップ、を含む、
    請求項5に記載の測位方法。
  7. 前記測位方法は、さらに、
    前記候補測位のスコアに基づいて、前記装置の測位を決定するステップ、を含む、
    請求項1に記載の測位方法。
  8. 前記装置の測位を決定するステップは、複数の候補測位のスコアのうち最大スコアに対応する候補測位を前記装置の測位として決定するステップ、を含む、
    請求項7に記載の測位方法。
  9. 前記装置の測位を決定するステップは、
    前記第2映像を複数の領域に分割するステップと、
    前記分割された領域で算出されるスコアを用いることによって、前記候補測位に含まれた複数の自由度の値を順次決定するステップと、
    を含む、請求項7に記載の測位方法。
  10. 前記複数の自由度の値は、
    移動に関する3自由度の値と、
    回転に関する3自由度の値と、
    を含む、請求項9に記載の測位方法。
  11. 前記分割するステップは、
    距離に関する第1基準に基づいて、前記第2映像を遠距離領域及び近距離領域に分割するステップと、
    消失点に関連する第2基準に基づいて、前記近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割するステップと、
    を含む、請求項9に記載の測位方法。
  12. 前記複数の自由度の値を順次決定するステップは、
    前記遠距離領域に基づいて、回転関連自由度を決定するステップと、
    前記消失点指向近距離領域に基づいて、左右方向の移動関連自由度を決定するステップと、
    前記非消失点指向近距離領域に基づいて、前後方向の移動関連自由度を決定するステップと、
    を含む、請求項11に記載の測位方法。
  13. 前記装置の測位を決定するステップは、
    前記第2映像に含まれた頂点のうち、移動関連自由度による影響が第1閾値以下である遠距離頂点に基づいて、回転関連自由度を決定するステップと、
    前記第2映像から前記遠距離頂点を除いた近距離頂点のうち、前後方向の移動関連自由度による影響が第2閾値以下である消失点指向近距離頂点に基づいて、左右方向の移動関連自由度を決定するステップと、
    前記近距離頂点のうち、前記消失点指向近距離頂点を除いた非消失点指向近距離頂点に基づいて、前記前後方向の移動関連自由度を決定するステップと、
    を含む、請求項7に記載の測位方法。
  14. 前記装置の測位を決定するステップは、
    前記プーリングされた特徴値の分布に基づいて、前記スコアを改善するための方向を決定するステップと、
    前記方向に基づいて前記候補測位を補正するステップと、
    を含む、請求項7に記載の測位方法。
  15. 前記第1映像は、前記オブジェクトと近い程度を示す確率分布を含み、
    前記方向を決定するステップは、前記確率分布に基づいて前記方向を決定するステップ、を含む、
    請求項14に記載の測位方法。
  16. 前記装置の測位を決定するステップは、
    前記補正された候補測位により前記オブジェクトが投影された補正された第2映像を生成するステップと、
    前記補正された第2映像に含まれた頂点に対応して、前記第1映像から特徴値をプーリングすることにより、前記補正された候補測位の補正されたスコアを決定するステップと、
    を含み、
    前記補正された候補測位の補正されたスコアが決定した条件が満たされるまで前記方向を決定するステップ、前記候補測位を補正するステップ、前記補正された第2映像を生成するステップ、及び、前記補正された候補測位の補正されたスコアを決定するステップは、繰り返し行われる、
    請求項14に記載の測位方法。
  17. 前記測位方法は、さらに、
    拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、
    前記決定された測位に基づいて、前記仮想オブジェクトを表示するステップと、
    を含む、請求項7に記載の測位方法。
  18. 前記入力映像は、車両の走行映像を含み、
    前記仮想オブジェクトは、走行経路情報を示す、
    請求項17に記載の測位方法。
  19. 媒体上に保管され、インストラクションを含むコンピュータプログラムであって、
    前記インストラクションがハードウェアによって実行されると、請求項1乃至請求項18のいずれか一項に記載の方法を実行させる、
    コンピュータプログラム。
  20. 入力映像からオブジェクトの第1映像を生成するステップと、
    前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成するステップと、
    前記第2映像を複数の領域に分割するステップと、
    前記分割された領域と前記第1映像との間のマッチングによって、前記候補測位に含まれた複数の自由度の値を決定するステップと、
    を含む、測位方法。
  21. 前記複数の自由度の値を決定するステップは、前記分割された領域で前記第1映像とのマッチングによって算出されるスコアを用いることにより、前記候補測位に含まれた複数の自由度の値を順次決定するステップ、を含む、
    請求項20に記載の測位方法。
  22. 前記複数の自由度の値を決定するステップは、
    分割された領域に対応して決定した自由度の値を変更しながら、前記領域内の頂点に対応して第1映像から特徴値をプーリングすることにより、前記自由度の変更された値によるスコアを算出するステップと、
    最大スコアに対応する自由度の値を選択するステップと、
    を含む、請求項20に記載の測位方法。
  23. 前記複数の自由度の値は、
    移動に関する3自由度の値と、
    回転に関する3自由度の値と、
    を含む、請求項20乃至22いずれか一項に記載の測位方法。
  24. 前記分割するステップは、
    距離に関する第1基準に基づいて、前記第2映像を遠距離領域及び近距離領域に分割するステップと、
    消失点に関連する第2基準に基づいて、前記近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割するステップと、
    を含む、請求項20乃至23いずれか一項に記載の測位方法。
  25. 前記複数の自由度の値を決定するステップは、
    前記遠距離領域に基づいて、回転関連自由度を決定するステップと、
    前記消失点指向近距離領域に基づいて、左右方向の移動関連自由度を決定するステップと、
    前記非消失点指向近距離領域に基づいて、前後方向の移動関連自由度を決定するステップと、
    を含む、請求項24に記載の測位方法。
  26. 前記複数の自由度の値を決定するステップは、
    前記第2映像に含まれた頂点のうち、移動関連自由度による影響が第1閾値以下である遠距離頂点に基づいて回転関連自由度を決定するステップと、
    前記第2映像から前記遠距離頂点を除いた近距離頂点のうち、前後方向の移動関連自由度による影響が第2閾値以下である消失点指向近距離頂点に基づいて、左右方向の移動関連自由度を決定するステップと、
    前記近距離頂点のうち、前記消失点指向近距離頂点を除いた非消失点指向近距離頂点に基づいて前記前後方向の移動関連自由度を決定するステップと、
    を含む、請求項20に記載の測位方法。
  27. 前記測位方法は、さらに、
    拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、
    前記決定された複数の自由度の値に基づいて、前記仮想オブジェクトを表示するステップと、
    を含む、請求項20に記載の測位方法。
  28. 前記入力映像は、車両の走行映像を含み、
    前記仮想オブジェクトは、走行経路情報を示す、請求項27に記載の測位方法。
  29. 媒体上に保管され、インストラクションを含むコンピュータプログラムであって、
    前記インストラクションがハードウェアによって実行されると、請求項20乃至請求項28のいずれか一項に記載の方法を実行させる、
    コンピュータプログラム。
  30. 入力映像からオブジェクトの第1映像を生成し、
    前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成し、
    前記第1映像から、前記第2映像内の頂点に対応する特徴値をプーリングし、
    前記プーリングされた特徴値に基づいて、前記候補測位のスコアを決定する、
    少なくとも1つのプロセッサ、
    を含む、測位装置。
  31. 入力映像からオブジェクトの第1映像を生成し、
    前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成し、
    前記第2映像を複数の領域に分割し、
    前記分割された領域と前記第1映像との間のマッチングによって、前記候補測位に含まれた複数の自由度の値を決定する、
    少なくとも1つのプロセッサ、
    を含む、測位装置。
  32. 装置に取り付けられ、1つ又はそれ以上の映像と前記装置の候補測位情報を検出するセンサと、
    前記映像からオブジェクトの第1映像を生成し、前記オブジェクトの位置を含むマップデータに基づいて候補側上の情報により前記オブジェクトを投影する第2映像を生成し、前記第1映像から前記第2映像内の頂点に対応する特徴値をプーリングすることにより前記候補側上の情報のスコアを決定し、前記スコアに基づいて前記装置の測位情報を決定するプロセッサと、
    前記決定された測位情報に基づいて前記マップデータ上の仮想オブジェクトを視覚化するヘッドアップディスプレイ(HUD)と、
    を含む、測位装置。
  33. 前記プロセッサは、
    距離に基づいて、前記第2映像を遠距離領域と近距離領域とに分割し、
    消失点に基づいて、前記近距離領域を消失点指向近距離領域と非消失点指向近距離領域に分割する、
    請求項32に記載の測位装置。
  34. 前記プロセッサは、
    前記遠距離領域に基づいて、回転自由度を決定し、
    前記消失点指向近距離領域に基づいて、左右移動自由度を決定し、
    前記非消失点指向近距離領域に基づいて、前後移動自由度を決定する、
    請求項33に記載の測位装置。
  35. 前記プロセッサは、
    神経網を用いて、複数の特徴に対応する特徴マップを含む前記第1映像を生成する、
    請求項32に記載の測位装置。
  36. 前記第2映像は、前記オブジェクトに対応する2次元頂点の投射を含む、
    請求項32に記載の測位装置。
  37. 前記測位装置は、さらに、
    前記マップデータ、前記映像、前記第1映像、前記第2映像、前記スコア、及び、前記決定された測位情報と前記仮想オブジェクト、のうち少なくとも1つを決定するように、前記プロセッサを制御する命令語、を含むメモリ、
    を含む、請求項32に記載の測位装置。
JP2019171729A 2018-10-24 2019-09-20 映像及びマップデータ基盤測位方法及び装置 Pending JP2020076745A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024013948A JP2024032933A (ja) 2018-10-24 2024-02-01 映像及びマップデータ基盤測位方法及び装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0127589 2018-10-24
KR1020180127589A KR20200046437A (ko) 2018-10-24 2018-10-24 영상 및 맵 데이터 기반 측위 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024013948A Division JP2024032933A (ja) 2018-10-24 2024-02-01 映像及びマップデータ基盤測位方法及び装置

Publications (1)

Publication Number Publication Date
JP2020076745A true JP2020076745A (ja) 2020-05-21

Family

ID=67060291

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019171729A Pending JP2020076745A (ja) 2018-10-24 2019-09-20 映像及びマップデータ基盤測位方法及び装置
JP2024013948A Pending JP2024032933A (ja) 2018-10-24 2024-02-01 映像及びマップデータ基盤測位方法及び装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024013948A Pending JP2024032933A (ja) 2018-10-24 2024-02-01 映像及びマップデータ基盤測位方法及び装置

Country Status (5)

Country Link
US (1) US11176719B2 (ja)
EP (2) EP3644278A1 (ja)
JP (2) JP2020076745A (ja)
KR (1) KR20200046437A (ja)
CN (1) CN111089597A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102519666B1 (ko) * 2018-10-15 2023-04-07 삼성전자주식회사 이미지 변환 장치 및 방법
US10789851B1 (en) * 2019-09-04 2020-09-29 GM Global Technology Operations LLC System and method for vision sensor detection
US11829128B2 (en) 2019-10-23 2023-11-28 GM Global Technology Operations LLC Perception system diagnosis using predicted sensor data and perception results
KR102495005B1 (ko) * 2020-07-13 2023-02-06 주식회사 쓰리아이 딥러닝을 이용한 실내 위치 측위 방법
JP7336653B2 (ja) 2020-10-26 2023-09-01 3アイ インコーポレイテッド ディープラーニングを利用した屋内位置測位方法
KR102449031B1 (ko) * 2020-10-26 2022-09-29 주식회사 쓰리아이 딥러닝을 이용한 실내 위치 측위 방법
WO2022114311A1 (ko) * 2020-11-30 2022-06-02 한국전자기술연구원 다중 영상을 이용한 라이다 센서 정보 보정 및 업-샘플링 방법 및 장치
CN113269832B (zh) * 2021-05-31 2022-03-29 长春工程学院 面向极端天气环境的电力作业增强现实导航系统和方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4677981B2 (ja) 2006-12-20 2011-04-27 アイシン・エィ・ダブリュ株式会社 自車位置特定方法及び自車位置特定装置
US8670592B2 (en) * 2008-04-24 2014-03-11 GM Global Technology Operations LLC Clear path detection using segmentation-based method
JP5116555B2 (ja) 2008-04-25 2013-01-09 三菱電機株式会社 位置標定装置、位置標定システム、標定サーバ装置および位置標定方法
CN102138163B (zh) 2008-08-29 2014-04-30 三菱电机株式会社 俯瞰图像生成装置及俯瞰图像生成方法
US8649565B1 (en) 2009-06-18 2014-02-11 Hrl Laboratories, Llc System for automatic object localization based on visual simultaneous localization and mapping (SLAM) and cognitive swarm recognition
US20110153198A1 (en) * 2009-12-21 2011-06-23 Navisus LLC Method for the display of navigation instructions using an augmented-reality concept
KR101139389B1 (ko) 2010-04-28 2012-04-27 주식회사 아이티엑스시큐리티 스테레오 카메라를 이용한 영상인식장치 및 방법
US9811731B2 (en) 2013-10-04 2017-11-07 Qualcomm Incorporated Dynamic extension of map data for object detection and tracking
US9524434B2 (en) 2013-10-04 2016-12-20 Qualcomm Incorporated Object tracking based on dynamically built environment map data
BR112016018603B1 (pt) * 2014-02-24 2022-01-04 Nissan Motor Co. Ltd Aparelho de cálculo de própria posição e processo de cálculo de própria posição
EP3078935A1 (en) 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
KR102325334B1 (ko) 2015-04-28 2021-11-12 한국전자통신연구원 차량 센서의 자동 보정 장치 및 그 방법
JP6488913B2 (ja) 2015-06-26 2019-03-27 日産自動車株式会社 車両位置判定装置及び車両位置判定方法
CN107851184B (zh) * 2015-07-28 2022-12-23 苹果公司 用于光和图像投影的系统和方法
KR101795185B1 (ko) 2015-12-14 2017-11-08 현대오트론 주식회사 전방차량 인지를 이용한 차량 피치각 검출 장치 및 그 방법
US9727793B2 (en) * 2015-12-15 2017-08-08 Honda Motor Co., Ltd. System and method for image based vehicle localization
KR20180009280A (ko) 2016-07-18 2018-01-26 주식회사 퓨전소프트 3d 맵 데이터를 이용한 차선 위치확인 및 경로 안내 시스템
KR102463702B1 (ko) 2016-12-15 2022-11-07 현대자동차주식회사 차량 정밀 위치 추정 장치, 그 방법, 그를 위한 맵 구축 장치, 및 그를 위한 맵 구축 방법
US10309777B2 (en) * 2016-12-30 2019-06-04 DeepMap Inc. Visual odometry and pairwise alignment for high definition map creation
US10209089B2 (en) * 2017-04-03 2019-02-19 Robert Bosch Gmbh Automated image labeling for vehicles based on maps
US10282860B2 (en) * 2017-05-22 2019-05-07 Honda Motor Co., Ltd. Monocular localization in urban environments using road markings
CN111492403A (zh) * 2017-10-19 2020-08-04 迪普迈普有限公司 用于生成高清晰度地图的激光雷达到相机校准
KR102221695B1 (ko) * 2018-01-15 2021-03-02 에스케이텔레콤 주식회사 자율주행을 위한 고정밀 지도의 업데이트 장치 및 방법
CN109389650B (zh) * 2018-09-30 2021-01-12 京东方科技集团股份有限公司 一种车载相机的标定方法、装置、车辆和存储介质

Also Published As

Publication number Publication date
EP4246440A3 (en) 2024-01-03
US20200134896A1 (en) 2020-04-30
EP4246440A2 (en) 2023-09-20
US11176719B2 (en) 2021-11-16
JP2024032933A (ja) 2024-03-12
EP3644278A1 (en) 2020-04-29
KR20200046437A (ko) 2020-05-07
CN111089597A (zh) 2020-05-01

Similar Documents

Publication Publication Date Title
US11227398B2 (en) RGB point clouds based map generation system for autonomous vehicles
EP3707469B1 (en) A point clouds registration system for autonomous vehicles
US11465642B2 (en) Real-time map generation system for autonomous vehicles
JP2020076745A (ja) 映像及びマップデータ基盤測位方法及び装置
EP3714290B1 (en) Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles
US11315317B2 (en) Point clouds ghosting effects detection system for autonomous driving vehicles
US11594011B2 (en) Deep learning-based feature extraction for LiDAR localization of autonomous driving vehicles
EP3714285B1 (en) Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles
WO2020154967A1 (en) Map partition system for autonomous vehicles
JP7269082B2 (ja) 拡張現実で仮想オブジェクトを表示するための測位方法及び装置
CN110388931A (zh) 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法
CN112740268B (zh) 目标检测方法和装置
CN113544467A (zh) 对齐用于导航的道路信息

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240209

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240329