JP2020076745A - 映像及びマップデータ基盤測位方法及び装置 - Google Patents
映像及びマップデータ基盤測位方法及び装置 Download PDFInfo
- Publication number
- JP2020076745A JP2020076745A JP2019171729A JP2019171729A JP2020076745A JP 2020076745 A JP2020076745 A JP 2020076745A JP 2019171729 A JP2019171729 A JP 2019171729A JP 2019171729 A JP2019171729 A JP 2019171729A JP 2020076745 A JP2020076745 A JP 2020076745A
- Authority
- JP
- Japan
- Prior art keywords
- positioning
- image
- determining
- freedom
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 230000003190 augmentative effect Effects 0.000 claims description 26
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
- G01C21/3638—Guidance using 3D or perspective road maps including 3D objects and buildings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
Description
前記分割された領域と前記第1映像との間のマッチングによって、前記候補測位に含まれた複数の自由度の値を決定する、少なくとも1つのプロセッサを含む。
115、135 走行案内車路
120、140 拡張現実映像
200 測位装置
910 特徴マップ
920 マップデータ
Claims (37)
- 入力映像からオブジェクトの第1映像を生成するステップと、
前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成するステップと、
前記第1映像から、前記第2映像内の頂点に対応する特徴値をプーリングするステップと、
前記プーリングされた特徴値に基づいて、前記候補測位のスコアを決定するステップと、
を含む、測位方法。 - 前記第1映像を生成するステップは、複数の特徴に対応する複数の特徴マップを生成するステップ、を含む、
請求項1に記載の測位方法。 - 前記第2映像を生成するステップは、
前記マップデータから前記候補測位における視野範囲に該当する領域を抽出するステップと、
前記領域に含まれた頂点を前記候補測位に対応する投影点に投影するステップと、
を含む、請求項1または2に記載の測位方法。 - 前記特徴値をプーリングするステップは、
前記頂点の座標に基づいて、前記第1映像内のピクセルを選択するステップと、
前記選択されたピクセルの特徴値を取得するステップと、
を含む、請求項1乃至3いずれか一項に記載の測位方法。 - 前記候補測位のスコアを決定するステップは、前記プーリングされた特徴値を合算するステップ、を含む、
請求項1乃至4いずれか一項に記載の測位方法。 - 前記合算するステップは、前記第1映像が複数の特徴に対応する複数の特徴マップを含む場合、前記特徴に対応して、決定した加重値に基づいて前記特徴値を加重合算するステップ、を含む、
請求項5に記載の測位方法。 - 前記測位方法は、さらに、
前記候補測位のスコアに基づいて、前記装置の測位を決定するステップ、を含む、
請求項1に記載の測位方法。 - 前記装置の測位を決定するステップは、複数の候補測位のスコアのうち最大スコアに対応する候補測位を前記装置の測位として決定するステップ、を含む、
請求項7に記載の測位方法。 - 前記装置の測位を決定するステップは、
前記第2映像を複数の領域に分割するステップと、
前記分割された領域で算出されるスコアを用いることによって、前記候補測位に含まれた複数の自由度の値を順次決定するステップと、
を含む、請求項7に記載の測位方法。 - 前記複数の自由度の値は、
移動に関する3自由度の値と、
回転に関する3自由度の値と、
を含む、請求項9に記載の測位方法。 - 前記分割するステップは、
距離に関する第1基準に基づいて、前記第2映像を遠距離領域及び近距離領域に分割するステップと、
消失点に関連する第2基準に基づいて、前記近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割するステップと、
を含む、請求項9に記載の測位方法。 - 前記複数の自由度の値を順次決定するステップは、
前記遠距離領域に基づいて、回転関連自由度を決定するステップと、
前記消失点指向近距離領域に基づいて、左右方向の移動関連自由度を決定するステップと、
前記非消失点指向近距離領域に基づいて、前後方向の移動関連自由度を決定するステップと、
を含む、請求項11に記載の測位方法。 - 前記装置の測位を決定するステップは、
前記第2映像に含まれた頂点のうち、移動関連自由度による影響が第1閾値以下である遠距離頂点に基づいて、回転関連自由度を決定するステップと、
前記第2映像から前記遠距離頂点を除いた近距離頂点のうち、前後方向の移動関連自由度による影響が第2閾値以下である消失点指向近距離頂点に基づいて、左右方向の移動関連自由度を決定するステップと、
前記近距離頂点のうち、前記消失点指向近距離頂点を除いた非消失点指向近距離頂点に基づいて、前記前後方向の移動関連自由度を決定するステップと、
を含む、請求項7に記載の測位方法。 - 前記装置の測位を決定するステップは、
前記プーリングされた特徴値の分布に基づいて、前記スコアを改善するための方向を決定するステップと、
前記方向に基づいて前記候補測位を補正するステップと、
を含む、請求項7に記載の測位方法。 - 前記第1映像は、前記オブジェクトと近い程度を示す確率分布を含み、
前記方向を決定するステップは、前記確率分布に基づいて前記方向を決定するステップ、を含む、
請求項14に記載の測位方法。 - 前記装置の測位を決定するステップは、
前記補正された候補測位により前記オブジェクトが投影された補正された第2映像を生成するステップと、
前記補正された第2映像に含まれた頂点に対応して、前記第1映像から特徴値をプーリングすることにより、前記補正された候補測位の補正されたスコアを決定するステップと、
を含み、
前記補正された候補測位の補正されたスコアが決定した条件が満たされるまで前記方向を決定するステップ、前記候補測位を補正するステップ、前記補正された第2映像を生成するステップ、及び、前記補正された候補測位の補正されたスコアを決定するステップは、繰り返し行われる、
請求項14に記載の測位方法。 - 前記測位方法は、さらに、
拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、
前記決定された測位に基づいて、前記仮想オブジェクトを表示するステップと、
を含む、請求項7に記載の測位方法。 - 前記入力映像は、車両の走行映像を含み、
前記仮想オブジェクトは、走行経路情報を示す、
請求項17に記載の測位方法。 - 媒体上に保管され、インストラクションを含むコンピュータプログラムであって、
前記インストラクションがハードウェアによって実行されると、請求項1乃至請求項18のいずれか一項に記載の方法を実行させる、
コンピュータプログラム。 - 入力映像からオブジェクトの第1映像を生成するステップと、
前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成するステップと、
前記第2映像を複数の領域に分割するステップと、
前記分割された領域と前記第1映像との間のマッチングによって、前記候補測位に含まれた複数の自由度の値を決定するステップと、
を含む、測位方法。 - 前記複数の自由度の値を決定するステップは、前記分割された領域で前記第1映像とのマッチングによって算出されるスコアを用いることにより、前記候補測位に含まれた複数の自由度の値を順次決定するステップ、を含む、
請求項20に記載の測位方法。 - 前記複数の自由度の値を決定するステップは、
分割された領域に対応して決定した自由度の値を変更しながら、前記領域内の頂点に対応して第1映像から特徴値をプーリングすることにより、前記自由度の変更された値によるスコアを算出するステップと、
最大スコアに対応する自由度の値を選択するステップと、
を含む、請求項20に記載の測位方法。 - 前記複数の自由度の値は、
移動に関する3自由度の値と、
回転に関する3自由度の値と、
を含む、請求項20乃至22いずれか一項に記載の測位方法。 - 前記分割するステップは、
距離に関する第1基準に基づいて、前記第2映像を遠距離領域及び近距離領域に分割するステップと、
消失点に関連する第2基準に基づいて、前記近距離領域を消失点指向近距離領域及び非消失点指向近距離領域に分割するステップと、
を含む、請求項20乃至23いずれか一項に記載の測位方法。 - 前記複数の自由度の値を決定するステップは、
前記遠距離領域に基づいて、回転関連自由度を決定するステップと、
前記消失点指向近距離領域に基づいて、左右方向の移動関連自由度を決定するステップと、
前記非消失点指向近距離領域に基づいて、前後方向の移動関連自由度を決定するステップと、
を含む、請求項24に記載の測位方法。 - 前記複数の自由度の値を決定するステップは、
前記第2映像に含まれた頂点のうち、移動関連自由度による影響が第1閾値以下である遠距離頂点に基づいて回転関連自由度を決定するステップと、
前記第2映像から前記遠距離頂点を除いた近距離頂点のうち、前後方向の移動関連自由度による影響が第2閾値以下である消失点指向近距離頂点に基づいて、左右方向の移動関連自由度を決定するステップと、
前記近距離頂点のうち、前記消失点指向近距離頂点を除いた非消失点指向近距離頂点に基づいて前記前後方向の移動関連自由度を決定するステップと、
を含む、請求項20に記載の測位方法。 - 前記測位方法は、さらに、
拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、
前記決定された複数の自由度の値に基づいて、前記仮想オブジェクトを表示するステップと、
を含む、請求項20に記載の測位方法。 - 前記入力映像は、車両の走行映像を含み、
前記仮想オブジェクトは、走行経路情報を示す、請求項27に記載の測位方法。 - 媒体上に保管され、インストラクションを含むコンピュータプログラムであって、
前記インストラクションがハードウェアによって実行されると、請求項20乃至請求項28のいずれか一項に記載の方法を実行させる、
コンピュータプログラム。 - 入力映像からオブジェクトの第1映像を生成し、
前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成し、
前記第1映像から、前記第2映像内の頂点に対応する特徴値をプーリングし、
前記プーリングされた特徴値に基づいて、前記候補測位のスコアを決定する、
少なくとも1つのプロセッサ、
を含む、測位装置。 - 入力映像からオブジェクトの第1映像を生成し、
前記オブジェクトの位置を含むマップデータに基づいて、装置の候補測位により前記オブジェクトを投影する第2映像を生成し、
前記第2映像を複数の領域に分割し、
前記分割された領域と前記第1映像との間のマッチングによって、前記候補測位に含まれた複数の自由度の値を決定する、
少なくとも1つのプロセッサ、
を含む、測位装置。 - 装置に取り付けられ、1つ又はそれ以上の映像と前記装置の候補測位情報を検出するセンサと、
前記映像からオブジェクトの第1映像を生成し、前記オブジェクトの位置を含むマップデータに基づいて候補側上の情報により前記オブジェクトを投影する第2映像を生成し、前記第1映像から前記第2映像内の頂点に対応する特徴値をプーリングすることにより前記候補側上の情報のスコアを決定し、前記スコアに基づいて前記装置の測位情報を決定するプロセッサと、
前記決定された測位情報に基づいて前記マップデータ上の仮想オブジェクトを視覚化するヘッドアップディスプレイ(HUD)と、
を含む、測位装置。 - 前記プロセッサは、
距離に基づいて、前記第2映像を遠距離領域と近距離領域とに分割し、
消失点に基づいて、前記近距離領域を消失点指向近距離領域と非消失点指向近距離領域に分割する、
請求項32に記載の測位装置。 - 前記プロセッサは、
前記遠距離領域に基づいて、回転自由度を決定し、
前記消失点指向近距離領域に基づいて、左右移動自由度を決定し、
前記非消失点指向近距離領域に基づいて、前後移動自由度を決定する、
請求項33に記載の測位装置。 - 前記プロセッサは、
神経網を用いて、複数の特徴に対応する特徴マップを含む前記第1映像を生成する、
請求項32に記載の測位装置。 - 前記第2映像は、前記オブジェクトに対応する2次元頂点の投射を含む、
請求項32に記載の測位装置。 - 前記測位装置は、さらに、
前記マップデータ、前記映像、前記第1映像、前記第2映像、前記スコア、及び、前記決定された測位情報と前記仮想オブジェクト、のうち少なくとも1つを決定するように、前記プロセッサを制御する命令語、を含むメモリ、
を含む、請求項32に記載の測位装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024013948A JP2024032933A (ja) | 2018-10-24 | 2024-02-01 | 映像及びマップデータ基盤測位方法及び装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0127589 | 2018-10-24 | ||
KR1020180127589A KR20200046437A (ko) | 2018-10-24 | 2018-10-24 | 영상 및 맵 데이터 기반 측위 방법 및 장치 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024013948A Division JP2024032933A (ja) | 2018-10-24 | 2024-02-01 | 映像及びマップデータ基盤測位方法及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020076745A true JP2020076745A (ja) | 2020-05-21 |
Family
ID=67060291
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019171729A Pending JP2020076745A (ja) | 2018-10-24 | 2019-09-20 | 映像及びマップデータ基盤測位方法及び装置 |
JP2024013948A Pending JP2024032933A (ja) | 2018-10-24 | 2024-02-01 | 映像及びマップデータ基盤測位方法及び装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024013948A Pending JP2024032933A (ja) | 2018-10-24 | 2024-02-01 | 映像及びマップデータ基盤測位方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11176719B2 (ja) |
EP (2) | EP3644278A1 (ja) |
JP (2) | JP2020076745A (ja) |
KR (1) | KR20200046437A (ja) |
CN (1) | CN111089597A (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102519666B1 (ko) * | 2018-10-15 | 2023-04-07 | 삼성전자주식회사 | 이미지 변환 장치 및 방법 |
US10789851B1 (en) * | 2019-09-04 | 2020-09-29 | GM Global Technology Operations LLC | System and method for vision sensor detection |
US11829128B2 (en) | 2019-10-23 | 2023-11-28 | GM Global Technology Operations LLC | Perception system diagnosis using predicted sensor data and perception results |
KR102495005B1 (ko) * | 2020-07-13 | 2023-02-06 | 주식회사 쓰리아이 | 딥러닝을 이용한 실내 위치 측위 방법 |
JP7336653B2 (ja) | 2020-10-26 | 2023-09-01 | 3アイ インコーポレイテッド | ディープラーニングを利用した屋内位置測位方法 |
KR102449031B1 (ko) * | 2020-10-26 | 2022-09-29 | 주식회사 쓰리아이 | 딥러닝을 이용한 실내 위치 측위 방법 |
WO2022114311A1 (ko) * | 2020-11-30 | 2022-06-02 | 한국전자기술연구원 | 다중 영상을 이용한 라이다 센서 정보 보정 및 업-샘플링 방법 및 장치 |
CN113269832B (zh) * | 2021-05-31 | 2022-03-29 | 长春工程学院 | 面向极端天气环境的电力作业增强现实导航系统和方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4677981B2 (ja) | 2006-12-20 | 2011-04-27 | アイシン・エィ・ダブリュ株式会社 | 自車位置特定方法及び自車位置特定装置 |
US8670592B2 (en) * | 2008-04-24 | 2014-03-11 | GM Global Technology Operations LLC | Clear path detection using segmentation-based method |
JP5116555B2 (ja) | 2008-04-25 | 2013-01-09 | 三菱電機株式会社 | 位置標定装置、位置標定システム、標定サーバ装置および位置標定方法 |
CN102138163B (zh) | 2008-08-29 | 2014-04-30 | 三菱电机株式会社 | 俯瞰图像生成装置及俯瞰图像生成方法 |
US8649565B1 (en) | 2009-06-18 | 2014-02-11 | Hrl Laboratories, Llc | System for automatic object localization based on visual simultaneous localization and mapping (SLAM) and cognitive swarm recognition |
US20110153198A1 (en) * | 2009-12-21 | 2011-06-23 | Navisus LLC | Method for the display of navigation instructions using an augmented-reality concept |
KR101139389B1 (ko) | 2010-04-28 | 2012-04-27 | 주식회사 아이티엑스시큐리티 | 스테레오 카메라를 이용한 영상인식장치 및 방법 |
US9811731B2 (en) | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
US9524434B2 (en) | 2013-10-04 | 2016-12-20 | Qualcomm Incorporated | Object tracking based on dynamically built environment map data |
BR112016018603B1 (pt) * | 2014-02-24 | 2022-01-04 | Nissan Motor Co. Ltd | Aparelho de cálculo de própria posição e processo de cálculo de própria posição |
EP3078935A1 (en) | 2015-04-10 | 2016-10-12 | The European Atomic Energy Community (EURATOM), represented by the European Commission | Method and device for real-time mapping and localization |
KR102325334B1 (ko) | 2015-04-28 | 2021-11-12 | 한국전자통신연구원 | 차량 센서의 자동 보정 장치 및 그 방법 |
JP6488913B2 (ja) | 2015-06-26 | 2019-03-27 | 日産自動車株式会社 | 車両位置判定装置及び車両位置判定方法 |
CN107851184B (zh) * | 2015-07-28 | 2022-12-23 | 苹果公司 | 用于光和图像投影的系统和方法 |
KR101795185B1 (ko) | 2015-12-14 | 2017-11-08 | 현대오트론 주식회사 | 전방차량 인지를 이용한 차량 피치각 검출 장치 및 그 방법 |
US9727793B2 (en) * | 2015-12-15 | 2017-08-08 | Honda Motor Co., Ltd. | System and method for image based vehicle localization |
KR20180009280A (ko) | 2016-07-18 | 2018-01-26 | 주식회사 퓨전소프트 | 3d 맵 데이터를 이용한 차선 위치확인 및 경로 안내 시스템 |
KR102463702B1 (ko) | 2016-12-15 | 2022-11-07 | 현대자동차주식회사 | 차량 정밀 위치 추정 장치, 그 방법, 그를 위한 맵 구축 장치, 및 그를 위한 맵 구축 방법 |
US10309777B2 (en) * | 2016-12-30 | 2019-06-04 | DeepMap Inc. | Visual odometry and pairwise alignment for high definition map creation |
US10209089B2 (en) * | 2017-04-03 | 2019-02-19 | Robert Bosch Gmbh | Automated image labeling for vehicles based on maps |
US10282860B2 (en) * | 2017-05-22 | 2019-05-07 | Honda Motor Co., Ltd. | Monocular localization in urban environments using road markings |
CN111492403A (zh) * | 2017-10-19 | 2020-08-04 | 迪普迈普有限公司 | 用于生成高清晰度地图的激光雷达到相机校准 |
KR102221695B1 (ko) * | 2018-01-15 | 2021-03-02 | 에스케이텔레콤 주식회사 | 자율주행을 위한 고정밀 지도의 업데이트 장치 및 방법 |
CN109389650B (zh) * | 2018-09-30 | 2021-01-12 | 京东方科技集团股份有限公司 | 一种车载相机的标定方法、装置、车辆和存储介质 |
-
2018
- 2018-10-24 KR KR1020180127589A patent/KR20200046437A/ko not_active Application Discontinuation
-
2019
- 2019-04-01 US US16/371,305 patent/US11176719B2/en active Active
- 2019-06-25 EP EP19182124.8A patent/EP3644278A1/en active Pending
- 2019-06-25 EP EP23190121.6A patent/EP4246440A3/en active Pending
- 2019-07-17 CN CN201910648410.XA patent/CN111089597A/zh active Pending
- 2019-09-20 JP JP2019171729A patent/JP2020076745A/ja active Pending
-
2024
- 2024-02-01 JP JP2024013948A patent/JP2024032933A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4246440A3 (en) | 2024-01-03 |
US20200134896A1 (en) | 2020-04-30 |
EP4246440A2 (en) | 2023-09-20 |
US11176719B2 (en) | 2021-11-16 |
JP2024032933A (ja) | 2024-03-12 |
EP3644278A1 (en) | 2020-04-29 |
KR20200046437A (ko) | 2020-05-07 |
CN111089597A (zh) | 2020-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11227398B2 (en) | RGB point clouds based map generation system for autonomous vehicles | |
EP3707469B1 (en) | A point clouds registration system for autonomous vehicles | |
US11465642B2 (en) | Real-time map generation system for autonomous vehicles | |
JP2020076745A (ja) | 映像及びマップデータ基盤測位方法及び装置 | |
EP3714290B1 (en) | Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles | |
US11315317B2 (en) | Point clouds ghosting effects detection system for autonomous driving vehicles | |
US11594011B2 (en) | Deep learning-based feature extraction for LiDAR localization of autonomous driving vehicles | |
EP3714285B1 (en) | Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles | |
WO2020154967A1 (en) | Map partition system for autonomous vehicles | |
JP7269082B2 (ja) | 拡張現実で仮想オブジェクトを表示するための測位方法及び装置 | |
CN110388931A (zh) | 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法 | |
CN112740268B (zh) | 目标检测方法和装置 | |
CN113544467A (zh) | 对齐用于导航的道路信息 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240201 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240209 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20240329 |