JP6856750B2 - 方法および装置 - Google Patents
方法および装置 Download PDFInfo
- Publication number
- JP6856750B2 JP6856750B2 JP2019528676A JP2019528676A JP6856750B2 JP 6856750 B2 JP6856750 B2 JP 6856750B2 JP 2019528676 A JP2019528676 A JP 2019528676A JP 2019528676 A JP2019528676 A JP 2019528676A JP 6856750 B2 JP6856750 B2 JP 6856750B2
- Authority
- JP
- Japan
- Prior art keywords
- environment
- sensor
- reference frame
- type
- representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 31
- 239000000284 extract Substances 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 14
- 230000007613 environmental effect Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
- G01S13/426—Scanning radar, e.g. 3D radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Electromagnetism (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computer Graphics (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Radar Systems Or Details Thereof (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Image Processing (AREA)
Description
Claims (10)
- ポジショニングのために環境参照モデルを生成する方法であって、
スキャンされた環境を表現する複数のデータセットを受信することを含み、前記データセットは、使用されるセンサタイプに関する情報と、該データセットにより表現される物体および/またはフィーチャポイントの絶対ポジションを決定するためのデータとも含み、
前記データセット各々から1つまたは複数の物体および/またはフィーチャポイントを抽出し、参照座標系内での前記物体および/またはフィーチャポイントのポジションを決定し、
前記参照座標系とアライメントされ前記物体および/またはフィーチャポイントが対応するロケーションのところに表現された、スキャンされた前記環境の三次元ベクトルモデル表現を生成し、
前記三次元ベクトルモデルにおける前記物体および/またはフィーチャポイントと、該物体および/またはフィーチャポイントを前記環境内で検出可能な少なくとも1つのセンサタイプとのリンクを生成し、
前記三次元ベクトルモデル表現と前記リンクとを取り出し可能な手法で記憶する
ことを含む、ポジショニングのために環境参照モデルを生成する方法。 - ポジショニングのために第1の環境の参照フレームを適応的に供給する方法であって、
前記第1の環境に対する参照フレームを求める要求を要求側エンティティから受信することを含み、前記要求は、前記環境のローカルな表現を生成するために使用可能な少なくとも1つのセンサタイプを含み、
前記第1の環境を有する三次元ベクトルモデル表現を記憶装置から取り出し、
前記少なくとも1つのセンサタイプとのリンクが存在するフィーチャポイントを少なくとも含む、第1の参照フレームを、前記三次元ベクトルモデルから生成し、
前記第1の参照フレームを前記要求側エンティティに送信する
ことを含む、ポジショニングのために第1の環境の参照フレームを適応的に供給する方法。 - 環境内でのモバイルエンティティのポジションを決定する方法であって、
前記環境に対する参照フレームを受信することを含み、前記参照フレームは、第1のタイプのセンサによって検出可能である前記環境内の物体および/またはフィーチャポイントに関する情報を含み、
前記第1のタイプのセンサにより検出可能な少なくとも1つの物体および少なくとも1つのフィーチャポイントに関する情報を、前記参照フレームから抽出し、
第1のタイプのセンサを用いて環境をスキャンし、
前記第1のタイプのセンサによって生成されたスキャンされた前記環境の表現内において、前記参照フレーム内に含まれている少なくとも1つの物体を見つけて識別することを含み、前記少なくとも1つの物体を見つけて識別するためのサーチエリアを、前記参照フレームにより提供される、物体に関する情報に基づき指定可能であり、
前記環境のセンサ表現内において、少なくとも1つのフィーチャポイントを見つけて識別することを含み、前記少なくとも1つのフィーチャポイントを見つけて識別するためのサーチエリアを、前記参照フレームにより提供される、フィーチャポイントに関する情報に基づき指定可能であり、
前記環境の前記センサ表現内で識別された前記少なくとも1つのフィーチャポイントと、前記参照フレームから抽出された前記少なくとも1つのフィーチャポイントの絶対ポジションに関する情報とを用いて、前記環境内でのポジションを決定することを含み、
前記参照フレームは、前記少なくとも1つの物体および少なくとも1つのフィーチャポイントを含む三次元ベクトル表現に対応し、前記少なくとも1つの物体および少なくとも1つのフィーチャポイントと前記第1のタイプのセンサとのリンクを含む、
環境内でのモバイルエンティティのポジションを決定する方法。 - 前記方法はさらに、
前記物体を含む前記環境の参照フレームを受信することを含み、前記参照フレームは、第1のタイプのセンサおよび第2のタイプのセンサにより検出可能である前記環境内の物体および/またはフィーチャポイントに関する情報を含み、
前記第1のタイプのセンサおよび前記第2のタイプのセンサにより検出可能な前記物体および識別された前記物体に関わるフィーチャポイントに関する情報を、前記参照フレームから抽出し、
前記第1のタイプのセンサに加え、第2のタイプのセンサを用いて前記環境をスキャンし、
前記第1のタイプのセンサにより該センサと前記物体との間の第1の距離のところで生成された前記環境の表現内において、前記参照フレーム内に含まれている少なくとも1つの物体を見つけて識別することを含み、前記少なくとも1つの物体を見つけて識別するためのサーチエリアを、前記参照フレームにより提供される、物体に関する情報に基づき指定可能であり、
抽出された前記情報を用いて、前記第2のタイプのセンサにより該センサと前記物体との間であって前記第1の距離よりも短い第2の距離のところで生成された前記環境の表現内において、前記物体を見つけて識別し、
抽出された前記情報を用いて、前記第2のタイプのセンサにより生成された前記環境の表現内において、1つまたは複数のフィーチャポイントを見つけて識別し、
前記第2のタイプのセンサにより生成された前記環境の前記表現内で識別された少なくともフィーチャポイントを用いて、前記環境内でのポジションを決定することを含み、抽出された前記情報は、前記環境における前記フィーチャポイントの絶対ポジションに関するデータを含む、
請求項3記載の方法。 - 前記参照フレームは、複数の物体および/またはフィーチャポイントを含む三次元ベクトル表現に対応する、請求項2から4までのいずれか1項記載の方法。
- 前記参照フレームは、複数の物体および/またはフィーチャポイントを含む三次元ベクトル表現に対応し、ポジションを決定することは、ローカルで生成された三次元ベクトル表現を受信した三次元ベクトル表現とマッチングさせることを含む、請求項3または4記載の方法。
- ポジショニングのために環境参照モデルを生成する装置であって、
スキャンされた環境を表現する複数のデータセットを受信するように適合された第1のモジュールであって、前記データセットは、使用されるセンサタイプに関する情報と、該データセットにより表現される物体および/またはフィーチャポイントの絶対ポジションを決定するためのデータとも含む、第1のモジュールと、
前記データセット各々から1つまたは複数の物体および/またはフィーチャポイントを抽出し、参照座標系における前記物体および/またはフィーチャポイントのポジションを決定するように適合された第2のモジュールと、
前記参照座標系とアライメントされ前記物体および/またはフィーチャポイントが対応するロケーションのところに表現された、スキャンされた前記環境の三次元ベクトルモデル表現を生成するように適合された第3のモジュールと、
前記三次元ベクトルモデル内の前記物体および/またはフィーチャポイントと、該物体および/またはフィーチャポイントを前記環境内で検出可能な少なくとも1つのセンサタイプとのリンクを生成するように適合された第4のモジュールと、
前記三次元ベクトルモデル表現と前記リンクとを取り出し可能な手法で記憶するように適合された第5のモジュールと、
を備える、ポジショニングのために環境参照モデルを生成する装置。 - ポジショニングのために第1の環境の参照フレームをモバイルエンティティに適応的に供給する装置であって、
前記第1の環境に対する参照フレームを求める前記モバイルエンティティからの要求を受信するように適合された第6のモジュールであって、前記要求は、前記環境のローカルな表現を生成するために使用可能な少なくとも1つのセンサタイプを含む、第6のモジュールと、
前記第1の環境を含む三次元ベクトルモデル表現を記憶装置から取り出すように適合された第7のモジュールと、
前記少なくとも1つのセンサタイプとのリンクが存在するフィーチャポイントを少なくとも含む、第1の参照フレームを、前記三次元ベクトルモデルから生成するように適合された第8のモジュールと、
前記第1の参照フレームを前記モバイルエンティティに送信するように適合された第9のモジュールと、
を備える、ポジショニングのために第1の環境の参照フレームをモバイルエンティティに適応的に供給する装置。 - 環境内でのモバイルエンティティのポジションを決定する装置であって、
第1のタイプのセンサを用いて環境をスキャンするように適合された第10のモジュールと、
前記第1のタイプのセンサによって生成されたスキャンされた前記環境の表現内において、物体を識別するように適合された第11のモジュールと、
前記物体を含む前記環境に対する参照フレームを受信するように適合された第12のモジュールであって、前記参照フレームは、前記第1のタイプのセンサによって検出可能である前記環境内の物体および/またはフィーチャポイントに関する情報を含む、第12のモジュールと、
前記第1のタイプのセンサにより検出可能な前記物体および識別された前記物体に関わる少なくとも1つのフィーチャポイントに関する情報を、前記参照フレームから抽出するように適合された第13のモジュールと、
前記参照フレームからの物体および/またはフィーチャポイントに関する前記情報を用いて、前記環境のセンサ表現内において少なくとも1つのフィーチャポイントを識別するように適合された第14のモジュールと、
前記環境の前記センサ表現内で識別された前記少なくとも1つのフィーチャポイントと、前記参照フレームから抽出された前記少なくとも1つのフィーチャポイントの絶対ポジションに関する情報とを用いて、前記環境内でのポジションを決定するように適合された第15のモジュールと、
を備え、
前記参照フレームは、前記環境内の物体および/またはフィーチャポイントを含む三次元ベクトル表現に対応し、前記環境内の物体および/またはフィーチャポイントと前記第1のタイプのセンサとのリンクを含む、
環境内でのモバイルエンティティのポジションを決定する装置。 - 前記第10のモジュールは、前記第1のタイプのセンサを用いることに加え、第2のタイプのセンサを用いて前記環境をスキャンするように適合されており、
前記第11のモジュールは、前記第1のタイプのセンサにより該センサと前記物体との間の第1の距離のところで生成された前記環境の表現内において物体を識別するように適合されており、
前記第12のモジュールは、前記物体を含む前記環境に対する参照フレームを受信するように適合されており、該参照フレームは、前記第1のタイプのセンサおよび前記第2のタイプのセンサにより検出可能である前記環境内の物体および/またはフィーチャポイントに関する情報を含み、
前記第13のモジュールは、前記第1のタイプのセンサと前記第2のタイプのセンサとにより検出可能な前記物体および識別された前記物体に関わる少なくとも1つのフィーチャポイントに関する情報を、前記参照フレームから抽出するように適合されており、
前記第14のモジュールは、抽出された前記情報を用いて、前記第2のタイプのセンサにより該センサと前記物体との間であって前記第1の距離よりも短い第2の距離のところで生成された前記環境の表現内において前記物体を識別するように、かつ抽出された前記情報を用いて、前記第2のタイプのセンサにより生成された前記環境の前記表現内において1つまたは複数のフィーチャポイントを識別するように適合されており、
前記第15のモジュールは、前記第2のタイプのセンサにより生成された前記環境の前記表現内で識別された前記少なくとも1つのフィーチャポイントと、前記参照フレームから抽出された前記少なくとも1つのフィーチャポイントの絶対ポジションに関する情報とを用いて、前記環境内でのポジションを決定するように適合されている、
請求項9記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/107748 WO2018098635A1 (en) | 2016-11-29 | 2016-11-29 | Method and system for generating environment model and for positioning using cross-sensor feature point referencing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019537018A JP2019537018A (ja) | 2019-12-19 |
JP6856750B2 true JP6856750B2 (ja) | 2021-04-14 |
Family
ID=62241057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019528676A Active JP6856750B2 (ja) | 2016-11-29 | 2016-11-29 | 方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11513211B2 (ja) |
EP (1) | EP3548915A4 (ja) |
JP (1) | JP6856750B2 (ja) |
CN (2) | CN109997052B (ja) |
CA (1) | CA3040599C (ja) |
WO (1) | WO2018098635A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11373067B2 (en) * | 2018-08-10 | 2022-06-28 | Nec Corporation | Parametric top-view representation of scenes |
CN110336975A (zh) * | 2019-07-12 | 2019-10-15 | 浙江华创视讯科技有限公司 | 视频流的切换方法及视频流的播放终端 |
CN112698315B (zh) * | 2019-10-23 | 2024-04-09 | 浙江菜鸟供应链管理有限公司 | 移动设备定位系统、方法及设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4940800B2 (ja) | 2006-07-12 | 2012-05-30 | オムロン株式会社 | 変位センサ |
CA2712673A1 (en) * | 2008-02-04 | 2009-08-13 | Tele Atlas North America Inc. | Method for map matching with sensor detected objects |
US8503730B2 (en) | 2008-09-19 | 2013-08-06 | Honeywell International Inc. | System and method of extracting plane features |
JP5057183B2 (ja) * | 2010-03-31 | 2012-10-24 | アイシン・エィ・ダブリュ株式会社 | 風景マッチング用参照データ生成システム及び位置測位システム |
JP5782708B2 (ja) | 2010-12-03 | 2015-09-24 | 日産自動車株式会社 | 走行支援装置 |
US8655588B2 (en) * | 2011-05-26 | 2014-02-18 | Crown Equipment Limited | Method and apparatus for providing accurate localization for an industrial vehicle |
KR101776703B1 (ko) * | 2011-10-14 | 2017-09-08 | 한화테크윈 주식회사 | 레이다 센서 및 이를 이용한 물체 검출 방법 |
JP2013118514A (ja) | 2011-12-02 | 2013-06-13 | Canon Inc | 撮像装置及び撮像装置の制御方法 |
GB201202344D0 (en) * | 2012-02-10 | 2012-03-28 | Isis Innovation | Method of locating a sensor and related apparatus |
US8855442B2 (en) * | 2012-04-30 | 2014-10-07 | Yuri Owechko | Image registration of multimodal data using 3D-GeoArcs |
US9098753B1 (en) | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using multiple sensors |
US9519061B2 (en) * | 2014-12-26 | 2016-12-13 | Here Global B.V. | Geometric fingerprinting for localization of a device |
-
2016
- 2016-11-29 CN CN201680091159.6A patent/CN109997052B/zh active Active
- 2016-11-29 CN CN202310268002.8A patent/CN116147613A/zh active Pending
- 2016-11-29 US US16/464,622 patent/US11513211B2/en active Active
- 2016-11-29 JP JP2019528676A patent/JP6856750B2/ja active Active
- 2016-11-29 CA CA3040599A patent/CA3040599C/en active Active
- 2016-11-29 WO PCT/CN2016/107748 patent/WO2018098635A1/en unknown
- 2016-11-29 EP EP16922592.7A patent/EP3548915A4/en active Pending
-
2022
- 2022-11-02 US US18/052,048 patent/US20230138487A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2019537018A (ja) | 2019-12-19 |
CN109997052B (zh) | 2023-03-24 |
WO2018098635A1 (en) | 2018-06-07 |
CN109997052A (zh) | 2019-07-09 |
EP3548915A4 (en) | 2020-08-05 |
US20230138487A1 (en) | 2023-05-04 |
US11513211B2 (en) | 2022-11-29 |
CA3040599C (en) | 2022-09-06 |
EP3548915A1 (en) | 2019-10-09 |
CN116147613A (zh) | 2023-05-23 |
CA3040599A1 (en) | 2018-06-07 |
US20210088648A1 (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210142530A1 (en) | Augmented reality vision system for tracking and geolocating objects of interest | |
US10437252B1 (en) | High-precision multi-layer visual and semantic map for autonomous driving | |
KR102425272B1 (ko) | 디지털 지도에 대한 위치를 판별하기 위한 방법 및 시스템 | |
JP7082545B2 (ja) | 情報処理方法、情報処理装置およびプログラム | |
EP3056861B1 (en) | Method and system in a vehicle for improving prediction results of an advantageous driver assistant system | |
TW202001924A (zh) | 基於雙目影像更新高解析度地圖的系統和方法 | |
US20230138487A1 (en) | An Environment Model Using Cross-Sensor Feature Point Referencing | |
WO2018125939A1 (en) | Visual odometry and pairwise alignment for high definition map creation | |
US10579067B2 (en) | Method and system for vehicle localization | |
KR102200299B1 (ko) | 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법 | |
WO2014201324A1 (en) | Vision augmented navigation | |
JP6950832B2 (ja) | 位置座標推定装置、位置座標推定方法およびプログラム | |
US11430199B2 (en) | Feature recognition assisted super-resolution method | |
US10872246B2 (en) | Vehicle lane detection system | |
US20200005068A1 (en) | System and method for improving the representation of line features | |
KR100809524B1 (ko) | 유비쿼터스 네트워크 기반의 네비게이션 장치와 서버를 이용한 교통정보 제공 시스템 및 방법 | |
JP7051416B2 (ja) | 自己位置推定装置 | |
CN112556701A (zh) | 用于定位交通工具的方法、装置、设备和存储介质 | |
CN113447032A (zh) | 定位方法、装置、电子设备及存储介质 | |
JP2022140891A (ja) | 端末装置、情報処理システム、情報処理方法、および、コンピュータプログラム | |
JP2019109332A (ja) | 地図データ構造 | |
JP2019109331A (ja) | 地図データ構造 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190801 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190626 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200708 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856750 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |