JP7269082B2 - 拡張現実で仮想オブジェクトを表示するための測位方法及び装置 - Google Patents
拡張現実で仮想オブジェクトを表示するための測位方法及び装置 Download PDFInfo
- Publication number
- JP7269082B2 JP7269082B2 JP2019077030A JP2019077030A JP7269082B2 JP 7269082 B2 JP7269082 B2 JP 7269082B2 JP 2019077030 A JP2019077030 A JP 2019077030A JP 2019077030 A JP2019077030 A JP 2019077030A JP 7269082 B2 JP7269082 B2 JP 7269082B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- positioning
- positioning information
- generating
- visual alignment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Processing Or Creating Images (AREA)
Description
1405:通信バス
1410:センサ
1430:プロセッサ
1450:メモリ
1470:通信インターフェース
1490:ディスプレイ装置
Claims (24)
- 装置の測位情報を取得するステップと、
入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成するステップと、
前記オブジェクトの位置に対応するマップデータに基づいて、前記測位情報に応じて前記オブジェクトが投影された第2映像を生成するステップと、
前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新するステップと、
を含み、前記第1映像を生成するステップは、予め学習された神経網を用いて前記方向性を示す確率マップを生成するステップを含み、前記確率マップに含まれるピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納している、測位方法。 - 前記測位情報は、前記装置の位置及び前記装置の姿勢を含む、請求項1に記載の測位方法。
- 前記第2映像を生成するステップは、
前記マップデータ上に仮想カメラを配置するステップと、
前記装置の姿勢に基づいて前記仮想カメラの姿勢を調整するステップと、
前記仮想カメラでオブジェクトを見る視点の映像を生成するステップと、
を含む、請求項2に記載の測位方法。 - 前記方向性は、前記オブジェクトと近い程度を示す確率の分布に対応する、請求項1-3のうち何れか一項に記載の測位方法。
- 前記入力映像は第1センサの出力に基づき、前記測位情報は第2センサの出力に基づく、請求項1-4のうち何れか一項に記載の測位方法。
- 拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、
前記更新された測位情報に基づいて、前記仮想オブジェクトを前記入力映像と共に表示するステップと、
をさらに含む、請求項1-5のうち何れか一項に記載の測位方法。 - 前記仮想オブジェクトは走行経路情報を示す、請求項6に記載の測位方法。
- 前記シードピクセルは、前記入力映像に含まれたピクセルのうち前記オブジェクトに対応するピクセルを含む、請求項1に記載の測位方法。
- 前記第2映像を生成するステップは、前記マップデータの座標系を前記第2映像の座標系に変換するコンバータを用いて前記第2映像を生成するステップを含む、請求項1-8のうち何れか一項に記載の測位方法。
- 前記測位情報は6自由度(DoF)を有する、請求項1-9のうち何れか一項に記載の測位方法。
- 装置の測位情報を取得するステップと、
入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成するステップと、
前記オブジェクトの位置に対応するマップデータに基づいて、前記測位情報に応じて前記オブジェクトが投影された第2映像を生成するステップと、
前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新するステップと、
を含み、前記測位情報を更新するステップは、
前記第1映像と前記第2映像をマッチングすることによって、前記視覚的整列の程度を算出するステップと、
前記方向性に基づいて、前記視覚的整列の程度が増加するように前記測位情報を更新するステップと、
を含み、前記視覚的整列の程度を算出するステップは、前記第1映像のピクセルのうち前記第2映像の前記オブジェクトに対応するピクセルの値を合算するステップを含む、測位方法。 - 前記方向性に基づいて前記測位情報を更新するステップは、前記第2映像で前記オブジェクトが前記方向性により変換されるよう前記測位情報を更新するステップを含む、請求項11に記載の測位方法。
- 前記方向性に基づいて前記測位情報を更新するステップは、前記方向性に基づいて前記第2映像で前記オブジェクトを移動又は回転させるステップを含む、請求項11に記載の測位方法。
- 前記第1映像は、前記オブジェクトのタイプを映像の中で表現される形態に応じて区分することによって前記オブジェクトのタイプごとに方向性を格納し、
前記第2映像は、前記オブジェクトのタイプを映像の中で表現される形態に応じて区分することによって前記オブジェクトのタイプごとに投影されたオブジェクトを格納する、請求項1-13のうち何れか一項に記載の測位方法。 - 前記測位情報を更新するステップは、
前記第1映像と前記第2映像をマッチングすることによって、前記オブジェクトのタイプごとに視覚的整列の程度を算出するステップと、
前記方向性に基づいて、前記タイプごとの視覚的整列の程度が増加するように前記測位情報を更新するステップと、
を含む、請求項14に記載の測位方法。 - 前記入力映像は車両の走行映像を含む、請求項1-15のうち何れか一項に記載の測位方法。
- 前記オブジェクトは、車線、道路面標識、信号機、表示板、縁石、及び構造物のいずれか1つ又はその組合せを含む、請求項1-16のうち何れか一項に記載の測位方法。
- 学習映像を受信するステップと、
前記学習映像のためのマップデータに基づいて、前記学習映像に含まれたオブジェクトに対応する方向性を含む基準映像を生成するステップと、
神経網を用いて前記学習映像に含まれたオブジェクトに対応する方向性を推論する推論映像を生成するステップと、
前記基準映像と前記推論映像との間の差に基づいて前記神経網を学習するステップと、
を更に含む請求項1に記載の方法。 - 前記学習するステップは、前記基準映像と前記推論映像との間の差が最小化されるように前記神経網を学習するステップを含む、請求項18に記載の方法。
- 前記学習するステップは、前記基準映像と前記推論映像との間のタイプごとの差に基づいて、前記神経網を学習するステップを含む、請求項18に記載の方法。
- 請求項1-20のうちの何れか一項に記載の方法を装置のコンピュータに実行させるコンピュータプログラム。
- 装置の測位情報及び入力映像を取得するセンサと、
前記入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成し、前記オブジェクトの位置に対応するマップデータに基づいて、前記測位情報に応じて前記オブジェクトが投影された第2映像を生成し、前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新するプロセッサと、
を含み、前記第1映像を生成することは、予め学習された神経網を用いて前記方向性を示す確率マップを生成することを含み、前記確率マップに含まれるピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納している、測位装置。 - 測位方法であって、
装置の位置に対応する入力映像を取得するステップと、
オブジェクトの位置に対応するマップデータを受信するステップと、
複数の候補測位情報それぞれに基づいて、前記オブジェクトが投影された第2映像を前記マップデータ上に生成するステップと、
前記入力映像と前記第2映像それぞれをマッチングすることによって、前記第2映像それぞれに対する視覚的整列の程度を算出するステップと、
前記第2映像から最も大きい視覚的整列の程度を有する第2映像を選択するステップと、
前記選択された第2映像に対応する候補測位情報に基づいて測位情報を更新するステップと、
を含み、前記視覚的整列の程度を算出するステップの前に、前記オブジェクトに対応する方向性を示す確率マップを含む第1映像を生成するステップであって、予め学習された神経網を用いて前記方向性を示す確率マップを生成し、前記確率マップに含まれるピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納している、ステップを含み、
前記視覚的整列の程度を算出するステップは、前記第1映像と前記第2映像それぞれをマッチングするステップを含む、測位方法。 - 入力映像をキャプチャーする第1センサと、
装置の測位情報を取得する第2センサと、
ヘッドアップディスプレイ(HUD)と、
プロセッサと、
を含む測位装置であって、
前記プロセッサは、
前記映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成し、
前記測位情報に基づいて、前記オブジェクトが投影された第2映像を前記オブジェクトの位置に対応するマップデータ上に生成し、
前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新し、
拡張現実(AR)サービスのために前記ヘッドアップディスプレイ内の調整された測位情報に基づいて、前記オブジェクト及び前記入力映像をマップデータ上に表示し、
前記第1映像を生成することは、予め学習された神経網を用いて前記方向性を示す確率マップを生成することを含み、前記確率マップに含まれるピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納している、測位装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180108252A KR20200029785A (ko) | 2018-09-11 | 2018-09-11 | 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치 |
KR10-2018-0108252 | 2018-09-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042002A JP2020042002A (ja) | 2020-03-19 |
JP7269082B2 true JP7269082B2 (ja) | 2023-05-08 |
Family
ID=67253823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019077030A Active JP7269082B2 (ja) | 2018-09-11 | 2019-04-15 | 拡張現実で仮想オブジェクトを表示するための測位方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11037368B2 (ja) |
EP (1) | EP3623761B1 (ja) |
JP (1) | JP7269082B2 (ja) |
KR (1) | KR20200029785A (ja) |
CN (1) | CN110889872A (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017230184B2 (en) | 2016-03-11 | 2021-10-07 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
JP6772944B2 (ja) | 2017-04-19 | 2020-10-21 | トヨタ自動車株式会社 | 自動運転システム |
JP6847885B2 (ja) * | 2018-03-20 | 2021-03-24 | 株式会社東芝 | 情報処理装置、情報処理方法及びプログラム |
KR102627453B1 (ko) | 2018-10-17 | 2024-01-19 | 삼성전자주식회사 | 위치 추정 장치 및 방법 |
US10824151B2 (en) * | 2019-01-31 | 2020-11-03 | StradVision, Inc. | Method and device for providing personalized and calibrated adaptive deep learning model for the user of an autonomous vehicle |
JP7385681B2 (ja) | 2019-05-21 | 2023-11-22 | マジック リープ, インコーポレイテッド | 手姿勢推定 |
US11829128B2 (en) | 2019-10-23 | 2023-11-28 | GM Global Technology Operations LLC | Perception system diagnosis using predicted sensor data and perception results |
CN111459269B (zh) * | 2020-03-24 | 2020-12-01 | 视辰信息科技(上海)有限公司 | 一种增强现实显示方法、系统及计算机可读存储介质 |
IT202000006472A1 (it) * | 2020-03-27 | 2021-09-27 | Invisible Cities S R L | Sistema configurato per associare uno scenario virtuale ad uno scenario reale durante il movimento di un veicolo all’interno di una area geografica di interesse. |
GB2594249B (en) | 2020-04-20 | 2024-05-29 | Continental Autonomous Mobility Germany GmbH | Method for creating a virtual environment reconstruction of an actual location |
CN111623795B (zh) * | 2020-05-28 | 2022-04-15 | 阿波罗智联(北京)科技有限公司 | 实景导航图标显示方法、装置、设备和介质 |
CN112781620B (zh) * | 2020-12-30 | 2022-03-18 | 东风汽车集团有限公司 | 一种基于高精度地图系统的ar-hud影像标定调整系统及方法 |
US11590423B2 (en) | 2021-03-29 | 2023-02-28 | Niantic, Inc. | Multi-user route tracking in an augmented reality environment |
CN113434620A (zh) * | 2021-06-25 | 2021-09-24 | 阿波罗智联(北京)科技有限公司 | 显示方法、装置、设备、存储介质以及计算机程序产品 |
CN113566847B (zh) * | 2021-07-22 | 2022-10-11 | 北京百度网讯科技有限公司 | 导航校准方法和装置、电子设备、计算机可读介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006035755A1 (ja) | 2004-09-28 | 2006-04-06 | National University Corporation Kumamoto University | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
JP2014127027A (ja) | 2012-12-26 | 2014-07-07 | Nippon Soken Inc | 境界線認識装置 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPS123702A0 (en) * | 2002-03-22 | 2002-04-18 | Nahla, Ibrahim S. Mr | The train navigtion and control system (TNCS) for multiple tracks |
US7224831B2 (en) * | 2004-02-17 | 2007-05-29 | Honda Motor Co. | Method, apparatus and program for detecting an object |
KR100774591B1 (ko) | 2006-03-31 | 2007-11-09 | (주)더싸인 | 네비게이션 시스템 및 이를 이용한 네비게이션 방법 |
CN101952688A (zh) * | 2008-02-04 | 2011-01-19 | 电子地图北美公司 | 用于与传感器检测到的对象进行地图匹配的方法 |
US8237791B2 (en) * | 2008-03-19 | 2012-08-07 | Microsoft Corporation | Visualizing camera feeds on a map |
US8711206B2 (en) | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US20120300020A1 (en) * | 2011-05-27 | 2012-11-29 | Qualcomm Incorporated | Real-time self-localization from panoramic images |
US9047376B2 (en) * | 2012-05-01 | 2015-06-02 | Hulu, LLC | Augmenting video with facial recognition |
JP5968064B2 (ja) | 2012-05-08 | 2016-08-10 | アルパイン株式会社 | 走行レーン認識装置および走行レーン認識方法 |
US20140323148A1 (en) | 2013-04-30 | 2014-10-30 | Qualcomm Incorporated | Wide area localization from slam maps |
KR102020629B1 (ko) | 2013-05-09 | 2019-11-04 | 현대모비스 주식회사 | 증강 현실을 이용하여 헤드업 디스플레이 향상 방법 및 시스템 |
US9524434B2 (en) | 2013-10-04 | 2016-12-20 | Qualcomm Incorporated | Object tracking based on dynamically built environment map data |
JP6368149B2 (ja) * | 2014-06-04 | 2018-08-01 | キヤノン株式会社 | 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法 |
KR101610502B1 (ko) * | 2014-09-02 | 2016-04-07 | 현대자동차주식회사 | 자율주행차량의 주행환경 인식장치 및 방법 |
US11370422B2 (en) | 2015-02-12 | 2022-06-28 | Honda Research Institute Europe Gmbh | Method and system in a vehicle for improving prediction results of an advantageous driver assistant system |
JP6393214B2 (ja) | 2015-03-03 | 2018-09-19 | アルパイン株式会社 | 車線認識システム及びコンピュータプログラム |
JP6550819B2 (ja) * | 2015-03-19 | 2019-07-31 | 富士ゼロックス株式会社 | 選択支援装置及びプログラム |
US9852547B2 (en) * | 2015-03-23 | 2017-12-26 | International Business Machines Corporation | Path visualization for augmented reality display device based on received data and probabilistic analysis |
EP3078935A1 (en) | 2015-04-10 | 2016-10-12 | The European Atomic Energy Community (EURATOM), represented by the European Commission | Method and device for real-time mapping and localization |
US20160358383A1 (en) * | 2015-06-05 | 2016-12-08 | Steffen Gauglitz | Systems and methods for augmented reality-based remote collaboration |
KR102196975B1 (ko) * | 2015-08-15 | 2020-12-30 | 구글 엘엘씨 | 실제 객체 및 가상 객체와 상호작용하기 위한 생체기계적 기반의 안구 신호를 위한 시스템 및 방법 |
CN108028889B (zh) * | 2015-09-18 | 2021-07-02 | 索尼公司 | 图像处理设备、图像处理方法、程序和摄像系统 |
US10540768B2 (en) * | 2015-09-30 | 2020-01-21 | Samsung Electronics Co., Ltd. | Apparatus and method to segment object from image |
US9630619B1 (en) * | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Robotic vehicle active safety systems and methods |
US9727793B2 (en) | 2015-12-15 | 2017-08-08 | Honda Motor Co., Ltd. | System and method for image based vehicle localization |
US9740944B2 (en) * | 2015-12-18 | 2017-08-22 | Ford Global Technologies, Llc | Virtual sensor data generation for wheel stop detection |
US20170206426A1 (en) * | 2016-01-15 | 2017-07-20 | Ford Global Technologies, Llc | Pedestrian Detection With Saliency Maps |
US10198808B2 (en) * | 2016-01-15 | 2019-02-05 | Instrumental, Inc. | Methods for automatically generating a common measurement across multiple assembly units |
CN105676253B (zh) * | 2016-01-15 | 2019-01-01 | 武汉光庭科技有限公司 | 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法 |
CN106127120B (zh) * | 2016-06-16 | 2018-03-13 | 北京市商汤科技开发有限公司 | 姿势估计方法和装置、计算机系统 |
US10229215B2 (en) * | 2016-09-26 | 2019-03-12 | Disney Enterprises, Inc. | Visualisation and navigation of transmedia content data |
CN108121764B (zh) * | 2016-11-26 | 2022-03-11 | 星克跃尔株式会社 | 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质 |
JP6669059B2 (ja) | 2016-12-27 | 2020-03-18 | トヨタ自動車株式会社 | 位置算出装置 |
US10452927B2 (en) * | 2017-08-09 | 2019-10-22 | Ydrive, Inc. | Object localization within a semantic domain |
US10540589B2 (en) * | 2017-10-24 | 2020-01-21 | Deep North, Inc. | Image quality assessment using similar scenes as reference |
US10763989B2 (en) * | 2018-10-16 | 2020-09-01 | Nec Corporation | Machine learning based classification of higher-order spatial modes |
-
2018
- 2018-09-11 KR KR1020180108252A patent/KR20200029785A/ko active IP Right Grant
-
2019
- 2019-01-28 US US16/259,420 patent/US11037368B2/en active Active
- 2019-03-27 CN CN201910241914.XA patent/CN110889872A/zh active Pending
- 2019-04-15 JP JP2019077030A patent/JP7269082B2/ja active Active
- 2019-07-11 EP EP19185859.6A patent/EP3623761B1/en active Active
-
2021
- 2021-06-01 US US17/335,199 patent/US11842447B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006035755A1 (ja) | 2004-09-28 | 2006-04-06 | National University Corporation Kumamoto University | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
JP2014127027A (ja) | 2012-12-26 | 2014-07-07 | Nippon Soken Inc | 境界線認識装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3623761A1 (en) | 2020-03-18 |
KR20200029785A (ko) | 2020-03-19 |
JP2020042002A (ja) | 2020-03-19 |
EP3623761B1 (en) | 2022-03-23 |
US11037368B2 (en) | 2021-06-15 |
CN110889872A (zh) | 2020-03-17 |
US11842447B2 (en) | 2023-12-12 |
US20200082621A1 (en) | 2020-03-12 |
US20210287438A1 (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7269082B2 (ja) | 拡張現実で仮想オブジェクトを表示するための測位方法及び装置 | |
US11042157B2 (en) | Lane/object detection and tracking perception system for autonomous vehicles | |
US20210365750A1 (en) | Systems and methods for estimating future paths | |
US10582137B1 (en) | Multi-sensor data capture synchronizaiton | |
US11436743B2 (en) | Systems and methods for semi-supervised depth estimation according to an arbitrary camera | |
US20220394156A1 (en) | Image scan line timestamping | |
US11427210B2 (en) | Systems and methods for predicting the trajectory of an object with the aid of a location-specific latent map | |
US20200223444A1 (en) | Utilizing passenger attention data captured in vehicles for localization and location-based services | |
US11176719B2 (en) | Method and apparatus for localization based on images and map data | |
CN110347145A (zh) | 用于自动驾驶车辆的感知辅助 | |
US20170359561A1 (en) | Disparity mapping for an autonomous vehicle | |
JP7422747B2 (ja) | 画像スキャンラインのタイムスタンプ | |
US11652972B2 (en) | Systems and methods for self-supervised depth estimation according to an arbitrary camera | |
US11869253B2 (en) | Vehicle environment modeling with a camera | |
US20210158059A1 (en) | Systems and methods for determining the direction of an object in an image | |
US11915436B1 (en) | System for aligning sensor data with maps comprising covariances | |
CN114972136A (zh) | 3d目标检测模型的训练方法、3d目标检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230421 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7269082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |