JP7269082B2 - 拡張現実で仮想オブジェクトを表示するための測位方法及び装置 - Google Patents

拡張現実で仮想オブジェクトを表示するための測位方法及び装置 Download PDF

Info

Publication number
JP7269082B2
JP7269082B2 JP2019077030A JP2019077030A JP7269082B2 JP 7269082 B2 JP7269082 B2 JP 7269082B2 JP 2019077030 A JP2019077030 A JP 2019077030A JP 2019077030 A JP2019077030 A JP 2019077030A JP 7269082 B2 JP7269082 B2 JP 7269082B2
Authority
JP
Japan
Prior art keywords
image
positioning
positioning information
generating
visual alignment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019077030A
Other languages
English (en)
Other versions
JP2020042002A (ja
Inventor
▲みん▼廷 孫
現盛 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2020042002A publication Critical patent/JP2020042002A/ja
Application granted granted Critical
Publication of JP7269082B2 publication Critical patent/JP7269082B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)

Description

以下の実施形態は、拡張現実で仮想オブジェクトを表示するための測位方法及び装置に関する。
車両及びその他の運送手段の走行補助やゲーム、及び娯楽などの様々な分野で様々な形態の拡張現実(Augmentation Reality)サービスが提供されている。拡張現実をより正確かつ実感できるように提供するため様々な測位方法が用いられる。例えば、センサ基盤の測位方法は、オブジェクトの位置と方向を把握するためにGPS(Global Positioning System)センサ及びIMU(Inertial Measurement Unit)センサなどのような様々なセンサを複合的に使用する。高い正確度を必要とする場合、センサ基盤の測位方法は、正確度の高い高価なセンサが要求されるため商用化及び小型化が容易ではない。また、周辺情報を活用して精度の高い座標情報を取得するためにカメラ情報を使用するビジョン基盤の測位方法は、持続的な動きを有する動的オブジェクトが多い環境で使用し難しい。
特許第5968064号公報
一実施形態の課題は、センサ基盤の測位時に発生した誤差を映像をベースに更新することによって拡張現実で測位情報の精密度を向上させることにある。
一実施形態の課題は、実際の3D空間上に示される実際の誤差距離よりマップデータを2D映像に投影させた時に視覚的整列の程度が大きくなる方向に測位を最適化することで、より正確な拡張現実サービスを提供することにある。
一実施形態の課題は、オブジェクトと近い程度を示す確率の分布が映像の全般にわたるディスタンスフィールドマップを用いることで、学習のためのデータ量を増やし、疎データ(sparse data)によって学習された場合に比べて学習性能が向上され、最適化の方向性をより明確にガイドすることにある。
一側面によれば、測位方法は、装置の測位情報を取得するステップと、入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成するステップと、前記オブジェクトの位置に対応するマップデータに基づいて、前記測位情報に応じて前記オブジェクトが投影された第2映像を生成するステップと、前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新するステップとを含む。
前記測位情報は、前記装置の位置及び前記装置の姿勢を含み得る。
前記第2映像を生成するステップは、前記マップデータ上に仮想カメラを配置するステップと、前記装置の姿勢に基づいて前記仮想カメラの姿勢を調整するステップと、前記仮想カメラでオブジェクトを見る視点の映像を生成するステップとを含み得る。
前記方向性は、前記オブジェクトと近い程度を示す確率の分布に対応し得る。
前記入力映像は第1センサの出力に基づき、前記測位情報は第2センサの出力に基づき得る。
前記測位情報は、拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、前記更新された測位情報に基づいて、前記仮想オブジェクトを前記入力映像と共に表示するステップとをさらに含み得る。
前記仮想オブジェクトは走行経路情報を示し得る。
前記第1映像を生成するステップは、予め学習された神経網を用いて前記方向性を示す確率マップを生成するステップを含み得る。
前記確率マップに含まれたピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納し得る。
前記シードピクセルは、前記入力映像に含まれたピクセルのうち前記オブジェクトに対応するピクセルを含み得る。
前記第2映像を生成するステップは、前記マップデータの座標系を前記第2映像の座標系に変換するコンバータを用いて前記第2映像を生成するステップを含み得る。
前記測位情報は6自由度(DoF)を有し得る。
前記測位情報を更新するステップは、前記第1映像と前記第2映像をマッチングすることによって、前記視覚的整列の程度を算出するステップと、前記方向性に基づいて、前記視覚的整列の程度が増加するように前記測位情報を更新するステップとを含み得る。
前記視覚的整列の程度を算出するステップは、前記第1映像のピクセルのうち前記第2映像の前記オブジェクトに対応するピクセルの値を合算するステップを含み得る。
前記方向性に基づいて前記測位情報を更新するステップは、前記第2映像で前記オブジェクトが前記方向性により変換されるよう前記測位情報を更新するステップを含み得る。
前記方向性に基づいて前記測位情報を更新するステップは、前記方向性に基づいて前記第2映像で前記オブジェクトを移動又は回転させるステップを含み得る。
前記第1映像は、前記オブジェクトのタイプを区分することによって前記オブジェクトのタイプごとに方向性を格納し、前記第2映像は、前記オブジェクトのタイプを区分することによって前記オブジェクトのタイプごとに投影されたオブジェクトを格納し得る。
前記測位情報を更新するステップは、前記第1映像と前記第2映像をマッチングすることによって、前記オブジェクトのタイプごとに視覚的整列の程度を算出するステップと、前記方向性に基づいて、前記タイプごとの視覚的整列の程度が増加するように前記測位情報を更新するステップとを含み得る。
前記入力映像は車両の走行映像を含み得る。
前記オブジェクトは、車線、道路面標識、信号機、表示板、縁石、及び構造物のいずれか1つ又はその組合せを含み得る。
一実施形態によれば、学習方法は、学習映像を受信するステップと、前記学習映像のためのマップデータに基づいて、前記学習映像に含まれたオブジェクトに対応する方向性を含む基準映像を生成するステップと、神経網を用いて前記学習映像に含まれたオブジェクトに対応する方向性を推論する推論映像を生成するステップと、前記基準映像と前記推論映像との間の差に基づいて前記神経網を学習するステップとを含む。
前記学習するステップは、前記基準映像と前記推論映像との間の差が最小化されるように前記神経網を学習するステップを含み得る。
前記方向性は、前記オブジェクトと近い程度を示す確率の分布に対応し得る。
前記基準映像及び前記推論映像に含まれたピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納し得る。
前記基準映像及び前記推論映像は、前記オブジェクトのタイプを区分することによって前記オブジェクトのタイプごとに方向性を格納し得る。
前記学習するステップは、前記基準映像と前記推論映像との間のタイプごとの差に基づいて、前記神経網を学習するステップを含み得る。
前記学習映像は車両の走行映像を含み得る。
前記オブジェクトは、車線、道路面標識、信号機、表示板、縁石、及び構造物のいずれか1つ又はその組合せを含み得る。
一実施形態によれば、測位装置は、装置の測位情報及び入力映像を取得するセンサと、前記入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成し、前記オブジェクトの位置に対応するマップデータに基づいて、前記測位情報に応じて前記オブジェクトが投影された第2映像を生成し、前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新するプロセッサとを含む。
一実施形態によれば、測位方法は、装置の位置に対応する入力映像を取得するステップと、オブジェクトの位置に対応するマップデータを受信するステップと、複数の候補測位情報それぞれに基づいて、前記オブジェクトが投影された第2映像を前記マップデータ上に生成するステップと、前記入力映像と前記第2映像それぞれをマッチングすることによって、前記第2映像それぞれに対する視覚的整列の程度を算出するステップと、前記第2映像から最も大きい視覚的整列の程度を有する第2映像を選択するステップと、前記選択された第2映像に対応する候補測位情報に基づいて測位情報を更新するステップとを含む。
前記測位方法は、前記オブジェクトに対応する方向性を示す確率マップを含む第1映像を生成するステップをさらに含み、前記視覚的整列の程度を算出するステップは、前記第1映像と前記第2映像それぞれをマッチングするステップを含み得る。
一実施形態によれば、測位装置は、映像をキャプチャーする第1センサと、装置の測位情報を取得する第2センサと、ヘッドアップディスプレイ(HUD)と、プロセッサとを含み、前記プロセッサは、前記映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成し、前記測位情報に基づいて、前記オブジェクトが投影された第2映像を前記オブジェクトの位置に対応するマップデータ上に生成し、前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新し、拡張現実(AR)サービスのために前記ヘッドアップディスプレイ内の調整された測位情報に基づいて、前記オブジェクト及び前記入力映像をマップデータ上に表示する。
一側面によれば、センサ基盤の測位時に発生した誤差を映像をベースに補正することによって拡張現実で測位情報の精密度を向上させることができる。
一側面によれば、実際の3D空間上に示される実際の誤差距離よりマップデータを2D映像に投影させた時に視覚的整列の程度が大きくなる方向に測位を最適化することで、より正確な拡張現実サービスを提供することができる。
一側面によれば、オブジェクトと近い程度を示す確率の分布が映像の全般にわたるディスタンスフィールドマップを用いることで、学習のためのデータ量を増やし、疎データによって学習された場合に比べて学習性能が向上され、最適化された方向性をより明確にガイドすることができる。
一実施形態に係る測位誤差に対応する視覚的整列の結果を説明するための図である。 一実施形態に係る測位誤差に対応する視覚的整列の結果を説明するための図である。 一実施形態に係る測位誤差に対応する視覚的整列の結果を説明するための図である。 一実施形態に係る測位方法を示したフローチャートである。 一実施形態に係る測位方法を説明する図である。 一実施形態に係る測位過程を説明するための図である。 一実施形態に係る第1映像を生成する過程を説明するための図である。 一実施形態に係る測位情報を更新する方法を説明するための図である。 一実施形態に係る映像に含まれたオブジェクトがタイプごとに区分された場合に測位情報を更新する方法を説明するための図である。 一実施形態に係る映像に含まれたオブジェクトがタイプごとに区分された場合に測位情報を更新する方法を説明するための図である。 一実施形態に係る学習方法を示したフローチャートである。 一実施形態に係る学習過程を説明するための図である。 一実施形態に係る学習のための映像を説明するための図である。 他の実施形態に係る測位方法を示したフローチャートである。 図11による測位更新過程を説明するための図である。 他の実施形態に係る測位方法を示したフローチャートである。 一実施形態に係る測位装置のブロック図である。
下記で説明する実施形態は様々な変更が加えられることができる。特許出願の範囲がこのような実施形態によって制限も限定もされることはない。各図面に提示された同じ参照符号は同じ部材を示す。
本明細書で開示されている特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示されたものであり、実施形態は様々な異なる形態で実施され、本明細書に説明された実施形態に限定されることはない。
本明細書で用いた用語は、単に特定の実施形態を説明するために用いられるものであって、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、添付図面を参照して説明することにおいて、図面符号に関係なく同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略する。実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明は省略する。
図1は、一実施形態に係る測位誤差に対応する視覚的整列(visual alignment)結果を説明するための図である。
拡張現実は、現実に基づいて情報を追加又は増強して提供する技術であって、例えば、現実世界のイメージや背景映像に仮想のイメージに該当する仮想オブジェクトを追加して示すことができる。拡張現実は、現実世界と仮想世界を円満に調和させることで、ユーザは実際及び仮想環境が分離していることを認知できないまま、ユーザと仮想世界間のリアルタイム相互作用が可能な没入感を提供することができる。仮想オブジェクトを実際の映像に整合するためには、拡張現実を提供するユーザ装置(又は、ユーザ)の位置及び姿勢、言い換えれば、測位情報を正確に把握しなければならない。
拡張現実提供のための測位情報は。仮想オブジェクトを映像内の所望する個所に位置させるために用いられる。拡張現実を提供するにおいて、実際の3D空間上に示される誤差や特徴マッチング時の誤差よりも、仮想オブジェクトを2D映像に投影させた時の視覚的整列の程度がもっと重要である。視覚的整列の程度は、仮想オブジェクトと実際の映像が互いにオーバラップされる比率又はマッチングされる比率に該当する。視覚的整列の程度は、次の図1A及び図1Bに示すように測位誤差によって変わり得る。以下、本明細書にて説明の便宜のために道路面に仮想オブジェクトに該当する走行案内車路を表示する場合について一例を挙げて説明するが、必ずこれに限定されることはない。
以下で説明する実施形態は、運転者をサポートしたり自律的な車両を制御するための情報を生成するために使用される。一実施形態は、例えば、車両で完全自律走行又は走行補助のために設けられた知能型システムのような装置の視覚情報を解釈するために使用され、安全で快適な走行を補助するために使用される。
本明細書で説明された実施形態は、車両、例えば、自律走行車両、自動又は自律走行システム、知能型車両、改善された運転者補助システム(ADAS)、ナビゲーションシステムなどのように車両が走行する車線を安定的に保持して補助するための車両管理システム、スマートフォン又はモバイル装置に適用される。
実施形態は、仮想オブジェクトに対応して運転案内車線を表示することに関する例示であり、その他にも、学習、ゲーム、健康における応用、公共安全、観光、及びマーケティングのような他の実施形態についても開示内容の範囲に含まれるものと見なす。
図1Aを参照すると、測位誤差の小さい場合の視覚的整列の結果による拡張現実映像120が示されている。図1Bを参照すると、測位誤差の大きい場合の視覚的整列の結果による拡張現実映像140が示されている。
例えば、オブジェクト110の測位情報を基準にして車両の基準経路を道路映像上に表示するものと仮定する。ここで、オブジェクトは、測位を行うユーザ端末及び/又は車両に該当する。オブジェクト110の測位に誤差が小さい場合、装置が表示しようとする仮想オブジェクトである走行案内車路115は、映像120のように実際の道路映像と視覚的整列が円満に行われる。これとは異なって、オブジェクト130の測位に誤差が大きい場合、装置が表示しようとする仮想オブジェクトである走行案内車路135は、映像140のように実際の道路映像と視覚的整列が円満に行われないことがある。
実施形態によれば、仮想オブジェクトを2D映像に投影させたときの視覚的整列の程度が大きくなる方向に測位情報を最適化することで、より正確な拡張現実サービスを提供することができる。
図1Cを参照すると、一実施形態に係る測位情報は装置の位置及び装置の姿勢を含む。位置は、横(Lateral)t、縦(Vertical)t、及び経度(Longitude)t、言い換えれば、(x、y、z)のような3次元座標に該当する。また、姿勢はピッチ(Pitch)r、ヨー(Yaw)r、及びロール(Roll)rに該当する。位置は、例えば、GPSセンサ、ライダなどを介して取得され、姿勢は、例えば、IMUセンサ、ジャイロセンサなどを介して取得される。一実施形態に係る測位情報は、前述した位置及び姿勢を含む6自由度(Degree of Freedom;DoF)を有するものと理解される。
一実施形態で説明された車両は、例えば、自動車、トラック、トラクター、スクーター、バイク、サイクル、水陸両用車両、雪上車、ボート、バス、モノレール、列車、電車、自律走行又は自動走行車両、知能型車両、セルフドライブ車両、無人航空機、電気自動車、ハイブリッド自動車、スマート移動装置、先端運転者サポートシステム(Advanced Driver Assistance System;ADAS)を備えた知能型車両、又はドローンなどを含み、運送、移動及び通信の任意のモードで記述される。
一実施形態に係るスマート移動装置は、例えば、電動ホイール(electric wheels)、電気キックボート、及び電気自転車のような移動性装置を含む。
一実施形態に係る車両は、例えば、カルチベーター又はバイクのように動力装置のある車両の他にも自転車又は手押し車のような非動力車両を含む。
「道路」という用語は、車両のように徒歩又は一部形態の運搬を許容するように改善された2カ所間の主要道路、経路又は連結道路である。道路には、高速道路、国道、農場道路、地方道路、又は高速国道のような様々なタイプの道路が含まれる。道路は、単一車線又は複数の車線を含む。車線は、道路表面に表示された道路線であって、互いに区別される道路空間に該当する。例えば、「車路(lane)」は、車両が複数の車線間を移動する平面、すなわち、車両によって占有されて使用される空間である。1つの車路は、車路の左右側の車線表示によって他の車路と区別される。
また、「車線(line)」は道路面上に白色、青色、又は黄色などのような色に表示された実線、点線、曲線、及びジグザグ線などの様々な形態の線のように理解される。車線は、1つの車路、道路の中央線、停止線を区分する一側の車線に該当し、1つの車路を区分する車線の対、言い換えれば、車路境界線に該当する左側車線及び右側車線であり得る。
車線は、駐車及び停車禁止区域、横断歩道、歩行区域及び速度制限表示を示す。
以下の実施形態は、スマート車両の拡張現実ナビゲーション装置に適用される。例えば、ARナビゲーション装置は、車線を表示したり、自律走行車両のステアリングを補助するための視覚情報を生成したり、車両走行のための様々な制御情報を提供するために用いられる。拡張現実ナビゲーション装置は、ディスプレイに視覚情報を提供する。例えば、ディスプレイは、ヘッドアップディスプレイ(HUD)、車両用インフォテインメントシステム、車両のダッシュボード又は拡張現実に使用された車両のスクリーンであり得る。ディスプレイは、運転補助又は車両の自律走行を完了して安全で快適な運転を助けるために設けられる。一例として、ディスプレイは、単眼メガネ(one-eyed glass)又は両眼メガネ(two-eyed glasses)を含むeye glass display(EGD)に具現れてもよい。
図2は、一実施形態に係る測位方法を示したフローチャートである。図2に示す動作は、図2に示された順序及び方式で実行され、説明された例示的な実施形態の思想と範囲を逸脱しないで一部動作の順序が変更されたり一部動作が省略されてもよい。図2に示された多くの動作が並列的又は同時に実行されてもよい。図2に示す1つ以上のブロック及びブロックの組合せは特殊目的ハードウェア基盤コンピュータ、又は、特殊目的ハードウェア及びコンピュータ命令の組合せによって実現される。次の図2の説明に付加して、図1に示す説明についても図2に適用され得る。図1は、参照によって図2に結合され得るため、前記説明を繰り返さない。
図2を参照すると、一実施形態に係る測位装置は、該当装置の測位情報を取得する(S210)。ここで、装置は一実施形態に係る測位方法を行う装置として、例えば、車両であってもよく、ナビゲーション装置、スマートフォンなどのようなユーザ装置であってもよい。測位情報は、前述したように装置の位置及び装置の姿勢を含む6自由度を有する。測位情報は、例えば、IMUセンサ、GPSセンサ、ライダセンサ、及びレーダーなどのようなセンサの出力に基づいて取得される。測位情報は、例えば、測位装置の初期測位情報であり得る。
測位装置は、入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成する(S220)。入力映像は、今後拡張現実サービスのために仮想オブジェクトと共に表示される背景映像又はその他の映像に該当する。入力映像は、例えば、車両の走行映像を含む。ここで、走行映像は、例えば、車両に装着された撮影装置を用いて取得された走行映像である。走行映像は、1つ又は複数の走行映像を含む。走行映像は、複数のフレームを含む。測位装置は、撮影装置の出力に基づいて入力映像を取得する。撮影装置は、例えば、車両のウインドシールド(windshield)、ダッシュボード(dashboard)、フロントフェンダー(front fender)、バックミラー(rear-view mirror)などのように予め決定された位置に固定され、車両前方の走行映像を撮影する。撮影装置は、例えば、ビジョンセンサ、イメージセンサ、又は、これに類似の機能を行う装置を含む。撮影装置は単一映像を撮影したり、場合に応じてフレームごとの映像を撮影してもよい。又は、走行映像は、測位装置の他の装置でキャプチャーされた映像であってもよい。走行映像は、例えば、図4に示された入力映像410であり得る。オブジェクトは、例えば、車線、道路面標識、信号機、表示板、縁石、歩行者、他の車両、及び構造物などを含む。
ステップS220で、測位装置は、例えば、予め学習された神経網を用いて方向性を示す確率マップ、例えば、ディスタンスフィールドマップ(Distance Field Map)を生成する。一実施形態において、「オブジェクトに対応する方向性」はオブジェクトに近い程度を示す確率の分布に対応する。
ここで、確率マップに含まれたピクセルそれぞれは、該当するピクセルから最も近いシードピクセル(seed pixel)までの距離を格納する。シードピクセルは、映像に含まれたピクセルのうちオブジェクトに該当するピクセルであり得る。第1映像は、例えば、図5に示すディスタンスフィールドマップ550である。測位装置が予め学習された神経網を用いて前述した確率マップを生成する方法については、次の図5を参照して具体的に説明する。
測位装置は、オブジェクトの位置を含むマップデータに基づいて、測位情報に応じてオブジェクトが投影された第2映像を生成する(S230)。ここで、マップデータは、例えば、高精密(High Density;HD)地図データであってもよい。高精密地図は、自律走行のために高い精密度(例えば、センチメートル単位の精密度)を備えた3D立体地図のことを指す。高精密地図には、例えば、道路中心線、境界線など車線単位の情報はもちろん、信号機、表示板、縁石、路面道路標識、各種の構造物などの情報が3次元デジタルの形態に含まれる。高精密地図は、例えば、MMS(Mobile Mapping System)システムによって構築される。MMSシステムとは、様々なセンサを装着した3次元空間情報調査システムであって、例えば、位置測定及び地形地物測量のためのカメラ、ライダ(LIDAR)、GPSなどのセンサを装着した移動体を含む。MMSシステムのセンサは、互いに柔軟に働いて多様で細かい位置情報を取得することができる。
ステップS230において、「マップデータに基づいて、測位情報に応じてオブジェクトが投影された第2映像を生成する」ということは、例えば、測位装置がマップデータ上で、測位情報に含まれた位置に仮想カメラを配置し、測位情報に含まれた姿勢に基づいて仮想カメラの姿勢を調整した後、仮想カメラでオブジェクトを見る視点の映像を生成する意味として理解される。
ステップS230で、測位装置は、例えば、マップデータの座標系を第2映像の座標系に変換するコンバータを用いて第2映像を生成する。ここで、コンバータは、例えば、一平面を他の平面に投影させたとき投影された対応点間で成立する一定の変換関係を示すホモグラフィー(homography)関数又は前述した変換を行う人工神経網であり得る。測位装置は、例えば、測位情報に基づいてマップデータから一部のデータを抽出し、コンバータを用いて抽出された一部データから第2映像を生成してもよい。第2映像は、例えば、図4に示す第2映像430であってもよい。
測位装置は、第1映像と第2映像との間の視覚的整列に基づいて測位情報を更新する(S240)。測位装置は、第1映像と第2映像をマッチングすることで視覚的整列の程度を算出する。測位装置は、例えば、第1映像に含まれた複数のピクセルのうち、第2映像に含まれたオブジェクトに対応するピクセルの値を合算し、合算結果を視覚的整列の程度で決定する。視覚的整列の程度は、例えば、最急降下法(gradient descent)の形態に表現される。測位装置は、オブジェクトに対応する方向性に基づいて視覚的整列の程度が増加するように測位情報を補正又は更新する。測位装置は、第2映像に含まれたオブジェクトが方向性により変換(例えば、移動、又は回転)されるように測位情報を更新する。測位装置が測位情報を更新する方法については、次の図6を参照して具体的に説明する。
測位装置は、拡張現実サービスのためにマップデータ上で仮想オブジェクトを決定する。例えば、仮想オブジェクトは、走行経路情報を示す仮想のオブジェクトとして、矢印又は進行方向を示す道路表示などの形態と表現される。測位装置は、ステップS240において更新又は調整された測位情報に基づいて、仮想オブジェクトを入力映像と共にヘッドアップディスプレイ、ナビゲーション、又は、ユーザ装置のディスプレイ上に表示する。
図3は、一実施形態に係る測位方法を説明する図であり、図4は、一実施形態に係る測位過程を説明するための図である。
図3~図4に示す動作は、示された順序及び方式により実行され、説明された例示的な実施形態の思想と範囲を逸脱しないで一部動作の順序が変更されたり一部動作が省略されてもよい。図3~図4に示された多くの動作が並列的又は同時に実行されてもよい。図3~図4に示す1つ以上のブロック及びブロックの組合せは特殊目的ハードウェア基盤コンピュータ、又は特殊目的ハードウェア及びコンピュータ命令の組合せによって実現される。次の図3ないし図4の説明に付加して、図1及び図2の説明について図3ないし図4に適用される。図1及び図2は、参照により図3ないし図4に結合され得るため、前述した説明を繰り返さない。
図3及び図4を参照すると、一実施形態に係る測位装置は入力映像410を取得する(S310)。測位装置は、例えば、映像センサを用いてオブジェクトを撮影することによって生成された入力映像410を受信する。ここで、入力映像410は、該当装置の現在の位置に対応する映像であり得る。
測位装置は、オブジェクトの位置を含むマップデータを受信(又は、取得)する(S320)。
測位装置は、ステップS310で取得した入力映像410からオブジェクトを推定する(S330)。測位装置は、入力映像410に基づいてオブジェクトに対応する方向性を含む第1映像420を生成する。例えば、第1映像420は、検出されたオブジェクトに沿う方向を示す指標を含んでもよいし、検出されたオブジェクトに基づいて判断された方向を示す指標を含んでもよいし。一実施形態によれば、測位装置は、予め学習された神経網を用いて第1映像420を生成する。測位装置は、入力映像410内の様々な障害物(例えば、自動車、道行く人、街路樹など)に関係なく安定的にオブジェクトを推定するため予め学習された神経網を用いることができる。例えば、任意の入力映像が印加されれば、予め学習された神経網は、入力映像で車線に該当する部分を活性化して第1映像420を生成する。第1映像420は、例えば、2次元のディスタンスフィールドマップを含む。
測位装置は、初期測位を実行し(S340)、ステップS320で取得したマップデータに初期測位340による測位情報を適用することで、初期測位によりオブジェクトが投影された第2映像430を生成する(S350)。
測位装置は、第1映像420と第2映像430に対してそれらが視覚的に整列するように位置合わせする。測位装置は、映像440のように第1映像420と第2映像430を視覚的に整列させる。
測位装置は、視覚的整列を最適化する(S360)。測位装置は、視覚的整列によって第2映像430が第1映像420に最大限オーバラップするように測位更新値(又は、測位補正値)を算出する。測位装置は、初期測位340を基準とする第2映像430と第1映像420との間のオーバラップが最大化されるよう測位情報を変化させることで視覚的整列を最適化する。一実施形態では、映像全般にわたって情報が拡散された形態の第1映像420、言い換えれば、ディスタンスフィールドマップ(Distance Field Map)を用いることでグラジエントに基づいた最適化を容易に行うことができる。
測位装置は、測位情報に測位更新値を適用して映像450のように第1映像420と第2映像430との間の視覚的整列が最適化されるように測位情報を更新する(S370)。
図5は、一実施形態に係る第1映像を生成する過程を説明するための図である。図5を参照すると、入力映像510を神経網530に印加して第1映像に該当するディスタンスフィールドマップ550を生成する過程が示されている。
神経網530は、入力映像510に基づいて入力映像510に含まれたオブジェクトに対応する方向性を含む第1映像を生成するよう予め学習された神経網である。
神経網530は、深層神経網(deep neural network;DNN)又はn-レイヤ神経網であってもよい。深層神経網又はn-レイヤ神経網は、畳み込み神経網(convolutional neural network;CNN)、リカレント神経網(recurrent neural network;RNN)、深層信頼神経網(deep belief network)、完全接続された神経網(fully connected network)、双方向神経網(bi-directional neural network)、制限されたボルツマン・マシーン(restricted Boltzman machine)及び双方向LSTM(bidirectional long short term memory;BLSTM)に対応する。又は、深層神経網又はn-レイヤ神経網は互いに異なったり、又は、完全接続、畳み込み、リカレント、及び/又は双方向接続のそれぞれを一部含むオーバラップされた神経網を含み得る。
例えば、神経網530は、畳み込み神経網に実現され得るが、これに限定されることはない。
神経網530は、入力映像、特徴マップ、及び出力を含む複数のレイヤを含む構造で実現される。神経網530ではカーネル(kernel)と呼ばれるフィルタを用いて入力映像に対して畳み込み演算を実行し、結果的に特徴マップが出力される。畳み込み演算は、カーネルと共に入力特徴マップによって出力特徴マップで再び実行され、新しい特徴マップが出力される。
このように畳み込み演算が繰り返し実行される場合に、入力映像の特徴に対する認識結果が神経網530を介して最終的に出力される。
一実施形態において、神経網530は、畳み込みレイヤに加えてプーリングレイヤ又は完全接続レイヤを含む。
神経網530は、入力映像510に含まれたオブジェクトをディスタンスフィールドマップ550の形態に推定される。例えば、第1映像がディスタンスフィールドマップ550のように近いオブジェクトに向かう方向性情報を含んでいる場合、最急降下法などを活用するとき、最適化された方向性を容易に決定できる。また、ディスタンスフィールドマップ550と共にオブジェクトと近い程度を示す確率の分布が映像の全般にわたる場合、学習のためのデータ量を増やすことがあるため、疎データによって学習された場合に比べて神経網の性能が向上することができる。
図6は、一実施形態に係る測位情報を更新する方法を説明するための図である。図6を参照すると、入力映像605、第1映像610、及び第2映像620が示されている。第1映像610は、入力映像605に対応して生成される。また、第2映像620は、マップデータに基づいて初期測位による測位情報(x、y、z、r、r、r)(l(エル))によりオブジェクトを投影して生成した映像であり得る。
測位装置は映像630のように第1映像610と第2映像620をマッチングさせて視覚的整列の程度に基づいて、スコアl(エル)も算出する。測位装置は、例えば、第1映像610に含まれた複数のピクセルのうち、第2映像620に含まれたオブジェクトに対応するピクセルの値を合算してスコアの形態で算出する。
例えば、第1映像610に含まれた複数のピクセルは、隣接のオブジェクトとの距離に応じて0から1の間の値を有する。各ピクセルは、隣接のオブジェクトに近いほど1に近い値を有し、隣接のオブジェクトに遠いほど0に近い値を有する。測位装置は、第1映像610に含まれた複数のピクセルのうち第2映像620とマッチングされるピクセルを抽出し、抽出されたピクセルの値を合算してスコアを算出する。
測位装置は、第1映像610の方向性に基づいて視覚的整列の程度、言い換えれば、スコアl(エル)が増加するように測位情報を更新する。測位装置は、第2映像620に含まれたオブジェクトの測位が第1映像610の方向性に適合するように測位更新値を算出する。測位装置は、測位更新値を初期測位による測位情報に適用することで、測位情報を更新する(l→l’(640))。例えば、測位装置は、第1映像610に含まれた方向性に基づいて、第2映像620のオブジェクトをどの方向に移動させなければスコアが増加しないか否かを判断する。測位情報を更新する場合、第2映像620のオブジェクトが移動するため、測位装置は第1映像610に含まれた方向性に基づいて測位情報を更新する。
測位装置は、更新された測位情報l’により更新された第2映像650を生成する。測位装置は、更新された第2映像650と第1映像610をマッチングしてスコアl’を算出する。
測位装置は、前述した過程を介してスコアが最大になる測位更新値を算出して最終的に最適化された測位情報lを出力する。
図7は、一実施形態に係る映像に含まれたオブジェクトがタイプごとに区分された場合に測位情報を更新する方法を説明するための図である。図7Aを参照すると、入力映像に含まれてオブジェクトがタイプごとに区分されていない場合が示されている。
例えば、車線710及び車線730は、第1映像に含まれたオブジェクトに対応し、車線720は第2映像に含まれると仮定する。一実施形態に係る測位装置は、第1映像と第2映像をマッチングさせて算出した視覚的整列の程度が増加するよう測位情報を更新する。しかし、図7Aに示すように、各オブジェクトのタイプが区別されない場合、測位装置は、車線720を車線710とマッチングさせなければならないか、又は、車線730とマッチングさせなければならないかを正確に把握し難い。この場合、測位情報の正確な更新が難しいこともある。
図7Bを参照すると、入力映像に含まれたオブジェクトがタイプごとに区分された場合が示されている。第1映像は、オブジェクトのタイプを区分することによってオブジェクトのタイプごとに方向性を格納する。また、第2映像は、オブジェクトのタイプを区分することによって、オブジェクトのタイプごとに投影されたオブジェクトを格納する。例えば、車線740及び車線760は、第1映像に含まれたオブジェクトに対応する。車線740は第1タイプ(Type 1)に該当する車線であってもよく、車線760は第2タイプ(Type 2)に該当する車線であってもよい。また、車線750は第2映像に含まれ、第1タイプに該当する車線と仮定する。
図7Bに示すように、オブジェクトがタイプごとに区分された場合、測位装置は、第1映像と第2映像をマッチングすることでオブジェクトのタイプごとに視覚的整列の程度を算出する。測位装置は、方向性に基づいてタイプごとの視覚的整列の程度が増加するよう測位情報を更新する。
測位装置は、例えば、第1タイプに該当するオブジェクト740,750の対する視覚的整列の程度を算出し、方向性に基づいて第1タイプに対応する視覚的整列の程度が増加するように測位情報を更新する。測位装置は、オブジェクト750がオブジェクト740とマッチングされるように測位情報を更新する。
図8は、一実施形態に係る学習方法を示したフローチャートであり、図9は、一実施形態に係る学習過程を説明するための図である。
図8に示す動作は、示された順序及び方式により実行され、説明された例示的な実施形態の思想と範囲を逸脱しないで一部動作の順序が変更されたり、一部動作が省略されてもよい。図8に示された多くの動作が並列的又は同時に実行されてもよい。図8に示す1つ以上のブロック及びブロックの組合せは、特殊目的ハードウェア基盤コンピュータ、又は、特殊目的ハードウェア及びコンピュータ命令の組合せによって実現される。
図8及び図9を参照すると、一実施形態に係る学習装置が拡張現実のための測位情報を最適化するために、入力映像から第1映像を生成する神経網を学習する過程が示されている。下記の図8の説明に付加して、図1~図7の説明も図8に適用され得る。図1~図7は、参照によって図8に結合され得るため、前記説明を繰り返さない。
学習装置は、学習映像910を受信する(S810)。学習映像910は、例えば、車両の走行映像を含んでもよい。学習映像910の一例は図10に示す学習映像1010の通りである。
学習装置は、学習映像910のためのマップデータ940に基づいて、学習映像910に含まれたオブジェクトに対応する方向性を含む基準映像950を生成する(S820)。ここで、方向性は、オブジェクトと近い程度を示す確率の分布に対応する。基準映像950は、正解(Ground Truth)映像に該当する。基準映像950の一例は、図10に示す映像1030又は映像1040の通りである。
学習装置は、神経網920を用いて学習映像910に含まれたオブジェクトに対応する方向性を推論する推論映像930を生成する(S830)。神経網920は、例えば、前述した神経網530であり得る。学習装置が推論映像930を生成する方法について、下記の図10を参照して具体的に説明する。
学習装置は、基準映像950と推論映像930との間の差(損失(loss))960に基づいて、神経網920を学習する(S840)。学習装置は、基準映像950と推論映像930との間の差が最小化されるよう神経網を学習する。学習装置は、例えば、監督学習によって神経網920を学習する。学習装置は、損失逆伝播学習(back-propagation learning)によって神経網920にバックプロパゲーションされる損失960及び神経網920に含まれたノードの出力値に基づいた最急降下法により神経網920を更新する。損失逆伝播学習は、与えられた基準映像950に対してフォワード算出を介して損失960を推定した後、神経網920の出力レイヤから始まって隠れレイヤ及び入力レイヤに向かう逆方向に推定した損失を伝播しながら、損失を減らす方向に神経網920を更新する方法である。
図10は、一実施形態に係る学習のための映像を説明するための図である。図10を参照すると、一実施形態に係る学習映像1010、マップデータ映像1020、基準映像1030,1040が示されている。
一実施形態に係る学習装置は、学習映像1010から基準映像1030,1040を推定するように神経網を学習させる。マップデータ映像1020は、学習映像1010内のオブジェクトを離散的な2進値で表現するため、マップデータ映像1020を用いる場合、学習情報が過度に少ないために学習が円満に行われない場合がある。したがって、一実施形態では、基準映像1030,1040のようなディスタンスフィールドマップを用いて学習を行ってもよい。ディスタンスフィールドマップによって希少な学習情報を映像全般に拡散させ得る。ディスタンスフィールドマップのように学習情報がターゲット映像の全般にわたる場合、十分な学習情報によって神経網の学習が容易になる。
実施形態に係るディスタンスフィールドで拡散された情報の重要度を調整することによって、マップデータ映像1020から基準映像1030又は基準映像1040を生成する。学習装置は、例えば、e-0.02d(ここで、dはオブジェクトに該当するシードピクセルと該当ピクセル間の距離に該当する)のようにディスタンスフィールドで拡散された情報の重要度を調整し得る。
図11は、他の実施形態に係る測位方法を示したフローチャートであり、図12は、図11による測位更新過程を説明するための図である。
図11に示す動作は、図11に示された順序及び方式で実行され、説明された例示的な実施形態の思想と範囲を逸脱しないで一部動作の順序が変更されたり一部動作が省略されてもよい。図11に示された多くの動作が並列的又は同時に実行されてもよい。図11に示す1つ以上のブロック及びブロックの組合せは、特殊目的ハードウェア基盤コンピュータ、又は、特殊目的ハードウェア及びコンピュータ命令の組合せによって実現される。以下の図11に示す説明に付加して、図1~図10の説明も図11に適用され得る。図1~図10は、参照によって図11に結合され得るため、前述した説明を繰り返さない。
図11及び図12を参照すると、一実施形態に係る測位装置は、入力映像を取得する(S1110)。入力映像は、該当装置の現在の位置に対応する映像であり得る。
測位装置は、オブジェクトの位置を含むマップデータを受信(又は、取得)する(S1120)。ステップS1140において、測位装置は、ステップS1120で取得したマップデータに、複数の測位候補情報を適用する。ステップS1150において、測位装置は測位候補情報によりオブジェクトが投影された第2候補映像を生成する。測位装置は、例えば、図12に示された第1候補映像1210及び第2候補映像1220と共に測位候補情報が適用された第2候補映像を生成する。
測位装置は、入力映像と第2候補映像の間の視覚的整列をスコアリングする(S1130)。ここで、測位装置は、入力映像と第2候補映像との間の視覚的整列程度をスコアで表現する。例えば、入力映像と第1候補映像1210との間のスコアは0.43であり、入力映像と第2候補映像1210との間のスコアは0.98であり得る。
測位装置は、ステップS1130で出力されたスコアのうち最も高いスコア値を有するベストスコアを検索する(S1160)。測位装置を例にして、図12に示されたスコア(0.43及び0.98)のうちベストスコアである0.98を検索する。測位装置は、ステップS1160で検索したベストスコアに対応する測位候補を選択することで、測位情報を更新する(S1170)。
図13は、更なる実施形態に係る測位方法を示したフローチャートである。図13の動作は図1~図12に示された順序及び方式により実行され、説明された例示的な実施形態の思想と範囲を逸脱しないで一部動作の順序が変更されたり一部動作が省略されてもよい。図13に示された多くの動作が並列的又は同時に実行されてもよい。図13に示す1つ以上のブロック及びブロックの組合せは特殊目的ハードウェア基盤コンピュータ、又は、特殊目的ハードウェア及びコンピュータ命令の組合せによって実現され得る。以下、図13に示す説明に加えて図1~図12の説明についても図13に適用される。図1~図12は、参照によって図13に結合され得るため、上述した説明は繰り返さない。
図13を参照すると、測位装置は測位候補に対する視覚的整列をスコアリング(S1360)する前に、オブジェクト推定(S1330)を介して入力映像から第1映像(例えば、ディスタンスフィールドマップ)を生成する。測位装置は、第1映像と第2候補映像との間のスコアを算出する。
図14は、一実施形態に係る測位装置のブロック図である。図14を参照すると、一実施形態に係る測位装置1400は、センサ1410、及びプロセッサ1430を含む。測位装置1400は、メモリ1450、通信インターフェース1470、及びディスプレイ装置1490をさらに含む。センサ1410、プロセッサ1430、メモリ1450、通信インターフェース1470、及びディスプレイ装置1490は、通信バス1405を介して接続される。
センサ1410は、例えば、イメージセンサ、ビジョンセンサ、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサ、IMU(Inertial Measurement Unit)センサ、レーダー(Radar)、ライダ(Lidar)などを含む。センサ1410は、車両の走行映像を含む入力映像を取得(撮影)する。センサ1110は、例えば、車両のGPS座標、位置、姿勢などのような測位情報の他にも、速度、加速度、走行方向、車両のハンドルステアリング角度、及び車両の速度などの検出情報を検出する。
プロセッサ1430は、入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成する。プロセッサ1430は、オブジェクトの位置を含むマップデータに基づいて測位情報に応じてオブジェクトが投影された第2映像を生成する。プロセッサ1430は、第1映像と第2映像との間の視覚的整列に基づいて測位情報を更新する。
実施形態に係る測位装置1400は、通信インターフェース1470を介して入力映像を含む様々なセンサの検出情報を取得する。実施形態に係る通信インターフェース1470は、測位装置1400の外部に存在する他のセンサから走行映像を含む検出情報を受信する。
プロセッサ1430は、通信インターフェース1470及び/又はディスプレイ装置1490を介して更新された測位情報を出力したり、又は更新された測位情報に基づいてマップデータ上に仮想オブジェクトを入力映像と共に表示することによって拡張現実サービスを提供する。また、プロセッサ1430は、図1~図13を参照して前述した少なくとも1つの方法又は少なくとも1つの方法に対応するアルゴリズムを行う
プロセッサ1430は、目的とする動作を実行させるための物理的な構造を有する回路を有するハードウェアで具現されたデータ処理装置であり得る。例えば、目的とする動作は、プログラムに含まれたコード又は命令を含む。例えば、ハードウェアで具現されたデータ処理装置は、マイクロプロセッサー、中央処理装置、プロセッサコア、マルチ-コアプロセッサ、マルチプロセッサ、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)を含む。
プロセッサ1430は、プログラムを実行して測位装置1400を制御する。プロセッサ1430によって実行されるプログラムコードは、メモリ1450に格納される。
メモリ1450は、測位装置1400の測位情報、第1映像、第2映像及び/又は更新された測位情報を格納する。メモリ1450は、上述したプロセッサ1430における処理過程で生成される様々な情報を格納する。一実施形態では、メモリ1450はマップデータを格納する。その他にも、メモリ1450は。各種のデータとプログラムなどを格納する。メモリ1450は。揮発性メモリ又は不揮発性メモリを含む。メモリ1450は、ハードディスクなどのような大容量格納媒体を備えて各種データを格納する。
ディスプレイ装置1490は、プロセッサ1430によって更新された測位情報を出力したり、又は更新された測位情報に基づいてマップデータ上に仮想オブジェクトを入力映像と共に表示する。
一実施形態においてディスプレイ装置1490は、ユーザインターフェースをレンダリングし、/又は、ユーザ入力を受信する能力を提供する1つ以上のハードウェア構成要素を含む物理的構造である。例えば、修正された測位情報に基づいたマップデータ上に入力映像を有する仮想オブジェクト及び測位情報は、ヘッドアップディスプレイを使用する車両のウィンドシールドグラス又は別途の画面に表示されたり、又は、拡張現実ヘッドアップディスプレイに表示される。一実施形態に係る測位装置1400は、車両の電子制御ユニット(electronic control unit;ECU)又は車両制御ユニット(vehicle control unit;VCU)に測位情報を送信する。電子制御ユニット又は車両制御ユニットは、車両の表示装置1490に測位情報を表示する。ただし、オブジェクトの表示は、前述した実施形態に限定されることなく、車両の他の計器盤、車両のインフォテインメントシステム、スクリーン、又は、車両の表示パネルが表示機能を行ってもよい。測位装置1400に動作可能に接続されたスマート及びeye glass display(EGD)などのような他のディスプレイは、説明された例示的な実施形態の思想及び範囲を逸脱しないで使用され得る。一実施形態に係る測位装置は、例えば、ヘッドアップディスプレイ(HUD)、又は、拡張現実グラス(AR Glasses)などのように撮影装置と測位装置との間の視点が同一ではない場合であっても、撮影装置をベースに前述した測位方法を行った結果を用いて測位装置の3D測位情報を更新することで、視点に独立的な実行が可能である。また、一実施形態に係る測位装置は、移動端末又はスマートフォンのように撮影装置と測位装置の視点が同じ場合、3D測位情報を更新することが可能であることはもちろん、追加的に映像内で直接2D位置を更新する用途にも使用され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DYIJDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
1400:測位装置
1405:通信バス
1410:センサ
1430:プロセッサ
1450:メモリ
1470:通信インターフェース
1490:ディスプレイ装置

Claims (24)

  1. 装置の測位情報を取得するステップと、
    入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成するステップと、
    前記オブジェクトの位置に対応するマップデータに基づいて、前記測位情報に応じて前記オブジェクトが投影された第2映像を生成するステップと、
    前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新するステップと、
    を含み、前記第1映像を生成するステップは、予め学習された神経網を用いて前記方向性を示す確率マップを生成するステップを含み、前記確率マップに含まれるピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納している、測位方法。
  2. 前記測位情報は、前記装置の位置及び前記装置の姿勢を含む、請求項1に記載の測位方法。
  3. 前記第2映像を生成するステップは、
    前記マップデータ上に仮想カメラを配置するステップと、
    前記装置の姿勢に基づいて前記仮想カメラの姿勢を調整するステップと、
    前記仮想カメラでオブジェクトを見る視点の映像を生成するステップと、
    を含む、請求項2に記載の測位方法。
  4. 前記方向性は、前記オブジェクトと近い程度を示す確率の分布に対応する、請求項1-3のうち何れか一項に記載の測位方法。
  5. 前記入力映像は第1センサの出力に基づき、前記測位情報は第2センサの出力に基づく、請求項1-4のうち何れか一項に記載の測位方法。
  6. 拡張現実サービスのために前記マップデータ上で仮想オブジェクトを決定するステップと、
    前記更新された測位情報に基づいて、前記仮想オブジェクトを前記入力映像と共に表示するステップと、
    をさらに含む、請求項1-5のうち何れか一項に記載の測位方法。
  7. 前記仮想オブジェクトは走行経路情報を示す、請求項6に記載の測位方法。
  8. 前記シードピクセルは、前記入力映像に含まれたピクセルのうち前記オブジェクトに対応するピクセルを含む、請求項に記載の測位方法。
  9. 前記第2映像を生成するステップは、前記マップデータの座標系を前記第2映像の座標系に変換するコンバータを用いて前記第2映像を生成するステップを含む、請求項1-のうち何れか一項に記載の測位方法。
  10. 前記測位情報は6自由度(DoF)を有する、請求項1-のうち何れか一項に記載の測位方法。
  11. 装置の測位情報を取得するステップと、
    入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成するステップと、
    前記オブジェクトの位置に対応するマップデータに基づいて、前記測位情報に応じて前記オブジェクトが投影された第2映像を生成するステップと、
    前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新するステップと、
    を含み、前記測位情報を更新するステップは、
    前記第1映像と前記第2映像をマッチングすることによって、前記視覚的整列の程度を算出するステップと、
    前記方向性に基づいて、前記視覚的整列の程度が増加するように前記測位情報を更新するステップと、
    を含み、前記視覚的整列の程度を算出するステップは、前記第1映像のピクセルのうち前記第2映像の前記オブジェクトに対応するピクセルの値を合算するステップを含む、測位方法。
  12. 前記方向性に基づいて前記測位情報を更新するステップは、前記第2映像で前記オブジェクトが前記方向性により変換されるよう前記測位情報を更新するステップを含む、請求項11に記載の測位方法。
  13. 前記方向性に基づいて前記測位情報を更新するステップは、前記方向性に基づいて前記第2映像で前記オブジェクトを移動又は回転させるステップを含む、請求項11に記載の測位方法。
  14. 前記第1映像は、前記オブジェクトのタイプを映像の中で表現される形態に応じて区分することによって前記オブジェクトのタイプごとに方向性を格納し、
    前記第2映像は、前記オブジェクトのタイプを映像の中で表現される形態に応じて区分することによって前記オブジェクトのタイプごとに投影されたオブジェクトを格納する、請求項1-13のうち何れか一項に記載の測位方法。
  15. 前記測位情報を更新するステップは、
    前記第1映像と前記第2映像をマッチングすることによって、前記オブジェクトのタイプごとに視覚的整列の程度を算出するステップと、
    前記方向性に基づいて、前記タイプごとの視覚的整列の程度が増加するように前記測位情報を更新するステップと、
    を含む、請求項14に記載の測位方法。
  16. 前記入力映像は車両の走行映像を含む、請求項1-15のうち何れか一項に記載の測位方法。
  17. 前記オブジェクトは、車線、道路面標識、信号機、表示板、縁石、及び構造物のいずれか1つ又はその組合せを含む、請求項1-16のうち何れか一項に記載の測位方法。
  18. 学習映像を受信するステップと、
    前記学習映像のためのマップデータに基づいて、前記学習映像に含まれたオブジェクトに対応する方向性を含む基準映像を生成するステップと、
    神経網を用いて前記学習映像に含まれたオブジェクトに対応する方向性を推論する推論映像を生成するステップと、
    前記基準映像と前記推論映像との間の差に基づいて前記神経網を学習するステップと、
    更に含む請求項1に記載の方法。
  19. 前記学習するステップは、前記基準映像と前記推論映像との間の差が最小化されるように前記神経網を学習するステップを含む、請求項18に記載の方法。
  20. 前記学習するステップは、前記基準映像と前記推論映像との間のタイプごとの差に基づいて、前記神経網を学習するステップを含む、請求項18に記載の方法。
  21. 請求項1-20のうちの何れか一項に記載の方法を装置のコンピュータに実行させるコンピュータプログラム。
  22. 装置の測位情報及び入力映像を取得するセンサと、
    前記入力映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成し、前記オブジェクトの位置に対応するマップデータに基づいて、前記測位情報に応じて前記オブジェクトが投影された第2映像を生成し、前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新するプロセッサと、
    を含み、前記第1映像を生成することは、予め学習された神経網を用いて前記方向性を示す確率マップを生成することを含み、前記確率マップに含まれるピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納している、測位装置。
  23. 測位方法であって、
    装置の位置に対応する入力映像を取得するステップと、
    オブジェクトの位置に対応するマップデータを受信するステップと、
    複数の候補測位情報それぞれに基づいて、前記オブジェクトが投影された第2映像を前記マップデータ上に生成するステップと、
    前記入力映像と前記第2映像それぞれをマッチングすることによって、前記第2映像それぞれに対する視覚的整列の程度を算出するステップと、
    前記第2映像から最も大きい視覚的整列の程度を有する第2映像を選択するステップと、
    前記選択された第2映像に対応する候補測位情報に基づいて測位情報を更新するステップと、
    を含み、前記視覚的整列の程度を算出するステップの前に、前記オブジェクトに対応する方向性を示す確率マップを含む第1映像を生成するステップであって、予め学習された神経網を用いて前記方向性を示す確率マップを生成し、前記確率マップに含まれるピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納している、ステップを含み、
    前記視覚的整列の程度を算出するステップは、前記第1映像と前記第2映像それぞれをマッチングするステップを含む、測位方法。
  24. 入力映像をキャプチャーする第1センサと、
    装置の測位情報を取得する第2センサと、
    ヘッドアップディスプレイ(HUD)と、
    プロセッサと、
    を含む測位装置であって、
    前記プロセッサは、
    前記映像に含まれたオブジェクトに対応する方向性を含む第1映像を生成し、
    前記測位情報に基づいて、前記オブジェクトが投影された第2映像を前記オブジェクトの位置に対応するマップデータ上に生成し、
    前記第1映像と前記第2映像との間の視覚的整列に基づいて前記測位情報を更新し、
    拡張現実(AR)サービスのために前記ヘッドアップディスプレイ内の調整された測位情報に基づいて、前記オブジェクト及び前記入力映像をマップデータ上に表示し、
    前記第1映像を生成することは、予め学習された神経網を用いて前記方向性を示す確率マップを生成することを含み、前記確率マップに含まれるピクセルそれぞれは、該当するピクセルから最も近いシードピクセルまでの距離を格納している、測位装置。
JP2019077030A 2018-09-11 2019-04-15 拡張現実で仮想オブジェクトを表示するための測位方法及び装置 Active JP7269082B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180108252A KR20200029785A (ko) 2018-09-11 2018-09-11 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치
KR10-2018-0108252 2018-09-11

Publications (2)

Publication Number Publication Date
JP2020042002A JP2020042002A (ja) 2020-03-19
JP7269082B2 true JP7269082B2 (ja) 2023-05-08

Family

ID=67253823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077030A Active JP7269082B2 (ja) 2018-09-11 2019-04-15 拡張現実で仮想オブジェクトを表示するための測位方法及び装置

Country Status (5)

Country Link
US (2) US11037368B2 (ja)
EP (1) EP3623761B1 (ja)
JP (1) JP7269082B2 (ja)
KR (1) KR20200029785A (ja)
CN (1) CN110889872A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2017230184B2 (en) 2016-03-11 2021-10-07 Magic Leap, Inc. Structure learning in convolutional neural networks
JP6772944B2 (ja) 2017-04-19 2020-10-21 トヨタ自動車株式会社 自動運転システム
JP6847885B2 (ja) * 2018-03-20 2021-03-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム
KR102627453B1 (ko) 2018-10-17 2024-01-19 삼성전자주식회사 위치 추정 장치 및 방법
US10824151B2 (en) * 2019-01-31 2020-11-03 StradVision, Inc. Method and device for providing personalized and calibrated adaptive deep learning model for the user of an autonomous vehicle
JP7385681B2 (ja) 2019-05-21 2023-11-22 マジック リープ, インコーポレイテッド 手姿勢推定
US11829128B2 (en) 2019-10-23 2023-11-28 GM Global Technology Operations LLC Perception system diagnosis using predicted sensor data and perception results
CN111459269B (zh) * 2020-03-24 2020-12-01 视辰信息科技(上海)有限公司 一种增强现实显示方法、系统及计算机可读存储介质
IT202000006472A1 (it) * 2020-03-27 2021-09-27 Invisible Cities S R L Sistema configurato per associare uno scenario virtuale ad uno scenario reale durante il movimento di un veicolo all’interno di una area geografica di interesse.
GB2594249B (en) 2020-04-20 2024-05-29 Continental Autonomous Mobility Germany GmbH Method for creating a virtual environment reconstruction of an actual location
CN111623795B (zh) * 2020-05-28 2022-04-15 阿波罗智联(北京)科技有限公司 实景导航图标显示方法、装置、设备和介质
CN112781620B (zh) * 2020-12-30 2022-03-18 东风汽车集团有限公司 一种基于高精度地图系统的ar-hud影像标定调整系统及方法
US11590423B2 (en) 2021-03-29 2023-02-28 Niantic, Inc. Multi-user route tracking in an augmented reality environment
CN113434620A (zh) * 2021-06-25 2021-09-24 阿波罗智联(北京)科技有限公司 显示方法、装置、设备、存储介质以及计算机程序产品
CN113566847B (zh) * 2021-07-22 2022-10-11 北京百度网讯科技有限公司 导航校准方法和装置、电子设备、计算机可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006035755A1 (ja) 2004-09-28 2006-04-06 National University Corporation Kumamoto University 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP2014127027A (ja) 2012-12-26 2014-07-07 Nippon Soken Inc 境界線認識装置

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPS123702A0 (en) * 2002-03-22 2002-04-18 Nahla, Ibrahim S. Mr The train navigtion and control system (TNCS) for multiple tracks
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
KR100774591B1 (ko) 2006-03-31 2007-11-09 (주)더싸인 네비게이션 시스템 및 이를 이용한 네비게이션 방법
CN101952688A (zh) * 2008-02-04 2011-01-19 电子地图北美公司 用于与传感器检测到的对象进行地图匹配的方法
US8237791B2 (en) * 2008-03-19 2012-08-07 Microsoft Corporation Visualizing camera feeds on a map
US8711206B2 (en) 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US20120300020A1 (en) * 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images
US9047376B2 (en) * 2012-05-01 2015-06-02 Hulu, LLC Augmenting video with facial recognition
JP5968064B2 (ja) 2012-05-08 2016-08-10 アルパイン株式会社 走行レーン認識装置および走行レーン認識方法
US20140323148A1 (en) 2013-04-30 2014-10-30 Qualcomm Incorporated Wide area localization from slam maps
KR102020629B1 (ko) 2013-05-09 2019-11-04 현대모비스 주식회사 증강 현실을 이용하여 헤드업 디스플레이 향상 방법 및 시스템
US9524434B2 (en) 2013-10-04 2016-12-20 Qualcomm Incorporated Object tracking based on dynamically built environment map data
JP6368149B2 (ja) * 2014-06-04 2018-08-01 キヤノン株式会社 画像伝送システム、画像処理装置、画像蓄積装置、及びそれらの制御方法
KR101610502B1 (ko) * 2014-09-02 2016-04-07 현대자동차주식회사 자율주행차량의 주행환경 인식장치 및 방법
US11370422B2 (en) 2015-02-12 2022-06-28 Honda Research Institute Europe Gmbh Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
JP6393214B2 (ja) 2015-03-03 2018-09-19 アルパイン株式会社 車線認識システム及びコンピュータプログラム
JP6550819B2 (ja) * 2015-03-19 2019-07-31 富士ゼロックス株式会社 選択支援装置及びプログラム
US9852547B2 (en) * 2015-03-23 2017-12-26 International Business Machines Corporation Path visualization for augmented reality display device based on received data and probabilistic analysis
EP3078935A1 (en) 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
US20160358383A1 (en) * 2015-06-05 2016-12-08 Steffen Gauglitz Systems and methods for augmented reality-based remote collaboration
KR102196975B1 (ko) * 2015-08-15 2020-12-30 구글 엘엘씨 실제 객체 및 가상 객체와 상호작용하기 위한 생체기계적 기반의 안구 신호를 위한 시스템 및 방법
CN108028889B (zh) * 2015-09-18 2021-07-02 索尼公司 图像处理设备、图像处理方法、程序和摄像系统
US10540768B2 (en) * 2015-09-30 2020-01-21 Samsung Electronics Co., Ltd. Apparatus and method to segment object from image
US9630619B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US9727793B2 (en) 2015-12-15 2017-08-08 Honda Motor Co., Ltd. System and method for image based vehicle localization
US9740944B2 (en) * 2015-12-18 2017-08-22 Ford Global Technologies, Llc Virtual sensor data generation for wheel stop detection
US20170206426A1 (en) * 2016-01-15 2017-07-20 Ford Global Technologies, Llc Pedestrian Detection With Saliency Maps
US10198808B2 (en) * 2016-01-15 2019-02-05 Instrumental, Inc. Methods for automatically generating a common measurement across multiple assembly units
CN105676253B (zh) * 2016-01-15 2019-01-01 武汉光庭科技有限公司 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法
CN106127120B (zh) * 2016-06-16 2018-03-13 北京市商汤科技开发有限公司 姿势估计方法和装置、计算机系统
US10229215B2 (en) * 2016-09-26 2019-03-12 Disney Enterprises, Inc. Visualisation and navigation of transmedia content data
CN108121764B (zh) * 2016-11-26 2022-03-11 星克跃尔株式会社 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质
JP6669059B2 (ja) 2016-12-27 2020-03-18 トヨタ自動車株式会社 位置算出装置
US10452927B2 (en) * 2017-08-09 2019-10-22 Ydrive, Inc. Object localization within a semantic domain
US10540589B2 (en) * 2017-10-24 2020-01-21 Deep North, Inc. Image quality assessment using similar scenes as reference
US10763989B2 (en) * 2018-10-16 2020-09-01 Nec Corporation Machine learning based classification of higher-order spatial modes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006035755A1 (ja) 2004-09-28 2006-04-06 National University Corporation Kumamoto University 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP2014127027A (ja) 2012-12-26 2014-07-07 Nippon Soken Inc 境界線認識装置

Also Published As

Publication number Publication date
EP3623761A1 (en) 2020-03-18
KR20200029785A (ko) 2020-03-19
JP2020042002A (ja) 2020-03-19
EP3623761B1 (en) 2022-03-23
US11037368B2 (en) 2021-06-15
CN110889872A (zh) 2020-03-17
US11842447B2 (en) 2023-12-12
US20200082621A1 (en) 2020-03-12
US20210287438A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
JP7269082B2 (ja) 拡張現実で仮想オブジェクトを表示するための測位方法及び装置
US11042157B2 (en) Lane/object detection and tracking perception system for autonomous vehicles
US20210365750A1 (en) Systems and methods for estimating future paths
US10582137B1 (en) Multi-sensor data capture synchronizaiton
US11436743B2 (en) Systems and methods for semi-supervised depth estimation according to an arbitrary camera
US20220394156A1 (en) Image scan line timestamping
US11427210B2 (en) Systems and methods for predicting the trajectory of an object with the aid of a location-specific latent map
US20200223444A1 (en) Utilizing passenger attention data captured in vehicles for localization and location-based services
US11176719B2 (en) Method and apparatus for localization based on images and map data
CN110347145A (zh) 用于自动驾驶车辆的感知辅助
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
JP7422747B2 (ja) 画像スキャンラインのタイムスタンプ
US11652972B2 (en) Systems and methods for self-supervised depth estimation according to an arbitrary camera
US11869253B2 (en) Vehicle environment modeling with a camera
US20210158059A1 (en) Systems and methods for determining the direction of an object in an image
US11915436B1 (en) System for aligning sensor data with maps comprising covariances
CN114972136A (zh) 3d目标检测模型的训练方法、3d目标检测方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230421

R150 Certificate of patent or registration of utility model

Ref document number: 7269082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150