JP7210165B2 - 仮想経路を表示する方法、装置及びディスプレイ装置 - Google Patents

仮想経路を表示する方法、装置及びディスプレイ装置 Download PDF

Info

Publication number
JP7210165B2
JP7210165B2 JP2018117923A JP2018117923A JP7210165B2 JP 7210165 B2 JP7210165 B2 JP 7210165B2 JP 2018117923 A JP2018117923 A JP 2018117923A JP 2018117923 A JP2018117923 A JP 2018117923A JP 7210165 B2 JP7210165 B2 JP 7210165B2
Authority
JP
Japan
Prior art keywords
vehicle
sensor
sensors
virtual route
detection data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018117923A
Other languages
English (en)
Other versions
JP2019086508A (ja
Inventor
景 夫 鄭
▲な▼ ▲ひょぷ▼ 姜
基 彰 李
性 勳 洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019086508A publication Critical patent/JP2019086508A/ja
Application granted granted Critical
Publication of JP7210165B2 publication Critical patent/JP7210165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/183Compensation of inertial measurements, e.g. for temperature effects
    • G01C21/188Compensation of inertial measurements, e.g. for temperature effects for accumulated errors, e.g. by coupling inertial systems with absolute positioning systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3819Road shape data, e.g. outline of a route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

実施形態は仮想経路を表示する方法、装置及びディスプレイ装置等に関する。
運転者を補助するために様々な視覚情報を示す拡張現実(Augmented Reality:AR)が車両に含まれたディスプレイ又はナビゲーションによって提供されている。例えば、2次元ヘッドアップディスプレイ(2D HUD:Head-Up Display)に基づくナビゲーション装置の場合、表示される経路情報と実際の走行情報との間の整合性をユーザが直接調整しなければならないか、又は、固定された所定の位置に仮想映像が表示される。そのため、正確な道の案内が困難であったり、走行中に危険要素として作用することがある。3D HUDに基づくナビゲーションは、車両又は道路の空間情報を把握するため、経路を実際の走行環境に近付けることができる。しかし、ユーザの目の位置が変化することにより、ユーザの目の位置に応じて3次元仮想経路の表示位置に誤差が発生する可能性がある。
特開平10-170282号公報
一側面によれば、検出速度を同期化させることなく角度センサが独立的に位置/姿勢情報を検出し、現在の検出情報と過去に他のセンサから推定された位置/姿勢情報を統合することで、遅延されることなく現在の位置/姿勢を推定することにある。
一側面によれば、視覚的走行距離(visual odometry)及び3次元深度値の検出(depth sensing)情報など、高精密検出情報を活用して推定された位置情報を用いてARオブジェクト(navigation情報)を生成することにある。
一側面によれば、ユーザの視点をリアルタイムに追跡して走行道路の照明(lighting)及び質感(texture)などを推定して3次元仮想オブジェクトを途切れることなくレンダリングすることにある。
一実施形態によれば、仮想経路を表示する方法は、センサから非同期的に受信される検出データに基づいて車両の位置を推定するステップと、前記車両の位置と前記車両の走行環境に対応する走行環境モデルを地図情報に整合させて3次元の仮想経路を生成するステップと、前記3次元の仮想経路を出力するステップとを含む。
前記センサは、全地球測位システム(GPS:Global Positioning System)センサ、慣性計測装置(IMU:Inertial Measurement Unit)センサ、車載式故障診断装置(OBD:On-board diagnostics)センサ、及びカメラセンサのうち少なくとも1つを含み得る。
前記検出データを前記センサごとに互いに独立的にサンプリングし得る。
前記車両の位置を推定するステップは、前記検出データごとに、当該の検出データが処理された処理時間に関する情報を挿入するステップと、前記処理時間に関する情報を有する検出データを用いて前記車両の位置を推定するステップとを含み得る。
前記車両の位置を推定するステップは、前記センサのうち、第1センサから第1時間に受信された第1検出データに基づいて前記車両の第1位置を推定するステップと、前記センサのうち、前記第1センサ又は第2センサから第2時間に受信された第2検出データに基づいて前記第1位置を第2位置に更新するステップと、前記センサのうち、前記第1センサ、又は第2センサ、又は第3センサから第3時間に受信された第3検出データに基づいて前記車両の第2位置を第3位置に更新するステップとを含み得る。
前記仮想経路を表示する方法は、前記センサのうちカメラセンサから取得した映像データを用いて視覚的走行距離を測定するステップをさらに含み、前記車両の位置を推定するステップは、前記検出データ及び前記視覚的走行距離を用いて前記車両の位置を推定するステップを含み得る。
前記検出データ及び前記視覚的走行距離を用いて前記車両の位置を推定するステップは、前記検出データのうち、前記映像データを除いたいずれか1つの検出データを用いて前記車両の位置を推定するステップと、前記映像データに基づいた視覚的走行距離を用いて前記車両の位置を補正するステップとを含み得る。
前記3次元の仮想経路を生成するステップは、前記センサのうち、カメラセンサから取得した映像データを用いてセグメンテーション映像を生成するステップと、前記セグメンテーション映像に含まれたオブジェクトを検出するステップと、前記オブジェクトから識別された前記車両の走行車路及び前記オブジェクトの深度値を用いて前記走行環境モデルを生成するステップと、前記車両の位置及び前記走行環境モデルを前記地図情報に整合させて前記3次元の仮想経路を生成するステップとを含み得る。
前記3次元の仮想経路を生成するステップは、前記センサのうちカメラセンサから取得した映像データを用いて、前記車両の走行車路を含む領域の照明及び質感を推定するステップと、前記照明及び前記質感を適用して前記3次元の仮想経路を生成するステップとを含み得る。
前記仮想経路を表示する方法は、前記車両の運転者視点に一致するよう前記3次元の仮想経路を変換するステップをさらに含み、前記3次元の仮想経路を出力するステップは、前記変換された仮想経路を表示するステップを含み得る。
前記変換された仮想経路を出力するステップは、前記変換された仮想経路を前記車両のヘッドアップディスプレイ(Head-Up Display:HUD)装置を介して表示するステップを含み得る。
前記3次元の仮想経路を変換するステップは、前記運転者両眼の3D位置を追跡することによって前記運転者視点を追跡するステップと、前記運転者両眼の3D位置を用いて前記ヘッドアップディスプレイ装置を介して表示される仮想映像と前記運転者視点との間の変換関係を予測するステップと、前記変換関係に基づいて前記3次元の仮想経路を変換するステップとを含み得る。
一実施形態によれば、仮想経路を表示する装置、車両の位置、前記車両の姿勢、及び前記車両の走行環境を含む映像を含む検出データを検出するセンサを含むセンサモジュールと、地図情報を格納するメモリと、前記センサから非同期的に受信される検出データに基づいて車両の位置を推定し、前記車両の位置と前記車両の走行環境に対応する走行環境モデルを前記地図情報に整合させて3次元の仮想経路を生成するプロセッサと、前記3次元の仮想経路を表示するディスプレイ装置とを含む。
前記センサは、前記車両の絶対経路を測定するGPSセンサと、前記車両の相対経路を測定するIMUセンサと、前記車両の走行距離を測定するOBDセンサと、前記車両の走行環境を含む映像データをキャプチャーするカメラセンサのうち2以上又はそれ以上を含み得る。
前記検出データを前記センサごとに互いに独立的にサンプリングし得る。
前記プロセッサは、前記検出データごとに当該の検出データが処理された処理時間に関する情報を挿入し、前記処理時間に関する情報を有する検出データを用いて前記車両の位置を推定し得る。
前記プロセッサは、前記センサのうち第1センサから第1時間に受信された第1検出データに基づいて前記車両の第1位置を推定し、前記センサのうち、前記第1センサ又は第2センサから第2時間に受信された第2検出データに基づいて前記第1位置を第2位置に更新し、前記センサのうち、前記第1センサ、又は前記第2センサ、又は第3センサから第3時間に受信された第3検出データに基づいて前記車両の第2位置を第3位置に更新し得る。
前記プロセッサは、前記センサのうちカメラセンサから取得した映像データを用いて視覚的走行距離を測定し、前記検出データ及び前記視覚的走行距離を用いて前記車両の位置を推定し得る。
前記プロセッサは、前記検出データのうち前記映像データを除いたいずれか1つの検出データを用いて前記車両の位置を推定し、前記映像データに基づいた視覚的走行距離を用いて前記車両の位置を補正し得る。
前記プロセッサは、前記センサのうちカメラセンサから取得した映像データを用いてセグメンテーション映像を生成し、前記セグメンテーション映像に含まれたオブジェクトを検出し、前記オブジェクトから識別された前記車両の走行車路及び前記オブジェクトの深度値を用いて前記走行環境モデルを生成し、前記車両の位置及び前記走行環境モデルを前記地図情報に整合させて前記3次元の仮想経路を生成し得る。
前記プロセッサは、前記センサのうちカメラセンサから取得した映像データを用いて前記車両の走行車路を含む領域の照明及び質感を推定し、前記照明及び前記質感を用いて前記3次元の仮想経路を変換し得る。
前記仮想経路を表示する装置は、前記車両の運転者視点を追跡する第2カメラセンサをさらに含み、前記プロセッサは、前記車両の運転者視点に一致するよう前記3次元の仮想経路を変換し、前記変換された仮想経路を前記ディスプレイ装置を介して出力し得る。
前記ディスプレイ装置は、ヘッドアップディスプレイ装置を含み得る。
前記プロセッサは、前記運転者両眼の3D位置を追跡することによって前記車両の運転者視点を追跡し、前記運転者両眼の3D位置を用いて前記ヘッドアップディスプレイ装置を介して表示される仮想映像と前記運転者視点との間の変換関係を予測し、前記変換関係に基づいて前記3次元の仮想経路を変換し得る。
前記センサそれぞれは前記車両の位置又は姿勢を個別的に検出し、前記センサそれぞれの検出速度は同期化されないことがある。
一実施形態によれば、仮想経路ディスプレイ装置は、車両の走行環境映像、前記車両の運転者の両眼の3D位置を追跡することに基づいた前記車両の運転者視点、前記車両の姿勢、前記車両の位置を含む検出データを非同期的に生成するセンサを含むセンサモジュールと、ヘッドアップディスプレイ(HUD)と、地図情報及び命令を格納するメモリと、前記センサから非同期的に受信された検出データに基づいて車両の位置を推定し、前記車両の走行環境及び前記車両の位置に対応する走行環境モデルを前記地図情報に登録して3次元仮想経路を生成し、前記車両の運転者視点に合わせるために3次元仮想経路を変換し、前記変換された3次元仮想経路を前記ヘッドアップディスプレイを介して出力する命令を実行するよう構成されたプロセッサとを含む。
前記メモリは、前記センサモジュールによって生成された前記検出データ及び前記プロセッサによって生成された前記3次元仮想経路を格納し得る。
一側面によれば、検出速度を同期化させることなく角度センサが独立的に位置/姿勢情報を検出し、現在の検出情報と過去に他のセンサから推定された位置/姿勢情報を統合することによって遅延されることなく現在の位置/姿勢を推定することができる。
一側面によれば、視覚的走行距離及び3次元深度値の検出情報など、高精密検出情報を活用して推定された位置情報を用いてARオブジェクト(navigation情報)を生成することができる。
一側面によれば、ユーザの視点をリアルタイムに追跡して走行道路の照明及び質感などを推定して3次元仮想オブジェクトを途切れることなくレンダリングすることができる。
一実施形態に係る仮想経路を表示する方法を示したフローチャートである。 一実施形態に係る車両の位置を推定する方法を示す図である。 一実施形態に係る車両の位置を推定する方法を示す図である。 一実施形態に係る車両の位置を推定する方法を示す図である。 一実施形態に係る車両の位置を推定する方法を示す図である。 一実施形態に係る3次元の仮想経路を生成する方法を示したフローチャートである。 一実施形態に係る3次元の仮想経路を生成する方法を示したフローチャートである。 一実施形態に係る3次元の仮想経路を表示する方法を示したフローチャートである。 一実施形態に係る3次元の仮想経路を変換する方法を示したフローチャートである。 一実施形態により推定した車両の位置及び走行環境モデルを用いて生成された3次元の仮想経路を示す図である。 一実施形態により推定した車両の位置及び走行環境モデルを用いて生成された3次元の仮想経路を示す図である。 一実施形態に係る運転者視点に一致するよう変換された3次元の仮想経路を示す図である。 一実施形態に係る運転者視点に一致するよう変換された3次元の仮想経路を示す図である。 一実施形態に係る仮想経路を表示する装置のプロセスの流れを説明するための図である。 一実施形態に係る仮想経路を表示する装置におけるデータの流れを説明するための図である。 一実施形態に係る仮想経路を表示する装置の詳細動作を説明するための図である。 一実施形態に係る仮想経路を表示する装置のブロック図である。
実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものとして、様々な形態に変更され得る。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることができるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結されて」いると言及された場合、その次の構成要素に直接的に連結されてもよく、又は中間に他の構成要素が存在することもあり得ると理解されなければならない。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
下記で説明される実施形態は、スマート車両などの拡張現実ナビゲーション(Augmented Reality Navigation)システムで仮想経路を表示したり、自律走行車両のステアリングを助けるための視覚情報を生成するところに活用される。また、実施形態は車両内走行補助又は完全自律走行のために設けられたHUD(Head Up Display)などの知能システムを含む機器で視覚情報(Visual Information)を解釈して安全で快適な走行を助けるところに使用される。実施形態は、例えば、自律走行自動車、知能型自動車、スマートフォン、及びモバイル機器などに適用され得る。以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係る仮想経路を表示する方法を示したフローチャートである。図1に示す動作を図1に示された順序及び方式により実行され、説明された例示的な実施形態の思想及び範囲を逸脱することなく、一部動作の順序が変更されたり一部動作が省略されてもよい。図1に示された多くの動作が並列又は同時に実行されてもよい。図1に示す1つ以上のブロック、及びこのブロックの組合せは、特定機能を行う特殊目的のハードウェア基盤コンピュータ、又は、特殊目的のハードウェア及びコンピュータ命令の組合せによって実現される。
図1を参照すれば、一実施形態に係る仮想経路を表示する装置(以下、「ディスプレイ装置」)は、センサから非同期的に受信される検出データに基づいて車両の位置を推定する(S110)。例えば、本明細書で説明された車両は、運送、配達、又は通信のような任意のモードを指し、例えば、本明細書で説明された車両は、運送、配達又は通信のような任意のモードを指し、例えば、トラック、トラクター、スクーター、バイク、サイクル、水陸両用車両、雪上車、ボート、交通車両、バス、モノレール、汽車、トラム、自治区知能型車両、自家運転車両、航空機、無人航空機、無人航空機、又は、移動装置のうちの1つ以上を含む。一例として、位置推定装置は、位置決定操作を必要とするロボットに適用可能である。
本明細書で記述された装置及び方法は、スマート車両のナビゲーションシステムでターゲットの位置を推定し、自律的な又は自動化された走行車両を操向することを助けるための位置情報を生成したり、自律走行又は完全自律走行のための車内走行補助のために使用され、自動化された運転を可能にして安全で快適な運転を可能にする。
センサは、例えば、GPSセンサ、IMUセンサ、OBDセンサ、及びカメラセンサなどを含む。IMUセンサは、例えば、加速度センサ、及び/又はジャイロセンサなどを含む。ディスプレイ装置は、例えば、加速度センサ又はジャイロセンサなどによって検知された運動及び重力加速度、角速度を用いて算出される運動加速度成分を積分して車両の3D位置及び姿勢などを推定する。カメラセンサは、例えば、前方向けカメラ、ステレオカメラ又はモノカメラであってもよい。センサから受信される検出データは、センサごとに互いに独立的にサンプリングされたものであり得る。
実施形態によって、センサには超音波センサが含まれてもよい。ディスプレイ装置は、超音波が空気のうちで音速(約340m/s)で進行することを用いて超音波が超音波センサの発信部から受信部まで達した時間(TOF:Time of Flight)を測定して距離を算出する。ディスプレイ装置は、3つ以上の同じ視点の距離情報を取得したことに基づいて、三角測量方式のような方法により距離情報を取得し、車両の3D位置を算出し得る。
一実施形態に係るディスプレイ装置は、ヘッドアップディスプレイ装置を含む知能型機器、拡張現実ナビゲーション装置、又は知能型自動車そのものであるか、知能型機器又は知能型自動車に含まれた別途の装置であり得る。ディスプレイ装置は、例えば、図15に示されたディスプレイ装置1500である。ディスプレイ装置が車両の位置を推定する方法については、以下の図2~図5を参照して具体的に説明することにする。
ただし、ディスプレイ装置は前述した例示に限定されることなく、拡張現実を用いる車両のスクリーン又は車両計器盤、車両インフォテインメントシステム、車両の表示パネルが表示装置の機能を行ってもよい。ディスプレイ装置に動作可能に接続されたスマートフォン及びメガネディスプレイ(eye glass display:EGD)のような他のディスプレイが説明された例示的な実施形態の思想及び範囲を逸脱することなく使用される。ディスプレイ装置は、ステップS110で推定された車両の位置と車両の走行環境に対応する走行環境モデルを地図情報に整合させて3次元の仮想経路を生成する(S120)。ここで、「走行環境モデル」とは、例えば、走行車路、車線、道路標識などを含む車両が走行中である走行道路、歩道、建物、歩行者などを含む走行環境をモデリングしたものである。走行環境モデルは2次元モデルであってもよく、3次元モデルであってもよい。
本明細書で、「道路(road)」は車両が通っている道を意味し、例えば、高速道路、国道、地方道、田舎道、農場道、村道、高速国道、自動車専用道路などのような様々な類型の道路を含む。道路は1つ又は複数の車路を含む。「車路(lane)」は、道路面上に表示された車線によって区分される道路空間に当該する。また、「走行車路」は、複数の車路のうち走行車両が走行中である車路、言い換えれば、走行車両が占めている利用中である車路空間を意味するものと理解される。1つの車路は車路の左右にある車線によって区分される。「車線(lines)」は道路面上に白色、青色又は黄色のような色に表示された実線、又は点線などの様々な形態の線として理解される。
また、地図情報は、例えば、図15に示されたメモリ1520に予め格納されたものであるか、又は、一定の時間間隔又はリアルタイムで外部データベースから受信されたものであり得る。
ディスプレイ装置は、例えば、地図情報から道路形態の情報を抽出し、道路形態の情報に走行環境モデル及び推定された車両の位置を整合(registration)又はマッチングさせることで3次元の仮想経路を生成する。より具体的に、ディスプレイ装置は、走行映像に含まれたカメラ情報及び位置情報に基づいて、地図情報からカメラの視錐台(viewing frustum)内に入ってくる道路形態の情報を抽出する。道路形態の情報は、例えば、緯度及び経度に表現される2D情報であるか、一連の(x、y、z)成分に表現される3D情報である。道路形態の情報は、例えば、白色、黄色、及び青色などの車線表示情報又は各車線の中を通過する道路中心線、又は、道路表面の情報であり得る。ディスプレイ装置は、例えば、最小自乗法(Least Square Method:LSM)を用いて道路形態の情報を走行環境モデルにマッチングする。ディスプレイ装置は、車両の位置と走行環境モデルを地図情報に整合させて、実際の道路と運転者に案内される経路が一致するようすることで、拡張現実ナビゲーションでユーザに正確な経路情報を提供できる。
3次元の仮想経路は、例えば、拡張現実ナビゲーションによって表示される拡張現実オブジェクトであり得る。ディスプレイ装置が3次元の仮想経路を生成する方法は、以下の図6~図7を参照して具体的に説明する。一実施形態により生成された3次元の仮想経路の一例は、以下の図10に示されている。
ディスプレイ装置は、ステップS120で生成された3次元の仮想経路を表示する(S130)。ディスプレイ装置は、3次元の仮想経路を、例えば、ヘッドアップディスプレイ(Head-Up Display:HUD)装置を介して表示する。ディスプレイ装置が3次元の仮想経路を表示する具体的な方法については、以下の図8~図9を参照して説明することにする。
図2は、一実施形態に係る車両の位置を推定する方法を示したフローチャートである。図2に示す動作は、図2に示された順序及び方式により実行され、説明された例示的な実施形態の思想及び範囲を逸脱することなく一部動作の順序が変更されたり、一部動作が省略されてもよい。図2に示された多くの動作が並列的又は同時に実行されてもよい。図2に示す1つ以上のブロック及びブロックの組合せは、特定機能を行う特殊目的のハードウェア基盤コンピュータ、又は、特殊目的のハードウェア及びコンピュータ命令の組合せによって実現される。図2に示す説明に加えて、図1の説明についても図2に適用され得る。したがって、前記説明はここで繰り返されない。
図2を参照すれば、一実施形態に係るディスプレイ装置は、検出データごとに、当該の検出データが処理された処理時間に関する情報を挿入する(S210)。ここで、当該の検出データが処理された処理時間は、当該の検出データが検知された後、ディスプレイ装置によって利用可能な形態のデータで処理又は加工が完了した時間として理解される。検出データが処理された処理時間に関する情報は、例えば、タグ(tag)又はコード(code)の形態に検出データごとに挿入される。
ディスプレイ装置は、互いに異なる処理時間に関する情報を有する検出データを用いて車両の位置を推定する(S220)。ここで、車両の位置は、車両の位置以外に車両の姿勢を含む。ディスプレイ装置は、例えば、現在時間にAセンサによって検知された第1検出データと、以前時間にBセンサによって検知された第2検出データによって推定された車両の位置情報及び姿勢情報を統合し、車両の現在時間の位置情報及び姿勢情報を推定する。
一例として、様々なセンサによって検知された各検出データは、検出データがタグ又はコードの形態で処理される処理時間に関する情報を含む。
一例として、検出データに対応する部分が処理される処理時間は、当該の検出データが完全に処理された時間を使用可能な形態のデータと見なし、2:01:05又は2:02:17のような時間に関する情報から対応するデータの時間順序が検証される。
一例として、検出データに対応する部分が処理される処理時間に関する情報を使用して車両の位置を推定し得る。一例として、車両の位置情報及び姿勢情報を推定する手段は、現在時間(PM1:30:20)にセンサAが検出した第1検出データと以前時間(一例として、「検出データの対応する部分が処理される処理時間に関する情報」)を使用して車両の位置を推定し得る。
一例として、車両の位置情報及び姿勢情報を推定する手段は、現在時間(PM1:30:20)にセンサAが検出した第1検出データと、以前時間(PM1:25:00)にセンサBが検出した第2検出データに基づいて推定された車両の位置情報と姿勢情報を統合することによって、現在の視覚で推定され得る。
図3は、他の実施形態に係る車両の位置を推定する方法を示したフローチャートである。図3に示す動作は、図3に示された順序及び方式により実行され、説明された例示的な実施形態の思想及び範囲を逸脱することなく、一部動作の順序が変更されたり一部動作が省略されてもよい。図3に示された多くの動作が並列的又は同時に実行されてもよい。図3に示す1つ以上のブロック及びブロックの組合せは、特定機能を行う特殊目的のハードウェア基盤コンピュータ、又は、特殊目的のハードウェア及びコンピュータ命令の組合せによって実現される。図3に示す説明に加えて、図1~図2の説明についても図3に適用され得る。したがって、前記説明はここで繰り返されない。
図3を参照すれば、一実施形態に係るディスプレイ装置は、センサのいずれか1つのセンサから第1時間に受信された第1検出データに基づいて車両の第1位置を推定する(S310)。
ディスプレイ装置は、いずれか1つのセンサを含むセンサから第2時間に受信された第2検出データに基づいて第1位置を第2位置に更新する(S320)。ここで、第2検出データは、第1検出データと同一のセンサによって検知されてもよく、第1検出データと異なるセンサによって検知されたものであってもよい。
ディスプレイ装置は、センサから第3時間に受信された第3検出データに基づいて車両の第2位置を第3位置に更新する(S330)。第2検出データと同様に、第3検出データも、第1検出データ又は第2検出データと同一のセンサによって検知されてもよく、第1検出データ又は第2検出データと異なるセンサによって検知されたものであってもよい。
図4は、一実施形態に係る車両の位置を推定する方法を説明するための図である。図4を参照すれば、第1時間410に受信された第1検出データ、第2時間420に受信された第2検出データ、第3時間430に受信された第3検出データ、及び第4時間440に検知された第4検出データが示されている。各検出データは、互いに同一又は異なるセンサから非同期的に受信されたものであり得る。
例えば、第1検出データ及び第2検出データはGPSセンサによって検知されたものであり、第3検出データはIMUセンサによって検知されたものであり、第4検出データはOBDセンサによって検知されたものと仮定する。
ディスプレイ装置は、第1検出データに基づいて車両の第1位置を推定し、第2検出データに基づいて第1位置を第2位置に更新する。また、ディスプレイ装置は第3検出データに基づいて第2位置を第3位置に更新し、第4検出データに基づいて第3位置を第4位置に更新する。
GPSセンサは、例えば、1Hzの周波数で車両の絶対経路を測定できるが、GPS信号が受信できない地域(即ち、不感地域)では測定不可であり、10mの位置誤差が発生する可能性がある。IMUセンサ又はOBDセンサは、50Hz又は100Hzの高速周波数で車両の相対経路を測定できるものの、測定正確度が低い。
一実施形態では、センサごとの検出速度を同期化させることなく、角度センサが独立的に車両の位置及び/又は車両の姿勢を検出するようにし、現在の検出データと過去の検出データから推定された車両の位置及び/又は姿勢を統合して遅延されることなく車両の位置を更新することで、より正確に車両の位置を推定できる。また、一実施形態によれば、非同期的に検出データを受信することによって、センサごとの検出速度を同期化させるために必要とされる高いコンピューティングパワー(computing power)がなくとも正確に車両の位置を推定できる。
実施形態によって、ディスプレイ装置は、現在の検出データ(例えば、第4時間の検出データ)に基づいて推定された車両の第4位置と、以前の検出データ(例えば、第3時間の検出データ)に基づいて推定された車両の第3位置との間の位置変化率が予め設定された閾値以上である場合、車両の位置を第3位置から第4位置に更新する。位置変化率が閾値未満である場合、ディスプレイ装置は、車両の位置を第4位置に更新することなく、第3位置そのまま保持する。
図5は、他の実施形態に係る車両の位置を推定する方法を示したフローチャートである。図5に示す動作は、図5に示された順序及び方式により実行され、説明された例示的な実施形態の思想及び範囲を逸脱することなく、一部動作の順序が変更されたり、一部動作が省略されてもよい。図5に示された多くの動作が並列的又は同時に実行されてもよい。図5に示す1つ以上のブロック及びブロックの組合せは、特定機能を行う特殊目的のハードウェア基盤コンピュータ、又は、特殊目的のハードウェア及びコンピュータ命令の組合せによって実現される。図5に示す説明に加えて、図1~図4の説明についても図5に適用され得る。したがって、前記説明はここで繰り返されない。
図5を参照すれば、一実施形態に係るディスプレイ装置は、カメラセンサのようなセンサから取得した映像データを用いて視覚的走行距離を測定する(S510)。視覚的走行距離を測定する方法は、カメライメージを分析して対象オブジェクト(例えば、車両又はロボットなど)の位置と方向を決定する過程を含む。
視覚的走行距離を測定する方法は、車両の走行距離を推定するために連続的なカメライメージを使用して対応する走行距離の測定情報を決定する過程であり、これによって表面に関係なく全ての種類の運動方法を使用して車両の航法正確性を向上させることができる。視覚的走行距離の測定方法の一例は、次の通りである。
ディスプレイ装置は、例えば、単一カメラ、ステレオカメラ、前方向けカメラなどを使用してカメライメージ(映像データ)を取得し、レンズ歪み除去のための映像処理方式を適用してカメライメージを補正する。ディスプレイ装置は、関心演算子を定義し、カメライメージのフレームにかけて一致する特性を抽出して関連性を成立して光学の流れフィールドを構築し得る。ディスプレイ装置は、光学の流れフィールドを用いてカメライメージから特性を検出する。ここで、ディスプレイ装置は、連続的なカメライメージのうち2つのイメージの関連性を設定するために相関関係を使用する。
ディスプレイ装置は、光学の流れフィルタを用いてカメラの動きを推定する。ここで、ディスプレイ装置は、カルマンフィルタを用いてカメラの動きを推定してもよく、又は、2つの隣接するイメージ間の再投影エラーをベースに費用関数を最小化する機能の幾何学的属性、3D属性を探すことによりカメラの動きを推定する。カメラの動きの推定は、数学的な最小化やランダムサンプリングによって実行される。
ディスプレイ装置は隣接するイメージを通した適用範囲を保持するために追跡点を周期的な確認することで視覚的走行距離を測定し得る。
ディスプレイ装置は、検出データ及び視覚的走行距離を用いて車両の位置を推定する。より具体的に、ディスプレイ装置は、検出データのうち映像データを除いたいずれか1つの検出データを用いて車両の位置を推定する(S520)。
ディスプレイ装置は、映像データに基づいた視覚的走行距離を用いて車両の位置を補正する(S530)。
図6は、一実施形態に係る3次元の仮想経路を生成する方法を示したフローチャートである。図6に示す動作は図6に示された順序及び方式により実行され、説明された例示的な実施形態の思想及び範囲を逸脱することなく一部動作の順序が変更されたり、一部動作が省略されてもよい。図6に示された多くの動作が並列的又は同時に実行されてもよい。図6に示す1つ以上のブロック及びブロックの組合せは、特定機能を行う特殊目的のハードウェア基盤コンピュータ、又は、特殊目的のハードウェア及びコンピュータ命令の組合せによって実現される。図6に示す説明に加えて、図1~図5の説明についても図6に適用され得る。したがって、前記説明はここで繰り返されない。
図6を参照すれば、一実施形態に係るディスプレイ装置は、カメラセンサのようなセンサから取得した映像データを用いてセグメンテーション映像を生成する(S610)。映像データは、例えば、車両に装着されたカメラセンサから取得した走行映像であり得る。走行映像は、例えば、カメラセンサから撮影されたカラー映像、白黒映像、及びカメラ情報などを含む。カメラ情報は、カメラの内部パラメータ(intrinsic parameter)及び外部パラメータ(extrinsic parameter)などを含む。走行映像は、例えば、車両、車線、道路、沿石、歩道、建物などを含む周辺環境を含む映像及び道路面映像などを含む。
ディスプレイ装置は、映像データ(又は、走行映像)から意味(Semantic)単位にオブジェクトを分割し、分割されたオブジェクト(領域)がどのような意味を有するかをピクセル単位に把握し、各クラスごとにラベリング(labeling)することでセグメンテーション映像を生成する。クラスは、例えば、道路、車両、歩道、人、動物、空、建物などのように20個の程度で分類され得る。ディスプレイ装置は、セグメンテーション映像に含まれたピクセル単位のレーベルから物体、背景など映像内に構成要素がどこにどのように存在するかを精密に把握できる。また、ディスプレイ装置は、予め学習された畳み込み神経網(Convolution Neural Network:CNN)、深層神経網(Deep Neural Network:DNN)、サポートベクトルマシーン(Support Vector Machine)などを用いてセグメンテーション映像内に含まれた構成要素を分類し得る。ディスプレイ装置は、例えば、映像データに含まれたオブジェクトを意味単位で分割し、図10Aに示すようなセグメンテーション映像を生成する。
ディスプレイ装置は、セグメンテーション映像に含まれたオブジェクトを検出する(S620)。
ディスプレイ装置は、オブジェクトから識別された車両の走行車路(driving lane)及びオブジェクトの深度値を用いて走行環境モデルを生成する(S630)。ここで、オブジェクトの深度値は、例えば、レーダー(radar)、ライダー(lidar)、ステレオカメラを用いたステレオマッチング方法、又はSLAM(Simultaneous Localization And Map-building)方式などにより取得されたものであり得る。レーダーは、電波を用いて物体を探知して距離を測定する。ライダーは、レーザ光線を放出し、てその反射と吸収を用いて大気中の温度、湿度、視界の程度などを測定する。又は、ディスプレイ装置は、ステレオカメラを用いたステレオマッチング方法を用いて深度値を取得する。
ディスプレイ装置は、車両の位置及び走行環境モデルを地図情報に整合させ、例えば、図10Bに示すような3次元の仮想経路を生成する(S640)。
図7は、一実施形態に係る3次元の仮想経路を生成する方法を示したフローチャートである。図7に示す動作は図7に示された順序及び方式により実行され、説明された例示的な実施形態の思想及び範囲を逸脱することなく一部動作の順序が変更されたり、一部動作が省略されてもよい。図7に示された多くの動作が並列的又は同時に実行されてもよい。図7に示す1つ以上のブロック及びブロックの組合せは、特定機能を行う特殊目的のハードウェア基盤コンピュータ、又は、特殊目的のハードウェア及びコンピュータ命令の組合せによって実現される。図7に示す説明に加えて、図1~図6の説明についても図7に適用され得る。したがって、前記説明はここで繰り返されない。
図7を参照すれば、一実施形態に係るディスプレイ装置は、カメラセンサのようなセンサから取得した映像データを用いて車両の走行車路を含む領域の照明及び質感を推定する(S710)。ディスプレイ装置は、セグメンテーション映像からヘッドアップディスプレイの仮想映像がレンダリングされる領域の照明及び質感を推定する。実施形態によって、ディスプレイ装置は、映像データを用いて生成されたセグメンテーション映像から車両の走行車路を含む領域の照明及び質感を推定し得る。
ディスプレイ装置が照明及び質感を推定する方法の一例は次の通りである。
ディスプレイ装置は、例えば、一対のカラー映像及び深度映像から様々な色及び質感の特性を有する材質情報を抽出し、同時に前方向け照明マップを抽出する。カラー映像は、例えば、多視点カラー映像であってもよい。
ディスプレイ装置は、カラー映像を用いてオブジェクト(例えば、車両の走行車路を含む領域)の質感特性を分析し、質感特性に基づいてオブジェクトを複数のセグメントに区分し得る。より具体的に、ディスプレイ装置は、カラースペース(color space)のドメイン(domain)で、明るさ成分を除いた色差信号(color difference signal)の値を用いて質感特性を分析する。カラースペースの例として、HSV(hue saturation value)、CIE(Commission Internationale d’Eclairage)LAB模型などがある。色差信号の例として、Cr、Cb(青色差分(blue-difference)及び赤色差分(red-difference)、クロマ成分(chroma components))などが挙げられるが、色差信号の種類が必ずCr、Cbなどに限定されることはない。ディスプレイ装置は、色差信号の値を基準としてクラスタリングを行って複数の質感クラスタを決定する。ディスプレイ装置は、オブジェクトに質感クラスタを適用することにより、オブジェクト表面の質感を表現できる。
また、ディスプレイ装置はカラー映像の画素値及びオブジェクトの深度映像から誘導される低い基底関数を用いて、オブジェクトに対する照明情報及び複数のセグメントそれぞれに対する質感定数を取得する。低基底関数モデルを用いて映像を表現する方式の一例として、SHBF(Spherical Harmonics Basis Function)方式がある。ディスプレイ装置は、SHBF方式を用いてノーマルマップ(Normal Map)から深度映像の低い基底関数モデルを生成する。ここで、ノーマルマップは、オブジェクトに対する法線ベクトル(Normal vector)をテクスチャで表現したのである。ディスプレイ装置は、複数のセグメントそれぞれに対する質感定数を用いてオブジェクトの色彩及びテクスチャの多様性を全て復元できる。
ディスプレイ装置は、ステップS710で推定した照明及び質感を適用して3次元の仮想経路を生成する(S720)。
図8は、一実施形態に係る3次元の仮想経路を表示する方法を示したフローチャートである。図8に示す動作は図8に示された順序及び方式により実行され、説明された例示的な実施形態の思想及び範囲を逸脱することなく一部動作の順序が変更されたり、一部動作が省略されてもよい。図8に示された多くの動作が並列的又は同時に実行されてもよい。図8に示す1つ以上のブロック及びブロックの組合せは、特定機能を行う特殊目的のハードウェア基盤コンピュータ、又は、特殊目的のハードウェア及びコンピュータ命令の組合せによって実現される。図8に示す説明に加えて、図1~図7の説明についても図8に適用され得る。したがって、前記説明はここで繰り返されない。
図8を参照すれば、一実施形態に係るディスプレイ装置は、車両の運転者視点に一致するよう3次元の仮想経路を変換する(S810)。ここで、変換は「補正(correction)」を含む意味として理解される。ディスプレイ装置が3次元の仮想経路を変換する具体的な方法については図9を参照して説明する。
ディスプレイ装置は、変換された仮想経路を表示する(S820)。ディスプレイ装置は、例えば、変換された仮想経路を車両のヘッドアップディスプレイ装置を介して表示する。ヘッドアップディスプレイは、例えば、光フィールド3Dディスプレイであってもよい。
図9は、一実施形態に係る3次元の仮想経路を変換する方法を示したフローチャートである。図9に示す動作は図9に示された順序及び方式により実行され、説明された例示的な実施形態の思想及び範囲を逸脱することなく一部動作の順序が変更されたり、一部動作が省略されてもよい。図9に示された多くの動作が並列的又は同時に実行されてもよい。図9に示す1つ以上のブロック及びブロックの組合せは、特定機能を行う特殊目的のハードウェア基盤コンピュータ、又は、特殊目的のハードウェア及びコンピュータ命令の組合せによって実現される。図9に示す説明に加えて、図1~図8の説明についても図9に適用され得る。したがって、前記説明はここで繰り返されない。
図9を参照すれば、一実施形態に係るディスプレイ装置は、運転者両眼の3D位置を追跡することによって運転者視点を追跡する(S910)。実施形態によって、ディスプレイ装置は、運転者の両眼以外にも運転者の頭の方向を追跡することにより運転者視点を追跡してもよい。
ディスプレイ装置は、運転者両眼の3D位置を用いてヘッドアップディスプレイ装置を介して表示される仮想映像と運転者視点との間の変換関係を予測する(S920)。ディスプレイ装置は、目の位置(例えば、運転者両眼の3D位置)を追跡するカメラとヘッドアップディスプレイ装置との間の幾何学的な関係により、仮想映像と運転者視点との間の変換関係を予測できる。ヘッドアップディスプレイ装置と目の位置を追跡するカメラとの間の幾何学的な関係は、2つの装置(ヘッドアップディスプレイ装置とカメラ)が設けられた後、2つの装置間の実際の距離と回転量を測定して算出できる。
ディスプレイ装置は、変換関係に基づいて3次元の仮想経路を変換する(S930)。
一実施形態に係るディスプレイ装置は、運転者視点をリアルタイムに追跡し、走行車路を含む走行道路の照明及び/又は質感などを推定して3次元の仮想経路を途切れることなく(seamless)レンダリング又は表示できる。
図10は、一実施形態により推定した車両の位置及び走行環境モデルを用いて生成された3次元の仮想経路を示す図である。ディスプレイ装置は、例えば、映像データに含まれたオブジェクトを意味単位で分割し、図10Aに示したようなセグメンテーション映像を生成する。図10Aに示すセグメンテーション映像で領域1001は道路を示し、領域1003は歩道を示し、領域1005は建物を示す。
ディスプレイ装置は、例えば、車両の位置、セグメンテーション映像から把握された走行車路、走行環境に対応する走行環境モデルなどを地図情報に整合させて、図10Bに示したような3次元の仮想経路1050を生成する。ここで、地図情報は、例えば、XX大学病院、BBビルディング、及び車両の最終目的地に該当するOOコーヒーショップなどの名前及び位置情報などを含む。
図11は、一実施形態に係る運転者視点に一致するよう変換された3次元の仮想経路を示す図である。図11Aを参照すれば、ディスプレイ装置によって生成された3次元の仮想経路1111、1113、1115が表示された図面が示されている。ディスプレイ装置は、運転者をモニタリングする第2カメラセンサによって運転者両眼の3D位置を追跡することで運転者視点を追跡できる。ディスプレイ装置は、運転者視点を追跡して3次元の仮想経路と走行道路との間の3次元整合を行うことで、図11Bに示すように、運転者視点に合う3次元の仮想経路1115を取得できる。
図12は、一実施形態に係る仮想経路を表示する装置のプロセスの流れを説明するための図である。図12を参照すれば、一実施形態に係るディスプレイ装置1200の処理過程は、大きく、センサモジュール1210に含まれたセンサ1211、1213、1215、1217を用いて高速高精密で車両の位置を推定し、拡張現実オブジェクト(例えば、3次元の仮想経路)を生成する過程と、運転者視点及び照明及び質感などを含む走行道路の環境を検出して拡張現実オブジェクトをレンダリングする過程とに区分する。
センサモジュール1210は、例えば、GPSセンサ1211、IMUセンサ1213、OBDセンサ1215、及びステレオカメラセンサ1217を含む。例えば、GPSセンサ1211は図15に示されたGPSセンサ1511であり、IMUセンサ1213は図15に示されたIMUセンサ1513、OBDセンサ1215は図15に示されたOBDセンサ1515であり、ステレオカメラセンサ1217は図15に示された第1カメラセンサ1517である。
ディスプレイ装置1200は、検出の速度及び正確度が互いに異なるセンサ1211、1213、1215、1217から非同期的に検出データを受信する(S1220)。ディスプレイ装置1200は、ステレオカメラセンサ1217から取得した映像データを用いて視覚的走行距離を測定する(S1225)。ディスプレイ装置1200は、ステップS1220で受信した検出データと、ステップS1225で測定した視覚的走行距離を用いて車両の位置を推定する(S1240)。
また、ディスプレイ装置1200は、ステレオカメラセンサ1217から取得した映像データを用いて映像を分割(S1230)し、セグメンテーション映像を生成する。ディスプレイ装置1200は、セグメンテーション映像及び視覚的走行距離を用いて、セグメンテーション映像に含まれたオブジェクトの深度値を推定する(S1232)。ステップS1232でディスプレイ装置1200は、深度値推定と共に走行車路を識別し得る。
走行車路を識別するために、ディスプレイ装置1200は、例えば、セグメンテーション映像と映像データから抽出した道路面表示(road marking)を用いて仮想車路を生成する。ディスプレイ装置1200は、セグメンテーション映像で走行車路の左右側車路境界線をセグメンテーション映像にフィッティングした後、フィッティングされた左右側車路境界線を平行に等間隔に左右配置して仮想車路を生成する。ディスプレイ装置1200は、車両の走行道路の車路の個数に基づいて、仮想車路における走行車路の相対的な位置を決定することで車両の走行車路を識別する。「道路面表示」は、車両が運行する道路面上に記載された標識として、車線(lines)及び車線以外の道路標識(road sign)を含み得る。
ディスプレイ装置1200は、識別された走行車路及びオブジェクトの深度値を用いて走行環境モデル(例えば、3D道路モデル)をモデリングし(S1234)、推定された車両の位置及び走行環境モデルを地図情報に整合させ(S1245)、3次元の仮想経路を生成する(S1250)。
ディスプレイ装置1200は、映像分割によって生成されたセグメンテーション映像(又は、映像データ)を用いて車両の走行車路を含む領域の照明及び質感を推定する(S1236)。また、ディスプレイ装置1200は、運転者モニターに含まれたカメラセンサ1219を用いて運転者両眼の3D位置を追跡することで運転者の視線を追跡する(S1280)。カメラセンサ1219は、例えば、図15に示された第2カメラセンサ1550であり得る。ディスプレイ装置1200は、運転者両眼の3D位置を用いてヘッドアップディスプレイ装置1270により表示される3次元の仮想経路を含む仮想映像と運転者視点との間の変換関係を予測する(S1285)。
ディスプレイ装置1200は、ステップS1285で予測された仮想映像と運転者視点との間の変換関係、及びステップS1236で推定された車両の走行車路を含む領域の照明及び質感を適用し、ステップS1250で生成された3次元の仮想経路をレンダリングする(S1260)。ステップS1260でレンダリングされた3次元の仮想経路は、最終的にヘッドアップディスプレイ装置1270によって表示される。
図13は、一実施形態に係る仮想経路を表示する装置におけるデータの流れを説明するための図である。図13を参照すれば、一実施形態に係るディスプレイ装置で非同期的に受信される検出データの流れを示す図面1300が示されている。他の実施形態において、非同期的に受信された検出データの流れの順序は、記述された例示的な実施形態の思想及び範囲を逸脱することなく変更され、或いは一部の動作が省略されてもよい。
GPSセンサ1211の検出データは低速(例えば、1Hz)で測定され、GPS信号の不感地域では測定できない。GPSセンサ1211の検出データは車両の絶対経路を含む。IMUセンサ1213及びOBDセンサ1215の検出データは高速(例えば、100Hz)で測定されるが、測定性能は低い。IMUセンサ1213及びOBDセンサ1215の検出データは、車両の相対経路を含む。OBDセンサ1215の検出データは、1~10Hzの低速で測定されるが、測定性能は高い。OBDセンサ1215の検出データは、車両の相対経路を含む。
ディスプレイ装置は、ステレオカメラセンサ1217から取得した映像データを用いて視覚的走行距離1225を測定するためには相当な処理時間(例えば、100ms~1s)が必要とされる。したがって、視覚的走行距離に基づいて位置を推定した結果は、映像データが取得された時間で処理時間がより加えられた過去の位置情報に当該する。
一実施形態に係るディスプレイ装置は、非同期的に入力(受信)される検出データごとに、当該の検出データが処理された処理時間に関する情報を挿入する(S1310)。
ディスプレイ装置1300は、互いに異なる処理時間(に関する情報)を有する検出データを用いて車両の位置を推定する(S1320)。
ディスプレイ装置1300は、ステップS1320で推定された車両の位置とステップS1234における3D道路モデリング結果からランドマークを推定した結果を用いて高精密の地図整合を行う(S1330)。ここで、ランドマークは、高精密地図に記述されている物体(例えば、信号機、交通案内表示板など)を意味する。「ランドマークを推定した結果を用いて高精密の地図整合を行う」ということは、3次元道路モデリングの結果から推定した第1ランドマークと、ステップS1320で推定された車両の位置から抽出した高精密地図における第2ランドマークとの間の整合を行うものとして理解される。ランドマーク間の整合を行う方法として、例えば、第1ランドマークと第2ランドマークとの間の距離が最小となることを対(pair)にした方法、及び第1ランドマークと第2ランドマークの対の距離の和が最小になるよう対をなす方法などがある。
一実施形態では、センサの様々な測定時間で収集された検出データを統合して位置を推定する。ディスプレイ装置は、高速のセンサから受信された検出データを用いて3次元の仮想経路のレンダリング速度を高速に保持する一方、低速の精密度が高いセンサから受信された検出データを用いて3次元の仮想経路の正確度を確保できる。
図14は、一実施形態に係る仮想経路を表示する装置の詳細動作を説明するための図である。図14を参照すれば、一実施形態に係るディスプレイ装置の詳細動作の流れを示す図面1400が示されている。以下、図14に対する説明に加えて、図12及び図13に対する説明は図14にも同様に適用され得る。したがって、図12~図13を参照して説明した内容に対する説明は省略することにする。
一実施形態に係るディスプレイ装置に示す動作は、大別して、センサ及び映像に基づく測位過程、3Dモデリング過程、及びレンダリング過程に区分される。
ディスプレイ装置は、センサに基づく測位過程によって取得された車両の位置、映像に基づく測位過程における走行車路の識別(S1410)によって取得された走行車路の位置、及び深度値推定(S1232)によって取得されたオブジェクトの位置、及び3Dモデリング過程で取得された3Dモデル(例えば、3次元の走行環境モデル)に基づいて地図整合を行うことで、地図上における車両の位置を表現する(S1430)。ここで、3Dモデリング(S1234)は、映像分割(S1230)によって生成されたセグメンテーション映像からランドマーク(例えば、信号機、表示板など)の領域を抽出し、ランドマーク領域の3次元深度値を用いた3次元モデリングによって実行され得る。
ディスプレイ装置は、例えば、ナビゲーションに入力された目的地情報及び到着地情報などによる経路計画(S1440)を反映して3次元の仮想車路を生成(S1250)し、生成された3次元の仮想車路をレンダリングする。
視覚的走行距離を算出(S1225)する時間、走行車路を識別(S1410)する時間、及び深度値を推定(S1232)する時間は、コンピュータの演算能力に依存するが、一般にカメラの入力速度である30Hz以下の速度を有する。視覚的走行距離(S1225)は、IMUセンサ1213よりも間欠的に相対位置情報及び姿勢情報を検出するが、正確な測定値を提供できる。ディスプレイ装置は、走行車路識別(S1410)及び深度値推定(S1232)によって取得された情報を地図と整合させ、1m以下の誤差を有する高精密検出情報を推定できる。また、ディスプレイ装置は、運転者の頭又は視線追跡によって運転者視点が変更されても、仮想オブジェクト(3次元の仮想経路)が実際の走行中である道路に正確に整合されるよう変換できる。ディスプレイ装置は、自然な3次元オブジェクトのレンダリングのために、車両の走行車路を含む走行道路の照明及び質感を推定して3次元の仮想経路に適用できる。
一実施形態によれば、拡張現実高精密ナビゲーション情報が走行環境及び運転者視点に適するよう高速レンダリングされることで、運転に妨害されない自然な情報伝達が可能となる。
図15は、一実施形態に係る仮想経路を表示する装置のブロック図である。図15を参照すれば、一実施形態に係る仮想経路を表示する装置(以下、「ディスプレイ装置」)1500は、センサモジュール1510、メモリ1520、プロセッサ1530、及びディスプレイ装置1540を含む。ディスプレイ装置1500は、第2カメラセンサ1550及び通信インターフェース1560をさらに含む。センサモジュール1510、メモリ1520、プロセッサ1530、ディスプレイ1540、第2カメラセンサ1550、及び通信インターフェース1560は、通信バス1505を介して通信する。
センサモジュール1510は、車両の位置、車両の姿勢、及び車両の走行環境を含む映像などの検出データを検出するセンサ1511、1513、1515、1517を含む。センサモジュール1510は、例えば、GPSセンサ1511、IMUセンサ1513、OBDセンサ1515、及び第1カメラセンサ1517を含む。GPSセンサ1511は、例えば、GPS座標と表示される車両の絶対位置又は絶対経路を測定する。IMUセンサ1513は、例えば、移動距離などを含む車両の相対経路を測定する。OBDセンサ1515は、車両の走行距離を測定する。第1カメラセンサ1517は、車両の走行環境を含む映像データをキャプチャーする。第1カメラセンサ1517は、CIS(CMOS Image Sensor)イメージセンサ又はビジョンセンサであってもよい。第1カメラセンサ1517は、モノカメラ又はステレオカメラであってもよい。図面に示していないが、センサモジュール1510は、例えば、レーダー(Radar)、ライダ(lidar)、超音波センサ、赤外線カメラなどをさらに含んでもよい。ディスプレイ装置1500は、例えば、レーダー、ライダー、ステレオカメラを用いたステレオマッチング方法、及びSLAM方式のうち少なくとも1つを用いて深度値を取得し得る。
センサ1511、1513、1515、1517によって検出された検出データは、センサ1511、1513、1515、1517ごとに互いに独立的にサンプリングされる。
メモリ1520は、地図情報を格納する。メモリ1520は、通信インターフェース1560によって受信されたナビゲーション情報を格納する。メモリ1520は、センサモジュール1510に含まれたセンサの検出データ及びプロセッサ1530によって生成された3次元の仮想経路を格納する。
プロセッサ1530は、センサモジュール1510に含まれたセンサ1511、1513、1515、1517から非同期的に受信される検出データに基づいて車両の位置を推定する。プロセッサ1530は、検出データによって、例えば、車両の現在の位置情報、姿勢情報、及び車両の方向情報などを把握して車両の位置を推定できる。
プロセッサ1530は、車両の位置と車両の走行環境に対応する走行環境モデルを地図情報に整合させて3次元の仮想経路を生成する。プロセッサ1530は、検出データごとに、当該の検出データが処理された処理時間に関する情報を挿入し、他の処理時間に関する情報を有する検出データを用いて車両の位置を推定する。
プロセッサ1530は、センサ1511、1513、1515、1517のいずれか1つのセンサから第1時間に受信された第1検出データに基づいて車両の第1位置を推定する。プロセッサ1530は、いずれか1つのセンサを含むセンサ1511、1513、1515、1517から第2時間に受信された第2検出データに基づいて第1位置を第2位置に更新する。プロセッサ1530は、センサ1511、1513、1515、1517から第3時間に受信された第3検出データに基づいて車両の第2位置を第3位置に更新する。
プロセッサ1530は、第1カメラセンサ1517から取得した映像データを用いて視覚的走行距離を測定し、検出データ及び視覚的走行距離を用いて車両の位置を推定する。プロセッサ1530は、検出データのうち映像データを除いたいずれか1つの検出データを用いて車両の位置を推定し、映像データに基づいた視覚的走行距離を用いて車両の位置を補正する。
プロセッサ1530は、第1カメラセンサ1517から取得した映像データを用いてセグメンテーション映像を生成し、セグメンテーション映像に含まれたオブジェクトを検出する。プロセッサ1530は、オブジェクトから識別された車両の走行車路及びオブジェクトの深度値を用いて走行環境モデルを生成する。プロセッサ1530は、車両の位置、走行車路及びオブジェクトの深度値を地図情報に整合させて3次元の仮想経路を生成する。
プロセッサ1530は、第1カメラセンサ1517から取得した映像データを用いて生成されたセグメンテーション映像から車両の走行車路を含む領域の照明及び質感を推定する。プロセッサ1530は、照明及び前記質感を用いて前記3次元の仮想経路を変換する。
ディスプレイ装置1540は、プロセッサ1530によって生成された3次元の仮想経路を表示する。ディスプレイ装置1540は、例えば、ヘッドアップディスプレイ(Head-Up Display:HUD)装置であってもよい。
第2カメラセンサ1550は、車両の運転者視点を追跡する。ここで、プロセッサ1530は、車両の運転者視点に一致するよう3次元の仮想経路を変換し、変換された仮想経路をディスプレイ装置1540を介して表示する。
プロセッサ1530は、運転者両眼の3D位置を追跡することにより車両の運転者視点を追跡する。プロセッサ1530は、運転者両眼の3D位置を用いてヘッドアップディスプレイ装置を介して表示される仮想映像と運転者視点との間の変換関係を予測する。プロセッサ1530は、変換関係に基づいて3次元の仮想経路を変換する。
通信インターフェース1560は、車両が走行する道路に対応する地図情報及び/又はナビゲーション情報を受信する。実施形態によって、通信インターフェース1560は、ディスプレイ装置1500の外部で撮影された入力映像を受信し得る。
その他にも、プロセッサ1530は、図1~図14を参照して前述した方法に対応するアルゴリズムを行う。プロセッサ1530はプログラムを実行し、ディスプレイ装置1500を制御する。プロセッサ1530によって実行されるプログラムコードはメモリ1520に格納される。プロセッサ1530に関する具体的な説明は以下で提供される。また、メモリ1520は、上述したプロセッサ1530の処理過程で生成される様々な情報を格納する。その他にも、メモリ1520は、各種のデータとプログラムなどを格納してもよい。メモリ1520は、揮発性メモリ又は不揮発性メモリを含む。メモリ1520は、ハードディスクなどのような大容量格納媒体を備えて各種データを格納する。メモリ1520に関する具体的な説明は以下で提供される。
ディスプレイ装置1200、1500、及び図12及び図15に関して本明細書で記述された異なる装置、ユニット、モジュール、デバイス、及び他の構成要素は、ハードウェア構成要素によって実現される。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこののうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに連結されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当該技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合わせられたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果を達成することができる。したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
1500:ディスプレイ装置
1505:通信バス
1510:センサモジュール
1520:メモリ
1530:プロセッサ
1540:ディスプレイ装置
1550:第2カメラセンサ
1560:通信インターフェース

Claims (28)

  1. 互いに同期していない複数のセンサから受信された検出データに基づいて車両の位置をプロセッサが推定するステップと、
    前記車両の位置と前記車両の走行環境に対応する走行環境モデルを地図情報に整合させて3次元の仮想経路を前記プロセッサが生成するステップと、
    前記3次元の仮想経路をディスプレイにより出力するステップと、
    を含み、前記推定するステップにおいて、前記プロセッサは、前記複数のセンサのうちの或るセンサから受信された検出データに基づいて推定した前記車両の位置を、前記複数のセンサのうちの別のセンサから受信された検出データに基づいて補正し、前記3次元の仮想経路を前記プロセッサが生成するステップは、
    前記複数のセンサのうちのカメラセンサから取得した映像データを用いて、意味単位にオブジェクトを空間的に分割し、前記オブジェクトの意味をピクセル単位で決定することによりセグメンテーション映像を生成するステップと、
    前記セグメンテーション映像に含まれたオブジェクトを検出するステップと、
    前記オブジェクトから識別された前記車両の走行車路及び前記オブジェクトの深度値を用いて前記走行環境モデルを生成するステップとを含む、仮想経路を表示する方法。
  2. 前記センサは、GPSセンサ、IMUセンサ、OBDセンサ、及びカメラセンサのうち少なくとも1つを含む、請求項1に記載の仮想経路を表示する方法。
  3. 前記検出データを前記センサごとに互いに独立的にサンプリングする、請求項1又は2に記載の仮想経路を表示する方法。
  4. 前記車両の位置を推定するステップは、
    前記検出データごとに、当該の検出データが処理された処理時間に関する情報を挿入するステップと、
    前記処理時間に関する情報を有する検出データを用いて前記車両の位置を推定するステップと、
    を含む、請求項1ないし3のうち何れか一項に記載の仮想経路を表示する方法。
  5. 前記車両の位置を推定するステップは、
    前記センサのうち、第1センサから第1時間に受信された第1検出データに基づいて前記車両の第1位置を推定するステップと、
    前記センサのうち、前記第1センサ又は第2センサから第2時間に受信された第2検出データに基づいて前記第1位置を第2位置に更新するステップと、
    前記センサのうち、前記第1センサ、又は第2センサ、又は第3センサから第3時間に受信された第3検出データに基づいて前記車両の第2位置を第3位置に更新するステップと、
    を含む、請求項1ないし3のうち何れか一項に記載の仮想経路を表示する方法。
  6. 前記別のセンサはカメラセンサであり、前記方法は、前記カメラセンサから取得した映像データを用いて視覚的走行距離を測定するステップをさらに含み、
    前記車両の位置を推定するステップは、前記検出データ及び前記視覚的走行距離を用いて前記車両の位置を推定するステップを含む、請求項1ないし5のうち何れか一項に記載の仮想経路を表示する方法。
  7. 前記検出データ及び前記視覚的走行距離を用いて前記車両の位置を推定するステップは、
    前記検出データのうち、前記映像データを除いたいずれか1つの検出データを用いて前記車両の位置を推定するステップと、
    前記映像データに基づいた視覚的走行距離を用いて前記車両の位置を補正するステップと、
    を含み、前記いずれか1つの検出データは前記或るセンサから受信された検出データである、請求項6に記載の仮想経路を表示する方法。
  8. 前記3次元の仮想経路を生成するステップは、
    前記車両の位置及び前記走行環境モデルを前記地図情報に整合させて前記3次元の仮想経路を生成するステップを更に含む、請求項1ないし7のうち何れか一項に記載の仮想経路を表示する方法。
  9. 前記3次元の仮想経路を生成するステップは、
    前記センサのうちカメラセンサから取得した映像データを用いて、前記車両の走行車路を含む領域の明るさ及び質感を推定するステップと、
    前記明るさ及び前記質感を適用して前記3次元の仮想経路を生成するステップと、
    を含む、請求項1ないし7のうち何れか一項に記載の仮想経路を表示する方法。
  10. 前記車両の運転者視点に一致するよう前記3次元の仮想経路を変換するステップをさらに含み、
    前記3次元の仮想経路を出力するステップは、前記変換された仮想経路を表示するステップを含む、請求項1ないし9のうち何れか一項に記載の仮想経路を表示する方法。
  11. 前記変換された仮想経路を出力するステップは、前記変換された仮想経路を前記車両のヘッドアップディスプレイ(HUD)装置を介して表示するステップを含む、請求項10に記載の仮想経路を表示する方法。
  12. 前記3次元の仮想経路を変換するステップは、
    前記運転者両眼の3D位置を追跡することによって前記運転者視点を追跡するステップと、
    前記運転者両眼の3D位置を用いて前記ヘッドアップディスプレイ装置を介して表示される仮想映像と前記運転者視点との間の変換関係を予測するステップと、
    前記変換関係に基づいて前記3次元の仮想経路を変換するステップと、
    を含む、請求項11に記載の仮想経路を表示する方法。
  13. ハードウェアと結合して請求項1ないし12のいずれか一項に記載の方法を実行させるために媒体に格納されたコンピュータプログラム。
  14. 車両の位置、前記車両の姿勢、及び前記車両の走行環境を含む映像を含む検出データを検出する互いに同期していない複数のセンサを含むセンサモジュールと、
    地図情報を格納するメモリと、
    前記複数のセンサから受信された検出データに基づいて車両の位置を推定し、前記車両の位置と前記車両の走行環境に対応する走行環境モデルを前記地図情報に整合させて3次元の仮想経路を生成するプロセッサと、
    前記3次元の仮想経路を表示するディスプレイ装置と、
    を含み、前記車両の位置を推定する場合において、前記プロセッサは、前記複数のセンサのうちの或るセンサから受信された検出データに基づいて推定した前記車両の位置を、前記複数のセンサのうちの別のセンサから受信された検出データに基づいて補正し、
    前記車両の位置と前記車両の走行環境に対応する走行環境モデルを前記地図情報に整合させて3次元の仮想経路を生成する場合において、前記プロセッサは、前記センサのうちのカメラセンサから取得した映像データを用いて、意味単位にオブジェクトを空間的に分割し、前記オブジェクトの意味をピクセル単位で決定することによりセグメンテーション映像を生成し、前記セグメンテーション映像に含まれたオブジェクトを検出し、前記オブジェクトから識別された前記車両の走行車路及び前記オブジェクトの深度値を用いて前記走行環境モデルを生成する、仮想経路を表示する装置。
  15. 前記センサは、
    前記車両の絶対経路を測定するGPSセンサと、
    前記車両の相対経路を測定するIMUセンサと、
    前記車両の走行距離を測定するOBDセンサと、
    前記車両の走行環境を含む映像データをキャプチャーするカメラセンサと、
    のうち2以上又はそれ以上を含む、請求項14に記載の仮想経路を表示する装置。
  16. 前記検出データを前記センサごとに互いに独立的にサンプリングする、請求項14又は15に記載の仮想経路を表示する装置。
  17. 前記プロセッサは、前記検出データごとに当該の検出データが処理された処理時間に関する情報を挿入し、前記処理時間に関する情報を有する検出データを用いて前記車両の位置を推定する、請求項14ないし16のうち何れか一項に記載の仮想経路を表示する装置。
  18. 前記プロセッサは、前記センサのうち第1センサから第1時間に受信された第1検出データに基づいて前記車両の第1位置を推定し、前記センサのうち、前記第1センサ又は第2センサから第2時間に受信された第2検出データに基づいて前記第1位置を第2位置に更新し、前記センサのうち、前記第1センサ、又は前記第2センサ、又は第3センサから第3時間に受信された第3検出データに基づいて前記車両の第2位置を第3位置に更新する、請求項14ないし16のうち何れか一項に記載の仮想経路を表示する装置。
  19. 前記別のセンサはカメラセンサであり、
    前記プロセッサは、前記カメラセンサから取得した映像データを用いて視覚的走行距離を測定し、前記検出データ及び前記視覚的走行距離を用いて前記車両の位置を推定する、請求項14ないし18のうち何れか一項に記載の仮想経路を表示する装置。
  20. 前記プロセッサは、前記検出データのうち前記映像データを除いたいずれか1つの検出データを用いて前記車両の位置を推定し、前記映像データに基づいた視覚的走行距離を用いて前記車両の位置を補正し、前記いずれか1つの検出データは前記或るセンサから受信された検出データである、請求項19に記載の仮想経路を表示する装置。
  21. 前記プロセッサは、更に、前記車両の位置及び前記走行環境モデルを前記地図情報に整合させて前記3次元の仮想経路を生成する、請求項14ないし20のうち何れか一項に記載の仮想経路を表示する装置。
  22. 前記プロセッサは、前記センサのうちカメラセンサから取得した映像データを用いて前記車両の走行車路を含む領域の明るさ及び質感を推定し、前記明るさ及び前記質感を用いて前記3次元の仮想経路を変換する、請求項14ないし20のうち何れか一項に記載の仮想経路を表示する装置。
  23. 前記車両の運転者視点を追跡する第2カメラセンサをさらに含み、
    前記プロセッサは、前記車両の運転者視点に一致するよう前記3次元の仮想経路を変換し、前記変換された仮想経路を前記ディスプレイ装置を介して出力する、請求項14ないし22のうち何れか一項に記載の仮想経路を表示する装置。
  24. 前記ディスプレイ装置は、ヘッドアップディスプレイ装置を含む、請求項23に記載の仮想経路を表示する装置。
  25. 前記プロセッサは、前記運転者両眼の3D位置を追跡することによって前記車両の運転者視点を追跡し、前記運転者両眼の3D位置を用いて前記ヘッドアップディスプレイ装置を介して表示される仮想映像と前記運転者視点との間の変換関係を予測し、前記変換関係に基づいて前記3次元の仮想経路を変換する、請求項24に記載の仮想経路を表示する装置。
  26. 前記センサそれぞれは前記車両の位置又は姿勢を個別的に検出し、
    前記センサそれぞれの検出速度は同期化されない、請求項14ないし25のうち何れか一項に記載の仮想経路を表示する装置。
  27. 車両の走行環境映像、前記車両の運転者の両眼の3D位置を追跡することに基づいた前記車両の運転者視点、前記車両の姿勢、前記車両の位置を含む検出データを各々が独立に生成する複数のセンサを含むセンサモジュールと、
    ヘッドアップディスプレイ(HUD)と、
    地図情報及び命令を格納するメモリと、
    前記複数のセンサから受信された検出データに基づいて車両の位置を推定し、前記車両の走行環境及び前記車両の位置に対応する走行環境モデルを前記地図情報に登録して3次元仮想経路を生成し、前記車両の運転者視点に合わせるために3次元仮想経路を変換し、前記変換された3次元仮想経路を前記ヘッドアップディスプレイを介して出力する命令を実行するよう構成されたプロセッサと、
    を含み、前記車両の位置を推定する場合において、前記プロセッサは、前記複数のセンサのうちの或るセンサから受信された検出データに基づいて推定した前記車両の位置を、前記複数のセンサのうちの別のセンサから受信された検出データに基づいて補正し、
    前記車両の走行環境及び前記車両の位置に対応する走行環境モデルを前記地図情報に登録して3次元仮想経路を生成する場合において、前記プロセッサは、前記複数のセンサのうちのカメラセンサから取得した映像データを用いて、意味単位にオブジェクトを空間的に分割し、前記オブジェクトの意味をピクセル単位で決定することによりセグメンテーション映像を生成し、前記セグメンテーション映像に含まれたオブジェクトを検出し、前記オブジェクトから識別された前記車両の走行車路及び前記オブジェクトの深度値を用いて前記走行環境モデルを生成する、仮想経路ディスプレイ装置。
  28. 前記メモリは、前記センサモジュールによって生成された前記検出データ及び前記プロセッサによって生成された前記3次元仮想経路を格納する、請求項27に記載の仮想経路ディスプレイ装置。
JP2018117923A 2017-11-09 2018-06-21 仮想経路を表示する方法、装置及びディスプレイ装置 Active JP7210165B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0148756 2017-11-09
KR1020170148756A KR102434580B1 (ko) 2017-11-09 2017-11-09 가상 경로를 디스플레이하는 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2019086508A JP2019086508A (ja) 2019-06-06
JP7210165B2 true JP7210165B2 (ja) 2023-01-23

Family

ID=62025676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018117923A Active JP7210165B2 (ja) 2017-11-09 2018-06-21 仮想経路を表示する方法、装置及びディスプレイ装置

Country Status (5)

Country Link
US (2) US10732004B2 (ja)
EP (1) EP3483558A1 (ja)
JP (1) JP7210165B2 (ja)
KR (1) KR102434580B1 (ja)
CN (1) CN109764887A (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11328403B2 (en) * 2020-01-22 2022-05-10 Gary B. Levin Apparatus and method for onboard stereoscopic inspection of vehicle tires
CN109923488A (zh) * 2017-04-27 2019-06-21 深圳市大疆创新科技有限公司 使用可移动物体生成实时地图的系统和方法
US10871777B2 (en) * 2017-11-30 2020-12-22 Uatc, Llc Autonomous vehicle sensor compensation by monitoring acceleration
US10599146B2 (en) * 2018-03-26 2020-03-24 Ford Global Technologies, Llc Action-conditioned vehicle control
KR102627453B1 (ko) 2018-10-17 2024-01-19 삼성전자주식회사 위치 추정 장치 및 방법
WO2020085540A1 (en) * 2018-10-25 2020-04-30 Samsung Electronics Co., Ltd. Augmented reality method and apparatus for driving assistance
GB2596708B (en) * 2019-03-07 2024-01-10 Mobileye Vision Technologies Ltd Aligning road information for navigation
CN110135302B (zh) * 2019-04-30 2021-08-31 百度在线网络技术(北京)有限公司 训练车道线识别模型的方法、装置、设备和存储介质
US11222476B2 (en) * 2019-05-14 2022-01-11 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America System to add parallax to video for augmented reality head up display
US10900801B2 (en) * 2019-06-07 2021-01-26 Capital One Services, Llc Augmented reality directions utilizing physical reference markers
US10682980B1 (en) 2019-06-07 2020-06-16 Capital One Services, Llc Systems and methods for test driving cars with limited human interaction
US10589720B1 (en) 2019-06-07 2020-03-17 Capital One Services, Llc Automated system for car access in retail environment
US10591576B1 (en) 2019-06-07 2020-03-17 Capital One Services, Llc Automated system for vehicle tracking
CN110275933B (zh) * 2019-06-26 2022-05-13 广州小鹏汽车科技有限公司 车辆行驶的同步显示方法、装置、终端和计算机设备
CN110427027B (zh) * 2019-07-18 2022-09-02 浙江吉利汽车研究院有限公司 用于自动驾驶的导航路线生成方法、装置和自动驾驶系统
US10871377B1 (en) * 2019-08-08 2020-12-22 Phiar Technologies, Inc. Computer-vision based positioning for augmented reality navigation
CN110543173B (zh) * 2019-08-30 2022-02-11 上海商汤智能科技有限公司 车辆定位系统及方法、车辆控制方法及装置
JP2021039007A (ja) * 2019-09-03 2021-03-11 株式会社デンソー 表示制御装置、表示制御方法、および表示制御プログラム
US11315326B2 (en) * 2019-10-15 2022-04-26 At&T Intellectual Property I, L.P. Extended reality anchor caching based on viewport prediction
CN110866077B (zh) * 2019-10-30 2022-07-01 武汉光庭信息技术股份有限公司 一种车载gps轨迹地图的展示方法及装置
US10816993B1 (en) * 2019-11-23 2020-10-27 Ha Q Tran Smart vehicle
KR20210080936A (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 Xr 컨텐트 제공 방법 및 xr 디바이스
CN111595357B (zh) * 2020-05-14 2022-05-20 广州文远知行科技有限公司 可视化界面的显示方法、装置、电子设备和存储介质
CN111695489B (zh) 2020-06-09 2023-08-11 阿波罗智能技术(北京)有限公司 建模路线的验证方法、装置、无人车及存储介质
US11385071B2 (en) 2020-08-07 2022-07-12 Micron Technology, Inc. Providing a route with augmented reality
WO2022145738A1 (en) * 2020-12-28 2022-07-07 Samsung Electronics Co., Ltd. Intelligent object tracing system utilizing 3d map reconstruction for virtual assistance
JP2022154082A (ja) * 2021-03-30 2022-10-13 パナソニックIpマネジメント株式会社 表示補正システム、表示システム、表示補正方法、及びプログラム
CN113362475A (zh) * 2021-06-29 2021-09-07 视伴科技(北京)有限公司 一种验证已生成的虚拟指路标识的方法及装置
CN113744360A (zh) * 2021-08-12 2021-12-03 的卢技术有限公司 一种高精地图数据自动生成道路元素网格的方法和系统
US11920944B2 (en) * 2021-10-19 2024-03-05 Capital One Services, Llc Dynamically generating scenery for a virtual reality driving session based on route information
WO2023233447A1 (ja) * 2022-05-30 2023-12-07 マクセル株式会社 仮想オブジェクトを表示する装置およびその表示方法
KR102544640B1 (ko) * 2022-12-01 2023-06-21 한국건설기술연구원 차선 감지 및 예측 시스템, 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100253489A1 (en) 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Distortion and perspective correction of vector projection display
JP4696248B2 (ja) 2004-09-28 2011-06-08 国立大学法人 熊本大学 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP2014115247A (ja) 2012-12-12 2014-06-26 Honda Motor Co Ltd 車両位置推定装置およびセンサ情報統合装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10170282A (ja) 1996-12-12 1998-06-26 Advantest Corp 位置検出方法および装置
KR100196725B1 (ko) 1996-12-30 1999-06-15 김영환 Gps를 이용한 자동차 항법장치의 맵 매칭방법
ATE552478T1 (de) * 2004-06-03 2012-04-15 Making Virtual Solid L L C Navigationsanzeigeverfahren und vorrichtung für unterwegs unter verwendung eines head-up-displays
WO2006121986A2 (en) * 2005-05-06 2006-11-16 Facet Technology Corp. Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
US20080082263A1 (en) 2006-08-30 2008-04-03 Harris Corporation Position estimation method and related device
US8793065B2 (en) * 2008-02-19 2014-07-29 Microsoft Corporation Route-based activity planner
JP2010276527A (ja) 2009-05-29 2010-12-09 Sanyo Electric Co Ltd ナビゲーション装置
US8838381B1 (en) * 2009-11-10 2014-09-16 Hrl Laboratories, Llc Automatic video generation for navigation and object finding
CN102169182B (zh) * 2010-02-26 2013-06-12 宏达国际电子股份有限公司 移动导航装置
US9026359B2 (en) * 2010-11-01 2015-05-05 Nokia Corporation Visually representing a three-dimensional environment
CN103033184B (zh) 2011-09-30 2014-10-15 迈实电子(上海)有限公司 用于惯性导航系统的纠错方法、装置和系统
KR101919366B1 (ko) * 2011-12-22 2019-02-11 한국전자통신연구원 차량 내부 네트워크 및 영상 센서를 이용한 차량 위치 인식 장치 및 그 방법
KR101380517B1 (ko) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 멀티 뷰 무안경 입체 영상 표시장치와 그 최적 시청 거리 제어 방법
JP2016503741A (ja) 2012-12-21 2016-02-08 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー 自動車用の入力装置
US20140232746A1 (en) * 2013-02-21 2014-08-21 Hyundai Motor Company Three dimensional augmented reality display apparatus and method using eye tracking
WO2014152339A1 (en) * 2013-03-14 2014-09-25 Robert Bosch Gmbh Time and environment aware graphical displays for driver information and driver assistance systems
US9886790B2 (en) * 2013-03-14 2018-02-06 Robert Bosch Gmbh System and method of shadow effect generation for concave objects with dynamic lighting in three-dimensional graphics
TWI526021B (zh) * 2014-01-03 2016-03-11 緯創資通股份有限公司 伺服器管理系統及伺服器管理方法
DE102014006319A1 (de) * 2014-04-30 2015-11-05 Avl List Gmbh System zur Beurteilung und/oder Optimierung des Betriebsverhaltens eines Fahrzeugs
DE102014006322A1 (de) * 2014-04-30 2015-11-05 Avl List Gmbh System und Verfahren zur Analyse der Energieeffizienz eines Fahrzeugs
US9677898B2 (en) * 2014-06-17 2017-06-13 Think Ware Corporation Electronic apparatus and control method thereof
JP2016033474A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 位置算出方法及び位置算出装置
US9528845B2 (en) * 2014-08-27 2016-12-27 Robert Bosch Gmbh Occlusion-reduced 3D routing for 3D city maps
WO2016073642A1 (en) 2014-11-04 2016-05-12 The Regents Of The University Of California Visual-inertial sensor fusion for navigation, localization, mapping, and 3d reconstruction
WO2016106358A1 (en) * 2014-12-22 2016-06-30 Robert Bosch Gmbh System and methods for interactive hybrid-dimension map visualization
CN104614704B (zh) * 2015-01-29 2019-05-24 百度在线网络技术(北京)有限公司 一种确定移动终端位置的方法和装置
KR101750876B1 (ko) * 2015-05-28 2017-06-26 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
KR101826408B1 (ko) * 2016-03-03 2018-03-22 엘지전자 주식회사 디스플레이 장치 및 이를 포함하는 차량
US10323952B2 (en) * 2016-04-26 2019-06-18 Baidu Usa Llc System and method for presenting media contents in autonomous vehicles
US10102670B2 (en) * 2016-08-18 2018-10-16 Robert Bosch Gmbh System and method for procedurally generated building graphics within a street network of a three-dimensional virtual environment
US10643391B2 (en) * 2016-09-23 2020-05-05 Apple Inc. Immersive virtual display
US20190080612A1 (en) * 2017-09-14 2019-03-14 Qualcomm Incorporated Navigation techniques for autonomous and semi-autonomous vehicles
JP7013751B2 (ja) * 2017-09-15 2022-02-01 株式会社アイシン 画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4696248B2 (ja) 2004-09-28 2011-06-08 国立大学法人 熊本大学 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
US20100253489A1 (en) 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Distortion and perspective correction of vector projection display
JP2014115247A (ja) 2012-12-12 2014-06-26 Honda Motor Co Ltd 車両位置推定装置およびセンサ情報統合装置

Also Published As

Publication number Publication date
KR102434580B1 (ko) 2022-08-22
US20200333159A1 (en) 2020-10-22
US10732004B2 (en) 2020-08-04
CN109764887A (zh) 2019-05-17
US20190137294A1 (en) 2019-05-09
JP2019086508A (ja) 2019-06-06
KR20190052912A (ko) 2019-05-17
US11204253B2 (en) 2021-12-21
EP3483558A1 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
JP7210165B2 (ja) 仮想経路を表示する方法、装置及びディスプレイ装置
US11593950B2 (en) System and method for movement detection
AU2022203634B2 (en) Localizing vehicle navigation using lane measurements
JP7125214B2 (ja) プログラムおよびコンピューティングデバイス
US11676296B2 (en) Augmenting reality using semantic segmentation
US11697427B2 (en) Systems and methods for vehicle navigation
US20210101616A1 (en) Systems and methods for vehicle navigation
KR20180050823A (ko) 3차원의 도로 모델을 생성하는 방법 및 장치
EP4085230A1 (en) Systems and methods for vehicle navigation
US20230175852A1 (en) Navigation systems and methods for determining object dimensions
US11680801B2 (en) Navigation based on partially occluded pedestrians
WO2022062480A1 (zh) 移动设备的定位方法和定位装置
WO2022229704A2 (en) Multi-frame image segmentation
US20230341239A1 (en) Systems and methods for road segment mapping
US20240151855A1 (en) Lidar-based object tracking
KR20200084446A (ko) 전자 장치 및 그의 제어 방법
Jarnea et al. Advanced driver assistance system for overtaking maneuver on a highway
US20230195506A1 (en) Systems and methods for processing atomic commands
US20230417885A1 (en) Systems and methods for detecting erroneous lidar data
CN114972136A (zh) 3d目标检测模型的训练方法、3d目标检测方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R150 Certificate of patent or registration of utility model

Ref document number: 7210165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150