JP6694395B2 - デジタル地図に対する位置を決定する方法およびシステム - Google Patents

デジタル地図に対する位置を決定する方法およびシステム Download PDF

Info

Publication number
JP6694395B2
JP6694395B2 JP2016565215A JP2016565215A JP6694395B2 JP 6694395 B2 JP6694395 B2 JP 6694395B2 JP 2016565215 A JP2016565215 A JP 2016565215A JP 2016565215 A JP2016565215 A JP 2016565215A JP 6694395 B2 JP6694395 B2 JP 6694395B2
Authority
JP
Japan
Prior art keywords
vehicle
data
reference data
real
localization reference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016565215A
Other languages
English (en)
Other versions
JP2017519973A (ja
Inventor
クシシュトフ ミクサ,
クシシュトフ ミクサ,
ブラジェイ クビアック,
ブラジェイ クビアック,
ラファル ヤン グリシェチンスキ,
ラファル ヤン グリシェチンスキ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tele Atlas BV
Original Assignee
Tele Atlas BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tele Atlas BV filed Critical Tele Atlas BV
Publication of JP2017519973A publication Critical patent/JP2017519973A/ja
Application granted granted Critical
Publication of JP6694395B2 publication Critical patent/JP6694395B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明はデジタル地図に対する改良された測位確度の方法およびシステムに関する。それは高度にかつ完全に自動化された運転アプリケーションで必要とされる。特に、本発明の実施の形態は、(例えば、クラウドソーシング技術を介した)参照データの生成や、参照データのフォーマットや、車両をデジタル地図上で正確に位置決めするための車両からの検出データとの比較を通じた参照データの使用に関する。
近年、車両がナビゲーションデバイスを備えることが通常となってきた。ナビゲーションデバイスは車両内に取り外し可能に配置されうるポータブルナビゲーションデバイス(PNDs)の形態か、または車両に組み込まれたシステムの形態をとる。これらのナビゲーションデバイスはデバイスの現在位置を決定する手段を備える。これは典型的にはGPSやGLONASSなどのグローバルナビゲーションサテライトシステム(GNSS)である。だが、モバイル通信ネットワークやサーフェスビーコンなどを用いるものなどのような他の手段が使用されてもよいことは理解されるであろう。
ナビゲーションデバイスはまた、車両が進む通行可能ネットワークを表すデジタル地図へのアクセスを有する。デジタル地図(または数学的グラフとしても知られる)は最も単純な形態では実効的に、大抵の場合交差点を表すノードを表すデータとそれらの交差点の間の道を表すノード間のラインとを含むデータベースである。より詳細なデジタル地図では、ラインは、スタートノードおよびエンドノードによって定義されるセグメントに分割されてもよい。これらのノードは、最少3つのラインまたはセグメントが交差する交差点を表すということで「現実の」ものであってもよいし、または一端もしくは両端が現実のノードによって定義されないセグメントのためのアンカーとして提供されるということで「人工的な」ものであってもよい。「人工的な」ものは、とりわけ、特定の道路区間の形状情報、または速度制限などの道路のある特性が変化する道路に沿った位置を特定する手段を提供するためのものである。現実的に全ての現在のデジタル地図では、ノードおよびセグメントは種々の属性によってさらに定義され、それらの属性もまたデータベースのデータにより表される。例えば、各ノードは典型的にはその現実世界での位置を決めるための地理的座標、例えば経度や緯度、を有するであろう。ノードは典型的にはそれに関連付けられた操縦データを有するであろう。該操縦データは、交差点においてある道路から別の道路へ動くことが可能か否かを示す。また、セグメントは、最大許容速度や車線サイズや車線数や間に分離帯があるか否かなどの関連属性を有するであろう。本願の目的のために、この形態のデジタル地図は「標準地図」と称される。
ナビゲーションデバイスは、デバイスの現在位置を標準地図と共に用いることで、決定されたルートについての案内や現在位置または決定されたルートに基づく予測将来位置に対する交通情報の提供などの様々なタスクを行うことができるよう構成される。
しかしながら、標準地図に含まれるデータが種々の次世代アプリケーションにとって不十分であることが分かってきた。そのような次世代アプリケーションは例えば、車両がドライバからの入力なしに加速やブレーキやステアリングを自動的に制御できる高度自動運転や、完全自動化「セルフドライビング(self-driving)」車両などである。そのようなアプリケーションにはより高精度なデジタル地図が必要である。このより詳細なデジタル地図は典型的には、道路の各車線が他の車線への接続データと共に別個に表現される三次元ベクトルモデルを含む。本願の目的のために、この形態のデジタル地図は「プラニング地図(planning map)」または「ハイデフィニション(HD)地図」と称される。
図1にプラニング地図の一部が示される。図1では、各ラインは車線の中央線を示す。図2はプラニング地図の他の例示的部分を示すが、ここでは、道路ネットワークの画像に重ね合わされている。これらの地図内のデータは典型的には1メートルかそれ以下までの確度を有し、種々の技術を用いて収集可能である。
そのようなプラニング地図を作るためにデータを収集するためのひとつの例示的な技術は、モバイルマッピングシステムを用いることであり、図3はその例を示す。モバイルマッピングシステム2は、調査車両4と、デジタルカメラ40と、車両4の屋根8に取り付けられたレーザスキャナ6と、を備える。調査車両2はさらに、プロセッサ10と、メモリ12と、送受信機14と、を備える。加えて、調査車両2は、GNSSレシーバなどの絶対測位デバイス2と、慣性計測部(IMU)および測距機器(DMI)を含む相対測位デバイス22と、を備える。絶対測位デバイス20は車両の地理的座標を提供し、相対測位デバイス22は絶対測位デバイス20により測定された座標の確度を高める役割を果たす(そして、ナビゲーション衛星からの信号が受信不能の場合には絶対測位デバイスを置き換える)。レーザスキャナ6、カメラ40、メモリ12、送受信機14、絶対測位デバイス20および相対測位デバイス22は全て、(ライン24で示されるように)プロセッサ10と通信できるよう構成される。レーザスキャナ6は環境を三次元的にレーザビームで走査し、環境を表す点クラウドを生成するよう構成される。各点は、レーザビームが反射されたオブジェクトの面の位置を表す。レーザスキャナ6はまた、レーザビームがオブジェクト面に入射する位置との距離を測るための飛行時間(time-of-flight)測距機として構成される。
使用の際、図4に示されるように、調査車両4は、路面標示34が塗装されている面32を含む道路30に沿って進む。プロセッサ10は、絶対測位デバイス20および相対測位デバイス22を用いて測定された位置データおよび向きデータから、任意の時刻における車両4の位置および向きを決定し、そのデータを適切なタイムスタンプと共にメモリ12に格納する。加えて、カメラ40は繰り返し路面32を撮像し、複数の路面画像を提供する。プロセッサ10は各画像にタイムスタンプを付加し、メモリ12にその画像を格納する。レーザスキャナ6はまた繰り返し面32を走査し、複数の測定距離値を提供する。プロセッサ10は各距離値にタイムスタンプを付加し、メモリ12にそれを格納する。レーザスキャナ6から得られたデータの例が図5および図6に示される。図5は三次元図を示し、図6は投影側面図を示す。各図の色は道路との距離を表す。これらのモバイルマッピング車両から得られる全てのデータは、車両が通った通行可能(または道路)ネットワークの部分のプラニング地図を生成するために解析され、用いられうる。
本出願人は、高度かつ完全に自動化された運転アプリケーションでそのようなプラニング地図を用いるためには、そのプラニング地図に対する車両の位置を高い確度で知ることが必要であると、認識した。ナビゲーション衛星や地上ビーコンを用いてデバイスの現在位置を決定する従来の技術は、デバイスの絶対位置の確度としておよそ5−10メートルを提供する。この絶対位置は次いでデジタル地図の対応する位置と突き合わされる。このレベルの確度は大抵の従来のアプリケーションにとって十分ではあるものの、道路ネットワーク上で高速移動するときでもデジタル地図に対する位置について1メートル以下の確度が要求される次世代アプリケーションにとって、そのレベルの確度は十分ではない。したがって、測位方法の改良が必要である。
本発明の第1の態様によると、デジタル地図に対する車両の縦位置を継続的に決定する方法が提供される。デジタル地図は通行可能なネットワーク(例えば、道路ネットワーク)の通行可能な要素(例えば、道路)を表すデータを含み、車両はその要素に沿って進む。方法は、車両の周りの横環境を走査することによって得られたリアルタイム走査データを受けることと、デジタル地図に関連付けられたローカリゼーション参照走査データであってデジタル地図に関連する車両の現在のみなし縦位置についてのローカリゼーション参照走査データを取得することであって、ローカリゼーション参照走査データは現在のみなし縦位置の周りの横環境の参照走査を含み、またオプションで前記参照走査はデジタル地図を通じて以前にそのルートを通ったことがある少なくともひとつのデバイスから得られたものであることと、リアルタイム走査データをローカリゼーション参照走査データと比較し、リアルタイム走査データとローカリゼーション参照走査データとの間の縦オフセットを決定することと、前記縦オフセットに基づいて現在のみなし縦位置を調整することと、を含む。
したがって、本発明の第1の態様によると、デジタル地図に対する車両の位置を常に高い確度で知ることができる。従来技術の例は、収集されたデータをルート上の所定のランドマークについての既知の参照データと比較することによって、車両の位置を決定するよう試みた。しかしながら、多くのルート上ではランドマークはまばらに配されているので、車両がランドマークとランドマークとの間を航行するときのその車両の位置の判定には大きな誤差が生じうる。高度に自動化された運転システムなどの状況ではこれは問題である。そのようなシステムでは、そのような誤差により、車両衝突事故で重傷者または死者がでるなどの破局的結果が引き起こされうる。本発明の第1の態様は、デジタル地図に亘って参照走査データを有し、リアルタイムで車両の周りの横環境を走査することによって、この問題を解決する。これにより、本発明の第1の態様は、リアルタイム走査データと参照データとを比べることでデジタル地図に対する車両の位置を高い確度で常に知ることを可能にする。
現在のみなし縦位置は少なくとも初期において、GPS、GLONASS、欧州ガリレオ測位システム(the European Galileo positioning system)、COMPASS測位システム、IRNSS(Indian Regional Navigational Satellite System)などの衛星ナビゲーションデバイスなどの絶対測位システムから得られうる。しかしながら、モバイル通信やサーフェスビーコンなどを用いるものなどのような他の位置決定手段が使用されてもよいことは理解されるであろう。
デジタル地図は、例えば道路ネットワークの道路などの通行可能なネットワークの通行可能な要素を表す三次元ベクトルモデルを含んでもよい。そこでは、例えば道路などの通行可能な要素の各車線は別個に表される。したがって、道路上での車両の横位置は、車両が通っている車線を決定することによって知られうる。他の実施の形態では、後述の通り、車両の横位置は、リアルタイム走査データと取得されたローカリゼーション参照データとの比較を用いて決定されてもよい。
リアルタイム走査データは、車両の左側および車両の右側の両方で取得されてもよい。これは、過渡的フィーチャの位置判定への影響を低減するのに役に立つ。そのような過渡的フィーチャは、例えば、駐車車両や追い越し車両や反対向きに同じルートを通る車両であってもよい。したがって、リアルタイム走査データは車両の両側に存在するフィーチャを記録してもよい。ある実施の形態では、リアルタイム走査データは、車両の左側または車両の右側のいずれか一方で取得されてもよい。
ローカリゼーション参照データは通行可能な要素の左側および通行可能な要素の右側の横環境の参照走査を含んでもよく、通行可能な要素の各側のローカリゼーション参照データは合成データセットに格納されてもよい。したがって、通行可能なネットワークの複数の部分からのデータは、効率的なデータ形式で一緒に保持されてもよい。合成データセットに保持されるデータは圧縮されてもよく、これにより同じ容量内に通行可能なネットワークのより多くの部分のデータを保持することができる。参照走査データを無線ネットワーク接続を介して車両に送信しなければならない場合、使用されるネットワーク帯域をデータ圧縮により低減することができる。
車両の左側からのリアルタイム走査データと通行可能な要素の左側からのローカリゼーション参照データとの比較および車両の右側からのリアルタイム走査データと通行可能な要素の右側からのローカリゼーション参照データとの比較は、単一の比較であってもよい。したがって、走査データが通行可能な要素の左側からのデータおよび通行可能な要素の右側からのデータを含む場合、走査データは単一のデータセットとして比較されうる。これにより、通行可能な要素の左側についての比較と通行可能な要素の右側についての比較とが別個に行われる場合と比べて処理に対する要求を大きく低減することができる。
デジタル地図に関する車両の縦位置は、常に1メートル以下の確度で知られうる。したがって、ある実施の形態では、本発明は高度に自動化された運転などの高い確度の測位推定が必要とされるアプリケーションに特に適する。
リアルタイム走査データをローカリゼーション参照データと比較することは、リアルタイム走査データとローカリゼーション参照データとの間の相互相関、好ましくは正規化された相互相関、を計算することを含んでもよい。
リアルタイム走査データのローカリゼーション参照データとの比較は、縦データのウインドウに亘って行われてもよい。したがって、データをウインドウ処理することで、利用可能なデータの部分集合を考慮した比較が可能となる。比較は、重なり合うウインドウについて周期的に行われてもよい。比較のために用いられるデータのウインドウが少なくともいくらか重なり合うことで、計算された隣り合う縦オフセット値の間の差がデータに亘って平滑化されることがより確かとなる。ウインドウは、オフセット計算の確度が過渡的フィーチャに対して不変となるのに十分な長さを有してもよい。その長さは好適には少なくとも100mである。そのような過渡的フィーチャは、例えば、駐車車両や追い越し車両や反対向きに同じルートを通る車両であってもよい。ある実施の形態では、その長さは少なくとも50mである。ある実施の形態では、その長さは200mである。このようにして、例えば200mの縦道路区間または「ウインドウ」について検出環境データが決定され、結果として得られたデータは次にその道路区間についてのローカリゼーション参照データと比較される。このサイズ、すなわち車両の長さよりもかなり大きい長さ、の道路区間に亘って比較を行うことにより、道路上の他の車両や道路の脇に止められた車両などの非静的または一時的オブジェクトは典型的には比較の結果に影響を与えない。
リアルタイム走査データは少なくともひとつの測距センサを用いて取得されてもよい。測距センサは単一軸に沿って動作するよう構成されてもよい。測距センサは垂直軸の走査を行うよう構成されてもよい。走査が垂直軸に行われる場合、複数の高さにある複数の平面についての距離情報が収集され、したがって、結果としての走査はかなり詳細なものとなる。代替的にまたは追加的に、測距センサは水平軸の走査を行うよう構成されてもよい。
測距センサは、車両の進行方向に対して実質的に90度をなして外を向くよう構成されてもよい。したがって、複数の測距センサが用いられる場合、参照走査データとの比較は、同じ時刻に取得された全てのリアルタイム走査データについて単一の比較で実行されてもよい。
測距センサは、50度から90度の間の取得角内のデータを取得するよう構成される。本明細書において、取得角という語は、測距センサの総視野角を意味し、その総視野角は、測距センサが観測可能な2つのオブジェクトの可能な最大の角度間隔を表す。ある実施の形態では、取得角は実質的に70度である。
測距センサはレーザスキャナであってもよい。レーザスキャナは、少なくともひとつのミラーを用いて横環境に亘って走査されるレーザビームを含んでもよい。したがって、デリケートな部品を保護するため、レーザスキャナを車両の表面から離して配置してもよい。ある実施の形態では、ミラーを駆動してレーザを横環境に亘って走査してもよい。したがって、軽量のミラーのみが物理的に回転されることにより必要とされ、より重いレーザスキャナアセンブリではない。
ローカリゼーション参照データの少なくとも一部はリモートで保持されてもよい。ローカリゼーション参照データの少なくとも一部が車両にローカルで保持されることが好ましい。したがって、ローカリゼーション参照データがルートを通じて利用可能であったとしても、それは車両に継続的に伝送される必要はなく、比較は車両で行われてもよい。
ローカリゼーション参照データは圧縮フォーマットで保持されてもよい。ローカリゼーション参照データは30KB/km以下に対応するサイズを有してもよい。
ローカリゼーション参照データは、デジタル地図内で表される通行可能なネットワークの通行可能な要素の少なくともいくつか、好適には全て、に対して保持されてもよい。したがって、車両の位置は、ルートに沿ってどこに居ても継続的に決定可能である。
参照走査は、以前に通行可能な要素を通行したモバイルマッピング車両に設けられた少なくともひとつのデバイスから取得されたものであってもよい。したがって、参照走査は、位置が継続的に決定されている現在の車両とは異なる車両を用いて得られたものであってもよい。ある実施の形態では、モバイルマッピング車両は位置が継続的に決定されている車両と同様のデザインを有してもよい。
本発明の第2の態様によると、デジタル地図に関連付けられた参照走査を生成する方法が提供される。デジタル地図は通行可能なネットワーク(例えば、道路ネットワーク)の通行可能な要素(例えば、道路)を表すデータを含む。方法は、デジタル地図に表される少なくともひとつの通行可能な要素に沿った横環境の参照走査を取得することと、参照走査に亘って参照走査の実際の位置を決定することと、を含む。
したがって、本発明の第2の態様によると、デジタル地図中の少なくともひとつのルートについて、ルート全体に沿って参照走査が得られる。この取得された参照データは、本発明の第1の態様の任意の実施の形態での使用に適する。
参照走査は、通行可能な要素の左側および通行可能な要素の右側の両方で取得されてもよい。これは、生成された参照走査を用いて行われうる位置判定に対する過渡的フィーチャの影響を低減するのに役に立つ。そのような過渡的フィーチャは、例えば、駐車車両や追い越し車両や反対向きに同じルートを通る車両であってもよい。この場合、参照走査データが取得されていたときに過渡的フィーチャが存在していたことは明らかである。したがって、参照走査はルートの両側に存在するフィーチャを記録してもよい。
参照走査データは少なくともひとつの測距センサを用いて取得されてもよい。測距センサは単一軸に沿って動作するよう構成されてもよい。測距センサは垂直軸の走査を行うよう構成されてもよい。走査が垂直軸に行われる場合、複数の高さにある複数の平面についての距離情報が収集され、したがって、結果としての走査はかなり詳細なものとなる。代替的にまたは追加的に、測距センサは水平軸の走査を行うよう構成されてもよい。
測距センサは、車両の進行方向に対して実質的に90度をなして外を向くよう構成されてもよい。したがって、複数の測距センサが用いられる場合、参照走査データとの比較は、同じ時刻に取得された全てのリアルタイム走査データについて単一の比較で実行されてもよい。
測距センサは、50度から90度の間の取得角内のデータを取得するよう構成されてもよい。本明細書において、取得角という語は、測距センサの総視野角を意味し、その総視野角は、測距センサが観測可能な2つのオブジェクトの可能な最大の角度間隔を表す。ある実施の形態では、取得角は実質的に70度である。
測距センサはレーザスキャナであってもよい。レーザスキャナは、ミラーを用いて横環境に亘って走査されるレーザビームを含んでもよい。したがって、デリケートな部品を保護するため、レーザスキャナを車両の表面から離して配置してもよい。ある実施の形態では、ミラーを駆動してレーザを横環境に亘って走査してもよい。したがって、軽量のミラーのみが物理的に回転されることにより必要とされ、より重いレーザスキャナアセンブリではない。追加的にまたは代替的に、測距センサはレーダスキャナおよび/または一対のステレオカメラであってもよい。
方法はさらに、決定された実際の位置に基づいて参照走査をデジタル地図に揃えることと、参照走査をデジタル地図に関連付けられたデータベースに格納することと、を含んでもよい。実際の位置は、GPS、GLONASS、欧州ガリレオ測位システム(the European Galileo positioning system)、COMPASS測位システム、IRNSS(Indian Regional Navigational Satellite System)などの衛星ナビゲーションデバイスなどの絶対測位システムから決定されてもよい。しかしながら、モバイル通信やサーフェスビーコンなどを用いるものなどのような他の位置決定手段が使用されてもよいことは理解されるであろう。方法はさらに、その後の決定された実際の位置に基づく参照走査とデジタル地図との整合およびデジタル地図に関連付けられたデータベースへの格納のために、参照走査および決定された実際の位置をサーバに送信することを含んでもよい。
本発明の第3の態様によると、デジタル地図に関連付けられた参照走査データを格納する方法が提供される。デジタル地図は通行可能なネットワーク(例えば、道路ネットワーク)の通行可能な要素(例えば、道路)を表すデータを含む。方法は、通行可能な要素の両側で横環境を走査することにより得られたローカリゼーション参照走査データを取得することと、通行可能な要素の各側からのローカリゼーション参照データを単一の合成データセットに格納することと、を含む。
したがって、本発明の第3の態様によると、通行可能な要素の複数の部分からのデータは、効率的なデータ形式で一緒に保持されてもよい。合成データセットに保持されるデータは圧縮されてもよく、これにより同じ容量内にルートのより多くの部分のデータを保持することができる。参照走査データを無線ネットワーク接続を介して車両に送信しなければならない場合、使用されるネットワーク帯域をデータ圧縮により低減することができる。
方法はさらに、車両の縦位置を決定するためにデバイスに単一の合成データセットを送信することを含んでもよい。
本発明の第4の態様によると、デジタル地図に対する車両の縦位置を決定する方法が提供される。デジタル地図は通行可能なネットワークの通行可能な要素を表すデータを含み、車両は該要素に沿って進む。方法は、少なくともひとつの測距センサを用いて車両の周りの横環境を走査することによってリアルタイム走査データを決定することであって、前記リアルタイム走査データはひとつ以上のデプスマップを含み、各デプスマップは複数の縦位置および高さにおける横環境の面までの測定された横距離を表すことと、デジタル地図に関連付けられたローカリゼーション参照データであってデジタル地図に関連する車両の現在のみなし縦位置についてのローカリゼーション参照データを取得することであって、ローカリゼーション参照データはひとつ以上のデプスマップを含み、各デプスマップは複数の縦位置および高さにおける横環境の面までの横距離を表すことと、相互相関を計算することによってリアルタイム走査データをローカリゼーション参照データと比較し、リアルタイム走査データとローカリゼーション参照データとの間の縦オフセットを決定することと、前記縦オフセットに基づいて現在のみなし縦位置を調整し、デジタル地図に対する車両の縦位置を決定することと、を含む。
本発明は、本明細書で開示される任意の方法を行うよう構成された、例えばプログラムされたひとつ以上のプロセッサなどの手段を有するデバイス、例えばナビゲーションデバイスや車両等、を含む。本発明はさらに、本明細書で開示される任意の方法を行うかデバイスに行わせるために実行可能であるコンピュータ可読インストラクションを含む非一時的物理的保持媒体を含む。
当業者には理解される通り、本発明の態様および実施の形態は適宜、本発明の任意の他の態様に関し、本明細書で開示される本発明の好適かつオプションの特徴の任意のひとつまたは複数または全てを含みうるし、好適には含む。
添付の図面を参照し、例示のみを目的として、本発明の実施の形態が説明される。
プラニング地図の一部を表す。 道路ネットワークの画像に重ね合わされているプラニング地図の一部を示す。 図3および図4は、地図を作成するためにデータを収集するのに使用可能な例示的モバイルマッピングシステムを示す。 図3および図4は、地図を作成するためにデータを収集するのに使用可能な例示的モバイルマッピングシステムを示す。 レーザスキャナから得られたデータの三次元図を示す。 レーザスキャナから得られたデータの投影側面図を示す。 実施の形態に係る車両を示し、この車両はその周囲を検出しつつ道路に沿って進む。 ローカリゼーション参照データと、例えば図7の車両により収集されたものである検出環境データとの比較を示す。 ローカリゼーション参照データがどのように保持されうるかの例示的なフォーマットを示す。 道路を通行する車両に取り付けられた測距センサによって取得された例示的点クラウドを示す。 2つのデプスマップに変換されたこの点クラウドデータを示す。 実施の形態において正規化された相互相関計算に従い決定されたオフセットを示す。 「参照」データセットと「ローカル測定」データセットとの間で行われた相関の他の例を示す。 実施の形態に係る車両内に設けられたシステムを示す。
デジタル地図(例えば道路ネットワークなどの通行可能なネットワークを表す)に対する車両などのデバイスの位置を決定するための改良された方法が必要とされていると認識された。特に、デジタル地図に対するデバイスの縦位置を例えば1メートル以下の確度で正確に決定することができることが要求されている。本願において「縦(longitudinal)」という語は、例えば車両などのデバイスが動く通行可能なネットワークの部分に沿った方向を指す。言い換えると、それは車両が通行する道路の長さ方向に沿った方向を指す。本願において「横(lateral)」という語は縦方向に垂直であるというその通常の意味を有し、したがって、道路の幅に沿った方向を指す。
理解されるように、デジタル地図が上述のプラニング地図、例えば道路の各車線が別個に表される三次元ベクトルモデル(標準地図におけるような道路の中央線に対するものと対照的に)、を含む場合、例えば車両などのデバイスの横位置は単にデバイスが現在進んでいる車線を決定することを含む。そのような決定を行うための種々の技術が知られている。例えば、グローバルナビゲーション衛星システム(GNSS)レシーバから得られる情報のみを用いてその決定を行うことができる。追加的にまたは代替的に、カメラやレーザやデバイスに伴う他のイメージングセンサからの情報が用いられてもよい。例えば、近年かなりの研究がなされており、その研究では、車両内に設置されたひとつ以上のビデオカメラからの画像データが例えば種々の画像処理技術を用いて解析され、車両が通行している車線が検出され追跡される。ある例示的な技術は、「Multi-lane detection in urban driving environments using conditional random fields」、Junhwa Hur、Seung-Nam Kang、Seung-Woo Seo著、Intelligent Vehicles Symposium、予稿集、1297−1302頁、IEEE、2013、に掲載の論文に記載されている。ここでは、デバイスはビデオカメラ、レーダおよび/またはライダセンサからのデータフィードの提供を受け、適切なアルゴリズムを用いて受信データをリアルタイムで処理し、デバイスまたは車両の現在の車線、すなわちそのデバイスが通行している車線を決定する。あるいはまた、Mobileye N.V.から入手可能なMobileyeシステムなどの他のデバイスまたは装置は、これらのデータフィードに基づく車両の現在車線の決定を提供し、次いで例えば有線接続またはブルートゥース接続により現在車線の決定をデバイスにフィードしてもよい。
実施の形態では、車両の周りの環境であって好ましくは車両の片側または両側の環境のリアルタイム走査と、デジタル地図に関連付けられた環境の参照走査と、を比較することにより、車両の縦位置を決定してもよい。この比較から、縦オフセットがあればそれが決定され、車両の位置が決定されたオフセットを用いてデジタル地図にマッチされる。したがって、デジタル地図に対する車両の位置を常に高い確度で知ることができる。
車両の周りの環境のリアルタイム走査は、車両に設けられた少なくともひとつの測距センサを用いて取得されてもよい。少なくともひとつの測距センサは任意の適切な形態をとりうるが、好適な実施の形態では、それはレーザスキャナを備える、すなわちLiDARデバイスである。レーザスキャナは環境をレーザビームで走査し、環境の点クラウド表現を生成するよう構成される。各点は、レーザが反射されたオブジェクトの面の位置を表す。理解されるように、レーザスキャナはレーザビームがオブジェクトの表面から反射された後、スキャナに戻るまでの時間を記録するよう構成され、記録された時間は各点までの距離を決定するのに使用されうる。好適な実施の形態では、所定の取得角、例えば50度から90度の間のものであって例えば70度、内のデータを取得するために、測距センサは単一の軸に沿って動作するよう構成されてもよい。例えば、センサがレーザスキャナを備える場合は、レーザビームはデバイス内のミラーを用いて走査される。
図7に実施の形態が示される。そこでは、車両100は道路を通行している。車両は、車両の各側に設けられた測距センサ101、102を備える。車両の各側にセンサが示されているが、他の実施の形態では車両の片側に単一のセンサのみが用いられてもよい。2つのセンサは、各センサからのデータが合成可能なように適切に揃えられていることが望ましく、この点については後述される。
上述の通り、測距センサは単一軸に沿って動作するよう構成されてもよい。ある実施の形態では、センサは水平方向の走査、すなわち道路の表面に平行な面内の走査を行うよう構成されてもよい。これは例えば図7に示される。車両が道路を進むにつれて環境を継続的に走査することにより、図8に示されるような検出環境データが収集されうる。データ200は左センサ102から収集されたデータであり、オブジェクト104を示す。データ202は右センサ101から収集されたデータであり、オブジェクト106および108を示す。他の実施の形態では、センサは垂直方向の走査、すなわち道路の表面に垂直な面内の走査を行うよう構成されてもよい。車両が道路を進むにつれて環境を継続的に走査することにより、図6のやり方で環境データを集めることが可能である。理解されるように、垂直方向の走査を行うことにより、複数の高さにある複数の平面についての距離情報が収集され、したがって、結果としての走査はかなり詳細なものとなる。無論、走査は所望の任意の軸に沿って行われてもよいことは理解されるであろう。
環境の参照走査は以前にその道路を通行したひとつ以上の車両から取得される。参照走査はデジタル地図に適切に揃えられて関連付けられる。参照走査は、デジタル地図に関連付けられたデータベースに格納される。本明細書において、参照走査はローカリゼーション参照データと称される。デジタル地図とマッチされた場合のローカリゼーション参照データの組み合わせはローカリゼーション地図と称されてもよい。理解されるように、ローカリゼーション地図は車両から離れたところで生成されるであろう。典型的にはTomTom International B.V.やNokiaの会社であるHEREなどのデジタル地図作成企業により生成される。
参照走査は、図3に示されるようなモバイルマッピング車両などの専門家車両から取得されてもよい。しかしながら、好適な実施の形態では、車両が通行可能なネットワークを通行する際にその車両によって収集される検出環境データから参照走査を決定してもよい。ローカリゼーション地図を生成、維持および更新するために、この検出環境データを格納し、周期的にデジタル地図企業に送信してもよい。
ローカリゼーション参照データを車両でローカルに保持することが好ましいが、データがリモートで保持されてもよいことは理解されるであろう。実施の形態では、および特にローカリゼーション参照データがローカルで保持される場合、データは圧縮形式で保持される。
実施の形態では、ローカリゼーション参照データは道路ネットワークの道路の各側について収集される。そのような実施の形態では、道路の各側の参照データは別個に保持されてもよいし、あるいはまた合成データセットに一緒に保持されてもよい。
実施の形態では、ローカリゼーション参照データは画像データとして保持されてもよい。画像データは例えばRGBなどのカラー画像やグレースケール画像であってもよい。
図9は、ローカリゼーション参照データがどのように保持されうるかの例示的なフォーマットを示す。この実施の形態では、道路の左側の参照データは画像の左側に提供され、道路の右側の参照データは画像の右側に提供され、特定の縦位置の左側参照データセットが同じ縦位置の右側参照データセットの反対側に示されるようにデータセットが揃えられる。
図9の画像では、説明のみを目的として、縦方向のピクセルサイズは0.5mであり、中央線の各側に40ピクセルがある。画像がカラー(RGB)画像よりむしろグレースケール画像として保持されうることが決定された。この形式で画像を保持することにより、ローカリゼーション参照データは30KB/kmに対応するサイズを有する。
図10Aおよび10Bにさらなる例が示される。図10Aは、道路を通行する車両に取り付けられた測距センサによって取得された例示的点クラウドを示す。図10Bでは、この点クラウドデータが2つのデプスマップ、ひとつは車両の左側のもの、もうひとつは車両の右側のもの、に変換された。それら2つのデプスマップは隣り合わせで配置され、ひとつの合成画像を形成する。
上述の通り、車両により決定された検出環境データはローカリゼーション参照データと比較され、オフセットの有無が判定される。決定されたオフセットがあれば、それを使用して車両の位置を、それがデジタル地図上の正しい位置に正確に合わせられるように調整してもよい。この決定されたオフセットは本明細書において相関インデックスと称される。
実施の形態では、例えば200mの縦道路区間について検出環境データが決定され、結果として得られたデータ、例えば画像データ、は次にその道路区間についてのローカリゼーション参照データと比較される。このサイズ、すなわち車両の長さよりもかなり大きい長さ、の道路区間に亘って比較を行うことにより、道路上の他の車両や道路の脇に止められた車両などの非静的または一時的オブジェクトは典型的には比較の結果に影響を与えない。
データセットが最も整合する縦位置を決定するために、検出環境データとローカリゼーション参照データとの間の相互相関を計算することによって比較を行うことが好ましい。最大の整合を与える両データセットの縦位置間の差が、縦オフセットの決定を可能とする。これは、例えば図8の検出環境データとローカリゼーション参照データとの間に示されるオフセットにより示される。
実施の形態では、データセットが画像として提供される場合、相互相関は、ローカリゼーション参照データと検出環境データとの間の輝度、照明条件等の差が軽減されうるよう正規化された相互相関演算を含む。例えば200m長の重なり合う複数のウインドウについて周期的に比較を行うことが好ましい。この場合、車両が道路を通行するにつれて継続的にオフセットを決めることができる。図11は、例示的な実施の形態において図示されたローカリゼーション参照データと図示された検出環境データとの間の正規化相互相関計算に従い決定されたオフセットを示す。
図12は、「参照」データセットと「ローカル測定」データセット(これは、車両が道路を通行する際にその車両によって取得されたものである)との間で行われた相関のさらなる例を示す。2つの画像の間の相関の結果は、「シフト」対「縦相関インデックス」のグラフに見ることができる。そこでは、最も大きなピークの位置を用いて、図示のベストフィットシフトを決定することができ、そのベストフィットシフトを用いて、デジタル地図に対する車両の縦位置を調整することができる。
図9、10B、11および12に見られるように、ローカリゼーション参照データおよび検出環境データはデプスマップの形態であることが好ましい。そこでは、各要素(デプスマップが画像として保持される場合は例えばピクセル)は、(道路に沿った)縦位置を示す第1の値と、高度(すなわち、地面からの高さ)を示す第2の値と、(道路を横切る)横位置を示す第3の値と、を備える。したがって、例えばピクセルであるデプスマップの各要素は、実効的に、車両の周りの環境の表面の一部に対応する。理解される通り、例えばピクセルである各要素により表される表面のサイズは圧縮量で変わるであろう。例えばピクセルである要素は、デプスマップ(または画像)の圧縮レベルが高いほどより広い表面領域を表すであろう。
ローカリゼーション参照データがデバイスのデータ保持手段、例えばメモリ、に保持される実施の形態では、比較ステップは車両内のひとつ以上のプロセッサで実行されてもよい。ローカリゼーション参照データが車両から離れたところで保持される他の実施の形態では、検出環境データをサーバに無線接続を介して、例えばモバイル通信ネットワークを介して、送信してもよい。次いで、ローカリゼーション参照データへのアクセスを有するサーバは、決定されたオフセットを、例えば再度モバイル通信ネットワークを用いて、車両へ返信する。
図13は、車両内に設けられる本発明の実施の形態に係る例示的なシステムを示す。このシステムでは、相関インデックス提供部と称される処理デバイスは、車両の左側の環境を検出するよう設けられた測距センサおよび車両の右側の環境を検出するよう設けられた測距センサからのデータフィードを受信する。処理デバイスは、(好適にはプラニング地図の形態である)デジタル地図とロケーション参照データのデータベースとへのアクセスを有し、ロケーション参照データはデジタル地図に適切にマッチされる。処理デバイスは上述の方法を行うよう構成される。したがって、処理デバイスは、オプションでデータフィードを適切な形態、例えば両方のセンサからのデータを合成する画像データ、に変換した後の測距センサからのデータフィードと、ローカリゼーション参照データと、を比較し、縦オフセットしたがってデジタル地図に対する車両の正確な位置を決定するよう構成される。システムはまたホライゾン提供部を備える。ホライゾン提供部は、車両の決定された位置およびデジタル地図内のデータを用いて、通行可能なネットワークのこれからくる部分であって車両が通ろうとしている部分に関する情報(「ホライゾンデータ」と称される)を提供する。このホライゾンデータを用いて、例えば適応クルーズコントロールや自動車線変更や緊急ブレーキアシストなどの種々のアシストまたは自動運転操作を行うよう車両内のひとつ以上のシステムを制御できる。
まとめると、本発明は、少なくとも好適な実施の形態において、縦相関に基づく測位方法に関する。車両の周りの三次元空間は、道路の左側および右側の両方をカバーする2つのデプスマップの形態で表され、それら2つのデプスマップは単一の画像に合成される。デジタル地図に保持される参照画像は車両のレーザまたは他の測距センサから導かれたデプスマップと相互相関され、車両がデジタル地図中の道路の表現に沿って(すなわち、縦方向に)正確に位置決めされる。実施の形態では、デプス情報を用いて車を道路を横切る方向に(すなわち、横方向に)位置決めすることができる。
好適な実装では、車両の周りの三次元空間は、道路の軌跡に平行な2つのグリッドに投影され、投影値はグリッドの各セル内で平均化される。縦相関器デプスマップのピクセルは運転方向に沿って約50cmの寸法と、約20cmの高さと、を有する。ピクセル値で符号化されるデプスは約10cmで量子化される。運転方向に沿ったデプスマップ画像解像度は50cmであるが、測位の精度はより高い。相互相関された画像は、レーザ点が分配され平均化されるグリッドを表す。適切なアップサンプリングにより、サブピクセル係数のシフトベクトルを見つけることができる。同様に、約10cmのデプス量子化は、道路を横切る方向の測位の精度が10cmであることを意味しない。量子化誤差が全ての相関ピクセルに亘って平均化されるからである。したがって、実際、測位精度は大部分がレーザの精度および較正により制限され、縦相関器インデックスの量子化誤差からの寄与は大変小さい。
したがって、例えばデプスマップ(または画像)である測位情報は常に利用可能であり(周りにシャープなオブジェクトが利用可能でない場合であっても)、コンパクトであり(全世界の道路ネットワークを保持することが可能)、他のアプローチと同等かそれ以上の精度(任意の場所でのそれの可用性およびしたがって誤差平均化の高いポテンシャルに起因する)を可能とすることは、理解されるであろう。
本発明に係る方法はいずれも、例えばコンピュータプログラムであるソフトウェアを少なくとも部分的に使用して実現されてもよい。従って、本発明は、本発明のいずれかの態様又は実施形態に係る方法を実行するか又はナビゲーションデバイスに実行させるために実行可能なコンピュータ可読インストラクションを備えるコンピュータプログラムを更に含む。従って、本発明は、1つ以上のプロセッサにより実行される場合に、表示画面上に表示するための適切な画像(又は他のグラフィカル情報)を1つ以上のプロセッサに生成させるコンピュータプログラム製品を含む。従って、本発明は、データ処理手段を備えるシステム又は装置を動作させるために使用される場合に、前記データ処理手段と共に本発明の方法のステップを前記装置又はシステムに実行させるソフトウェアを備えるコンピュータソフトウェアキャリアを含む。そのようなコンピュータソフトウェアキャリアは、ROMチップ、CDROM又はディスク等の非一時的な物理格納媒体であってもよく、あるいは、回線を介する電気信号、光信号又は衛星等への無線信号等の信号であってもよい。本発明は、機械により読み出される場合に、機械を本発明のいずれかの態様又は実施形態の方法に従って動作させるインストラクションを備える機械可読媒体を提供する。
明確に言及していない場合、本発明の任意の態様は、相互に排他的でない範囲で他の態様又は本発明の他の実施形態に関して説明された任意又は全ての特徴を含み得ることが理解されるべきである。特に、方法又は装置によって実行され得る動作の様々な実施形態が説明された一方、任意の1以上又は全てのこれらの動作が、任意の組み合わせで、所望に、適切に、方法又は装置によって実行され得ることが理解されるべきである。

Claims (15)

  1. デジタル地図に対する車両の縦位置を決定する方法であって、前記デジタル地図は通行可能なネットワークの通行可能な要素を表すデータを含み、前記車両は該要素に沿って進み、前記方法は、
    少なくともひとつの測距センサを用いて前記車両の周りの横環境を走査することによってリアルタイム走査データを決定することであって、前記リアルタイム走査データはひとつ以上のデプスマップを含み、各デプスマップは複数の縦位置および高さにおける前記横環境の表面までの測定された横距離を表すことと、
    前記デジタル地図に関連付けられたローカリゼーション参照データであって前記デジタル地図に関連する前記車両の現在のみなし縦位置についてのローカリゼーション参照データを取得することであって、前記ローカリゼーション参照データはひとつ以上のデプスマップを含み、各デプスマップは複数の縦位置および高さにおける前記横環境の表面までの前記横距離を表し、前記ローカリゼーション参照データはひとつ以上のデプスマップ画像を含む画像データとして提供され、各デプスマップ画像の各ピクセルは縦位置を示す第1の値と高さを示す第2の値と横距離を示す第3の値とを含むことと、
    相互相関を計算することによって前記リアルタイム走査データを前記ローカリゼーション参照データと比較し、前記リアルタイム走査データと前記ローカリゼーション参照データとの間の縦オフセットを決定することと、
    前記縦オフセットに基づいて前記現在のみなし縦位置を調整し、前記デジタル地図に対する前記車両の前記縦位置を決定することと、を含む方法。
  2. 前記車両の左側のデプスマップおよび前記車両の右側のデプスマップを決定するために、前記車両の左側および前記車両の右側の両方の前記横環境を走査することによって前記リアルタイム走査データが取得され、
    前記車両の左側のデプスマップおよび前記車両の右側のデプスマップは合成されてひとつの合成画像となる請求項1に記載の方法。
  3. 前記ローカリゼーション参照データは、
    複数の縦位置および高さにおける前記車両の左側の前記横環境の表面までの前記横距離を表すデプスマップと、
    複数の縦位置および高さにおける前記車両の右側の前記横環境の表面までの前記横距離を表すデプスマップと、を含む請求項1または2に記載の方法。
  4. 複数の縦位置および高さにおける前記車両の左側の前記横環境の表面までの前記横距離を表す、前記ローカリゼーション参照データの前記デプスマップおよび複数の縦位置および高さにおける前記車両の右側の前記横環境の表面までの前記横距離を表す、前記ローカリゼーション参照データの前記デプスマップは合成されてひとつの合成画像となる請求項3に記載の方法。
  5. 前記リアルタイム走査データの前記合成画像と前記ローカリゼーション参照データの前記合成画像との間の前記相互相関が計算される請求項2を引用する請求項4に記載の方法。
  6. 前記ローカリゼーション参照データの前記ひとつ以上のデプスマップは圧縮された画像として格納されている請求項1から5のいずれか一項に記載の方法。
  7. 前記ローカリゼーション参照データの前記ひとつ以上のデプスマップはグレースケール画像として格納されている請求項1から6のいずれか一項に記載の方法。
  8. 前記リアルタイム走査データの前記ローカリゼーション参照データとの前記比較は、所定の縦距離のウインドウの間に取得されたリアルタイム走査データを用いて行われる請求項1から7のいずれか一項に記載の方法。
  9. 前記比較は重なり合うウインドウについて周期的に行われる請求項8に記載の方法。
  10. 前記測距センサは、レーザスキャナ、レーダスキャナ、および一対のステレオカメラのうちのひとつ以上を含む請求項1から9のいずれか一項に記載の方法。
  11. 前記ローカリゼーション参照データは前記車両のメモリにローカルで保持される請求項1から10のいずれか一項に記載の方法。
  12. デジタル地図に対する車両の縦位置を決定する装置であって、前記デジタル地図は通行可能なネットワークの通行可能な要素を表すデータを含み、前記車両は該要素に沿って進み、前記装置は少なくともひとつのプロセッサとメモリとを備え、前記メモリは前記少なくともひとつのプロセッサによって実行可能なコンピュータ可読インストラクションを備え、該コンピュータ可読インストラクションは実行されると前記装置に、
    少なくともひとつの測距センサを用いて前記車両の周りの横環境を走査することによってリアルタイム走査データを決定することであって、前記リアルタイム走査データはひとつ以上のデプスマップを含み、各デプスマップは複数の縦位置および高さにおける前記横環境の表面までの測定された横距離を表すことと、
    前記デジタル地図に関連付けられたローカリゼーション参照データであって前記デジタル地図に関連する前記車両の現在のみなし縦位置についてのローカリゼーション参照データを取得することであって、前記ローカリゼーション参照データはひとつ以上のデプスマップを含み、各デプスマップは複数の縦位置および高さにおける前記横環境の表面までの前記横距離を表し、前記ローカリゼーション参照データはひとつ以上のデプスマップ画像を含む画像データとして提供され、各デプスマップ画像の各ピクセルは縦位置を示す第1の値と高さを示す第2の値と横距離を示す第3の値とを含むことと、
    相互相関を計算することによって前記リアルタイム走査データを前記ローカリゼーション参照データと比較し、前記リアルタイム走査データと前記ローカリゼーション参照データとの間の縦オフセットを決定することと、
    前記縦オフセットに基づいて前記現在のみなし縦位置を調整し、前記デジタル地図に対する前記車両の前記縦位置を決定することと、を行わせる装置。
  13. 前記コンピュータ可読インストラクションは、前記装置を、請求項2から11のいずれか一項に記載の方法にしたがい動作させるために前記少なくともひとつのプロセッサによって実行可能である請求項12に記載の装置。
  14. インストラクションを備えるコンピュータプログラムであって、該インストラクションは計算装置の少なくともひとつのプロセッサによって実行された場合、前記計算装置を請求項1から11のいずれか一項に記載の方法にしたがって動作させるコンピュータプログラム。
  15. 請求項14に記載の前記コンピュータプログラムを保持するコンピュータ可読媒体。
JP2016565215A 2014-04-30 2015-04-30 デジタル地図に対する位置を決定する方法およびシステム Active JP6694395B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1407643.4 2014-04-30
GBGB1407643.4A GB201407643D0 (en) 2014-04-30 2014-04-30 Improved positioning relatie to a digital map for assisted and automated driving operations
PCT/EP2015/059614 WO2015173034A1 (en) 2014-04-30 2015-04-30 Method and system for determining a position relative to a digital map

Publications (2)

Publication Number Publication Date
JP2017519973A JP2017519973A (ja) 2017-07-20
JP6694395B2 true JP6694395B2 (ja) 2020-05-13

Family

ID=50972142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016565215A Active JP6694395B2 (ja) 2014-04-30 2015-04-30 デジタル地図に対する位置を決定する方法およびシステム

Country Status (7)

Country Link
US (1) US10240934B2 (ja)
EP (1) EP3137850B1 (ja)
JP (1) JP6694395B2 (ja)
KR (1) KR102425272B1 (ja)
CN (1) CN106461402B (ja)
GB (2) GB201407643D0 (ja)
WO (1) WO2015173034A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10082797B2 (en) * 2015-09-16 2018-09-25 Ford Global Technologies, Llc Vehicle radar perception and localization
EP3384362B1 (en) 2015-11-30 2021-03-17 Raytheon Company Navigation system for an autonomous vehicle based on cross correlating coherent images
CN107515006A (zh) * 2016-06-15 2017-12-26 华为终端(东莞)有限公司 一种地图更新方法和车载终端
US10317901B2 (en) 2016-09-08 2019-06-11 Mentor Graphics Development (Deutschland) Gmbh Low-level sensor fusion
US10585409B2 (en) * 2016-09-08 2020-03-10 Mentor Graphics Corporation Vehicle localization with map-matched sensor measurements
US11067996B2 (en) 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US10678240B2 (en) 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
KR102404155B1 (ko) * 2016-09-28 2022-05-31 톰톰 글로벌 콘텐트 비.브이. 위치파악 참조 데이터를 생성 및 사용하기 위한 방법 및 시스템
US10579065B2 (en) * 2016-11-23 2020-03-03 Baidu Usa Llc Algorithm and infrastructure for robust and efficient vehicle localization
EP3343172B1 (en) * 2017-01-03 2024-03-13 iOnRoad Technologies Ltd. Creation and use of enhanced maps
US10436595B2 (en) * 2017-02-02 2019-10-08 Baidu Usa Llc Method and system for updating localization maps of autonomous driving vehicles
US10380890B2 (en) * 2017-02-08 2019-08-13 Baidu Usa Llc Autonomous vehicle localization based on walsh kernel projection technique
CN108732584B (zh) * 2017-04-17 2020-06-30 百度在线网络技术(北京)有限公司 用于更新地图的方法和装置
US20180314253A1 (en) 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
DE102017211607A1 (de) * 2017-07-07 2019-01-10 Robert Bosch Gmbh Verfahren zur Verifizierung einer digitalen Karte eines höher automatisierten Fahrzeugs (HAF), insbesondere eines hochautomatisierten Fahrzeugs
US10796572B2 (en) * 2017-07-17 2020-10-06 Ford Global Technologies, Llc Automated map anomaly detection and update
US10503175B2 (en) 2017-10-26 2019-12-10 Ford Global Technologies, Llc Lidar signal compression
KR102333033B1 (ko) 2017-12-07 2021-12-01 삼성전자주식회사 차량 및 그 제어 방법
US11073828B2 (en) * 2017-12-08 2021-07-27 Samsung Electronics Co., Ltd. Compression of semantic information for task and motion planning
US10553044B2 (en) 2018-01-31 2020-02-04 Mentor Graphics Development (Deutschland) Gmbh Self-diagnosis of faults with a secondary system in an autonomous driving system
US11145146B2 (en) 2018-01-31 2021-10-12 Mentor Graphics (Deutschland) Gmbh Self-diagnosis of faults in an autonomous driving system
US10776983B2 (en) 2018-02-27 2020-09-15 Nvidia Corporation Analysis of point cloud data using depth and texture maps
DE102018203440A1 (de) * 2018-03-07 2019-09-12 Robert Bosch Gmbh Verfahren und Lokalisierungssystem zum Erstellen oder Aktualisieren einer Umgebungskarte
US10684132B2 (en) * 2018-03-19 2020-06-16 Here Global B.V. Generation and update of a lane network graph model
JP6847885B2 (ja) * 2018-03-20 2021-03-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム
US11256729B2 (en) * 2018-03-29 2022-02-22 Aurora Operations, Inc. Autonomous vehicle relative atlas incorporating hypergraph data structure
US10521913B2 (en) * 2018-03-29 2019-12-31 Aurora Innovation, Inc. Relative atlas for autonomous vehicle and generation thereof
US10503760B2 (en) 2018-03-29 2019-12-10 Aurora Innovation, Inc. Use of relative atlas in an autonomous vehicle
US10598498B2 (en) * 2018-04-06 2020-03-24 GM Global Technology Operations LLC Methods and systems for localization of a vehicle
CA3026914C (en) 2018-07-02 2021-11-30 Beijing Didi Infinity Science And Development Co., Ltd. Vehicle navigation system using pose estimation based on point cloud
EP3617749B1 (en) * 2018-09-03 2020-11-11 Zenuity AB Method and arrangement for sourcing of location information, generating and updating maps representing the location
DE102019205994A1 (de) * 2019-04-26 2020-10-29 Robert Bosch Gmbh Verfahren zum Ausbilden einer Lokalisierungsschicht einer digitalen Lokalisierungskarte zum automatisierten Fahren
US11755917B2 (en) * 2019-11-15 2023-09-12 Waymo Llc Generating depth from camera images and known depth data using neural networks
EP3882649B1 (en) * 2020-03-20 2023-10-25 ABB Schweiz AG Position estimation for vehicles based on virtual sensor response
CN113450439A (zh) * 2020-03-26 2021-09-28 华为技术有限公司 一种虚实融合方法、设备及系统
US11872965B2 (en) * 2020-05-11 2024-01-16 Hunter Engineering Company System and method for gyroscopic placement of vehicle ADAS targets
CN112800159B (zh) * 2021-01-25 2023-10-31 北京百度网讯科技有限公司 地图数据处理方法及装置
CN113096441B (zh) * 2021-03-25 2022-08-05 北京星云互联科技有限公司 一种车辆预警方法、装置、车辆及存储介质

Family Cites Families (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4700307A (en) 1983-07-11 1987-10-13 General Dynamics Corp./Convair Division Feature navigation system and method
US6233361B1 (en) * 1993-08-24 2001-05-15 Roger Colston Downs Topography processor system
DE4408329C2 (de) 1994-03-11 1996-04-18 Siemens Ag Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert
US5961571A (en) 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
US7418346B2 (en) * 1997-10-22 2008-08-26 Intelligent Technologies International, Inc. Collision avoidance methods and systems
US6526352B1 (en) 2001-07-19 2003-02-25 Intelligent Technologies International, Inc. Method and arrangement for mapping a road
US7085637B2 (en) 1997-10-22 2006-08-01 Intelligent Technologies International, Inc. Method and system for controlling a vehicle
DE19532104C1 (de) 1995-08-30 1997-01-16 Daimler Benz Ag Verfahren und Vorrichtung zur Bestimmung der Position wenigstens einer Stelle eines spurgeführten Fahrzeugs
JPH1031799A (ja) 1996-07-15 1998-02-03 Toyota Motor Corp 自動走行制御装置
US5999866A (en) 1996-11-05 1999-12-07 Carnegie Mellon University Infrastructure independent position determining system
JP3848431B2 (ja) * 1997-04-28 2006-11-22 本田技研工業株式会社 車両位置推定装置と車両位置推定方法、および、走行車線維持装置と走行車線維持方法
US6047234A (en) 1997-10-16 2000-04-04 Navigation Technologies Corporation System and method for updating, enhancing or refining a geographic database using feedback
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
DE19930796A1 (de) 1999-07-03 2001-01-11 Bosch Gmbh Robert Verfahren und Vorrichtung zur Übermittlung von Navigationsinformationen von einer Datenzentrale an ein fahrzeugbasiertes Navigationssystem
JP4685313B2 (ja) 1999-12-29 2011-05-18 ジオスパン コーポレイション 任意の局面の受動的な体積画像の処理方法
US6671615B1 (en) 2000-05-02 2003-12-30 Navigation Technologies Corp. Navigation system with sign assistance
US6608913B1 (en) 2000-07-17 2003-08-19 Inco Limited Self-contained mapping and positioning system utilizing point cloud data
US20050149251A1 (en) 2000-07-18 2005-07-07 University Of Minnesota Real time high accuracy geospatial database for onboard intelligent vehicle applications
US6772062B2 (en) 2001-05-31 2004-08-03 The Regents Of The University Of California Intelligent ultra high speed distributed sensing system and method for sensing roadway markers for intelligent vehicle guidance and control
JP3910582B2 (ja) 2001-07-31 2007-04-25 株式会社キャドセンター 三次元構造物形状の自動生成装置、自動生成方法、そのプログラム、及びそのプログラムを記録した記録媒体
JP2003232888A (ja) 2001-12-07 2003-08-22 Global Nuclear Fuel-Japan Co Ltd 輸送物の健全性確認検査システムおよび健全性確認方法
DE10202756A1 (de) 2002-01-25 2003-08-07 Daimler Chrysler Ag Digitale Karte mit Temperaturdaten
US7433889B1 (en) 2002-08-07 2008-10-07 Navteq North America, Llc Method and system for obtaining traffic sign data using navigation systems
US6728608B2 (en) 2002-08-23 2004-04-27 Applied Perception, Inc. System and method for the creation of a terrain density model
US6847887B1 (en) 2003-03-04 2005-01-25 Navteq North America, Llc Method and system for obtaining road grade data
FI115668B (fi) 2003-03-25 2005-06-15 Sandvik Tamrock Oy Kaivosajoneuvon paikan ja suunnan alustaminen
US6856897B1 (en) 2003-09-22 2005-02-15 Navteq North America, Llc Method and system for computing road grade data
US7035733B1 (en) 2003-09-22 2006-04-25 Navteq North America, Llc Method and system for obtaining road grade data
US6990407B1 (en) 2003-09-23 2006-01-24 Navteq North America, Llc Method and system for developing traffic messages
US7251558B1 (en) 2003-09-23 2007-07-31 Navteq North America, Llc Method and system for developing traffic messages
US7050903B1 (en) 2003-09-23 2006-05-23 Navteq North America, Llc Method and system for developing traffic messages
US7096115B1 (en) 2003-09-23 2006-08-22 Navteq North America, Llc Method and system for developing traffic messages
DE102004055069B4 (de) 2004-07-15 2007-02-15 Daimlerchrysler Ag Mehrdimensionale Fahrbahnvermessung
DE102004046589A1 (de) 2004-08-05 2006-02-23 Volkswagen Ag Vorrichtung für ein Kraftfahrzeug
DE102005008185A1 (de) 2005-02-23 2006-08-31 Daimlerchrysler Ag Verfahren, System und Fahrzeuggerät zur Überprüfung digitaler Straßendaten
WO2006118563A1 (en) * 2005-04-29 2006-11-09 Chubb International Holdings Limited Method and device for consistent region of interest
NZ564319A (en) 2005-06-06 2009-05-31 Tomtom Int Bv Navigation device with camera-info
US7728869B2 (en) 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
DE112006001864T5 (de) 2005-07-14 2008-06-05 GM Global Technology Operations, Inc., Detroit System zur Beobachtung der Fahrzeugumgebung aus einer entfernten Perspektive
US20070055441A1 (en) 2005-08-12 2007-03-08 Facet Technology Corp. System for associating pre-recorded images with routing information in a navigation system
JP4600357B2 (ja) 2006-06-21 2010-12-15 トヨタ自動車株式会社 測位装置
CN101405573B (zh) 2006-06-27 2012-04-18 通腾科技股份有限公司 用于对汽车超速监视区提供警报的导航装置和方法
WO2008003272A1 (de) 2006-07-06 2008-01-10 Siemens Aktiengesellschaft Vorrichtung zum orten eines an einen fahrweg gebundenen fahrzeugs
JP5069439B2 (ja) 2006-09-21 2012-11-07 パナソニック株式会社 自己位置認識システム
US20080243378A1 (en) 2007-02-21 2008-10-02 Tele Atlas North America, Inc. System and method for vehicle navigation and piloting including absolute and relative coordinates
WO2008150153A1 (en) * 2007-06-08 2008-12-11 Tele Atlas B.V. Method of and apparatus for producing a multi-viewpoint panorama
JP2011511281A (ja) 2008-02-04 2011-04-07 テレ アトラス ノース アメリカ インコーポレイテッド センサにより検出されたオブジェクトとマップマッチングする方法
JP5414673B2 (ja) 2008-07-07 2014-02-12 三菱電機株式会社 車両走行環境検出装置
US20110178610A1 (en) * 2008-10-22 2011-07-21 Terratrim, Inc. Systems and methods for managing utility consumption
JP5531474B2 (ja) 2008-12-12 2014-06-25 株式会社豊田中央研究所 地図生成装置、走路推定装置、移動可能領域推定装置、及びプログラム
EP2209091B1 (en) * 2009-01-16 2012-08-08 Honda Research Institute Europe GmbH System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
DE102009009047A1 (de) 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion
WO2011023246A1 (en) * 2009-08-25 2011-03-03 Tele Atlas B.V. A vehicle navigation system and method
US8301374B2 (en) 2009-08-25 2012-10-30 Southwest Research Institute Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks
TWI391874B (zh) 2009-11-24 2013-04-01 Ind Tech Res Inst 地圖建置方法與裝置以及利用該地圖的定位方法
US8861842B2 (en) * 2010-02-05 2014-10-14 Sri International Method and apparatus for real-time pedestrian detection for urban driving
JP5062497B2 (ja) 2010-03-31 2012-10-31 アイシン・エィ・ダブリュ株式会社 風景画像認識を用いた自車位置検出システム
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
IT1401367B1 (it) * 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
US20120044241A1 (en) * 2010-08-20 2012-02-23 Himax Technologies Limited Three-dimensional on-screen display imaging system and method
CN102455425B (zh) * 2010-10-20 2013-07-31 银河港(北京)技术有限公司 一种全视景光电雷达及利用地面目标图像定位的扫描方法
US9679362B2 (en) * 2010-12-30 2017-06-13 Tomtom Global Content B.V. System and method for generating textured map object images
US9140792B2 (en) 2011-06-01 2015-09-22 GM Global Technology Operations LLC System and method for sensor based environmental model construction
JP2013061270A (ja) * 2011-09-14 2013-04-04 Mitsubishi Electric Corp 現在位置算出装置および現在位置算出方法
US8630805B2 (en) 2011-10-20 2014-01-14 Robert Bosch Gmbh Methods and systems for creating maps with radar-optical imaging fusion
US9194949B2 (en) 2011-10-20 2015-11-24 Robert Bosch Gmbh Methods and systems for precise vehicle localization using radar maps
US8831336B2 (en) * 2011-11-11 2014-09-09 Texas Instruments Incorporated Method, system and computer program product for detecting an object in response to depth information
US9070216B2 (en) 2011-12-14 2015-06-30 The Board Of Trustees Of The University Of Illinois Four-dimensional augmented reality models for interactive visualization and automated construction progress monitoring
JP5404861B2 (ja) * 2012-07-17 2014-02-05 株式会社豊田中央研究所 静止物地図生成装置
US9111444B2 (en) * 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
CN103278170B (zh) * 2013-05-16 2016-01-06 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
US9438891B2 (en) * 2014-03-13 2016-09-06 Seiko Epson Corporation Holocam systems and methods

Also Published As

Publication number Publication date
JP2017519973A (ja) 2017-07-20
CN106461402B (zh) 2019-12-03
GB201415616D0 (en) 2014-10-15
WO2015173034A1 (en) 2015-11-19
KR102425272B1 (ko) 2022-07-26
GB201407643D0 (en) 2014-06-11
CN106461402A (zh) 2017-02-22
EP3137850A1 (en) 2017-03-08
KR20160147016A (ko) 2016-12-21
EP3137850B1 (en) 2018-08-29
US10240934B2 (en) 2019-03-26
US20170052032A1 (en) 2017-02-23

Similar Documents

Publication Publication Date Title
JP6694395B2 (ja) デジタル地図に対する位置を決定する方法およびシステム
JP7398506B2 (ja) ローカライゼーション基準データを生成及び使用する方法及びシステム
JP7090597B2 (ja) 位置特定基準データを生成及び使用する方法及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200417

R150 Certificate of patent or registration of utility model

Ref document number: 6694395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250