JP6856750B2 - 方法および装置 - Google Patents

方法および装置 Download PDF

Info

Publication number
JP6856750B2
JP6856750B2 JP2019528676A JP2019528676A JP6856750B2 JP 6856750 B2 JP6856750 B2 JP 6856750B2 JP 2019528676 A JP2019528676 A JP 2019528676A JP 2019528676 A JP2019528676 A JP 2019528676A JP 6856750 B2 JP6856750 B2 JP 6856750B2
Authority
JP
Japan
Prior art keywords
environment
sensor
reference frame
type
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019528676A
Other languages
English (en)
Other versions
JP2019537018A (ja
Inventor
ティール クリスティアン
ティール クリスティアン
バーナード ポール
バーナード ポール
ガオ ビンタオ
ガオ ビンタオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Publication of JP2019537018A publication Critical patent/JP2019537018A/ja
Application granted granted Critical
Publication of JP6856750B2 publication Critical patent/JP6856750B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/426Scanning radar, e.g. 3D radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Processing (AREA)

Description

本発明は、環境のマッピングまたはスキャニングおよびこの環境内でのロケーションの決定に関する。
先進運転支援システムおよび自律走行車両のためには、道路および車両が走行可能な他のエリアについての高精度のマップが必要とされる。道路上の車両ポジションまたは道路の車線内での車両ポジションまでも、数cmの精度で決定することは、従来の衛星ナビゲーションシステム、たとえばGPS、Galileo、GLONASSまたは三角測量法などといった他の既知のポジショニング技術を用いて、達成することはできない。ただし、自動運転車両が複数の車線を有する道路上で移動する場合には特に、車線内での縦方向および横方向のポジションを正確に決定する必要がある。
車両のポジションを高精度で決定するための1つの既知の手法は、道路マーキングのイメージを捕捉し、捕捉されたイメージ内の道路に沿った道路マーキングまたは物体のユニークなフィーチャを、データベースから取得された対応する参照イメージと比較する、1つまたは複数のカメラを必要とする。この参照イメージ内には、道路マーキングまたは物体の個々のポジションが提供されている。ポジションを決定するこの手法によって十分に正確な結果が得られるのは、データベースが高度に正確なポジションデータをイメージと共に提供し、かつそれが規則的にまたは適切な間隔で更新される場合だけである。道路マーキングを、走行中に道路のイメージを捕捉する専用車両によって捕捉し記録することができ、または空中写真または衛星画像から抽出することができる。後者のバリエーションを有利なものとみなすことができ、なぜならば、垂直方向ビューまたはトップビューのイメージによれば、実質的にフラットな平面上で道路マーキングおよびその他のフィーチャの歪みがほとんど示されないからである。しかしながら、空中写真および衛星画像は、道路マーキングおよび他の道路フィーチャの高精度のマップを生成するためには、十分なディテールを提供することができない。また、空中写真および衛星画像は、地表での視点から最もよく見える物体および道路フィーチャにおけるディテールを提供するためにはあまり適切ではない。
今日使用されているポジショニングのためのほとんどのシステム、たとえばSimultaneous Localization And Mapping (SLAM)および他のマシンビジョンアルゴリズムは、フィーチャポイントを生成し使用する。フィーチャポイントを、2Dセンサたとえばカメラにより生成された二次元イメージ内の、またはスキャニングセンサにより生成された環境の二次元表現内の、目立ったポイントまたは目立った領域とすることができる。これらの目立ったポイントまたは領域は、三次元に関する何らかの情報を伝えることはできるけれども、通常は二次元表現内で定義されて使用される。なぜなら、マシンビジョンまたはロボットビジョンは典型的に、二次元情報を提供するカメラを使用して実装されているからである。
所定の範囲内において、たとえば道路のある距離に沿って、ポジションを決定するために、複数のフィーチャポイントから成るセットを使用することができる。イメージベースのポジショニングの場合、または一般的には環境の表現の何らかの形状に基づくポジショニングの場合、環境の特定の部分に対するフィーチャポイントが、環境のその部分に対するいわゆるキーイメージ、キーフレームまたは参照フレーム内に提供されている。分かりやすくするため、環境の一部分の参照表現を引き合いに出すときには、本明細書全体をとおして「参照フレーム」という言い回しを用いることにする。
参照フレームを、画像平面およびこの平面内で識別される1つまたは複数のフィーチャポイントを含む二次元画像とすることができる。フィーチャポイントとして使用可能な適切なイメージ内容を見つける目的で、フィルタまたは他の光学的処理アルゴリズムによりカメライメージを処理することによって、フィーチャポイントを識別することができる。フィーチャポイントのために使用可能なイメージ内容を、イメージ内の物体およびマーキングに関連させることができるけれども、このことは必須要件ではない。フィーチャポイントとしての資格があるイメージの目立ったポイントまたは目立った領域は基本的に、使用される特定のイメージ処理アルゴリズムにとってみれば、たとえばその形状、コントラスト、カラーなどの点で、そのイメージ内の他のエリアまたはポイントとは異なり目立つものである。フィーチャポイントを、イメージ内の物体の形状または外見とは無関係なものとすることができ、それらを互いに独立したものとすることもできるが、認識可能な物体に対応させることもできる。したがって、この文脈において、目立ったものとは、人間の観察者にとっては目立っているように見える構造または構造の輪郭、色などだけを指すわけではない。むしろ、目立っているものとは、特定のタイプのセンサによって捕捉されたシーン表現に適用される特定のアルゴリズムが「見た」または識別した、シーンの一部分の任意の属性を指すことができ、この属性はその部分を、シーン表現の他の部分から十分に区別させるものである。
各々1つまたは複数のフィーチャポイントを含む複数の参照フレームから成るセットを、マシンの位置付けのために使用可能なマップと解釈することができる。たとえばロボットまたは自律車両がこれを使用して、その環境について学習し、複数のスキャニングパスの結果を結合することで結果を改善し、さらに参照フレームを使用することによってその環境内で自身の位置を定めることができる。
様々なタイプのセンサが様々なタイプのシーン表現を生成する。写真カメラによって、レーダセンサ、超音波センサアレイまたはスキャニングレーザセンサにより生成された表現とはまったく異なるイメージが生成される。環境内で見える物体またはフィーチャは、種々の分解能で出現する可能性があるが、センサが物体またはフィーチャを「見る」または捕捉する手法に応じて、それぞれ異なる形状を有する可能性もある。1つのカメライメージによって複数のカラーイメージを生成することも可能であるが、レーダセンサ、超音波センサアレイ、スキャニングレーザによっても、または他のカメラですら、このことは不可能である。これに加え、種々のカメラは種々の分解能、焦点距離、レンズ開口などを有する可能性があり、その結果、カメラごとに異なるフィーチャポイントが生じる可能性もある。
さらに、フィーチャポイントを識別するための種々のアルゴリズムが、種々のタイプのセンサによって生成された種々のシーン表現に適用される可能性がある。各アルゴリズムは、所定のタイプのセンサによって生成された固有の表現に対して最適化されている可能性がある。
このため、種々のセンサタイプおよびそれらの固有の処理の結果として、個々の参照フレーム内で見つけられたフィーチャポイントが、センサおよび/またはアルゴリズムに固有のものとなる可能性がある。マシンビジョン方法に従い種々のタイプのセンサにより生成されたシーンまたは環境の表現が、1つの表現内において別の表現内では見つからなかったフィーチャポイントを生成する可能性があるし、ポジショニングのために利用可能なそれぞれ異なる個数のフィーチャポイントが、種々のセンサに由来する複数の表現にわたって結果として生じる可能性もある。
自身のロケーションまたはポジションを決定する必要のあるマシンまたは車両が、想定可能なすべてのタイプのセンサを装備することはできず、たとえそれらが装備されていたとしても、種々のセンサが所定の環境条件に適していないイメージング属性を有する可能性がある。たとえばレーダセンサは、霧または雨のときでも制約なく十分に動作可能であるのに対し、カメラはこのような環境条件のもとでは有用な結果を生成できず、また、水中ロボットはソナーを用いることでいっそう良好に「見る」ことができる。かかる状況であると、有用なフィーチャポイントを提供するシーンまたは環境の表現の個数が少なくなる可能性があり、ポジションの決定にいっそう時間がかかり、精度が低くなるかまたは不可能になる場合もあり得る。
本発明の課題は、種々のタイプのセンサを用いたポジショニングを改善することである。本発明によってもたらされる改善は、いっそう多くの個数のセンサタイプにわたり、どのような所与のロケーションでも、いっそう多くの個数のフィーチャポイントを利用できるようにすることにあると言うことができるが、ポジショニングプロセス中、種々の表現におけるフィーチャポイントの識別を加速することにあるとも言える。上述の課題、その変形ならびに発展形態は、添付の特許請求の範囲において請求されている方法およびシステムによって達成される。種々のタイプのセンサには、上述の本発明の背景の説明で挙げたセンサタイプが含まれる。
本発明は、上述の問題に対し、第1の態様によれば、環境の包括的記述または環境参照モデルを生成することによって取り組むものであり、この記述またはモデルには、広範囲のセンサタイプおよび/または環境条件に関する複数のフィーチャポイントが含まれている。この包括的記述を環境の上位レベルの記述と解釈することができ、これを様々なセンサタイプおよび/または環境条件に関する参照フレームを導出するためのベースとして用いることができる。第2の態様によれば、包括的記述または環境モデルが、かかる参照フレームをたとえば車両またはロボットなど環境内を移動中の装置へ、この装置の位置付けおよびポジショニングの目的で供給するためのデータソースとして用いられる。参照フレームには、装置に対して使用可能な種々のタイプのセンサに由来する環境表現内で見つけることのできる複数のフィーチャポイントが含まれている。以下では、環境内を移動中の装置のことをモバイルエンティティと称する。
本発明によれば、環境の上位レベルの記述は、3Dフィーチャポイントを含む三次元ベクトルモデルである。3Dフィーチャポイントを、三次元ベクトルモデルにおける三次元の物体に関連させることができ、またはそれにリンク付けることができる。それらの3Dフィーチャポイントは、今日一般的に用いられている2Dフィーチャポイントに関連づけられた場合よりも、3Dフィーチャポイントに関連づけられたいっそう多くの情報を含む真の3Dポイントであり、つまりいっそう詳細な空間的記述であるので、それらの3Dポイントを、種々のタイプのセンサにより生成される多様な表現に対する参照ポイントとして用いることができる。換言すれば、各参照ポイントは、1つのセンサタイプに対する既知のフィーチャポイントからの属性に加えて、異なるセンサタイプおよびそれらの個々の処理のためにそれらのフィーチャポイントを特徴づける付加的な属性を伝えることができる。
上述のとおり、目立ったフィーチャポイントは、使用されるセンサおよび処理に依存して、同じシーンに対して異なるものとなる可能性がある。これによって個々のフィーチャポイントが、ある1つのセンサ表現にとっては役立つものとなるかもしれないが、別のセンサ表現にとっては役立たないものとなる可能性がある。本発明は以下のことを用いたものである。すなわち、物体をたとえばそれらの輪郭などによって定義可能であり、物体はそれらに関連づけられた属性をいっそう抽象的な手法で有しており、そのような物体を種々のセンサタイプに由来する種々の表現内においてかなり容易に識別することができる、というものである。かかる物体が識別されると、識別された物体と特定のセンサタイプとに関連づけられた1つまたは複数のフィーチャポイントを取得することができ、このフィーチャポイントを、物体についてローカルで生成された対応するセンサ表現内で識別することができ、物体に対し相対的なポジションを決定するために使用することができる。物体を識別することを、すでに物体のロケーションを含むことのできる3Dベクトルモデルを用いることによって容易にすることができる。このケースでは、センサ表現内のそれらのロケーションだけを分析すればよく、物体の形状が3Dベクトルモデルによって提供されるデータから事前に既知である場合、物体の形状もセンサ表現内においていっそう容易に識別することができる。ある物体において特定のセンサタイプに関するフィーチャポイントを識別することは、三次元ベクトルモデルにおいて物体と関連づけられたフィーチャポイントをいかにして見つけるのかについての指示を参照することを含むことができる。それらの指示は、フィーチャポイントを位置特定する目的で種々のタイプのセンサにより生成されたシーンの表現をフィルタリングまたは処理するためのフィルタまたは処理パラメータを含むことができ、またはある物体たとえば物体の輪郭に対するフィーチャポイントのポジションを含むことができる。物体またはその物体に関連づけられた1つまたは複数のフィーチャポイントの絶対ポジションが既知であれば、絶対ポジションを単純な手法で決定することができる。個々のフィーチャポイントを、ポジション決定のために用いることができる。ただし、1つの物体からの、複数の異なる物体からの複数のフィーチャポイント、または物体に関連していないフィーチャポイントが、固有のユニークなパターンを形成している場合、かかるパターンをポジション決定のために用いることができる。これによってたとえば、ユニークなパターンを形成する複数の道路マーキングに関連づけられたフィーチャポイントを用いて、ポジションを決定することができる。
本発明の第1の態様の1つの実施形態によれば、ポジショニングのために環境参照モデルを生成する方法は、スキャンされた環境を表現する複数のデータセットを受信することを含む。これらのデータセットを、複数のモバイルエンティティによって環境内を移動中に生成することができる。データは、スキャンされた環境内で識別された物体および/またはフィーチャポイントに関する情報および使用されるセンサタイプも含み、さらにセンサ属性およびこのデータによって表現されるフィーチャポイントおよび/または物体の絶対ポジションを決定するためのデータも含むことができる。フィーチャポイントおよび物体の絶対ポジションを決定するためのデータは、適切なフォーマットで表現された地理的ポジション、たとえば緯度および経度などを含むことができるが、単にある物体を記述するデータから成るようにしてもよい。後者のケースでは、物体のポジションは、その物体が識別されると、その物体のポジションについてデータベースから対応する情報を取得することによって決定される。その後、その物体のフィーチャポイントの絶対ポジションを、その物体およびセンサの既知の属性を用いて、その物体の既知のポジションから決定することができる。
この方法はさらに、参照座標系とアライメントされ物体および/またはフィーチャポイントが対応するロケーションのところに表現された、スキャンされた環境の三次元ベクトル表現を、受信したデータセットから生成することを含む。
受信したデータセットは、スキャンされた環境をローカルで生成された三次元ベクトルモデルの形態で表現することができ、このモデルは、そこにおいて対応するロケーションのところに少なくとも物体および/またはフィーチャポイントを含み、さらにその物体およびフィーチャポイントを決定するために使用されるセンサタイプに関する情報も含む。スキャンされた環境のかかる三次元ベクトルモデル表現を受信することによって、いっそう広い環境のうち受信した部分的な表現を、グローバルな環境参照モデルに容易に組み込むことができるようになる。データのソースにおいて何らかの処理能力が必要とされるという点は、少なくとも、ソースがいずれにせよ環境内の自身のポジションを決定するために三次元ベクトルモデルを生成するケースでは、無関係なものとすることができる。
受信した三次元ベクトルモデルを、物体および/またはフィーチャポイントのマッチングによって、環境参照モデルまたはその一部分の既存の三次元ベクトル表現とアライメントさせることができる。受信したデータセットが存在している環境参照モデルといかなる部分も共有してないケースでは、受信したデータセット内に提供されているロケーションおよび/または位置付けの情報を用いて、受信した三次元ベクトルモデルを既存の環境参照モデルの空白のエリア内に非隣接状態でアライメントすることができる。
しかしながら、受信したデータセットは、スキャンされた環境を別の形態で表現することもでき、以下に限定されるものではないがこれには、フィーチャポイントの表示により強調された環境の画像またはイメージまたは環境の他の画像状の表現を含むこともできる。さらに別の形態には、処理された抽象的な表現が含まれ、たとえば物体、物体のフィーチャ等または識別されたフィーチャポイントおよび環境内でのそれらのロケーションの機械読み取り可能な記述が含まれる。表現の1つまたは複数の形態は、送信中および記憶のために、低減されたデータ量を要求する場合があり、したがって他の形態よりも優先される場合がある。
この方法はさらに、物体および/またはフィーチャポイントをデータセット各々から抽出することを含む。受信したデータセットが、ローカルで生成された三次元ベクトルモデルの形態のスキャンされた環境を表現していないケースでは特に、抽出することは、物体および/またはフィーチャポイントを識別するために、またはデータセットから識別されたフィーチャポイントを用いるために、画像、イメージまたは抽象的表現を分析することを含むことができる。フィーチャポイントおよび/または物体が抽出されると、参照座標系内の物体および/またはフィーチャポイントのポジションが決定される。この場合、参照座標系を、絶対的な地理座標とアライメントすることができる。
データセットは、選択的に、データを生成するときに支配している環境条件に関する情報を含み、この情報は、たとえば信頼度値をデータに割り当てるために、またはフィーチャポイントを識別する際に適切なアルゴリズムを選択するために、有用なものとなる可能性がある。
この方法はさらに、三次元ベクトルモデル内の物体および/またはフィーチャポイントと、環境内でそれらを検出可能な少なくとも1つのセンサタイプとのリンクを生成すること、および三次元ベクトルモデル表現およびリンクを取り出し可能な手法で記憶することを含む。
本発明の第2の態様の1つの実施形態によれば、ポジショニングのために第1の環境の参照フレームを適応的に供給する方法は、第1の環境に対する参照フレームを求める要求を受信することを含む。この場合、第1の環境をいっそう大きい環境の一部分とすることができ、そこでは車両または他のモバイルエンティティが移動しており、さらにそれが自身のポジションの決定を必要としている。上述の要求は、環境のローカルな表現を生成するために使用可能な少なくとも1つのセンサタイプに関する情報も含む。参照フレームは好ましくは、複数の物体およびフィーチャポイントを含む3Dベクトルモデルであり、このモデルにおいて参照フレームに対するいずれの参照も、かかる3Dベクトルモデルを含む。
第1の環境の参照フレームを求める要求は、環境のロケーションの表示および/または視線方向または進行方向を含むことができ、これによって1つまたは複数の候補参照フレームを識別することができる。このことを、たとえば受信側において参照フレームのための記憶容量が制限されていることなどから、比較的小さい第1の環境に対する参照フレームを送信すべきケースにおいて用いることができる。受信側において記憶容量が著しく大きいケースでは、ある環境のいっそう大きい部分に対する参照フレームを送信することができる。環境のロケーションの表示は、衛星ナビゲーションシステムからの座標を含むことができるが、ロケーションを決定することのできる1つまたは複数の識別可能な物体を含むだけでもよい。ユニークな識別可能な物体が識別されたケースであれば、このユニークな識別可能な物体たとえばエッフェル塔を、ロケーションを大雑把に決定して適切な参照フレームを供給するのに十分なものとすることができる。
この方法はさらに、記憶装置からの第1の環境を含む三次元ベクトルモデル表現を受信すること、およびこの三次元ベクトルモデルから第1の参照フレームを生成することを含み、この第1の参照フレームは、少なくとも1つのセンサタイプとのリンクまたは関連づけが存在するフィーチャポイントを少なくとも含む。第1の参照フレームが、受信側で使用可能なセンサタイプとリンクされたそれらのフィーチャポイントだけしか含んでいなければ、送信すべきデータ量を削減することができ、たとえフィーチャポイントを記述するために必要とされるデータ量によっては、および特定の実装において使用される通信コネクションのデータレートによっては、このことは不要であるかもしれないにしても、このことが可能である。第1の参照フレームを、第1の環境の二次元のイメージまたはグラフィック抽象イメージとすることができるが、これを三次元表現として表現することもでき、たとえば第1の環境の立体イメージ、ホログラムデータまたは3Dベクトル表現の形態で表現することもできる。第1の参照フレームは、要求に対する応答として要求側エンティティに送信される。
上述の方法を、環境内を移動中のモバイルエンティティから遠く離れたサーバまたはデータベースによって実行することができる。このケースでは、受信および送信を、単にモバイルエンティティの種々の構成要素内での伝送とすることができる。それらの構成要素を、別個のハードウェア構成要素としてもよいし、または同じハードウェア上で実行される別個のソフトウェア構成要素としてもよい。
環境内でのモバイルエンティティのロケーションまたはポジションを決定するために、ローカルで生成された環境のセンサ表現内で見つけられた物体が、受信した第1の参照フレーム内で識別される。スキャンされた環境のセンサ表現内で物体を見つけて識別することを、受信した第1の参照フレーム内に提供される情報によってサポートすることができる。このことを、ローカルで使用可能なセンサタイプごとに実施することができる。参照フレームを、リモートのサーバまたはデータベースから、またはモバイルエンティティと共に提供されるサーバまたはデータベースから、受信することができる。物体が識別されると、1つまたは複数のフィーチャポイントに属するデータと、参照フレーム内に提供されている物体に対するその関係とが用いられて、環境のセンサ表現内で1つまたは複数のフィーチャポイントが位置特定される。参照フレームと共に受信することのできるデータは、フィルタ設定または処理パラメータを含むことができ、これによって環境の表現内でのフィーチャポイントの位置特定が容易になり、または単にフィーチャポイントをサーチするエリアが制限される。環境のセンサ表現内でフィーチャポイントが見つけられると、それらを使用して物体に対し相対的なポジションを決定することができ、これをたとえば参照フレームのフィーチャポイントとのマッチングによって行うことができ、その際にたとえば視野、方向付けなどといったセンサの特性が考慮される。1つまたは複数のフィーチャポイントの絶対ポジションが参照フレーム内に提供されている場合、環境内の絶対ポジションを決定することができる。なお、参照フレームも環境の3Dベクトル表現であり、ポジションを決定するために、受信した3Dベクトルモデルをローカルで生成された3Dベクトルモデルとマッチングすることによって、フィーチャポイントをマッチさせることができる、ということに留意されたい。参照フレームを、たとえば車両の先進運転支援システム(ADAS)に供給することができ、このシステムは、車両の現在ポジションを決定する目的で、ならびにたとえば加速度計、ブレーキシステムなど車両制御装置のための制御データを生成する目的で、参照フレーム内に提供されたデータを使用する。
2つまたはそれよりも多くのセンサが用いられている場合、それらはすべてが同じポジションにあるわけではなく、また、それらが同じ方向を向いているわけではない。さらに環境の表現を生成または更新するレートも、それぞれ異なる可能性がある。参照フレームを、またはたとえ真の3Dベクトルグラフィックモデルであっても、各センサのポジションに関する情報および各センサの個々のポジションおよび挙動を利用して、センサ各々について環境の表現を各々更新するために、レンダリングすることができる。このようにすれば、環境のそれぞれ異なる表現内で、物体つまりはフィーチャポイントを迅速にかつ低い処理オーバヘッドで識別することができる。
本発明の第2の態様の1つの実施形態によれば、環境が第1および第2のタイプのセンサによってスキャンされ、物体が、第1のタイプのセンサによりその物体とそのセンサとの間の第1の距離のところで生成された環境の表現内で識別される。識別された物体を含む環境の参照フレームが受信され、第1および第2のタイプのセンサにより検出可能な物体および識別された物体に関わるフィーチャポイントに関する情報が、参照フレームから抽出される。参照フレームは好ましくは、物体およびフィーチャポイントを含む3Dベクトル表現である。物体に接近すると、第1の距離よりも短い第2の距離のところで、抽出された情報を用い、第2のタイプのセンサによって生成された環境の表現内でも、やはりその物体が識別される。同様に抽出された情報を用いて、第2のセンサにより生成された環境の表現内のフィーチャポイントが識別され、第2のセンサにより生成された環境の表現内で識別された少なくともフィーチャポイントを用いて、その環境内でポジションが決定される。物体がすでに識別されており、センサタイプが既知であるので、第2のタイプのセンサにより生成された環境の表現内で、その物体に対するフィーチャポイントのロケーションをいっそう容易かつ高速に見つけることができる。その理由は、両方のセンサタイプについて物体に関わるフィーチャポイントのロケーションが、環境の参照フレーム内に提供されているからである。したがって、第2のタイプのセンサにより生成された環境の表現内で物体が識別されると、表現のうちフィーチャポイントを含むことがわかっている部分においてのみフィーチャポイントをサーチするために、センサデータの処理をまえもって用意すればよい。抽出された情報は、環境内のフィーチャポイントの絶対ポジションに関するデータを含むことができ、これによって環境内でのポジションを決定することができる。
第2のタイプのセンサによって、環境についていっそう高い分解能の表現が提供され、それによって環境内のロケーションをいっそう正確に決定できるケースでは、かかる高精度のロケーションをいっそう簡単かつ高速に手に入れることができる。他方、このことによって、安全性を犠牲にすることなくいっそう高速に環境内を移動可能とすることができる。
この実施形態は、第2のタイプのセンサがたとえば霧、霧雨、豪雨、雪などの環境条件によって損なわれている一方、第1のタイプのセンサは損なわれていないケースにおいても、有用なものとなり得る。たとえば、道路に沿って走行中の車両のレーダセンサは、やはり車両と共に提供されているカメラの視界が、たとえ霧雨によって損なわれていても、遠く離れた道路脇の物体を検出することができる。したがって、物体を、レーダセンサからのデータに基づき環境の参照フレーム内で見つけることができ、カメラがいまだ有用なイメージを提供していないにもかかわらず、レーダとカメラの双方についてフィーチャポイントのロケーションを識別することができる。車両が物体に近づくと、カメライメージは有用なイメージを提供する。物体のロケーションは参照フレームからわかっており、レーダイメージを用いてそれを追跡することができたので、参照フレーム内に提供された情報を参照することによって、フィーチャポイントをカメライメージ内でいっそう容易かつ高速に識別することができる。カメライメージはいっそう高い分解能を有することができるので、どこを注視するのかのヒントが何もなくカメライメージ内のどこかでフィーチャポイントを識別しなければならない状況と比べて、車両の高精度のポジショニングをいっそう容易かつ高速に手に入れることができる。換言すれば、環境の参照フレームとその中に提供されたデータとによって、それぞれ異なるタイプのセンサ間の一種の共働が可能となる。
ポジショニングのための環境参照モデルを生成する第1の装置は、スキャンされた環境を表現する複数のデータセットを受信するように適合された第1のモジュールを備えており、この場合、データセットには、使用されるセンサタイプに関する情報、およびこれらのデータセットにより表現される物体および/またはフィーチャポイントの絶対ポジションを決定するためのデータも含まれている。第1の装置はさらに、データセット各々から1つまたは複数の物体および/またはフィーチャポイントを抽出し、参照座標系内でのこれらの物体および/またはフィーチャポイントのポジションを決定するように適合された第2のモジュールを備えている。第1の装置はさらに、参照座標系とアライメントされ物体および/またはフィーチャポイントが対応するロケーションのところに表現された、スキャンされた環境の三次元ベクトル表現を生成するように適合された第3のモジュールを備えている。第1の装置は、三次元ベクトルモデル内の物体および/またはフィーチャポイントと、環境内でそれらを検出可能な少なくとも1つのセンサタイプとのリンクを生成するように適合された第4のモジュールと、三次元ベクトルモデル表現およびリンクを取り出し可能な手法で記憶するように適合された第5のモジュールも備えている。
ポジショニングのために第1の環境の参照フレームを適応的に供給する第2の装置は、第1の環境に対する参照フレームを求める要求を受信するように適合された第6のモジュールを備えており、上述の要求には、環境のローカルな表現を生成するために使用可能な少なくとも1つのセンサタイプが含まれている。第2の装置はさらに、記憶装置からの第1の環境を含む三次元ベクトルモデル表現を取り出すように適合された第7のモジュール、およびこの三次元ベクトルモデルから第1の参照フレームを生成するように適合された第8のモジュールを備えており、第1の参照フレームには、少なくとも1つのセンサタイプとのリンクが存在するフィーチャポイントが少なくとも含まれている。第2の装置はさらに、第1の参照フレームを要求側エンティティへ送信するように適合された第9のモジュールを備えている。
1つの環境内でのモバイルエンティティのポジションを決定する第3の装置は、第1のタイプのセンサを用いて1つの環境をスキャンするように適合された第10のモジュールと、第1のタイプのセンサにより生成されたスキャンされた環境の表現内で、1つの物体を識別するように適合された第11のモジュールとを備えている。第3の装置はさらに、上述の物体を含む環境に対する参照フレームを受信するように適合された第12のモジュールを備えており、この参照フレームは、第1のタイプのセンサにより検出可能である環境内の物体および/またはフィーチャポイントに関する情報を含み、さらに第3の装置は、第1のタイプのセンサにより検出可能な物体および識別された物体に関わる少なくとも1つのフィーチャポイントに関する情報を、参照フレームから抽出するように適合された第13のモジュールを備えている。第3の装置はさらに、参照フレームからの物体および/またはフィーチャポイントに関する情報を用いて、環境のセンサ表現内で少なくとも1つのフィーチャポイントを識別するように適合された第14のモジュールと、環境のセンサ表現内で識別された少なくとも1つのフィーチャポイントと、参照フレームから抽出された少なくとも1つのフィーチャポイントの絶対ポジションに関する情報とを用いて、環境内でのポジションを決定するように適合された第15のモジュールと、を備えている。
第3の装置の発展形態によれば、第10のモジュールは、第1のタイプのセンサを用いることに加え、第2のタイプのセンサを用いて、環境をスキャンするように適合されており、さらに第11のモジュールは、第1のタイプのセンサによりこのセンサと物体との間の第1の距離のところで生成された環境の表現内で、物体を識別するように適合されている。第12のモジュールは、物体を含む環境に対する参照フレームを受信するように適合されており、この参照フレームには、第1のタイプのセンサと第2のタイプのセンサとにより検出可能である環境内の物体および/またはフィーチャポイントに関する情報が含まれている。第13のモジュールは、第1のタイプのセンサと第2のタイプのセンサとにより検出可能な物体および識別された物体に関わる少なくとも1つのフィーチャポイントに関する情報を、参照フレームから抽出するように適合されている。第14のモジュールは、抽出された情報を用いて、第2のタイプのセンサによりこのセンサと物体との間であって第1の距離よりも短い第2の距離のところで生成された環境の表現内で物体を識別し、かつ抽出された情報を用いて、第2のタイプのセンサにより生成された環境の表現内で1つまたは複数のフィーチャポイントを識別するように適合されている。第15のモジュールは、第2のタイプのセンサにより生成された環境の表現内で識別された少なくとも1つのフィーチャポイントと、参照フレームから抽出されたこの少なくとも1つのフィーチャポイントの絶対ポジションに関する情報とを用いて、環境内でのポジションを決定するように適合されている。
第1の装置の第1から第5のモジュール、第2の装置の第6から第9のモジュール、および/または第3または第4の装置の第10から第15のモジュールのうちの1つまたは複数を、専用ハードウェアモジュールとすることができ、これら各々は、1つまたは複数のマイクロプロセッサ、ランダムアクセスメモリ、不揮発性メモリ、ならびにモジュール間通信およびシステムの一体化部分ではないデータソースおよびデータシンクとの通信のためのインタフェースを含む。データを受信または送信するモジュールへの言及について、たとえ上述の記載で別個のモジュールとして言及されているとしても、単一の通信ハードウェアデバイスとして実装することができ、モジュールの機能または役割を実行するように通信ハードウェアを制御するために使用されるシステムまたはソフトウェアにおいてそれらが実行する役割の点でのみ、別個のものとすることができる。
第1から第15のモジュールのうちの1つまたは複数を、コンピュータ上で実行され、個々のモジュールの機能を提供するコンピュータソフトウェアプログラムとすることもできる。専用ハードウェアモジュールとコンピュータソフトウェアプログラムとの組み合わせも考えることができる。
本発明による方法および装置によれば、コンパクトなデータセットを用いて1つの環境内でのポジションまたはロケーションを決定することができ、それらの更新のために比較的少量のデータを送信および受信すればよい。このことに加え、イメージおよびデータの処理およびデータ融合の重要な部分は中央のサーバで実行され、これによってモバイル装置またはモバイルデバイスにおける処理能力に対する要求が低減される。さらに、単一の3Dベクトルグラフィックモデルを使用して、センサタイプを選択するための参照フレームをオンデマンドで生成することができ、これによれば、選択されたセンサタイプによっても検出できないフィーチャポイントが除外される。したがって、環境およびその中の物体をスキャニングするために使用されるセンサタイプに関係なく、3Dベクトルグラフィックモデルおよびそこに提供されている情報を参照することによって、スキャンされた環境内でフィーチャポイントをいっそう容易かつ迅速に見つけることができ、環境内でのポジションをいっそう簡単かつ迅速に決定することができる。
3Dベクトルモデルが予め生成されている環境内を車両が移動し、車両に提供される参照フレームが3Dベクトルモデルであり、スキャニング時に車両が3Dベクトルモデルをローカルで生成するケースでは、車両はローカルで生成された自身の3Dベクトルモデルを、参照フレームとして受信したモデルに容易にアライメントすることができる。環境参照モデルを生成および供給するサーバも、データセットにおいて受信したローカルで生成された3Dベクトルモデルを、識別されたフィーチャポイントを用いてサーバの環境参照モデルと容易にアライメントすることができる。
次に、添付の図面を参照しながら本発明について説明する。
本発明の1つまたは複数の態様による方法の例示的な簡略化されたフローチャートを示す図である。 本発明の1つまたは複数の態様によるモバイルシステムの例示的な簡略化されたブロック図を示す図である。 本発明の1つまたは複数の態様によるリモートシステムの例示的な簡略化されたブロック図を示す図である。
図中、同じ要素または類似の要素は、同じ参照符号によって表されている。
図1には、本発明の1つ態様による方法100の例示的な簡略化されたフローチャートが示されている。ステップ102において、種々のタイプの1つまたは複数のセンサを用いて環境がスキャンされる。スキャニングは連続的に、または固定インターバルまたは可変インターバルで周期的に行われる。スキャニングにより生成された環境の表現が、物体および/またはフィーチャポイントを識別するためにステップ104において分析される。選択的なステップ104は、環境および識別された物体および/またはフィーチャポイントの三次元ベクトルモデルを生成することも含むことができる。ステップ102におけるスキャニングにより生成された環境の表現および/またはステップ104において実行された分析の結果が、ステップ106においてリモートサーバまたはデータベースに送信される。ステップ102からステップ106は、環境内を移動中のモバイルエンティティによって実行される。
ステップ108において、ステップ102におけるスキャニングにより生成された環境の表現および/またはステップ104において実行された分析の結果が、リモートサーバまたはデータベースによって受信され、選択的なステップ110においてさらにそれらを分析することができる。さらなる分析を実行するのか否かを、受信したデータに依存させることができ、すなわち物体および/またはフィーチャポイントを識別するために、それらのデータが分析を必要とするのか、または受信したものがすでに三次元ベクトルモデルの形態にあるため、かかる分析を必要としないのか、に依存させることができる。ステップ112において、物体および/またはフィーチャポイントおよびそれらのロケーションを含む環境の三次元参照モデルが生成される。これには、コヒーレントでグローバルな三次元参照モデルを取得する目的で、受信した三次元ベクトルモデルまたはステップ110において生成された三次元ベクトルモデルのマッチングまたはアライメントを含めることができる。ステップ108からステップ112は、リモートサーバまたはデータベースによって実行される。
再びモバイルエンティティの説明に戻ると、モバイルエンティティはステップ114において、たとえばローカルで利用可能な環境モデル、衛星ナビゲーションまたは同様のものを用いて、移動中に環境内での自身のポジションを決定する。ステップ116において、何らかの時点でモバイルエンティティは、自身のポジションを決定する目的で、このエンティティが目下移動している環境の参照フレームを要求する。参照フレームを要求することを、周期的に、またはたとえば前回の参照フレームが要求されてから辿った距離に依存させるといったようにイベントトリガで、実施することができる。ステップ118において、リモートサーバまたはデータベースはこの要求を受信し、ステップ120において、対応するポジションについて要求された参照フレームを生成する。要求された参照フレームは、ステップ122においてモバイルエンティティに送信され、モバイルエンティティはステップ124においてその参照フレームを受信し、ステップ126においてそれを使って、ローカルで生成されたスキャンデータおよび/またはローカルで生成された三次元ベクトルモデルを、参照フレーム内に提供されているデータと比較することにより、環境内での自身のポジションを決定する。
ステップ106とステップ102との間、ステップ126とステップ114との間、およびステップ126とステップ102との間の破線の閉ループは、この方法または個々のループの反復的または連続的な実行を示唆している。モバイルエンティティにおける要求および方法の実装次第では、その他のループも考えられる。
図2には、本発明の1つまたは複数の態様によるモバイルシステム200の例示的な簡略化されたブロック図が示されている。この場合、モバイルシステムが移動中の環境をスキャンする第1のタイプのセンサを使用するスキャナ202、環境内でのポジションを決定する装置204、スキャンされた環境の表現内で物体を識別するモジュール206、物体を含む環境の3Dベクトルグラフィックモデルを受信するモジュール208、第1のタイプのセンサにより検出可能な物体および識別された物体に関わる少なくとも1つのフィーチャポイントに関する情報を、3Dベクトルグラフィックモデルから抽出するモジュール210、3Dベクトルグラフィックモデルからの物体および/またはフィーチャポイントに関する情報を用いて、環境のセンサ表現内で少なくとも1つのフィーチャポイントを識別するモジュール212、ならびに環境のセンサ表現内で識別された少なくとも1つのフィーチャポイントおよび3Dベクトルグラフィックモデルから抽出された少なくとも1つのフィーチャポイントの絶対ポジションに関する情報を用いて、環境内でのポジションを決定するモジュール214が、1つまたは複数のバスシステム216を介して通信可能に接続されている。
モジュール206、208、210、212および/または214は、1つまたは複数のマイクロプロセッサ、ランダムアクセスメモリ、不揮発性メモリ、ならびにソフトウェアおよび/またはハードフェアの通信インタフェースを含むことができる。不揮発性メモリは、ランダムアクセスメモリと共働して1つまたは複数のマイクロプロセッサにより実行されると、前述の方法の1つまたは複数の処理ステップを実施するコンピュータプログラム命令を記憶することができる。
図3には、本発明の1つまたは複数の態様によるリモートシステム300の例示的な簡略化されたブロック図が示されている。この場合、スキャンされた環境を表現する複数のデータセットの受信、参照フレームを求める要求の受信および参照フレームの送信を含む通信をモバイルエンティティと行うモジュール302、データセット各々から1つまたは複数の物体および/またはフィーチャポイントを抽出し、参照座標系内での物体および/またはフィーチャポイントのポジションを決定するモジュール304、参照座標系とアライメントされ物体および/またはフィーチャポイントが対応するロケーションのところに表現された、スキャンされた環境の三次元ベクトルモデル表現を生成するモジュール306、三次元ベクトルモデル内の物体および/またはフィーチャポイントとそれらを環境内で検出可能な少なくとも1つのセンサタイプとのリンクを生成するモジュール308、三次元ベクトルモデル表現とリンクとを取り出し可能な手法で記憶するモジュール310、および参照フレームを求める要求に従い記憶装置から三次元ベクトルモデル表現を取り出し、少なくとも1つのセンサタイプとのリンクが存在するフィーチャポイントを少なくとも含む、第1の参照フレームを、三次元ベクトルモデルから生成するモジュール312が、1つまたは複数のバスシステム314を介して通信可能に接続されている。
モジュール302、304、306、308、310および/または312は、1つまたは複数のマイクロプロセッサ、ランダムアクセスメモリ、不揮発性メモリ、ならびにソフトウェアおよび/またはハードフェアの通信インタフェースを含むことができる。不揮発性メモリは、ランダムアクセスメモリと共働して1つまたは複数のマイクロプロセッサにより実行されると、前述の方法の1つまたは複数の処理ステップを実施するコンピュータプログラム命令を記憶することができる。

Claims (10)

  1. ポジショニングのために環境参照モデルを生成する方法であって、
    スキャンされた環境を表現する複数のデータセットを受信することを含み、前記データセットは、使用されるセンサタイプに関する情報と、該データセットにより表現される物体および/またはフィーチャポイントの絶対ポジションを決定するためのデータとも含み、
    前記データセット各々から1つまたは複数の物体および/またはフィーチャポイントを抽出し、参照座標系内での前記物体および/またはフィーチャポイントのポジションを決定し、
    前記参照座標系とアライメントされ前記物体および/またはフィーチャポイントが対応するロケーションのところに表現された、スキャンされた前記環境の三次元ベクトルモデル表現を生成し、
    前記三次元ベクトルモデルにおける前記物体および/またはフィーチャポイントと、該物体および/またはフィーチャポイントを前記環境内で検出可能な少なくとも1つのセンサタイプとのリンクを生成し、
    前記三次元ベクトルモデル表現と前記リンクとを取り出し可能な手法で記憶する
    ことを含む、ポジショニングのために環境参照モデルを生成する方法。
  2. ポジショニングのために第1の環境の参照フレームを適応的に供給する方法であって、
    前記第1の環境に対する参照フレームを求める要求を要求側エンティティから受信することを含み、前記要求は、前記環境のローカルな表現を生成するために使用可能な少なくとも1つのセンサタイプを含み、
    前記第1の環境を有する三次元ベクトルモデル表現を記憶装置から取り出し、
    前記少なくとも1つのセンサタイプとのリンクが存在するフィーチャポイントを少なくとも含む、第1の参照フレームを、前記三次元ベクトルモデルから生成し、
    前記第1の参照フレームを前記要求側エンティティに送信する
    ことを含む、ポジショニングのために第1の環境の参照フレームを適応的に供給する方法。
  3. 環境内でのモバイルエンティティのポジションを決定する方法であって、
    前記環境に対する参照フレームを受信することを含み、前記参照フレームは、第1のタイプのセンサによって検出可能である前記環境内の物体および/またはフィーチャポイントに関する情報を含み、
    前記第1のタイプのセンサにより検出可能な少なくとも1つの物体および少なくとも1つのフィーチャポイントに関する情報を、前記参照フレームから抽出し、
    第1のタイプのセンサを用いて環境をスキャンし、
    前記第1のタイプのセンサによって生成されたスキャンされた前記環境の表現内において、前記参照フレーム内に含まれている少なくとも1つの物体を見つけて識別することを含み、前記少なくとも1つの物体を見つけて識別するためのサーチエリアを、前記参照フレームにより提供される、物体に関する情報に基づき指定可能であり、
    前記環境のセンサ表現内において、少なくとも1つのフィーチャポイントを見つけて識別することを含み、前記少なくとも1つのフィーチャポイントを見つけて識別するためのサーチエリアを、前記参照フレームにより提供される、フィーチャポイントに関する情報に基づき指定可能であり、
    前記環境の前記センサ表現内で識別された前記少なくとも1つのフィーチャポイントと、前記参照フレームから抽出された前記少なくとも1つのフィーチャポイントの絶対ポジションに関する情報とを用いて、前記環境内でのポジションを決定することを含
    前記参照フレームは、前記少なくとも1つの物体および少なくとも1つのフィーチャポイントを含む三次元ベクトル表現に対応し、前記少なくとも1つの物体および少なくとも1つのフィーチャポイントと前記第1のタイプのセンサとのリンクを含む、
    環境内でのモバイルエンティティのポジションを決定する方法。
  4. 前記方法はさらに、
    前記物体を含む前記環境の参照フレームを受信することを含み、前記参照フレームは、第1のタイプのセンサおよび第2のタイプのセンサにより検出可能である前記環境内の物体および/またはフィーチャポイントに関する情報を含み、
    前記第1のタイプのセンサおよび前記第2のタイプのセンサにより検出可能な前記物体および識別された前記物体に関わるフィーチャポイントに関する情報を、前記参照フレームから抽出し、
    前記第1のタイプのセンサに加え、第2のタイプのセンサを用いて前記環境をスキャンし、
    前記第1のタイプのセンサにより該センサと前記物体との間の第1の距離のところで生成された前記環境の表現内において、前記参照フレーム内に含まれている少なくとも1つの物体を見つけて識別することを含み、前記少なくとも1つの物体を見つけて識別するためのサーチエリアを、前記参照フレームにより提供される、物体に関する情報に基づき指定可能であり、
    抽出された前記情報を用いて、前記第2のタイプのセンサにより該センサと前記物体との間であって前記第1の距離よりも短い第2の距離のところで生成された前記環境の表現内において、前記物体を見つけて識別し、
    抽出された前記情報を用いて、前記第2のタイプのセンサにより生成された前記環境の表現内において、1つまたは複数のフィーチャポイントを見つけて識別し、
    前記第2のタイプのセンサにより生成された前記環境の前記表現内で識別された少なくともフィーチャポイントを用いて、前記環境内でのポジションを決定することを含み、抽出された前記情報は、前記環境における前記フィーチャポイントの絶対ポジションに関するデータを含む、
    請求項3記載の方法。
  5. 前記参照フレームは、複数の物体および/またはフィーチャポイントを含む三次元ベクトル表現に対応する、請求項2から4までのいずれか1項記載の方法。
  6. 前記参照フレームは、複数の物体および/またはフィーチャポイントを含む三次元ベクトル表現に対応し、ポジションを決定することは、ローカルで生成された三次元ベクトル表現を受信した三次元ベクトル表現とマッチングさせることを含む、請求項3または4記載の方法。
  7. ポジショニングのために環境参照モデルを生成する装置であって、
    スキャンされた環境を表現する複数のデータセットを受信するように適合された第1のモジュールであって、前記データセットは、使用されるセンサタイプに関する情報と、該データセットにより表現される物体および/またはフィーチャポイントの絶対ポジションを決定するためのデータとも含む、第1のモジュールと、
    前記データセット各々から1つまたは複数の物体および/またはフィーチャポイントを抽出し、参照座標系における前記物体および/またはフィーチャポイントのポジションを決定するように適合された第2のモジュールと、
    前記参照座標系とアライメントされ前記物体および/またはフィーチャポイントが対応するロケーションのところに表現された、スキャンされた前記環境の三次元ベクトルモデル表現を生成するように適合された第3のモジュールと、
    前記三次元ベクトルモデル内の前記物体および/またはフィーチャポイントと、該物体および/またはフィーチャポイントを前記環境内で検出可能な少なくとも1つのセンサタイプとのリンクを生成するように適合された第4のモジュールと、
    前記三次元ベクトルモデル表現と前記リンクとを取り出し可能な手法で記憶するように適合された第5のモジュールと、
    を備える、ポジショニングのために環境参照モデルを生成する装置。
  8. ポジショニングのために第1の環境の参照フレームをモバイルエンティティに適応的に供給する装置であって、
    前記第1の環境に対する参照フレームを求める前記モバイルエンティティからの要求を受信するように適合された第6のモジュールであって、前記要求は、前記環境のローカルな表現を生成するために使用可能な少なくとも1つのセンサタイプを含む、第6のモジュールと、
    前記第1の環境を含む三次元ベクトルモデル表現を記憶装置から取り出すように適合された第7のモジュールと、
    前記少なくとも1つのセンサタイプとのリンクが存在するフィーチャポイントを少なくとも含む、第1の参照フレームを、前記三次元ベクトルモデルから生成するように適合された第8のモジュールと、
    前記第1の参照フレームを前記モバイルエンティティに送信するように適合された第9のモジュールと、
    を備える、ポジショニングのために第1の環境の参照フレームをモバイルエンティティに適応的に供給する装置。
  9. 環境内でのモバイルエンティティのポジションを決定する装置であって、
    第1のタイプのセンサを用いて環境をスキャンするように適合された第10のモジュールと、
    前記第1のタイプのセンサによって生成されたスキャンされた前記環境の表現内において、物体を識別するように適合された第11のモジュールと、
    前記物体を含む前記環境に対する参照フレームを受信するように適合された第12のモジュールであって、前記参照フレームは、前記第1のタイプのセンサによって検出可能である前記環境内の物体および/またはフィーチャポイントに関する情報を含む、第12のモジュールと、
    前記第1のタイプのセンサにより検出可能な前記物体および識別された前記物体に関わる少なくとも1つのフィーチャポイントに関する情報を、前記参照フレームから抽出するように適合された第13のモジュールと、
    前記参照フレームからの物体および/またはフィーチャポイントに関する前記情報を用いて、前記環境のセンサ表現内において少なくとも1つのフィーチャポイントを識別するように適合された第14のモジュールと、
    前記環境の前記センサ表現内で識別された前記少なくとも1つのフィーチャポイントと、前記参照フレームから抽出された前記少なくとも1つのフィーチャポイントの絶対ポジションに関する情報とを用いて、前記環境内でのポジションを決定するように適合された第15のモジュールと、
    を備え、
    前記参照フレームは、前記環境内の物体および/またはフィーチャポイントを含む三次元ベクトル表現に対応し、前記環境内の物体および/またはフィーチャポイントと前記第1のタイプのセンサとのリンクを含む、
    環境内でのモバイルエンティティのポジションを決定する装置。
  10. 前記第10のモジュールは、前記第1のタイプのセンサを用いることに加え、第2のタイプのセンサを用いて前記環境をスキャンするように適合されており、
    前記第11のモジュールは、前記第1のタイプのセンサにより該センサと前記物体との間の第1の距離のところで生成された前記環境の表現内において物体を識別するように適合されており、
    前記第12のモジュールは、前記物体を含む前記環境に対する参照フレームを受信するように適合されており、該参照フレームは、前記第1のタイプのセンサおよび前記第2のタイプのセンサにより検出可能である前記環境内の物体および/またはフィーチャポイントに関する情報を含み、
    前記第13のモジュールは、前記第1のタイプのセンサと前記第2のタイプのセンサとにより検出可能な前記物体および識別された前記物体に関わる少なくとも1つのフィーチャポイントに関する情報を、前記参照フレームから抽出するように適合されており、
    前記第14のモジュールは、抽出された前記情報を用いて、前記第2のタイプのセンサにより該センサと前記物体との間であって前記第1の距離よりも短い第2の距離のところで生成された前記環境の表現内において前記物体を識別するように、かつ抽出された前記情報を用いて、前記第2のタイプのセンサにより生成された前記環境の前記表現内において1つまたは複数のフィーチャポイントを識別するように適合されており、
    前記第15のモジュールは、前記第2のタイプのセンサにより生成された前記環境の前記表現内で識別された前記少なくとも1つのフィーチャポイントと、前記参照フレームから抽出された前記少なくとも1つのフィーチャポイントの絶対ポジションに関する情報とを用いて、前記環境内でのポジションを決定するように適合されている、
    請求項9記載の装置。
JP2019528676A 2016-11-29 2016-11-29 方法および装置 Active JP6856750B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/107748 WO2018098635A1 (en) 2016-11-29 2016-11-29 Method and system for generating environment model and for positioning using cross-sensor feature point referencing

Publications (2)

Publication Number Publication Date
JP2019537018A JP2019537018A (ja) 2019-12-19
JP6856750B2 true JP6856750B2 (ja) 2021-04-14

Family

ID=62241057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019528676A Active JP6856750B2 (ja) 2016-11-29 2016-11-29 方法および装置

Country Status (6)

Country Link
US (2) US11513211B2 (ja)
EP (1) EP3548915A4 (ja)
JP (1) JP6856750B2 (ja)
CN (2) CN109997052B (ja)
CA (1) CA3040599C (ja)
WO (1) WO2018098635A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11373067B2 (en) * 2018-08-10 2022-06-28 Nec Corporation Parametric top-view representation of scenes
CN110336975A (zh) * 2019-07-12 2019-10-15 浙江华创视讯科技有限公司 视频流的切换方法及视频流的播放终端
CN112698315B (zh) * 2019-10-23 2024-04-09 浙江菜鸟供应链管理有限公司 移动设备定位系统、方法及设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4940800B2 (ja) 2006-07-12 2012-05-30 オムロン株式会社 変位センサ
CA2712673A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
US8503730B2 (en) 2008-09-19 2013-08-06 Honeywell International Inc. System and method of extracting plane features
JP5057183B2 (ja) * 2010-03-31 2012-10-24 アイシン・エィ・ダブリュ株式会社 風景マッチング用参照データ生成システム及び位置測位システム
JP5782708B2 (ja) 2010-12-03 2015-09-24 日産自動車株式会社 走行支援装置
US8655588B2 (en) * 2011-05-26 2014-02-18 Crown Equipment Limited Method and apparatus for providing accurate localization for an industrial vehicle
KR101776703B1 (ko) * 2011-10-14 2017-09-08 한화테크윈 주식회사 레이다 센서 및 이를 이용한 물체 검출 방법
JP2013118514A (ja) 2011-12-02 2013-06-13 Canon Inc 撮像装置及び撮像装置の制御方法
GB201202344D0 (en) * 2012-02-10 2012-03-28 Isis Innovation Method of locating a sensor and related apparatus
US8855442B2 (en) * 2012-04-30 2014-10-07 Yuri Owechko Image registration of multimodal data using 3D-GeoArcs
US9098753B1 (en) 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using multiple sensors
US9519061B2 (en) * 2014-12-26 2016-12-13 Here Global B.V. Geometric fingerprinting for localization of a device

Also Published As

Publication number Publication date
JP2019537018A (ja) 2019-12-19
CN109997052B (zh) 2023-03-24
WO2018098635A1 (en) 2018-06-07
CN109997052A (zh) 2019-07-09
EP3548915A4 (en) 2020-08-05
US20230138487A1 (en) 2023-05-04
US11513211B2 (en) 2022-11-29
CA3040599C (en) 2022-09-06
EP3548915A1 (en) 2019-10-09
CN116147613A (zh) 2023-05-23
CA3040599A1 (en) 2018-06-07
US20210088648A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
US20210142530A1 (en) Augmented reality vision system for tracking and geolocating objects of interest
US10437252B1 (en) High-precision multi-layer visual and semantic map for autonomous driving
KR102425272B1 (ko) 디지털 지도에 대한 위치를 판별하기 위한 방법 및 시스템
JP7082545B2 (ja) 情報処理方法、情報処理装置およびプログラム
EP3056861B1 (en) Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
TW202001924A (zh) 基於雙目影像更新高解析度地圖的系統和方法
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
WO2018125939A1 (en) Visual odometry and pairwise alignment for high definition map creation
US10579067B2 (en) Method and system for vehicle localization
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
WO2014201324A1 (en) Vision augmented navigation
JP6950832B2 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
US11430199B2 (en) Feature recognition assisted super-resolution method
US10872246B2 (en) Vehicle lane detection system
US20200005068A1 (en) System and method for improving the representation of line features
KR100809524B1 (ko) 유비쿼터스 네트워크 기반의 네비게이션 장치와 서버를 이용한 교통정보 제공 시스템 및 방법
JP7051416B2 (ja) 自己位置推定装置
CN112556701A (zh) 用于定位交通工具的方法、装置、设备和存储介质
CN113447032A (zh) 定位方法、装置、电子设备及存储介质
JP2022140891A (ja) 端末装置、情報処理システム、情報処理方法、および、コンピュータプログラム
JP2019109332A (ja) 地図データ構造
JP2019109331A (ja) 地図データ構造

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210318

R150 Certificate of patent or registration of utility model

Ref document number: 6856750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250