JP2015148601A - マッピング、位置特定、及び姿勢補正のためのシステム及び方法 - Google Patents

マッピング、位置特定、及び姿勢補正のためのシステム及び方法 Download PDF

Info

Publication number
JP2015148601A
JP2015148601A JP2015000217A JP2015000217A JP2015148601A JP 2015148601 A JP2015148601 A JP 2015148601A JP 2015000217 A JP2015000217 A JP 2015000217A JP 2015000217 A JP2015000217 A JP 2015000217A JP 2015148601 A JP2015148601 A JP 2015148601A
Authority
JP
Japan
Prior art keywords
landmarks
transform
landmark
estimate
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015000217A
Other languages
English (en)
Other versions
JP6595182B2 (ja
Inventor
ジェイコブ・メナシェ
Menashe Jacob
アニケット・ムラルカ
Murarka Aniket
アナンス・ランガナタン
Ranganathan Ananth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2015148601A publication Critical patent/JP2015148601A/ja
Application granted granted Critical
Publication of JP6595182B2 publication Critical patent/JP6595182B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)

Abstract

【課題】マッピング、位置特定及び姿勢補正のためのシステムを提供する。【解決手段】移動経路に沿った車両の現在位置及び現在位置に対する移動経路に沿った現在観測可能な目印のセットを決定する工程であって、現在観測可能な目印のセットが、撮像デバイスから得られる1つ以上の立体画像から抽出される、工程と、調査目印データベース126に問い合わせて、車両の現在位置に対する調査済み目印のサブセットを特定する工程とを含む。現在観測可能な目印のセットと調査済み目印のサブセットとの間の1つ以上の二次元変換推定を決定する工程と、1つ以上の二次元変換推定から現在観測可能な目印のセットと調査済み目印のサブセットとの間の距離を最小化する最良の変換推定を特定する工程とを含む。最良の変換推定に基づいて車両の姿勢を補正する工程を含む。【選択図】図1

Description

(関連出願の相互参照)
本出願は、2014年2月8日に出願された米国仮出願第61/937533号に対する優先権を主張し、それは参照することにより本明細書に明示的に組み込まれる。
世界中で位置を定めようとする知的エージェント(例えば、車両、ロボット)にとって重要な能力は、その位置を認識することである。一般的に、エージェントは、ローカルセンサー情報及び世界の何らかのモデルのみを与えられて、その位置を決定する。典型的に、その独自のローカルセンサー情報は、その位置についての何らかの測定値を提供するが、この測定値は、しばしば不正確である。カメラを装着した知的車両は、空間中の所定出発点に対して、自分の位置を視覚的走行距離計測を用いて把握することができる。しかしながら、視覚的走行距離計測は、逸脱しがちな姿勢を提供し得る。信頼性の高い視覚的走行距離計測は、車両のより確かな位置推定を可能にする。
一態様によると、マッピング、位置特定、及び姿勢補正のためのコンピュータ実装方法は、移動経路に沿った車両の現在位置及び現在位置に対する移動経路に沿った現在観測可能な目印のセットを決定することを含む。現在観測可能な目印のセットは、撮像デバイスから得られる1つ以上の立体画像から抽出される。本方法は、調査目印データベースに問い合わせて、車両の現在位置に対する調査済み目印のサブセットを特定し、この調査目印データベースが以前に記憶された調査済み目印のセットを含むことと、現在観測可能な目印のセットと調査済みの目印のサブセットとの間における1つ以上の二次元変換推定を決定することとを含む。本方法は、現在観測可能な目印のセットと調査済みの目印のサブセットとの間の距離を最小化する1つ以上の二次元変換推定からの最良の変換推定を特定することと、最良の変換推定に基づいて車両の姿勢を補正することとを含む。
別の態様によると、マッピング、位置特定、及び姿勢補正のためのシステムは、プロセッサと、プロセッサが移動経路に沿った車両の現在位置及び現在位置に対する移動経路に沿った現在観測可能な目印のセットを決定することをもたらす、視覚的走行距離計測モジュールとを含む。現在観測可能な目印のセットは、プロセッサに通信可能に結合される撮像デバイスから得られる、1つ以上の立体画像から抽出される。位置特定モジュールは、プロセッサがプロセッサに通信可能に結合される調査目印データベースに問い合わせて、車両の現在位置に対する調査済み目印のサブセットを取得することをもたらし、この調査目印データベースは、以前に記憶された調査済み目印のセットを含む。姿勢補正モジュールは、プロセッサが現在観測可能な目印のセットと調査済みの目印のサブセットとの間の1つ以上の二次元変換推定サブセットを決定し、1つ以上の二次元変換推定から現在観測可能な目印のセットと調査済みの目印のサブセットとの間の距離を最小化する最良の変換推定を特定し、最良の変換推定に基づいて車両の姿勢を補正することをもたらす。
更なる態様によると、プロセッサにより実行されるとき、マッピング、位置特定、及び姿勢補正のための方法を実行する命令を含み、移動経路に沿った車両の現在位置及び現在位置に対する移動経路に沿った現在観測可能な目印のセットの決定を含む、非一過性コンピュータ可読媒体。現在観測可能な目印のセットは、撮像デバイスから得られる1つ以上の立体画像から抽出される。現在位置を特定する問合せに基づいて調査目印データベースからの調査済み目印のサブセットを受信することを含み、この問合せが調査目印データベースにおいて実行され、この調査目印データベースが以前に記憶された調査済み目印のセットを含み、現在観測可能な目印のセットと調査済み目印のサブセットとの間の1つ以上の二次元変換推定を決定することを含む、方法。現在観測可能な目印のセットと調査済みの目印のサブセットとの間の距離を最小化する1つ以上の二次元変換推定からの最良の変換推定の特定、及び最良の変換推定に基づく車両の姿勢補正を含む、方法。
この開示に特有であると考えられる新規性のある特徴は、添付の請求の範囲に記載されている。以下の記載において、類似の部分には、明細書及び図面の全体にわたって同じ符号がそれぞれ付けられる。図面は、必ずしも一定の比率で描かれているわけではなく、ある特定の図面は、明瞭さ及び簡潔さのために誇張されあるいは一般化された形態で示され得る。しかしながら、開示それ自体並びに好ましい使用の様式、その更なる目的及び利点は、添付の図面と併せて読むときに、添付の例示的実施形態の詳述を参照することにより最も良く理解されることになる。
一態様による、マッピング、位置特定、及び姿勢補正の例示的システムの概略図である。 一態様による、サービスによって提供される調査様式の例示的データフローの概略図である。 一態様による、位置特定様式の例示的データフローの概略図である。 一態様による、図3から継続する位置特定様式の例示的データフローの概略図である。 一態様による、例示的目的、等級、機能、及びファイルのUML図である。 一態様による、マッピング、位置特定、及び姿勢補正の例示的方法の工程系統図である。 一態様による、図6の方法の1つ以上の二次元変換を決定する例示的方法の工程系統図である。 一態様による、第1の深さレベルでの最良推定のための1つの分枝因子を用いた例示的グリッド検索の概略図である。 一態様による、図8Aの第1の深さレベルの後の第2の深さレベルでの最良推定のための1つの分枝因子を用いた例示的グリッド検索の概略図である。 一態様による、図8Bの第2の深さレベルの後の第3の深さレベルでの最良推定のための1つの分枝因子を用いた例示的グリッド検索の概略図である。 一態様による、第1の深さレベルでの2つ以上の最良推定のための2つの分枝因子を用いた例示的グリッド検索の概略図である。 一態様による、図8Dの第1の深さレベルの後の第2の深さレベルでの2つ以上の最良推定のための2つの分枝因子を用いた例示的グリッド検索の概略図である。 一態様による、図8Eの第2の深さレベルの後の第3の深さレベルでの2つ以上の最良推定のための2つの分枝因子を用いた例示的グリッド検索の概略図である。 一態様による、例示的分類リストの概略図である。 一態様による、例示的クラスタのセットの概略図である。 一態様による、姿勢補正適用前の地図の概略図である。 実際の道路に沿って目撃される目印を示す、10Aの地図の簡易図である。 車両の視覚的走行距離計測システムによって決定される、移動道路に沿って目撃される目印を示す10Aの地図の簡易図である。 車両の視覚的走行距離計測システムによって決定される移動道路に沿って目撃される目印の問合せの結果を示す図10Aの地図の図である。 1つ以上の2D変換を示す図10Aの地図の簡易図である。 10Aが最良の変換推定を示す場合の地図の簡易図である。 図10Aが目印を用いた最良の変換推定を示す場合の地図の簡易図である。 最良の変換推定が車両の現在位置に適用される図10Aの地図の図である。
以下は、本願明細書において使用される選択された用語の定義を含む。この定義は、用語の範囲内に該当し、実装に使用され得る、構成要素の様々な実施例及び/又は形態を含む。この実施例は、制限的なものであることを意図していない。更に当業者は本明細書における構成要素が、組み合わせ、省略、又は他の構成要素と組織化若しくは他のアーキテクチャに組織化され得るということを理解するであろう。
「バス」は、本明細書で使用される場合、他のコンピュータ内部又はコンピュータ間の他のコンピュータ構成要素に動作可能に接続される相互接続アーキテクチャを指す。バスは、コンピュータ構成要素の間でデータを伝達し得る。結果的に、バスは他のバスを用いて多様なデバイス、モジュール、論理回路、及び周辺機器と通信することができる。バスは、単一内部バス相互結合アーキテクチャ及び/又は他のバス若しくはメッシュアーキテクチャ(例えば、外部)であり得る。バスは、とりわけ、メモリコントローラ、周辺バス、外部バス、クロスバースイッチ、及び/又はローカルバスであり得る幾つかの実施形態において、バスは、とりわけコントローラエリアネットワーク(CAN)、ローカル相互接続ネットワーク(LIN)のようなプロトコルを用いて、車両内部の構成要素に相互接続する車両バスであり得る。
「コンピュータ通信」は、本明細書で使用される場合、2つ以上のコンピューティングデバイス(例えば、コンピュータ、ポータブルデバイス、個人用デジタル補助装置、セルラ電話、ネットワーク装置)間における通信を指し、例えば、ネットワーク転送、ファイル転送、アプレット転送、電子メール、ハイパーテキスト転送プロトコル(HTTP)転送等であり得る。コンピュータ通信は、例えば、とりわけ、無線システム(例えば、IEEE 802.11)、イーサネット(登録商標)システム(例えば、IEEE 802.3)、トークンリングシステム(例えば、IEEE 802.5)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、ポイントツーポイントシステム、回路交換方式、パケット交換方式にわたって生じ得る。
本明細書で用いられる「ディスク」は、例えば、磁気ディスクドライブ、ソリッドステートディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、Zipドライブ、フラッシュメモリカード、及び/又はメモリスティックであり得る。更に、ディスクは、CD−ROM(コンパクトディスクROM)、CDレコーダブルドライブ(CD−Rドライブ)、CDリライタブルドライブ(CD−RWドライブ)、及び/又はデジタルビデオROMドライブ(DVD ROM)であり得る。このディスクは、コンピューティングデバイスのリソースを制御するあるいは割り当てるオペレーティングシステムを記憶し得る。
「データベース」は、本明細書で使用される場合、表、表のセット、データ記憶のセット(例えば、ディスク)、並びに/又はそれらのデータ記憶にアクセスする及び/若しくはデータ記憶を操作する方法を指してもよい。
「メモリ」は、本明細書で使用される場合、揮発性メモリ装置及び/又は不揮発性メモリを含んでもよい。不揮発性メモリは、例えば、ROM(読み取り専用メモリ)、PROM(プログラマブル読み取り専用メモリ)、EPROM(消去可能PROM)、及びEEPROM(電気的消去可能PROM)を含んでもよい。揮発性メモリは、例えば、RAM(ランダムアクセスメモリ)、シンクロナスRAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、ダイレクトRAMバスRAM(DRRAM(登録商標))を含んでもよい。メモリは、コンピューティングデバイスのリソースを制御又は割り当てるオペレーティングシステムを記憶し得る。
「モジュール」は、本明細書で使用される場合、機能(複数可)若しくはアクション(複数可)を実行するため、並びに/又は別のモジュール、方法、及び/若しくはシステムから機能又はアクションをもたらすための、命令、機械の実行における命令、機械の実行におけるハードウェア、ファームウェア、ソフトウェア、及び/又はそれぞれの組み合わせを記憶する、非一過性コンピュータ可読メディアを含むが、これらに限定されない。モジュールはまた、論理回路、ソフトウェア制御マイクロプロセッサ、分離論理回路、アナログ電子回路、デジタル回路、プログラム論理デバイス、実行命令を含むメモリ装置、論理ゲート、ゲートの組み合わせ、及び/又は他の回路構成要素を含んでもよい。複数のモジュールが1つのモジュールへと組み合わせられてもよく、単一のモジュールが複数のモジュールの間で分配されてもよい。
「動作可能な接続」、又は実体が「動作可能に接続された」接続は、信号、物理的通信、及び/又は論理的通信が送信及び/又は受信され得るものである。動作可能な接続は、物理的インターフェイス、データインターフェイス、及び/又は電気的インターフェイスを含んでもよい。
「プロセッサ」は、本明細書で用いられる場合、信号を処理し、一般的な算定及び算術機能を果たす。プロセッサによって処理される信号は、受信、伝送、及び/又は検出され得るデジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は他の手段を含んでもよい。一般に、プロセッサは、複数、単一、及びマルチコアのプロセッサ及びコプロセッサ、並びに他の複数、単一及びマルチコアのプロセッサ及びコプロセッサのアーキテクチャを含む様々なプロセッサであり得る。プロセッサは様々な機能を実行するための様々なモジュールを含み得る。
「車両」は、本明細書で使用される場合、1人以上の人間の乗員を運ぶことが可能で、任意のエネルギー形態によって動力が提供される、あらゆる移動車両を意味する。用語「車両」は、車、トラック、バン、ミニバン、SUV、モータサイクル、スクータ、ボート、個人用船舶、及び航空機を含むが、これらに限定されない。幾つかの場合においては、自動車は1つ以上のエンジンを含む。更に、用語「車両」は1人以上のヒトの乗員を運ぶことが可能であり、完全に又は部分的に電気バッテリによって給電される1つ以上の電気モーターによって給電される電気車両(EV)を指す。EVは、バッテリ電気自動車(BEV)及びプラグインハイブリッド電気自動車(PHEV)を含んでもよい。加えて、用語「車両」は、自律自動車及び/又は任意のエネルギー形態によって給電される自動運転自動車を指すこともできる。自律自動車は、一人以上の人間の乗員を運ぶことも、運ばないこともある。
「車両システム」は、本明細書で使用される場合、車両、運転、及び/又は安全を改良するために使用することができるあらゆる自動又は手動システムを含んでもよいが、これらに限られない。代表的な車両システムは、とりわけ、電気安定性制御システム、アンチロックブレーキシステム、ブレーキ補助システム、自動ブレーキプレフィルシステム、低速追従システム、クルーズ制御システム、衝突警報システム、衝突軽減ブレーキシステム、自動クルーズ制御システム、車線逸脱警報システム、ブラインドスポットインジケータシステム、車線維持支援システム、ナビゲーションシステム、送電システム、ブレーキペダルシステム、電子パワーステアリングシステム、視覚装置(例えば、カメラシステム、近接センサシステム)、気象制御システム、電気プリテンションシステムを含むが、これらに限られない。
I.システムの概観
一般的に、本明細書において開示されるシステム及び方法は、経路を移動するエージェント(例えば、車両、自律自動車、ロボット、ポータブルデバイスを有するユーザー)の姿勢補正のための立体ベースのマッピング及び位置特定方法を提供する。高密度ステレオ奥行データで構築されるエージェントの環境の小型軽量3Dローカルマップ、目印の2つのセット、及び精密化された変換推定を活用することにより、エージェントの経路の姿勢補正は、正確かつ迅速である。2つの操作モード、すなわち、調査モードと位置特定モードを含むものとして本明細書に記載される、方法及びシステム。しかしながら、2つのモードの機能及び構成要素は異なるアーキテクチャへと再組織化され得、及び/又は他のアーキテクチャ、モード、および実施形態において実装され得る。
次に図面を参照すると、提示は1つ以上の例示的実施形態の説明を目的とし、同様の物を制限することを目的とはしないが、図1は、一態様による、マッピング、位置特定、及び姿勢補正の例示的システム100の概略図を示す。システム100の構成要素は、他のシステムの構成要素、ハードウェアアーキテクチャ、及び本明細書におけるソフトウェアアーキテクチャと同様、組み合わせ、削除、又は様々な実施形態のための異なるアーキテクチャへと組織化され得る。更に、システム100及び/又はシステム100の1つ以上の構成要素は、幾つかの実施形態において、車両(非表示)、1つ以上の車両システム(非表示)、又はポータブルデバイス(非表示)と共に実装され得る。その上、システム100及び/又はシステム100の1つ以上の構成要素は、幾つかの実施形態において、本明細書でより詳細に考察されるように、調査モード又は位置特定モードを実行するために使用されることができる。
図1の図示される実施形態において、システム100は、システム100の様々な構成要素との処理、通信、及び相互作用を備えるコンピューティングデバイス102を含む。一般的に、コンピュータ102は、プロセッサ104、メモリ106、ディスク108、位置決定ユニット110、及び通信インターフェイス112を含み、それぞれはバス114によって、コンピュータ通信のために動作可能に接続される。コンピュータ102は、とりわけ、車両(非表示)、例えばECU、車両ヘッドユニット、及び撮像システムと統合又は結合されることができる。通信インターフェイス112は、コンピューティングデバイス102の構成要素と、他の構成要素、ネットワーク、及び本明細書で記載されるデータ源との間のデータ入力及び出力を容易にするように、ソフトウェア及びハードウェアを提供する。更に、本明細書におけるシステム及び方法と共により詳細に取り挙げられるように、プロセッサ104は、視覚的走行距離計測モジュール116、位置特定モジュール118及び補正モジュール120を含む。
コンピューティングデバイス102は、コンピュータ通信のために、撮像デバイス122、ネットワーク124、及び調査目印データベース126(DB)に動作可能に接続される。撮像デバイス122、ネットワーク124及び調査目印DB 126への接続は、例えば、とりわけ、通信インターフェイス112からのネットワーク接続(例えば、有線又は無線)、コンピューティングデバイス102に接続されたポータブルデバイス(非表示)からのセルラデータネットワーク、車両から車両へのアドホックネットワーク(非表示)、車載ネットワークを通して、様々な方法で容易にすることができる。
撮像デバイス122は、1つ以上のカメラ又は他の撮像デバイス及び他のセンシングデバイスを含んでもよい。例えば、撮像デバイス122は、とりわけ、1つ以上のステレオカメラ、三次元カメラ、リモートセンシングデバイス(例えば、LIDAR、レーザー、センサー)であることができる。一実施形態において、撮像デバイス122は、画像風景(例えば、移動経路、車道、車両の周辺環境の風景)の立体画像(例えば、左の画像、右の画像)を得る。ネットワーク124は、例えば、データネットワーク、インターネット、ワイドエリアネットワーク又はローカルエリアネットワークである。ネットワーク124は、様々なリモートデバイス(例えば、ウェブサーバー、リモートサーバー、アプリケーションサーバー、仲介サーバー、クライアントマシン、他のポータブルデバイス)への通信媒体としての役割を果たす。
図1において、ネットワーク124は調査目印DB 126を含む。調査目印DB 126は、目印の整合及び位置特定のために構築され、本明細書においてより詳細に記述される。調査目印DB 126は、以前に記憶された128調査目印のセット(例えば、L...L)を含んでもよい。更に、調査目印DB 126は、記述ファイル130及びキーファイル132を含んでもよい。キーファイルは、各目印(例えば、L...L)の重心位置を含む。記述ファイル130は、各目印に関する追加的記憶情報を含む。記述ファイル130及びキーファイル132は、図5を参照し、本明細書においてより詳細に記載される。
一般的に、調査目印DB 126は、位置決定ユニット、例えば、図1の位置決定ユニット110を活用して構築される。位置決定ユニット110は、幾つかの実施形態において、例えば全地球測位システム(GPS)136及び/又は慣性計測装置(IMU)138を有する、高質位置決定ユニット140を含んでもよい。高質位置決定ユニット140は、車両の全地球姿勢を決定するための高質で高価なデバイスであることができる。幾つかの実施形態において、高質位置決定ユニット140は10〜15cmの位置精度を有する。高質位置決定ユニット140は、車両の全地球姿勢を得るための調査モードの間に活用される。
別の実施形態において、位置決定ユニット110は、例えば、全地球測位システム(GPS)136、又は二次元(2D)車両の姿勢を決定する別のタイプのセンサー又は技術を有する、低質位置決定ユニット142を含んでもよい。低質位置決定ユニット142は車両の全地球姿勢を決定するためのより安いデバイスであることができる。幾つかの実施形態において、低質位置決定ユニット142は、標準車両ナビゲーションシステム及び/又はポータブルデバイス内のGPSデバイスである。幾つかの実施形態において、低質位置決定ユニット142は、10〜15mの位置精度を有する。低質位置決定ユニット142は、二次元の相対的車両姿勢を得るための位置特定モードの間活用される。
上記のように、位置決定ユニット110は、別のデバイス、例えば車両におけるポータブルデバイス(非表示)と結合することができる。更に、位置及び全地球姿勢の情報は、他のデバイス、例えば、視覚走行距離測定システム(例えば、視覚走行距離測定モジュール116)から、又は、ネットワーク、例えばネットワーク124を通して得ることができる。位置決定ユニット110から得られた位置は、調査モード又は位置特定モードの間に用いられ、本明細書でより詳細に記述される。
II.調査モード
調査モードの間、目印は車両の現在の移動経路に沿って抽出され、調査目印DB 126に保存される。調査モードは、プロバイダ(例えば、第三者)からの提供として又は消費者側(例えば、位置特定されるエージェント)に実装されることができる。調査目印DB 126は、位置特定の間に用いられる。調査モードは、図1の調査目印データベース(DB)126を構築するために第三者のサービスによって用いられた調査モードはこれから記述される。簡潔に言えば、調査モード過程の間、ローカル3次元(3D)地図は、複数のフレームにわたる高密度なステレオ視差画像を組み合わせることによる車両の周辺環境から構築される。対象物(例えば、目印)は地面表面の特定及び除去によりローカル3D地図から抽出される。これらの対象物及びこれらの対象物に関する情報は、その後、位置特定における更なる使用のためにディスク(例えば、図1の調査目印DB 126)に保存される。
図2は、1つの態様に従い、サービスによって提供される調査モードの例示的データフローの概略図である。この実施形態において、調査目印DBは、プロバイダ(例えば、第三者)からのサービスとして構築される。従って、位置特定の間、コンピューティングデバイスはプロバイダからの調査目印DBからのデータにアクセスすることができる。この実施形態において、調査目印DBは、ネットワーク、インターネット、クラウドによって提供されることができ、プロバイダによって維持されることができる。例えば、図1を参照すると、コンピューティングデバイス102はネットワーク124を通して調査目印DB 126にアクセスすることができ、調査目印DB 126は第三者のプロバイダによって維持されることができる。図1の構成要素は、図2に図示するデータフローブロックを容易にする及び実行するために用いられることができる。
再度図2を参照すると、立体画像202(例えば、図1の撮像デバイス122から得られたもの)及び車両の全地球姿勢204(例えば位置決定ユニット110によって決定されたもの)はローカル三次元(3D)地図206を生成するための入力として用いられる。一実施形態において、調査モードの間、車両の全地球姿勢204は、高質位置決定ユニット140(例えば、GPS 136、IMU 138)によって決定される。一実施形態において、立体画像202はセンサーデータ、例えば撮像デバイス122からの、例えばカメラ追跡データ、カメラ軌道データを含んでもよい。ローカル3D地図206は、車両の外部環境の眺望を提供し、車両の中心に置かれる(すなわち車両と共に移動する)。
一実施形態において、ローカル3D地図206は、容積測定及びキーフレームに基づくアプローチを用いて構築される。この実施形態において、立体画像202の容積測定表示が生成される。現在のフレームは、フレームと以前のキーフレームとの間における十分なカメラの動きがある場合、キーフレームと指定される。キーフレーム間の相対的姿勢は推定される。一実施形態において、相対的姿勢は、立体画像(例えば、左及び右の画像)におけるハリスコーナー特徴を追跡するためのKLTトラッカーを用いて推定される。特徴は正規化SSD(自乗誤差)を用いて左及び右の画像間で整合され、特徴の3D位置はそれらの不等に基づいて算出される。RANSACに組み込まれる3点アルゴリズムは、異常値を除去し、運動仮説に整合する特徴の一致を発見する。インライアは非インライア最適化を用いて処理され、カメラフレームの高精度の姿勢推定を発見し、新しいインライアのセットを発見する。最後のキーフレームは局所的バンドル調整(LBA)モジュール(非表示)を通過し、キーフレームの相対的姿勢推定を改善し、現在のキーフレーム位置の周囲の局所的メートル法地図を確かなものにする。
キーフレーム及びそれらの姿勢は車両の周辺環境のローカル3D地図206を構築するために用いられる。具体的には、ローカル3D地図206を生成するために、それぞれのキーフレームに対して、最初の立体画像202とソーベルフィルター画像の加重複合上のSADブロックマッチングと共にセミグローバル整合アルゴリズムを用いて、変異型高密度ステレオ視差/奥行画像が算出される。更に、スキャンライン最適化は、例えば、算出時間を節約するために8又は16とは対照的に2方向のみで行われる。
車両の中心に置かれるローカル3Dマップ206は、単一の対等なフレームに奥行画像を記録するためにキーフレームの姿勢を使用する複数のキーフレームにわたる高密度奥行画像を組み合わせることによって、生成される及び/又は更新される。具体的に、一実施形態において、3D占有グリッドがローカル3D地図を構築するために用いられ、画像における犠牲不同値を除去する。複数の奥行画像の組み合わせ及び3D占有グリッドの使用は、高精度の方法でローカル3D地図206を生成する、異常値及びそれにより欠落した奥行に対処する速くて効果的な方法を提供する。ローカル3D地図206は目印分割及びトラッキング208のために活用され、以下で詳細に記載される。
A.目印分割
3Dローカル地図206は目印分割210のために処理され、車両の環境における、地面表面、例えば車道及び歩道、及び抽出対象物(例えば、目印)例えば木及び交通標識を除去する。対象物はフィルターがかけられ、結果として現在観測可能な目印212のセットになる。結果として現在観測可能な目印212のセットは目印トラッキング214のために活用され、時間を通じて目印を追跡する。
目印分割210は様々な方法で実行することができる。一実施形態において、地面表面は、土地及び対象物の高さに基づく群を作る領域拡張アルゴリズムを用いて抽出される。この実施形態において、領域拡張アルゴリズムは3D占有グリッドにおける垂直なボクセル列上で作用し、垂直なボクセル列を地面として又は対象物として分類する。領域拡張アルゴリズムは、地面上にあると思われる車両の現在位置(例えば、車両の全地球姿勢204)を使用し、車両によって占有される全ボクセル列を地面として分類する。分類された列は、将来の検証のために、ボクセル列のリストに加えられる。車両によって占有されたそれぞれのボクセル列の高さも又算出される。高さは、車両の下で占有された最も高いボクセルの離散化された高さ、又はそれが不明な場合は、高さは、車両及びカメラ調整情報の既知の寸法を用いた地面の推定される離散化された高さである。
領域拡張アルゴリズムは車両列に隣接するボクセル列を検証し、それらの高さを算出する。具体的には、ボクセル列リストが飛び出し、飛び出した列に隣接する列が検証される。ボクセル列の高さは、その位置の地面の高さ、又は、その場所が対象物によって占有されている場合は、その対象物の高さである。車両の屋根よりも高い張り出しである、張り出している対象物の場合は、地面の高さをボクセル列の高さとして使用する。データを有さない列は、隣接する列の高さを用いてそれらの高さを補填する。
隣接するボクセル列の高さが飛び出した列の閾値内である場合、隣接するボクセル列は地面として分類される。高さが大きく異なる場合はボクセル列は未分類のままとなる。地面として分類されたボクセル列は列リストに加えられ、ボクセル列の隣接部も又検証される。このように進めると、領域拡張アルゴリズムが3D占有グリッドを通過し、高さの差異に基づいて、ボクセル列の高さ及びボクセル列の分類を算出する。
領域拡張アルゴリズム過程の終了後、全ての分類されたボクセル列は対象物として分類される。例えば、対象物に属するボクセルのリストを生成するために接続された構成要素のアルゴリズムを用いて、対象物に属するすべてのボクセルが抽出される。接続された構成要素のアルゴリズムは、対象物として分類された列の占有されたボクセルを用い、新しい対象物リストを初期化する。接続された構成要素のアルゴリズムは、占有されたボクセルに隣接する同様に占有されたボクセルの全てを特定する。隣接するボクセル列が対象物として分類される場合、それは対象物リストに加えられる。列が地面として分類される場合、ボクセルは、その高さがその列の高さよりも大きい場合(例えば、張り出し対象物であることを示す)に限って、対象物リストに加えられる。接続された構成要素のアルゴリズムは、全ての接続されたボクセルが検証されるまで、新しく加えられたボクセルの隣接部を検証する。対象物は接続された占有されたボクセルのリストである。
対象物は高さ及びサイズに基づいてフィルターをかけられる。対象物が低すぎる場合又は対象物の境界ボックスの断面のサイズが大きすぎる場合、対象物は対象物リストから除去される。高さに基づくフィルタリングは常に観測することが難しい小さい対象物を除去し又は十分な情報を有さない対象物のために除去する。更に、サイズに基づくフィルタリングは、位置特定への使用に容易な小さいベースを有する対象物をもたらす。その上、フィルタリングは、誤った目印を提供することで姿勢補正過程を混乱させ得る、ほとんどの駐車車両を除去する。この対象物の最終セットは、3Dローカル地図206における、現在観測可能な目印212のセットである。現在観測可能な目印212のセットは目印のボクセルのリスト及び目印に関連する開始及び終了地点を含んでもよい。現在観測可能な目印212のセットは、例えば、メモリ106及び/又は図1のディスク108に記憶することができる。又は、現在観測可能な目印212のセットは、遠隔データベース、例えば、ネットワーク124によるアクセスにより記憶することができる。
B.目印追跡
現在観測可能な目印212のセットは、目印追跡214過程により、経時的に追跡される。目印追跡214は、本明細書に記述される方法及びシステムの調査モード及び位置特定モードにおいて実行される。調査モードにおいて、目印追跡214は目印がディスク(例えば調査目印DB 126)に書き込まれたトラックを追跡する。位置特定モードにおいて、目印追跡214は、ローカル3D地図206のサイズより遠い距離に及ぶ目印のトラックを追跡する。
目印を追跡するために、現在観測可能な目印212のセットは、調査目印DB 216における既存の目印のセットと整合される。具体的に、既存の目印のセットは以前に記憶された調査済み目印128のセットである。調査目印DB 216におけるそれぞれの目印(例えば、以前に記憶された調査済み目印128のセット)は関連情報を含む。例えば、一実施形態において、それぞれの目印は以下の特質(i)ID、特有の目印ID、(ii)更新済み、目印が現在のキーフレームにおいて更新されているか、(iii)FOV内、目印がカメラの視界内にあるか、(iv)外部、目印がローカル3D地図の外部領域にあるか、(v)保存済み、目印がディスクに保存されているか、を有する。図5は、特質、特質型及び関連機能を含む、例示的目印対象物502(例えば以前に記憶された調査済み目印128のセット内の目印)のUML図である。図5のUML図は、本質的に例示的であり、他の特質、特質型、及び機能も又対象物502を用いて実装され得るということが理解される。
上記の通り、目印追跡214は、現在観測可能な目印212のセットと、調査目印DB 216内の以前に記憶された調査済み目印128のセットを整合させる。一実施形態において、以前に記憶された調査済み目印128のセット内のそれぞれの目印の位置(例えば、L...L)は、整合の前に、現在のローカル3D地図206の対等フレームに変換される。整合は、現在観測可能な目印212のセット及び以前に記憶された調査済み目印128のセットを用いて二部グラフを構築することによって行われることができ、二つの互いに素な集合を形成する。グラフ内のエッジは、現在の目印と既存の目印との間に、2つの目印量が重なり合う場合に、加えられる。具体的に、二部グラフに基づき、2つの目印を含むボクセルのセットが交差する場合、現在観測可能な目印212のセットと以前に記憶された調査済み目印128のセットとの間の同値類が、それぞれにおける既存及び現在の目印の数に基づいて、特定及び分類される。以前に記憶された調査済み目印128のセットは、同値類の型に基づいて更新される。
同値類の型及びそれらの関連した更新がこれから記載される。1つの現在及び1つの既存の同値類において、整合が発見される。従って、既存の目印の特質は以下のように更新される、(i)ID、変更なし、(ii)更新済み、現在と既存の目印がそれらのボクセルリスト又はボクセルにおける終了点において異なる場合TRUEに設定する(iii)FOV内、現在の目印がカメラの視界内にある場合TRUEに設定する、(iv)、外部、現在の目印がローカル3D地図の外部領域にある場合TRUEに設定する、(v)保存済み、既存の目印の値に設定する。
新しい奥行データが入手可能になると生じ得るように、1つの現在及び多数の既存の同値類において、幾つかの既存の目印が単一の現在の目印に統合する。最大の重なり合いを有する既存の目印のボクセル及び点のリストは現在の目印のボクセルリストに更新され、その特質は、上述の1つの現在及び既存の同値類の場合にあるように更新される。既存の目印の残りは消去される。
以前占有されたボクセルが自由空間になる場合又は分割が変更する場合に生じ得るように、多数の現在及び既存の同値類において、幾つかの現在の目印が単一の既存の目印から生じる。この場合において、最大の重なり合いを有する既存の目印のボクセル及び点のリストは現在の目印のボクセルリストに更新され、その特質は、上述の1つの現在及び1つの既存の同値類の場合にあるように更新される。残存する現在の目印には新しい固有の目印IDが与えられ、同様に更新された特質を伴い既存の目印のリストに加えられる。特質、保存済みはFALSEに設定される。
多数の現在及び多数の既存の同値類において、それぞれの現在の目印は最大の重なり合いを有する既存の目印と整合される。そのIDが別の既存の目印に与えられていない場合、現在の目印には既存の目印のIDがあたえられる。残存する更新は、上述の、1つの現在及び1つの既存の同値類の場合のように、行われる。既存のIDが既存の目印に既に与えられている場合、新しい固有のIDが現在の目印のために作られる。残存する更新は、上述の、1つの現在及び1つの既存の同値類の場合のように行われるが、しかしながら、特質、保存済みはFALSEに設定される。
1つの現在及びゼロの既存の同値類において、現在の目印は、既存の目印のリストに加えられ、新しい固有のIDが与えられる。特質、更新済みは、TRUEに設定され、特質、保存済みはFALSEに設定される。残存する更新は、上述の、1つの現在及び1つの既存の同値類の場合のように、行われる。ゼロの現在及び1つの既存の同値類において、既存の目印は、FALSEに設定される、特質、更新済みを除いて残される。
結果的に、目印分割と追跡208の整合過程の最後に、以前に記憶された調査済み目印128のセット及びそれらの特質は現在の目印(例えば、現在観測可能な目印212のセットから)を用いて更新される。
C.目印の性質の算出及びディスクへの保存
位置特定は現在観測可能な目印のセットを記憶済みの目印(すなわち、以前に記憶された調査済み目印128のセット)に整合させることを含む。整合過程を援助するために、記憶済みの目印の幾つかの性質、例えば、重心、主軸、及び寸法が算出される。性質が算出される前に、目印はローカル3D占有グリッドよりも精度の高い解像度で形作られ、性質をより正確に算出する。一実施形態において、性質は新しい目印(すなわち、新しいIDを有する物)又は特質、更新済みのTRUE及び特質、保存済みのFALSEを有する物だけに算出される。
性質を算出するために、一実施形態において、目印は符号付距離場を使用して形作られる。3D占有グリッドよりも精度の高い解像度を有する新しい3Dグリッドは目印を包囲して作られる。目印に関連する開始点に対しては、その終了点に光線が当てられる。終了点を有するボクセルには距離値ゼロが与えられる。光線に沿う及び、開始点と終了点ボクセルとの間のボクセルには、ボクセルが終了点からどれだけ遠いかを測定する、正の距離が与えられる。同様に、終了点ボクセルを超える(開始点から離れる)光線に沿うボクセルには負の距離が与えられる。この過程がそれぞれの開始−終了対に対して実行されるため、ボクセルが幾つかの開始−終了点対間の光線に位置する場合、ボクセルに複数の距離が与えられ得る。
ボクセルにおける距離は、実在の目印表面からのボクセルの距離の複数の推定を提供することができる。距離は実在の目印表面からのボクセルの距離の単一の推定を得るために平均化される。具体的に、一実施形態において、距離は最大値に切り捨てられ、瓶にグループ化され、加重平均が算出される。全てのボクセルを考慮したこれらの平均化された距離は符号付距離場を構成し、目印表面はその零レベルセットとして得られる。それは零に近い符号付距離を有する全てのボクセルが目印表面の構成に用いられるということである。
目印ボクセルが特定されると、ボクセルの座標が、それぞれの目印の以下の性質を算出するために用いられる、(i)重心、全ての表面ボクセルの重心として算出される(ii)主軸、ボクセルの中心座標上の主要構成要素分析(PCA)によって得られる(iii)軸寸法、それぞれの軸の相違に比例し、PCAの結果としても得られる、(iv)半径、目印表面へ垂直シリンダを合わせること及びそのシリンダの半径を用いることによって決定される。目印表面を描写するボクセル座標に従うこれらの特質は、目印の記述と見なされる。
調査モードにおいては、目印の記述は、目印がもはやカメラの視界に無く、目印がローカル3D地図の外部領域にある場合、ディスク(すなわち、調査目印DB 216)に書き込まれる。換言すれば、目印の記述は、特質、外部がTRUEであり、特質、視界内及び保存済みがFALSEである場合に、ディスクに書き込まれる。目印がディスクに書き込まれると、特質、保存済みはTRUEに設定され、目印がディスクに再度書き込まれることはない。一実施形態において、目印の記述は、記述ファイル130に書き込まれる。図5は、特質、特質型、及び関連機能を含む、例示的な記述ファイル506のUML図を図示する。
一実施形態において、目印の記述がディスクに書き込まれる前に、全ての3次元座標が、高質位置決定ユニット140(すなわちGPS 136及びIMU 138、車両の全地球姿勢204)から得られる車両の自由度6の姿勢を用い、緯度、経度及び高度に変換される。例えば、
Figure 2015148601
を車両の座標枠における点の位置とする。
Figure 2015148601
を、GPS 136及びIMU 138に与えられる通り、車両の緯度、経度、高度、ヨー、ピッチ、及びロールとする。すると、点
Figure 2015148601
のGPS座標は以下によって推定される、
Figure 2015148601
記述ファイル130は、目印の重心の緯度及び経度でタグ付け(例えばプロセッサ104によって)される。更に、それぞれの目印の緯度及び経度の図心を含むキーファイル132が生成される。このキーファイル132は、位置特定モードにあるプロセッサ104により、メモリ106内に読みとられ、車両の近くの目印を容易に特定し、それらの関連ファイルを素早く読み取ることを可能にする。図5は、特質、特質型及び関連機能を含む、例示的キーファイル504のUML図を図示する。
上記のように、調査モードはプロバイダ(例えば第三者)からの提供として又は消費者側に実装されることができる。消費者の場合においては、調査モードは、高質GPS及びIMUデバイス、例えば、図1の高質位置決定ユニット140を有する車両に実装されることができる。結果的に、調査モードは、消費者側で、高質位置決定ユニット140を活用し、図2に図示されるものと同様な段階を踏み得る。
III.位置特定モード
位置特定モードにおいては、車両の位置特定は、車両の経路に姿勢補正を算出及び適用するための目印整合及び目印変換を含む。車両を全地球フレームにおいて位置特定するために、位置特定モードの間観測された目印は調査モードの間ディスクに記憶された目印に整合される。
A.位置特定モードの概観
図3及び4は、1つの態様に従う、位置特定モードの間の例示的データフローの概略図である。図3及び4はこれから図1〜2を参照して詳細に記載される。一実施形態において、視覚的走行距離計測モジュール116は、移動経路及び車両の相対的姿勢に対する移動経路に沿った現在観測可能な目印のセットに従い、車両の相対的姿勢を決定する。例えば、図1及び2と共に上述のように、立体画像302及び車両の相対的姿勢304(例えば視覚的走行距離計測モジュール116によって決定される)はローカル3D地図306を生成するために用いられる。ローカル3D地図306は、目印分割310(例えば、図2の目印分割210と共に上述のように)を用いて処理され、結果として現在観測可能な目印312になる。従って、現在観測可能な目印312のセットは撮像デバイス112から得られた1つ以上の立体画像302から抽出される。
次に図4を参照すると、車両の現在位置(例えば現在の弱い全地球姿勢)は、例えば低質位置決定ユニット142を用いて、二次元(2D)車両姿勢316として決定することができる。2Dの車両の姿勢316は少なくとも車両位置の緯度及び経度を提供する。幾つかの実施形態において、2Dの車両の姿勢316は、約10mの標準偏差を有する車両の位置を提供する。
一実施形態において、目印整合318において、調査目印DB 126は2Dの車両の姿勢316で問合せされ、車両の現在位置(すなわち2Dの車両の姿勢316)に対する調査済み目印320のサブセットを特定する。例えば、位置特定モジュール118は車両の現在位置を含む問合せを生成することができ、問合せを調査目印DB 126で実行し、車両の現在位置に対する調査済み目印320のサブセットを取得する。具体的には、一実施形態において、位置特定モジュール118は、幾つかの過去のGPS読み取りにラインを合わせることにより、グローバルGPSフレームにおける車両のおおよその機首方位(ヨー)を推定することができる。一実施形態において、幾つかの過去のGPS読み取りは低質位置決定ユニット142から得ることができ、例えば低質位置決定ユニット142のメモリ及び/又はメモリ106又はディスク108に保存される。
Figure 2015148601
は、それぞれライン適合によって算出された、緯度、経度、及び機首方位を表す符号を有する、車両の現在2D GPS姿勢316を図示する。調査モードの間生成されたキーファイル132を活用し、調査済み目印320のサブセットは車両の現在位置に近いと特定される。記述ファイル130からの、調査済み目印320のサブセットと関連付けられる情報も読み取られる。記述ファイル130からのGPS座標は、車両の現在2D姿勢316を下記のように用いることにより、車両のフレームに準じてカルテシアン座標に変換される。
Figure 2015148601
ここにおいて
Figure 2015148601
は調査済み目印320のサブセットの目印のGPS座標であり、
Figure 2015148601
は車両の座標フレームにおける調査済み目印320のサブセットの目印の位置である。
車両の姿勢に適用させる姿勢補正326を算出するために、目印変換322において、調査済み目印320のサブセットと現在観測可能な目印402のセットとの間における、1つ以上の二次元(2D)変換が推定される。一実施形態において、姿勢補正モジュール120は、現在観測可能な目印のセットと調査済み目印のサブセットとの間における1つ以上の二次元変換を決定する。
変換は二次元で推定されるが、しかしながら、他の実施形態において、目印表面を用いることによる三次元変換を推定することができる。2D変換推定を算出するために、目印の重心及び表面は2Dに投影される(例えばz座標を除去する)。これらの投影は、目印のセットのレイアウト及び構造を記述する目印シグネチャーとして定義される。目印シグネチャー(非表示)はリアタイムで生成され、迅速で小型軽量な2D整合を可能にする。
更に、目印変換322において、最良の変換推定は1つ以上の2D変換推定から、下記でより詳細に記述されるクラスタ検索324を用いて決定される。具体的には、姿勢補正モジュール120は1つ以上の2D変換推定から最良の変換を特定することができる。幾つかの実施形態において、最良の変換推定は、現在観測可能な目印312のセットと調査済み目印320のサブセットとの間の距離を最小化する。
1つ以上の2D変換推定から、
Figure 2015148601
のように最良の変換推定を算出及び推定した後、車両の現在2D姿勢316は補正姿勢を得るために以下のように適応され、
Figure 2015148601
ここにおいて
Figure 2015148601
は車両の最終補正姿勢326である。結果的に、高密度立体深さデータでよって構築された車両の環境の小型軽量3Dローカル地図を活用することにより、目印の2つのセット及び精密化された変換推定、車両の経路の姿勢補正は正確で速い。
B.1つ以上の2D変換推定の決定及び最良の変換推定の特定
上述のように、姿勢補正を算出するために、目印変換322において、現在観測可能な目印312のセットと調査済み目印320のサブセットとの間における1つ以上の二次元(2D)変換推定が決定される。1つ以上の二次元変換推定は2D剛体変換である。2D剛体変換は単一回転及び2D転換からなる。具体的には、Xオフセット、Yオフセット及び回転方向における変換。
一般的に、2D変換推定は、離散有界空間内の深さレベルNについての1つ以上の変換尺度での1つ以上の2D変換推定を推定することにより誘導され、深さレベルNについての1つ以上の最良の変換推定を選択し、その一つ以上の最良の変換推定に基づいて離散有界空間を修正する。この過程は最大深さレベルNからのそれぞれの深さレベルNについての離散有界空間内の1つ以上の変換尺度での1つ以上の2D変換を推定することにより続くことができる。
1つ以上の変換尺度は粗い変換尺度から細かい変換尺度へ向上する。従って、1つ以上の変換尺度は、幾つかの実施形態において、以前の変換尺度よりも詳細度が高い(例えば動作レベルが高い)。例えば、第1の変換尺度では、1つ以上の2D変換推定は粗い動作(例えば1mインクリメント)として始まり得る。第2の変換尺度では、2D変換推定は、第1の動作尺度の粗い動作よりも細かい動作(例えば1/2mインクリメント)である。2つを超える変換尺度が、1つ以上の2D変換推定を推定するために用いられることができるということが理解される。
目印変換322及びクラスタ検索324が、これから図8A〜8Fを参照して詳細に記述される。図8A、8B及び8Cは、それぞれの深さレベルNにおいて単一推定(すなわち1の分枝因子)を有する多様な変換尺度における、最良の変換推定のための例示的グリッド及び木検索の概略図であり、最大深さレベルNは3である(すなわち図8A.N=1、図8B.N=2、図8C.N=3)。あらゆる数の分枝因子及び深さレベルが実装され得るということが理解される。次に図8Aを参照すると、1つ以上の2D変換推定はグリッド800によって定義づけられた離散有界空間において推定される。1つ以上の2D変換推定は1つ以上の変換尺度で推定される。変換尺度は粗い変換尺度から生成された変換尺度へ向上する。一実施形態において、変換尺度は決まった数により、例えば45度インクリメントにより、及び1メートルインクリメントにおける転換により向上する。
例示の実施例として、1つ以上の2D変換推定は第1の変換尺度で、例えば粗い動作を用いて、推定されることができる。例えば、粗い動作は、45度インクリメントでの回転及び1メートルインクリメントでの転換を含んでもよい。別の例では、1つ以上の2D変換推定は、第2の変換尺度で推定されることができる。第2の変換尺度は、例えば、第1の変換尺度よりも、細かい尺度又は細かい動作である。従って、例えば、第2の変換尺度での1つ以上の2D変換は25度インクリメントでの回転及び1/2メートルインクリメントでの転換を含んでもよい。
それぞれの深さレベルNにおいて、最良の変換推定が決定される。一実施形態において、変換スコア及び/又は変換コストは、1つ以上の2D変換推定のそれぞれに対して決定される。一実施形態において、スコア及び/又はコストは、2D変換適用後の、現在観測可能な目印312のセットと調査済み目印320のサブセットとの間の距離の測定に基づく。例えば、一実施形態において、2D変換適用後の現在観測可能な目印312のセットと調査済み目印320のサブセットとが近いほど(すなわち、目印間の最小化された距離、重心間の最小化された距離)、変換推定は良くコスト及び/又はスコアは低い。例えば、零のスコア又はコストは完璧な変換となる。
別の実施形態において、距離の測定は一組の距離に適応されるいかなるノルムでも良い。例えば、一実施形態において、スコア及び/又はコストは、2D変換適用後の現在観測可能な目印312のセットと調査済み目印320のサブセットとの間の平均2乗誤差の平方根に基づき決定される。結果的に、それぞれの2D変換推定に対して、スコアが決定され、2D変換推定にあたえられる。
結果的に、深さレベルKにおける最良の変換推定は、1つ以上の2D変換推定のそれぞれに関連する変換コストに基づいて決定されることができる。一実施形態において、離散有界空間は深さレベルKにおける最良の変換推定に基づいて修正される。再び図8Aを参照すると、最良推定802はグリッド800の区域804において選択される。従って、図8Bにおいて、区域804は1つ以上の2D変換推定を決定するための離散有界空間になる。
図8Aの記述と同様に、図8Bにおける1つ以上の2D変換は深さレベルK++(2)における1つ以上の変換尺度で推定される。深さレベルK++(2)Kにおける最良の変換推定は1つ以上の2D変換推定のそれぞれに関連する変換コストに基づいて決定される。一実施形態において、離散有界空間は深さレベルK++(2)Kにおける最良の変換推定に基づいて修正される。
図8Bにおいて、最良推定806は離散有界空間804において選択される。結果的に、離散有界空間は最良推定806の周囲の区域810に再定義される。従って、図8Cにおいては、1つ以上の2D変換推定は区域810(すなわち、再定義された離散有界空間)に限定される。図8Cにおける1つ以上の2D変換は深さレベルK++(3)における1つ以上の変換尺度で推定される。深さレベルK++(3)における最良の変換推定は、1つ以上の2D変換推定のそれぞれに関連する変換コストに基づいて決定されることができる。図8Cにおいては、最良推定812は区域810(例えば離散有界空間)において選択される。
上述の過程は深さレベルK及び/又は2D変換推定の数を前もって決定するために繰り返される。更に、過程は1つを超える最良の変換推定に対して実行されることができる。例えば、図8A,8B及び8Cは、図8D,8E及び8Fに図示される単一推定ではなく、1つを超える推定を有する多様なレベル(例えば、1つを超える分枝因子)での最良の変換推定のための例示的グリッド検索の概略図である。
一実施形態において、最良の変換推定がそれぞれの深さレベルNから最大深さレベルNまでにおいて決定されると、それぞれの深さレベルNについての最良の変換推定を含み、それぞれの深さレベルNについての最良の変換推定に対して決定される変換コストに基づいて分類される、分類リストが生成される従って、3つの最大深さレベルN及び1つの分枝因子を有する図8A,8B及び8Cを参照すると、分類リストは、それぞれの深さレベルに対して1つの、3つの最良の変換推定を含み得る。換言すると、求められた最良の変換推定は、最大深さレベルKを乗じる分枝因子Nを含む。3つの最大深さレベルN及び2つの分枝因子を有する図8D,8E及び8Fを参照すると、分類リストは、それぞれの深さレベルNに対して2つの、9つの最良の変換推定を含み得る。
図9Aは、それぞれの深さレベルNに対する最良の変換推定で生成された例示的分類リスト900を図示する。図9Aにおいて、分類リスト900の第1の列は深さレベルNについての最良推定を特定し、第2の列は深さレベルNに対する最良推定に関連する変換コストを特定する。図9Aにおける最大深さレベルは1つの分枝因子を伴う6であるが、しかしながら、あらゆる最大深さレベル又はあらゆる数の分枝因子が実装され得るということが理解される。図9Aにおいて、最良の変換推定は最低変換コストから最高変換コストへと分類される。
一実施形態において、分類リストにおけるそれぞれの最良の変換推定に隣接する最良の変換推定と比較される。これは最低変換コストから最高変換コストまで繰り返されることによって達成されることができる。変換コスト間で有意差(例えば、誤差>所定の数)が決定されると、最良の変換推定を含むクラスタが生成される。換言すると、スコアに有意差(例えば2つのスコアが50%異なる)があるとき、新しいクラスタが指定される。
再び図9Aを参照すると、BN1はBN5と比較され、BN3はBN6と比較され、分類リストの最後に到達するまで同様に続く。1つの例示の実施例においては、所定の差は5に設定される。従って、図9Aにおいては、最良の変換推定と隣接する変換推定との間の差が5を超えるとき、クラスタが生成される。例示の実施例として、BN3はBN6と比較される(すなわち、20−6=14)。BN3とBN6との間の差が14であるため、BN3とBN6との間にクラスタ分割が挿入される。従って、第1のクラスタはBN1、BN5及びBN3を含む。別のクラスタ分割が決定されていないと仮定すると、第2のクラスタはBN6、BN3及びBN4を含む。
図9Bは、1つの態様に従う、例示的クラスタのセットの概略図である。例えば、クラスタ902,904及び906はそれぞれ、上述の繰り返し比較に基づく複数の2D変換推定を含む。図9Aの例及び図9Bの表を参照すると、第1のクラスタはクラスタ902であり得、第2のクラスタはクラスタ904であり得る。
一実施形態において、クラスタはその最良推定に基づくスコアを与えられる。一実施形態において、最良の推定は、最低スコアを有する物である。再び図9Aの例を参照すると、第1のクラスタにおいて2が最低変換スコアであるため、第1のクラスタはBN1に関連するスコアを与えられる。同様に、第2のクラスタは、第2のクラスタにおいて20が最低変換スコアであるため、BN6に関連するスコアを与えられる。図9Bを参照すると、それぞれのクラスタ902、904及び906は、そのクラスタにおける複数の2D変換の最良推定に基づくスコアを与えられる。
結果的に、一実施形態において、姿勢補正は、それぞれのクラスタによって決定された最良の変換推定に基づいて適応される。従って、最良の変換推定(例えば、最良クラスタ変換推定)はそれぞれのクラスタの最良の変換推定に基づいて選択される。この最良クラスタ変換推定は車両に姿勢補正を適用するために使用することができる。例示の実施例としては、クラスタAにおける最良推定がクラスタBにおける最良推定よりも良い(例えば、低い)とき、クラスタAはクラスタBよりも良い。従って、図9Aの例を参照すると、第1のクラスタの最良の変換推定が2であり、第2のクラスタの最良の変換推定が20であるよりも低いため、最良クラスタ変換推定は2であり、この変換推定は車両の姿勢補正に適応されることができる。
C.マッピング、位置特定、及び姿勢補正の方法
上述した、図1〜5に図示されるシステム100はこれから図6の方法を参照し記述される。上述の図1〜5におけるシステム及び構成要素は図6の方法で同様に実装され得るということが理解される。図6の方法は、1つの態様に従う、マッピング、位置特定、及び姿勢補正の例示的方法を図示する。ブロック602において、本方法は移動経路に沿った車両の現在位置及び現在位置に対する移動経路に沿った現在観測可能な目印のセットの決定を含む。現在観測可能な目印のセットは、撮像デバイスから得られる1つ以上の立体画像から抽出される。例えば、図1の位置決定ユニット110、具体的に低質位置決定ユニット142は、移動経路に沿った車両の現在位置を得ることができる。車両の現在位置は2次元(2D)車両の姿勢(例えば、少なくとも車両の位置の緯度及び経度)であることができる。現在観測可能な目印のセットは、例えば視覚的走行距離計測モジュール116によって、現在観測可能な目印のセットを撮像デバイス122及び3Dローカル地図から1つ以上の立体画像から抽出することにより図3と共に上述のように決定される。
次にブロック604を参照すると、本方法は調査目印DBへの問合せを含み、車両の現在位置に対する調査済み目印のサブセットを特定する。例えば、一実施形態において、位置特定モジュール118は調査目印DB 126への問合せを生成し、送信(及び/又は実行)する。問合せは車両の現在位置を含んでもよい。調査目印DB 126は以前に記憶された調査済み目印のセット(例えば、図4の以前に記憶された調査済み目印417のセット)を含む。
一実施形態において、問合せを受信及び実行後、調査目印DB 126は位置特定モジュール118、車両の現在位置に対する調査済み目印のサブセットに戻る。調査目印DB 126は、一実施形態において、記述ファイルから読み取ったデータを用いて問合せを実行することができる。記述ファイルは以前に記憶された調査済み目印のセット内のそれぞれの目印の座標を含んでもよい。従って、それぞれの目印の座標は車両の現在位置と比較され、調査済み目印のサブセットを決定する。結果的に、調査済みの目印のサブセットは、調査目印DB 416に記憶された車両の現在位置に近い目印を含む。幾つかの実施形態において、位置特定モジュール118は調査目印DB 416から記述ファイルを読み取り、位置特定モジュール118で問合せを実行することができるということが理解される。
ブロック606で、本方法は、現在観測可能な目印のセットと調査済み目印のサブセットとの間において1つ以上の二次元変換推定を決定することを含む。1つ以上の二次元変換推定の決定は以下で図7と共により詳細に記述される。一実施形態において、姿勢補正モジュール120は、現在観測可能な目印のセットと調査済み目印のサブセットとの間における1つ以上の二次元変換を決定する。
更に、一実施形態において、ブロック608での方法は現在観測可能な目印のセットのそれぞれの目印の重心の決定を含む。調査済み目印のサブセットは、上述のように、調査済み目印のサブセット内のそれぞれの目印の重心も含む。例えば、上述のように、記述ファイル130及び/又はキーファイル132は調査済み目印のサブセット内のそれぞれの目印の重心の情報(例えば位置)を含んでもよい。
結果的に、一実施形態において、1つ以上の二次元変換推定の決定は、調査済み目印のサブセットのそれぞれの目印の重心及び現在観測可能な目印のセットのそれぞれの目印の重心を二次元に投影することを含む。例えば、上述のように、一実施形態において、目印の重心及び表面は例えばz座標を除去することにより2Dに投影される。これらの投影は目印セットのレイアウト及び構造を描写する目印シグネチャーとして定義されることができる。
ブロック608において、本方法は、1つ以上の二次元変換推定から最良の変換推定を特定することを含む。一実施形態において、最良の変換推定は現在観測可能な目印のセットと調査済み目印のサブセットとの間の距離を最小化する。別の実施形態において、最良の変換推定は現在観測可能な目印のセットと調査済み目印のサブセットとの間の対応する重心の距離を最小化する。
ブロック610で、本方法は、最良の変換推定に基づく車両の姿勢補正を含む。例えば、等式(3)と共に上述のように、最良の変換推定は車両現在位置、例えばブロック602で決定された移動経路に沿った車両の現在位置、に適用される。幾つかの実施形態において、車両の現在位置は2D姿勢である。図1のシステム100においては、姿勢補正モジュール120は、最良の変換推定に基づいて車両の姿勢を補正する。
1つ以上の二次元変換推定の決定及び最良の変換推定の特定は、図7を参照し、これから詳細に記述される。図7は、1つの態様に従う、図6の1つ以上の二次元変換を決定するための例示的な方法の工程系統図である。図7は図1〜5の構成要素及び機能を参照し、記述される。
ブロック702で、及び上述のように、本方法は1つ以上の2D変換推定の決定を含む。一実施形態において、プロセッサ104は図6の方法における深さレベルNのそれぞれの反復に対するカウンタiを維持する。結果的に、ブロック702で、本方法はカウンタiをインクリメントすることを含んでもよい。一実施形態において、1つ以上の二次元変換推定の決定は、深さNにおける離散有界空間における、現在観測可能な目印のセットと調査済み目印のサブセットとの間の1つ以上の変換尺度での1つ以上の二次元変換推定を含む。図8A〜8Fと共に上述のように、1つ以上の変換尺度は粗い変換尺度から細かい変換尺度へと向上する。
別の実施形態において、1つ以上の二次元変換推定の決定は、離散有界空間における、現在観測可能な目印のセットと調査済み目印のサブセットとの間の第1の変換尺度での1つ以上の二次元変換推定の決定を含む。第1の変換尺度は、上述のように、粗い尺度変換であることができる。更に、この実施形態において、1つ以上の二次元変換推定の決定は、離散有界空間における、現在観測可能な目印のセットと調査済み目印のサブセットとの間の第2の変換尺度での1つ以上の二次元変換推定の決定を含む。第2の変換尺度は以前の尺度(例えば第一の変換尺度)よりも詳細度の高い変換尺度である。
ブロック704で、本方法は深さレベルKでの、1つ以上の2D変換推定のそれぞれに対する変換コストの決定を含む。更に、最良の変換推定は、深さレベルKでの1つ以上の2D変換推定のそれぞれの変換コストに基づいて決定されることができる。上述のように、最良の変換推定は、一実施形態において、最低変換コストを有する2D変換推定であることができる。ブロック706で、離散有界検索空間は最良の変換推定の周囲の区域に修正される。幾つかの実施形態において、ブロック708で、iが深さレベルの最大数Kと同等かどうかが決定される。否の場合、本方法はブロック702に戻り、1つ以上の変換尺度での1つ以上の2D変換が次の深さレベルKで決定される。
ブロック708での決定が可の場合、本方法はブロック709に進む。ブロック709で、本方法は、それぞれの深さレベルNでの1つ以上の二次元変換推定の変換コストに基づくそれぞれの深さレベルでの最良の変換推定の分類リストを生成することを含む。図9Aと共に上述のように、分類リストは最低から最高変換スコアへと分類されることができる。
分類リストは1つ以上のクラスタを決定するために繰り返される。具体的に、本方法は分類リスト内のそれぞれの最良の変換推定と分類リストの隣接する最良の変換推定との比較に基づく最良の変換推定の1つ以上のクラスタの決定を含む。より具体的には、ブロック710で、分類リスト内のそれぞれの最良の変換推定において、最良の変換推定が隣接する最良の変換推定と比較される(例えば、スコアsはスコアs++と比較される)。
ブロック712で、最良の変換推定と隣接する最良の変換推定の間の差が有意差(例えば差>所定の数)であるかどうかが決定される。換言すれば、変換コストにおいて有意差があるとき(例えば2つの変換コストが50%異なるとき)、新しいクラスタが指定される。従って、ブロック712での決定が可の場合、新しいクラスタがブロック714で生成される。幾つかの実施形態において、ブロック712で、クラスタの数を維持するためにプロセッサ104によってカウンタcが維持される。ブロック712での決定が否の場合、本方法はブロック716へ続く。ブロック716は、分類リストの最後が到達されているかどうかが決定される。ブロック716での決定が否の場合、本方法はブロック710で分類リスト内で反復する。ブロック716での決定が可の場合、本方法は、ブロック720へと続く。
ブロック720で、本方法は、1つ以上のクラスタのそれぞれの最良の変換推定に基づく最良クラスタ変換推定を含む。図9A及び9Bと共に上述されるように、クラスタは、その最良の推定に基づいてスコアを割り当てる。一実施形態において、最良の推定は、最低スコアを有するものである。従って、最良の変換推定(例えば、最良クラスタ変換推定)はそれぞれのクラスタの最良の変換推定に基づいて選択される。この最良クラスタ変換推定は車両に姿勢補正を適用するために使用することができる。例示の実施例としては、クラスタAにおける最良推定がクラスタBにおける最良推定よりも良い(例えば、低い)とき、クラスタAはクラスタBよりも良い。結果的に、最良クラスタ変換推定に基づいて、ブロック718で姿勢補正が適用される。
IV.例示的例
車両におけるマッピング、位置特定、及び姿勢補正のためのシステム及び方法を実装する例示的例がこれから記述される。図10Aは姿勢補正適用前の地図1000の概略図である。ライン1002は車両の視覚的走行距離計測システム、例えば視覚的走行距離計測モジュール116によって決定される移動経路を図示する。ライン1004は実際に車両によって運転された移動経路(すなわち実際の経路)を図示する。上述のマッピング、位置特定、及び姿勢補正のための方法及びシステムを活用し、移動経路1002及び移動経路1004は車両の正確な移動経路を決定するために照合される。
図10Bは図10Aの地図1000の詳細図であり、実際の移動経路、ライン1004に従い目撃された目印1006を図示する。これらの目印1006は現在観測可能な目印のセットである。図10Cは図10Aの地図1000の詳細図であり、視覚的走行距離計測システムによって決定された移動経路、ライン1002に従い目撃された目印1008を図示する。
図11は地図1000の図を図示し、車両の現在位置に対する調査済み目印のサブセットを特定するために調査目印データベース(例えば調査目印データベース126)において実行された問合せの結果を図示する。問合せの結果、調査済み目印のサブセットのそれぞれは図11における角の丸い四角形で表される。
図12Aは、現在観測可能な目印1006のセット(すなわち、図10Bから)と調査済み目印のサブセット(例えば角の丸い四角形で表される)との間における1つ以上の2D変換の決定の例示の実施例である。図12Bにおいて、最良の変換推定1014が選択される。図12Cにおいて、図10Aの地図1000に関して最良の変換推定が図示される。図13において、最良の変換推定が車両の現在位置に適用され、新しい経路1012をもたらす。
本明細書内で記述される実施例は、非一過性コンピュータ可読メモリ媒体記憶コンピュータ実行可能命令との関連で記述及び実装され得る。非一過性コンピュータ可読メモリ媒体は、コンピュータメモリ媒体及び通信媒体を含む。例えば、フラッシュメモリドライブ、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、フロッピー(登録商標)ディスク及びテープカセットである。非一過性コンピュータ可読メモリ媒体は、揮発性及び不揮発性、取り外し可能及び非取り外し可能な、情報記憶のためのあらゆる方法又は技術に実装される媒体、例えばコンピュータ可読命令、データ構造、モジュール、又は他のデータを含み得る。非一過性コンピュータ可読メモリ媒体は一過性及び伝搬されたデータ信号を排除する。
上で開示される種々の実装例、並びに他の特性及び機能、又はその代替案若しくは変形は、多くの他の異なるシステム又は適用に望ましく組み合わせられ得ることが理解されよう。又、種々の現在予期されていない、若しくは予想されていない代替案、修正、変形、又は改善が、後に当業者によって行われてもよく、それらも、以下の特許請求の範囲によって包含されるよう意図される。
100 システム
102 コンピューティングデバイス
104 プロセッサ
106 メモリ
108 ディスク
110 位置決定ユニット
112 通信インターフェイス
114 バス
116 視覚的走行距離計測モジュール
118 位置特定モジュール
120 姿勢補正モジュール

Claims (20)

  1. マッピング、位置特定、及び姿勢補正のためのコンピュータ実装方法であって、
    移動経路に沿った車両の現在位置及び前記現在位置に対して移動経路に沿った現在観測可能な目印のセットを決定する工程であって、前記現在観測可能な目印のセットが、撮像デバイスから得られた1つ以上の立体画像から抽出される、工程と、
    調査目印データベースに問い合わせて、前記車両の前記現在位置に対して調査済み目印のサブセットを特定する工程であって、前記調査目印データベースが、以前に記憶された調査済み目印のセットを含む、工程と、
    前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間における1つ以上の二次元変換推定を決定する工程と、
    前記1つ以上の二次元変換推定から、前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の距離を最小化する最良の変換推定を特定する工程と、
    前記最良の変換推定に基づいて前記車両の姿勢を補正する工程と、を含む、コンピュータ実装方法。
  2. 前記現在観測可能な目印のセットのそれぞれの目印の重心を決定する工程を含み、前記調査済み目印のサブセットが、前記調査済み目印のサブセットにおけるそれぞれの目印の重心を含む、請求項1に記載のコンピュータ実装方法。
  3. 1つ以上の二次元変換推定を決定する工程が、前記調査済み目印のサブセットのそれぞれの目印の重心及び前記現在観測可能な目印のセットのそれぞれの目印の重心を二次元に投影する工程を含む、請求項2に記載のコンピュータ実装方法。
  4. 前記最良の変換推定が、前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の対応する重心の距離を最小化する、請求項3に記載のコンピュータ実装方法。
  5. 前記1つ以上の二次元変換推定を決定する工程が、深さレベルNについての離散有界空間における、前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の1つ以上の変換尺度での1つ以上の二次元変換推定を決定する工程を含む、請求項1に記載のコンピュータ実装方法。
  6. 前記1つ以上の変換尺度が、粗い変換尺度から細かい変換尺度へと向上する、請求項5に記載のコンピュータ実装方法。
  7. それぞれの深さレベルNにおける1つ以上の二次元変換推定の変換コストに基づいてそれぞれの深さレベルNにおいて最良の変換推定の分類リストを生成する工程を含む、請求項5に記載のコンピュータ実装方法。
  8. 前記分類リスト内のそれぞれの最良の変換推定と前記分類リスト内の隣接する最良の変換推定との比較に基づいて最良の変換推定の1つ以上のクラスタを決定する工程を含む、請求項7に記載のコンピュータ実装方法。
  9. 前記1つ以上のクラスタのそれぞれの前記最良の変換推定に基づいて最良クラスタ変換推定を決定する工程を含み、前記車両の姿勢を補正する工程が、前記最良クラスタ変換推定に基づく、請求項8に記載のコンピュータ実装方法。
  10. 前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の1つ以上の変換尺度での1つ以上の二次元変換推定を決定する工程と、前記1つ以上の二次元変換推定のそれぞれの変換コストに基づいて1つ以上のクラスタを決定する工程と、前記1つ以上のクラスタから最良の変換推定を特定する工程と、を含む、請求項1に記載のコンピュータ実装方法。
  11. マッピング、位置特定、及び姿勢補正のためのシステムであって、
    プロセッサと、
    前記プロセッサが、移動経路に沿った車両の現在位置及び前記現在位置に対する移動経路に沿った現在観測可能な目印のセットを決定することをもたらし、前記現在観測可能な目印のセットが、前記プロセッサと通信可能に結合された撮像デバイスから得られた1つ以上の立体画像から抽出される、視覚的走行距離計測モジュールと、
    前記プロセッサが、前記プロセッサと通信可能に結合された調査目印データベースに問い合わせて、前記車両の前記現在位置に対する調査済み目印のサブセットを取得することをもたらし、前記調査目印データベースが、以前に記憶された調査済み目印のセットを含む、位置特定モジュールと、
    前記プロセッサが、前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の1つ以上の二次元変換推定を決定し、前記1つ以上の二次元変換推定から前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の距離を最小化する最良の変換推定を特定し、前記最良の変換推定に基づいて前記車両の姿勢を補正することをもたらす、姿勢補正モジュールと、を含む、システム。
  12. 前記位置特定モジュールが、前記現在観測可能な目印のセットのそれぞれの目印の重心を決定し、前記調査済み目印のサブセットが前記調査済み目印のサブセットにおけるそれぞれの目印の重心を含む、請求項11に記載のシステム。
  13. 前記姿勢補正モジュールが、前記最良の変換推定を、前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の対応する重心の距離を最小化する変換推定として特定する、請求項12に記載のシステム。
  14. 前記姿勢補正モジュールが、1つ以上の変換尺度での二次元尺度変換に基づいて前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の変換推定のセットを決定し、前記1つ以上の変換尺度が、粗い変換尺度から細かい変換尺度へと向上する、請求項11に記載のシステム。
  15. 前記姿勢補正モジュールが、最良の変換推定の分類リストを生成し、前記変換推定のセットが、それぞれの推定の変換コストに基づいて、最良の変換推定の1つ以上のクラスタを決定する工程が、前記分類リストにおけるそれぞれの最良の変換推定と前記分類リストにおける隣接する最良の変換推定との比較に基づく、請求項14に記載のシステム。
  16. 前記姿勢補正モジュールが、前記1つ以上のクラスタのそれぞれの最良の変換推定に基づいて最良クラスタ変換推定を決定し、前記最良クラスタ変換推定に基づいて前記車両の姿勢を補正する、請求項15に記載のシステム。
  17. 非一過性コンピュータ可読記録媒体であって、
    プロセッサにより実行されたとき、マッピング、位置特定、及び姿勢補正のための方法を実行する、命令を含み、前記方法が、
    移動経路に沿った車両の現在位置及び前記現在位置に対する前記移動経路に沿った現在観測可能な目印のセットを決定する工程であって、前記現在観測可能な目印のセットが、撮像デバイスから得られた1つ以上の立体画像から抽出される、工程と、
    前記現在位置を特定する問合せに基づいて調査目印データベースから調査済み目印のサブセットを受信する工程であって、前記問合せが、前記調査目印データベースで実行され、前記調査目印データベースが、以前に記憶された調査済み目印のセットを含む、工程と、
    前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間における1つ以上の二次元変換推定を決定する工程と、
    前記1つ以上の二次元変換推定から、前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の距離を最小化する最良の変換推定を特定する工程と、
    前記最良の変換推定に基づいて前記車両の姿勢を補正する工程と、を含む、非一過性コンピュータ可読記録媒体。
  18. 前記現在観測可能な目印のセットのそれぞれの目印の重心を決定する工程を含み、前記調査済み目印のサブセットが、前記調査済み目印のサブセットにおけるそれぞれの目印の重心を含む、請求項17に記載の非一過性コンピュータ可読記録媒体。
  19. 前記最良の変換推定が、前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の対応する重心の距離を最小化する、請求項18に記載の非一過性コンピュータ可読記録媒体。
  20. 前記現在観測可能な目印のセットと前記調査済み目印のサブセットとの間の1つ以上の二次元変換推定が、1つ以上の深さレベルにおける1つ以上の変換尺度での1つ以上の二次元変換推定を決定する工程と、前記1つ以上の変換推定のそれぞれの変換コストに基づいて最良の変換推定を決定する工程と、を含む、請求項17に記載の非一過性コンピュータ可読記録媒体。
JP2015000217A 2014-02-08 2015-01-05 マッピング、位置特定、及び姿勢補正のためのシステム及び方法 Expired - Fee Related JP6595182B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201461937533P 2014-02-08 2014-02-08
US61/937,533 2014-02-08
US14/458,286 2014-08-13
US14/458,286 US9342888B2 (en) 2014-02-08 2014-08-13 System and method for mapping, localization and pose correction of a vehicle based on images

Publications (2)

Publication Number Publication Date
JP2015148601A true JP2015148601A (ja) 2015-08-20
JP6595182B2 JP6595182B2 (ja) 2019-10-23

Family

ID=53775357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015000217A Expired - Fee Related JP6595182B2 (ja) 2014-02-08 2015-01-05 マッピング、位置特定、及び姿勢補正のためのシステム及び方法

Country Status (4)

Country Link
US (2) US9342888B2 (ja)
JP (1) JP6595182B2 (ja)
CN (1) CN104833370B (ja)
DE (1) DE102015201951A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019510240A (ja) * 2016-03-15 2019-04-11 ソルファイス リサーチ、インコーポレイテッド 車両認知を提供するためのシステム及び方法
KR20190113226A (ko) * 2018-03-28 2019-10-08 현대모비스 주식회사 실시간 3차원 지도 구축 장치 및 방법
JP2020516853A (ja) * 2016-12-09 2020-06-11 トムトム グローバル コンテント ベスローテン フエンノートシャップ ビデオベースの位置決め及びマッピングの方法及びシステム
KR20200068624A (ko) * 2018-03-28 2020-06-15 현대모비스 주식회사 3차원 지도 구축에 있어 3차원 거리정보의 실시간 업데이트 장치 및 방법
CN113146634A (zh) * 2021-04-25 2021-07-23 达闼机器人有限公司 机器人姿态的控制方法、机器人及存储介质

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9342888B2 (en) * 2014-02-08 2016-05-17 Honda Motor Co., Ltd. System and method for mapping, localization and pose correction of a vehicle based on images
EP3032221B1 (en) * 2014-12-09 2022-03-30 Volvo Car Corporation Method and system for improving accuracy of digital map data utilized by a vehicle
CA3067177A1 (en) * 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
KR20160102872A (ko) * 2015-02-23 2016-08-31 한국전자통신연구원 보행정보 데이터베이스 구축방법 및 보행정보 데이터베이스를 이용한 보행 안내장치 및 그 방법
GB2536493B (en) * 2015-03-20 2020-11-18 Toshiba Europe Ltd Object pose recognition
CN107923757B (zh) * 2015-09-25 2022-05-13 苹果公司 非固态对象监测
CN105300390B (zh) * 2015-10-30 2018-02-16 奇瑞汽车股份有限公司 障碍物体运动轨迹的确定方法及装置
EP4194811A1 (en) * 2015-11-10 2023-06-14 Thales Defense & Security Inc. Robust vision-inertial pedestrian tracking with heading auto-alignment
US9846822B2 (en) * 2015-12-31 2017-12-19 Dropbox, Inc. Generating and utilizing normalized scores for classifying digital objects
JP6331114B2 (ja) * 2016-03-30 2018-05-30 パナソニックIpマネジメント株式会社 位置推定装置、位置推定方法及び制御プログラム
US10078333B1 (en) * 2016-04-17 2018-09-18 X Development Llc Efficient mapping of robot environment
US9943959B2 (en) * 2016-04-25 2018-04-17 Disney Enterprises, Inc. Map localizing with partially obstructed ranging devices for autonomous robots and vehicles
JP6626410B2 (ja) * 2016-06-03 2019-12-25 株式会社Soken 自車位置特定装置、自車位置特定方法
JP2019531560A (ja) 2016-07-05 2019-10-31 ナウト, インコーポレイテッドNauto, Inc. 自動運転者識別システムおよび方法
EP3497405B1 (en) * 2016-08-09 2022-06-15 Nauto, Inc. System and method for precision localization and mapping
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
US9928432B1 (en) 2016-09-14 2018-03-27 Nauto Global Limited Systems and methods for near-crash determination
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
CN107972027B (zh) * 2016-10-25 2020-11-27 深圳光启合众科技有限公司 机器人的定位方法和装置、机器人
US10246014B2 (en) 2016-11-07 2019-04-02 Nauto, Inc. System and method for driver distraction determination
US10282861B2 (en) 2016-12-12 2019-05-07 Here Global B.V. Pose error estimation and localization using static features
US10846541B2 (en) 2017-01-04 2020-11-24 Qualcomm Incorporated Systems and methods for classifying road features
US10410322B2 (en) 2017-04-05 2019-09-10 Here Global B.V. Deep convolutional image up-sampling
GB201706129D0 (en) 2017-04-18 2017-05-31 Blue Vision Labs Uk Ltd Distributed device mapping
US10761541B2 (en) 2017-04-21 2020-09-01 X Development Llc Localization with negative mapping
CN107179080B (zh) * 2017-06-07 2020-07-24 纳恩博(北京)科技有限公司 电子设备的定位方法和装置、电子设备、电子定位系统
WO2018229550A1 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for adverse vehicle event determination
WO2018229549A2 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
WO2018229548A2 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for contextualized vehicle operation determination
US10466027B2 (en) 2017-06-21 2019-11-05 Fujitsu Ten Corp. Of America System and method for marker placement
US10035647B1 (en) * 2017-06-28 2018-07-31 Rubicon Global Holdings, Llc Waste receptacle and system having visual indicator
US10551509B2 (en) * 2017-06-30 2020-02-04 GM Global Technology Operations LLC Methods and systems for vehicle localization
DE102017211605A1 (de) * 2017-07-07 2019-01-10 Robert Bosch Gmbh Verfahren zur Lokalisierung eines höher automatisierten Fahrzeugs (HAF), insbesondere eines hochautomatisierten Fahrzeugs, und ein Fahrerassistenzsystem
US10762673B2 (en) * 2017-08-23 2020-09-01 Tusimple, Inc. 3D submap reconstruction system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10223806B1 (en) * 2017-08-23 2019-03-05 TuSimple System and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10679075B2 (en) * 2017-08-31 2020-06-09 Nec Corporation Dense correspondence estimation with multi-level metric learning and hierarchical matching
CN108229305B (zh) * 2017-11-21 2021-06-04 北京市商汤科技开发有限公司 用于确定目标对象的外接框的方法、装置和电子设备
US10514456B2 (en) * 2017-11-29 2019-12-24 Qualcomm Incorporated Radar aided visual inertial odometry outlier removal
CN110033489B (zh) * 2018-01-12 2023-01-13 华为技术有限公司 一种车辆定位准确性的评估方法、装置及设备
US10726522B2 (en) * 2018-01-24 2020-07-28 Fotonation Limited Method and system for correcting a distorted input image
US11392131B2 (en) 2018-02-27 2022-07-19 Nauto, Inc. Method for determining driving policy
JP2019161266A (ja) * 2018-03-07 2019-09-19 シャープ株式会社 画像撮影装置の制御装置、画像撮影装置、制御プログラム、および画像撮影装置の制御方法
CN108986148B (zh) * 2018-03-21 2021-10-26 南京邮电大学 实现多智能小车协同搜索识别并跟踪特定目标群体的方法
US11035933B2 (en) 2018-05-04 2021-06-15 Honda Motor Co., Ltd. Transition map between lidar and high-definition map
US11644527B2 (en) * 2018-05-31 2023-05-09 The Charles Stark Draper Laboratories, Inc. Lost-in-forest GPS-denied positioning system
US10852138B2 (en) * 2018-06-14 2020-12-01 Dell Products, L.P. Scalabale simultaneous localization and mapping (SLAM) in virtual, augmented, and mixed reality (xR) applications
US10970924B2 (en) * 2018-06-17 2021-04-06 Foresight Ai Inc. Reconstruction of a scene from a moving camera
GB2577134B (en) 2018-09-10 2021-01-13 Perceptual Robotics Ltd Control and navigation systems
EP3850456B1 (en) 2018-09-10 2024-05-08 Perceptual Robotics Limited Control and navigation systems, pose optimisation, mapping, and localisation techniques
CN111060114A (zh) * 2018-10-17 2020-04-24 宝马股份公司 用于生成高精度地图的特征图的方法和装置
CN110147094A (zh) * 2018-11-08 2019-08-20 北京初速度科技有限公司 一种基于车载环视系统的车辆定位方法及车载终端
CN112424568A (zh) * 2018-12-04 2021-02-26 北京嘀嘀无限科技发展有限公司 构建高清地图的系统和方法
CN112136021A (zh) * 2018-12-29 2020-12-25 北京嘀嘀无限科技发展有限公司 用于构建基于地标的高清地图的系统和方法
CN109871024A (zh) * 2019-01-04 2019-06-11 中国计量大学 一种基于轻量级视觉里程计的无人机位姿估计方法
GB2622499A (en) * 2019-03-07 2024-03-20 Mobileye Vision Technologies Ltd Aligning road information for navigation
CN111750882B (zh) * 2019-03-29 2022-05-27 北京魔门塔科技有限公司 一种导航地图在初始化时车辆位姿的修正方法和装置
CN110009675B (zh) * 2019-04-03 2021-05-18 北京市商汤科技开发有限公司 生成视差图的方法、装置、介质及设备
CN112308913B (zh) * 2019-07-29 2024-03-29 北京魔门塔科技有限公司 一种基于视觉的车辆定位方法、装置及车载终端
CN111791227B (zh) * 2019-12-31 2022-03-11 深圳市豪恩声学股份有限公司 机器人手眼标定方法、装置及机器人
CN111310597B (zh) * 2020-01-20 2023-07-25 北京百度网讯科技有限公司 车辆位姿矫正方法、装置、设备及存储介质
US11480434B2 (en) 2020-02-04 2022-10-25 Pony Ai Inc. Initial localization
SE2050258A1 (en) * 2020-03-06 2021-09-07 Scania Cv Ab Machine learning based system, methods, and control arrangement for positioning of an agent
US11692830B2 (en) * 2020-03-26 2023-07-04 Intel Corporation Real-time localization error correction of autonomous vehicle
CN111409104B (zh) * 2020-03-27 2022-11-04 伯朗特机器人股份有限公司 工业机器人位姿特性中位姿特性漂移的测量方法
US11609344B2 (en) * 2020-04-07 2023-03-21 Verizon Patent And Licensing Inc. Systems and methods for utilizing a machine learning model to determine a determined location of a vehicle based on a combination of a geographical location and a visual positioning system location
US11747441B2 (en) * 2020-07-29 2023-09-05 Apple Inc. Indoor/outdoor detection using wireless signals
US20220032970A1 (en) * 2020-07-29 2022-02-03 Uber Technologies, Inc. Systems and Methods for Mitigating Vehicle Pose Error Across an Aggregated Feature Map
WO2022040723A1 (en) * 2020-08-25 2022-03-03 Commonwealth Scientific And Industrial Research Organisation Multi-agent map generation
WO2022162616A1 (en) * 2021-01-28 2022-08-04 Visionary Machines Pty Ltd Systems and methods for combining multiple depth maps
DE102021214476B4 (de) 2021-12-16 2024-05-08 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Lokalisierungssystems eines Kraftfahrzeugs sowie Lokalisierungssystem
CN114520799B (zh) * 2021-12-27 2023-05-05 中国人民解放军战略支援部队信息工程大学 基于最小圆覆盖的城市内ip定位及误差估计方法及系统
CN116843748B (zh) * 2023-09-01 2023-11-24 上海仙工智能科技有限公司 一种远距二维码及其物体空间位姿获取方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099668A (ja) * 1999-09-30 2001-04-13 Sony Corp ナビゲーション装置
JP2005265494A (ja) * 2004-03-17 2005-09-29 Hitachi Ltd 車両位置推定装置およびこれを用いた運転支援装置
JP2008020225A (ja) * 2006-07-11 2008-01-31 Fujitsu Ltd 自己位置推定プログラム、自己位置推定方法および自己位置推定装置
JP2008309546A (ja) * 2007-06-13 2008-12-25 Pioneer Electronic Corp 移動体位置情報補正装置及び移動体位置情報補正プログラム
JP2009250718A (ja) * 2008-04-03 2009-10-29 Nissan Motor Co Ltd 車両位置検出装置及び車両位置検出方法
JP2010537210A (ja) * 2007-08-29 2010-12-02 コンチネンタル・テベス・アーゲー・ウント・コンパニー・オーハーゲー 境界標識による車両位置の補正

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961571A (en) 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
US6047234A (en) 1997-10-16 2000-04-04 Navigation Technologies Corporation System and method for updating, enhancing or refining a geographic database using feedback
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
AU2003300959A1 (en) 2002-12-17 2004-07-22 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
JP4267657B2 (ja) * 2006-10-31 2009-05-27 本田技研工業株式会社 車両周辺監視装置
US8174568B2 (en) 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
US8073287B1 (en) * 2007-02-26 2011-12-06 George Mason Intellectual Properties, Inc. Recognition by parts using adaptive and robust correlation filters
CA2712673A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
EP2199983A1 (en) * 2008-12-22 2010-06-23 Nederlandse Centrale Organisatie Voor Toegepast Natuurwetenschappelijk Onderzoek TNO A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product
WO2011012882A1 (en) 2009-07-28 2011-02-03 Bae Systems Plc Estimating positions of a device and at least one target in an environment
DE102010033479A1 (de) 2010-08-05 2012-02-09 Technische Universität Carolo-Wilhelmina Zu Braunschweig Verfahren zur Lokalisierung eines mobilen Objekts in einer Umgebung und mobiles Objekt dafür
US9286810B2 (en) * 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
US8798840B2 (en) * 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
GB201116958D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Use of synthetic overhead images for vehicle localisation
US8766975B2 (en) * 2012-07-19 2014-07-01 Honeywell International Inc. Method of correlating images with terrain elevation maps for navigation
US9342888B2 (en) * 2014-02-08 2016-05-17 Honda Motor Co., Ltd. System and method for mapping, localization and pose correction of a vehicle based on images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099668A (ja) * 1999-09-30 2001-04-13 Sony Corp ナビゲーション装置
JP2005265494A (ja) * 2004-03-17 2005-09-29 Hitachi Ltd 車両位置推定装置およびこれを用いた運転支援装置
JP2008020225A (ja) * 2006-07-11 2008-01-31 Fujitsu Ltd 自己位置推定プログラム、自己位置推定方法および自己位置推定装置
JP2008309546A (ja) * 2007-06-13 2008-12-25 Pioneer Electronic Corp 移動体位置情報補正装置及び移動体位置情報補正プログラム
JP2010537210A (ja) * 2007-08-29 2010-12-02 コンチネンタル・テベス・アーゲー・ウント・コンパニー・オーハーゲー 境界標識による車両位置の補正
JP2009250718A (ja) * 2008-04-03 2009-10-29 Nissan Motor Co Ltd 車両位置検出装置及び車両位置検出方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019510240A (ja) * 2016-03-15 2019-04-11 ソルファイス リサーチ、インコーポレイテッド 車両認知を提供するためのシステム及び方法
JP2020516853A (ja) * 2016-12-09 2020-06-11 トムトム グローバル コンテント ベスローテン フエンノートシャップ ビデオベースの位置決め及びマッピングの方法及びシステム
JP7213809B2 (ja) 2016-12-09 2023-01-27 トムトム グローバル コンテント ベスローテン フエンノートシャップ ビデオベースの位置決め及びマッピングの方法及びシステム
US11761790B2 (en) 2016-12-09 2023-09-19 Tomtom Global Content B.V. Method and system for image-based positioning and mapping for a road network utilizing object detection
KR20190113226A (ko) * 2018-03-28 2019-10-08 현대모비스 주식회사 실시간 3차원 지도 구축 장치 및 방법
KR20200068624A (ko) * 2018-03-28 2020-06-15 현대모비스 주식회사 3차원 지도 구축에 있어 3차원 거리정보의 실시간 업데이트 장치 및 방법
KR102275695B1 (ko) * 2018-03-28 2021-07-09 현대모비스 주식회사 3차원 지도 구축에 있어 3차원 거리정보의 실시간 업데이트 장치 및 방법
KR102508960B1 (ko) 2018-03-28 2023-03-14 현대모비스 주식회사 실시간 3차원 지도 구축 장치 및 방법
CN113146634A (zh) * 2021-04-25 2021-07-23 达闼机器人有限公司 机器人姿态的控制方法、机器人及存储介质

Also Published As

Publication number Publication date
CN104833370A (zh) 2015-08-12
US20150228077A1 (en) 2015-08-13
US9342888B2 (en) 2016-05-17
JP6595182B2 (ja) 2019-10-23
US20160203373A1 (en) 2016-07-14
US9443309B2 (en) 2016-09-13
DE102015201951A1 (de) 2015-08-27
CN104833370B (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
JP6595182B2 (ja) マッピング、位置特定、及び姿勢補正のためのシステム及び方法
US11632536B2 (en) Method and apparatus for generating three-dimensional (3D) road model
CN110163930B (zh) 车道线生成方法、装置、设备、系统及可读存储介质
CN111442776B (zh) 顺序地面场景图像投影合成与复杂场景重构的方法及设备
US11567496B2 (en) Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory
WO2017020466A1 (zh) 基于激光点云的城市道路识别方法、装置、存储介质及设备
CN110386142A (zh) 用于自动驾驶车辆的俯仰角校准方法
WO2020043081A1 (zh) 定位技术
KR102218881B1 (ko) 차량 위치 결정 방법 및 시스템
JP7289470B2 (ja) 三次元空間に対応するマップを生成する車両、及びその方法
CN111089597A (zh) 基于图像和地图数据来定位的方法和装置
KR20180059188A (ko) 딥 러닝을 이용한 동적 장애물이 없는 배경 위주의 3차원 지도 생성 방법
CN111427373B (zh) 一种位姿确定方法、装置、介质和设备
US20230322236A1 (en) Vehicle pose assessment
CN113227713A (zh) 生成用于定位的环境模型的方法和系统
CN114111817B (zh) 基于slam地图与高精度地图匹配的车辆定位方法及系统
US11461944B2 (en) Region clipping method and recording medium storing region clipping program
CN110827340A (zh) 地图的更新方法、装置及存储介质
JP7423500B2 (ja) 情報処理装置、情報処理方法、プログラムおよび車両制御システム
Yang et al. Road detection by RANSAC on randomly sampled patches with slanted plane prior
WO2021056185A1 (en) Systems and methods for partially updating high-definition map based on sensor data matching
WO2018120932A1 (en) Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory
KR102677731B1 (ko) GNSS/INS와 HD Map를 이용한 단안카메라의 위치측정 및 맵핑 처리를 향상시키기 위한 시스템 및 방법
CN116022133A (zh) 一种汽车行驶路线上有水坑时的行人防溅水方法及装置
Chandratre Traffic Accident Reconstruction Using Monocular Dashcam Videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180831

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190926

R150 Certificate of patent or registration of utility model

Ref document number: 6595182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees