JP2019500602A - 画像ベースの車両位置特定のためのシステム及び方法 - Google Patents

画像ベースの車両位置特定のためのシステム及び方法 Download PDF

Info

Publication number
JP2019500602A
JP2019500602A JP2018531062A JP2018531062A JP2019500602A JP 2019500602 A JP2019500602 A JP 2019500602A JP 2018531062 A JP2018531062 A JP 2018531062A JP 2018531062 A JP2018531062 A JP 2018531062A JP 2019500602 A JP2019500602 A JP 2019500602A
Authority
JP
Japan
Prior art keywords
vehicle
orientation
determining
map data
camera image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018531062A
Other languages
English (en)
Other versions
JP6946298B2 (ja
JP2019500602A5 (ja
Inventor
ハイゼル ベルンド
ハイゼル ベルンド
タアリミ アリ
タアリミ アリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2019500602A publication Critical patent/JP2019500602A/ja
Publication of JP2019500602A5 publication Critical patent/JP2019500602A5/ja
Application granted granted Critical
Publication of JP6946298B2 publication Critical patent/JP6946298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

【課題】
【解決手段】車両の位置及び姿勢を決定するための方法及びシステムが提供される。車両位置特定システムは、車両の位置及び姿勢の推定値を決定する。システムは、位置及び姿勢の推定値に基づいて3次元地図データを読み出す。システムは、車載カメラからカメラ画像を取得する。システムは、位置及び姿勢の推定値に基づいてカメラ画像上に3次元地図データを投影する。システムは、投影された3次元地図データをカメラ画像と比較する。そして、システムは、比較に基づいて車両の位置及び姿勢を決定する。
【選択図】図1

Description

本出願は、2015年12月15日に出願された米国特許出願第14/970,251号の優先権を主張するものであり、該米国特許出願の全体は、ここでの開示により明確に本出願に組み込まれる。
車両ナビゲーションシステムは、典型的には、車両の位置を決定するために衛星ベースの位置特定システムを使用する。このようなシステムは、衛星信号が利用できない又は弱い場所に関する既知の欠点を有する。
車両の位置を決定する別の方法として、画像ベースの位置特定が提案されている。車両用の従来の画像ベースの位置特定技術は、車両搭載カメラからのカメラ画像をトップダウン画像又は鳥瞰図画像に変換するための逆透視マッピング(inverse perspective mapping:IPM)を使用してきた。トップダウン画像は、車両の位置を決定するために既知のレーンマーキングと比較されてもよい。
IPMに基づく位置特定技術は、IPMが既知の特性又は仮定された特性に依存するため、欠点を有する場合がある。例えば、IPM技術においては、道路は平らであり、カメラのピッチ及びヨーは既知であると仮定している。これらの仮定は、現実世界の運転条件では成立しない場合がある。さらに、IPM画像は、平面特徴(例えば、レーンマーキング)と比較されるだけであるが、これら平面特徴は常に利用可能であるとは限らないし、十分であるとも限らない。
一態様によれば、本発明は、車両の位置及び姿勢を決定する方法を提供する。該方法は、車両の位置及び姿勢の推定値を決定するステップを含む。該方法は、位置及び姿勢の推定値に基づいて3次元地図データを取り出すステップをさらに含む。該方法はまた、車載カメラからカメラ画像を取得するステップを含む。該方法はさらに、位置及び姿勢の推定値に基づいてカメラ画像上に3次元地図データを投影するステップを含む。該方法は、投影された3次元地図データをカメラ画像と比較するステップをさらに含む。該方法はまた、比較するステップに基づいて車両の位置及び姿勢を決定するステップを含む。
別の態様では、本発明は、車両の位置及び姿勢を決定するためのシステムを提供する。該システムは、車両の位置及び姿勢の推定値を決定するように構成された全地球測位システム受信機を含む。該システムはまた、位置及び姿勢の推定値に基づいて3次元地図データを提供するように構成された地図データベースを含む。該システムは、カメラ画像を取得するように構成された車載カメラをさらに含む。該システムは、メモリに通信可能に結合されたプロセッサをさらに含む。該プロセッサは、位置及び姿勢の推定値に基づいて、カメラ画像上に3次元地図データを投影するように構成される。該プロセッサは、投影された3次元地図データをカメラ画像と比較するようにさらに構成される。該プロセッサはまた、比較に基づいて車両の位置及び姿勢を決定するように構成される。
さらに別の態様では、本発明は、車両の位置及び姿勢を決定するためのコンピュータ実行可能コードを格納する非一過性のコンピュータ可読媒体を提供する。該コンピュータ可読媒体は、位置及び姿勢の推定値を決定し、位置及び姿勢の推定値に基づいて3次元地図データを取り出し、車載カメラからカメラ画像を取得し、位置及び姿勢の推定値に基づいてカメラ画像上に3次元地図データを投影し、投影された3次元地図データをカメラ画像と比較し、比較に基づいて車両の位置及び姿勢を決定するためのコードを含む。
本開示の特徴であると考えられる新規な特徴は、添付の特許請求の範囲に記載されている。以下の説明では、同様の部品は、明細書及び図面全体にわたって同じ番号でそれぞれ示される。図面は必ずしも一定の縮尺で描かれておらず、ある図は明瞭さと簡潔さのために誇張された形態又は一般化された形態で示されている。しかしながら、開示自体、及び好ましい使用モード、さらなる目的及び効果は、添付の図面と併せて読むと、開示の例示的な態様の以下の詳細な説明を参照することによって最もよく理解されるであろう。
図1は、位置特定システムの動作環境の一例を示す概略図である。 図2は、位置特定システムの例示的な実施形態によって利用され得る方法の一例を示すフローチャートを示す。 図3は、3次元地図データをカメラ画像に投影する方法の一例を示すフローチャートである。 図4は、投影された3次元地図データをカメラ画像と比較する方法の一例を示すフローチャートである。 図5は、地図座標系における3次元地図データの一例を示す図である。 図6は、車両座標系における3次元地図データの一例を示す図である。 図7は、カメラ座標系における3次元地図データの一例を示す図である。 図8は、図5〜図7の地図データに対応するカメラ画像の一例を示す図である。 図9は、カメラ画像への地図データの投影の一例を示す図である。 図10は、マスクされたカメラ画像と線を引いた地図データの一例を示す図である。 図11は、カメラ画像への地図データの異なる投影の別の例を示す図である。 図12は、方向に基づいたエッジマッチングの一例を示す。 図13は、本開示の実施形態に従って使用するための様々なハードウェア構成要素及び他の機能装備の一例を示すシステム図である。 図14は、本開示の実施形態に係る、様々なシステム構成要素例のブロック図である。
以下において、本明細書で使用される選択された用語の定義が示される。それら定義には、用語の範囲内にあり且つ実施するために使用され得る様々な例及び/又は構成要素の形態が含まれる。これらの例に、限定されるものではない。
本明細書で使用する「位置(location)」という用語は、空間内の物体の位置を指す。位置は、座標系を用いて示すことができる。例えば、位置は、経度及び緯度として表すことができる。別の実施形態では、位置は、高度を含むことができる。
本明細書で使用する「姿勢(pose)」という用語は、空間における物体の向きを指す。例えば、姿勢は、物体のピッチ、ヨー、及びロールを含むことができる。
用語「位置特定」は、物体の位置及び/又は姿勢を決定することを指す。
本明細書で使用される「プロセッサ」は、信号を処理し、一般的な計算及び算術機能を実行する。プロセッサによって処理される信号は、受信、送信、及び/又は検出可能な、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は他の演算結果を含むことができる。
本明細書で使用される「バス」は、単数又は複数のシステム内のコンピュータ構成要素間でデータを転送するように動作可能に相互接続されたアーキテクチャを指す。バスは、特に、メモリバス、メモリコントローラ、周辺バス、外部バス、クロスバースイッチ、及び/又はローカルバスとすることができる。バスは、特に、コントローラエリアネットワーク(CAN)、ローカル相互接続ネットワーク(LIN)等のプロトコルを使用して車両内の構成要素を相互接続する車両バスであってもよい。
本明細書で使用される「メモリ」は、揮発性メモリ及び/又は不揮発性メモリを含むことができる。不揮発性メモリは、例えば、ROM(読み出し専用メモリ)、PROM(プログラム可能な読み出し専用メモリ)、EPROM(消去可能なPROM)及びEEPROM(電気的に消去可能なPROM)を含み得る。揮発性メモリは、例えば、RAM(ランダムアクセスメモリ)、シンクロナスRAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDR SDRAM)及びダイレクトラムバスRAM(DRRAM)を含み得る。
本明細書で使用される「動作可能な接続」は、実体的なもの(entities)が「動作可能に接続される」接続であり、該接続においては、信号、物理的通信、及び/又は論理的通信を送信及び/又は受信することができる。動作可能な接続は、物理インターフェース、データインターフェース及び/又は電気インターフェースを含むことができる。
本明細書で使用される「車両」は、1又は複数の乗員を運ぶことができ、任意の形態のエネルギーによって動力が与えられる任意の移動車両を指す。用語「車両」には、以下に限定されないが、例えば、車、トラック、バン、ミニバン、SUV、オートバイ、スクーター、ボート、水上バイク、航空機が含まれる。場合によっては、自動車は、1つ又は複数のエンジンを含む。
ここで図面を参照すると、その中に示されているものは、本開示の1又は複数の例示的な実施形態を説明する目的のために示されており、本発明を限定する目的で示されているものではない。
図1は、位置特定システム110の動作環境100の一例を示す概略図であり、本開示の一実施形態に係る方法の例を示す。例えば、位置特定システム110は、車両102内に存在する。位置特定システム110の構成要素並びに本明細書に記載される他のシステム、ハードウェアアーキテクチャ及びソフトウェアアーキテクチャの構成要素は、組み合わされたり、省略されたり、組織化されたりすることで、種々の実施例のために異なるアーキテクチャとして構成される。しかしながら、本明細書で説明する開示の実施例は、対応するシステム構成要素及び関連する方法と共に、図1に示すような環境100に焦点を当てている。
図1に示すように、車両102は、一般に、複数の車両システムを動作可能に制御する電子制御ユニット(ECU)112を備えている。車両システムは、位置特定システム110を含み、また特に、車両HVACシステム、車両オーディオシステム、車両ビデオシステム、車両インフォテイメントシステム、車両電話システム等を含むが、これらに限定されない。車両位置特定システム110は、車両GPS受信機114を有する。以下により詳細に説明するように、車両GPS受信機114は、ECU112に接続され、車両102の位置及び姿勢の推定値を提供することができる。別の実施形態では、位置特定システム110は、GPS受信機114、オドメトリセンサ116、カメラ118、及び地図データベース120と通信して車両102の位置特定を行う(例えば、車両102の位置及び姿勢を決定する)ためのプロセッサ122及びメモリ124を含む。
ECU112は、内部処理メモリと、インターフェース回路と、データを転送し、コマンドを送信し、車両システムと通信するためのバスラインとを含む。一般に、ECU112は、プロセッサ及びメモリ(図示せず)を含む。車両102はまた、位置特定システム110の様々な構成要素の間において内部でデータを送信するためのバスを含むこともできる。車両102はさらに、車両102内の機能装備(features)及びシステムに対して並びに外部装置に対して電子信号を送信/受信するために様々なプロトコルを利用して、有線又は無線コンピュータ通信を提供するための通信装置126(例えば、無線モデム)を含む。一般に、これらのプロトコルは、無線システム(例えば、IEEE802.11、IEEE802.15.1(ブルートゥース(登録商標)))、近距離通信システム(NFC)(例えば、ISO13157)、ローカルエリアネットワーク(LAN)、及び/又はポイントツーポイントシステムを含むことができる。さらに、車両102の通信装置は、電子制御ユニット104と車両の機能装備及びシステムとの間のデータ入力及び出力を容易にするために、バス(例えば、コントローラエリアネットワーク(CAN)又はローカル相互接続ネットワーク(LIN)プロトコルバス)を介して内部コンピュータ通信ができるように動作可能に接続されてもよい。
車両102はまた、車両の動きに関するデータを制御及び提供することができるオドメトリセンサ116を含む。例えば、オドメトリセンサは、車速、アイドリング速度、及びエンジンスロットル位置を提供するエンジン制御ユニット(図示せず)を含むことができる。本開示の一実施形態では、オドメトリセンサ116はさらに、車両のトランスミッション(すなわち、パワートレイン)システムに関するデータを提供するトランスミッション制御ユニット(図示せず)を含むことができる。例えば、エンジン制御ユニット及び/又はトランスミッション制御ユニットは、車両102が運動状態にあるか否かを示すデータを、電子制御ユニット112及び/又は車両システム(例えば、位置特定システム110)に提供することができる。
オドメトリセンサ116はまた、車速センサ(例えば、車輪速度センサ)及びブレーキ信号センサを含むが、これに限定されない。車速センサは、動作中の車両102に関する速度データを提供する。言い換えれば、車速センサは、電子制御ユニット112及び/又は位置特定システム110に、車両102が移動しているか否かのデータを提供する。ブレーキ信号センサは、車両ブレーキシステム及び/又はブレーキライトスイッチから送られる信号を感知して、車両ブレーキがいつ運転者によって係合及び非係合されたかを決定することができる。ブレーキ信号センサはまた、車両102のブレーキパッドが車両制動を行うために利用されるたびに作動データを提供するブレーキパッドセンサを含むことができる。ブレーキ信号センサはまた、いつ車両102が移動状態にないかに関する情報を提供することができる。
車両102はまた、車両102の周囲の環境のカメラ画像を取得するためのカメラ118を含む。一実施形態では、カメラ118は、運転者の視点と同様の視点から画像を得るために、正面向きの方向に取り付けられている。例えば、カメラ118は、車両102のフロントガラスの上部付近に取り付けられる。カメラ118は、高品質デジタル画像又はビデオを得ることができるデジタルカメラであってもよい。一実施形態では、カメラ118は、車両102に対して較正される。例えば、カメラ118は、カメラ118を使用して既知の寸法を有するパターン(例えば格子状パターン(checkerboard pattern))の画像を取得することによって較正される。カメラ118の較正は、カメラ118の姿勢と車両102の姿勢との間の関係に関する情報を提供することができる。
車両102は、地図データベース120を含むことができる。本開示の一実施形態では、地図データベース120は、3次元地図データを記憶するコンピュータ可読記憶媒体である。3次元地図データは、通信装置126を介してダウンロード又は更新することができる。例えば、位置特定システム110は、地図サーバ(図示せず)と通信して、地図データベース120に格納するための3次元地図データを得ることができる。一実施形態では、3次元地図データは、様々な特徴に対応するデータ点を含むことができる。それら特徴は、平面(例えば、平坦)特徴と、垂直成分を有する特徴との両方を含むことができる。例えば、3次元地図データは、限定されないが、連続線のレーンマーキング及び破線のレーンマーキング、縁石、横断歩道、道路標示及び交通標識等の特徴を含むことができる。データ点は、3次元座標によって定義された特定の位置での実際の特徴に対応する。3次元地図データはさらに、特徴を特定する注釈及び/又はデータ点の分類を示す注釈を含むことができる。
図2を参照して、位置特定システム110の一実施例によって利用され得る方法の一例が示される。
ブロック210において、方法200は、車両102の位置及び姿勢の推定値を決定するステップを含む。一実施形態では、位置及び姿勢の推定値は、GPS受信機114から受信したデータに基づく。例えば、位置及び姿勢の推定値は、GPS受信機114によって決定されたGPS座標であってもよい。一実施形態では、位置及び姿勢の推定値は、位置及び姿勢の可能な自由度それぞれについて、要素を持たなくてもよい。例えば、位置及び姿勢の推定値は、ピッチ値及びロール値を含まなくてもよいし、或いは初期値(default value)をとってもよい。別の実施形態では、位置及び姿勢の推定値は、予め決定された位置及び姿勢に基づいてもよい。推定値は、オドメトリセンサ116から得られる車両運動に関する情報を適用することによって決定されてもよい。
ブロック220において、方法200は、位置及び姿勢の推定値に基づいて3次元地図データを取り出すステップを含む。一実施形態では、例えば、3次元地図データは、位置及び姿勢の推定値に基づいて地図データベース120から取り出されてもよい。例えば、地図データベース120は、位置推定値から閾値距離内にある位置を有する全てのデータ点を提供する。一実施形態では、データ点はまた、姿勢推定に基づいて選択されてもよい。例えば、ヨー値に基づいて、車両の前方の位置のデータ点のみが取り出されてもよい。
ブロック230において、方法200は、車載カメラからカメラ画像を取得するステップを含む。一実施形態では、例えば、カメラ118は、カメラ画像を取得する。カメラ画像は、例えば、位置及び姿勢の推定値が生成される時に、カメラ118によって生成される現在の画像であってもよい。
ブロック240において、方法200は、オプションとして、車両の位置及び姿勢の推定値のための複数の粒子(particles)を生成するステップを含んでもよい。一実施形態では、例えば、各粒子は、車両102又はカメラ118が取り得る位置及び姿勢を仮想的に表すことができる。すなわち、各粒子は、カメラの有効な位置のための北、東、下、ヨー、ピッチ、及びロール座標として表されてもよい。確率が各粒子に関連付けられる。粒子は、位置及び姿勢の推定値、車両のオドメトリ情報、位置及び姿勢のノイズ及び変動、及び/又はランダム又は疑似ランダム因子に基づいて生成されてもよい。例えば、プロセッサ122は、前回の位置・姿勢及び車両のオドメトリ情報から、位置及び姿勢の推定値の推定される変化を決定することができる。次に、プロセッサ122は、推定された変化にランダム又は擬似ランダムスケーリング因子(scaling factor)を適用して、車両の新しい位置及び姿勢について、複数の可能性の高い仮想値を生成することができる。
ブロック250において、方法200は、位置及び姿勢の推定値に基づいてカメラ画像上に3次元地図データを投影するステップを含む。一実施形態では、例えば、プロセッサ122は、位置及び姿勢の推定値に基づいて、カメラ画像上に3次元地図データを投影する。一般に、カメラ画像上に3次元地図データを投影するステップは、位置及び姿勢の推定値に基づいて、3次元地図データ点に対応する特徴物が画像内において生じると予想されるカメラ画像の画素を決定するステップを含むことができる。図3に関して以下に詳細に説明するように、3次元地図データを投影するステップには、データ点を、地図空間又は地図座標系からカメラ空間又はカメラ座標系に変換することが含まれる。投影は、較正中に決定された固有のカメラパラメータを使用することができる。例えば、カメラ基準座標系の座標XXc=[Xc;Yc;Zc]を有する点Pの投影は、以下の式によって、点P(xp、yp)に投影される。
Figure 2019500602
文字「fc」は、焦点距離パラメータを示す2×1のベクトルである。文字「alpha_c」は、スキュー係数である。文字「cc」は、主点である。文字「xd」は、以下の式によって与えられる歪み後の正規化された画像投影である。
Figure 2019500602
文字「r」は、r2=x2+y2によって定義される。文字「x(n)」は、正規化された画像投影である。文字dxは、以下の式によって与えられる接線ひずみベクトルである。
Figure 2019500602
文字「xn」は、以下の式で与えられる正規化された画像投影である。
Figure 2019500602
ブロック260において、方法200は、投影された3次元地図データをカメラ画像と比較するステップを含む。一実施形態では、例えば、プロセッサ122は、投影された3次元地図データをカメラ画像と比較する。1つの実施形態において、比較は、3次元地図データのエッジをカメラ画像のエッジと比較するためにチャンファーマッチング(chamfer matching)技術を使用することができる。比較はまた、投影された3次元地図データがカメラ画像とどれほど密接にマッチング又は相関するかを示すマッチングメトリック(matching metric)を決定することを含むことができる。
ブロック270において、方法200は、比較するステップに基づいて、車両の位置及び姿勢を決定するステップを含む。一実施形態では、例えば、プロセッサ122は、車両の位置及び姿勢を決定する。本開示の1つの実施形態では、車両の位置及び姿勢を決定するステップは、最良のマッチングメトリックを有する粒子を選択することを含む。別の実施形態では、車両の位置及び姿勢を決定することは、比較に基づいて、位置及び姿勢の推定値に対する補正を決定することを含む。
次に、図3を参照して、3次元地図データをカメラ画像上に投影するための位置特定システム110の変形例によって利用され得る例示的な方法300が説明される。一実施形態では、方法300は、方法200のブロック250に対応する。
ブロック310において、方法300は、3次元地図データを地図座標系から車両座標系に変換するステップを含む。本開示の一実施形態では、3次元地図データは、グローバル座標系に従って格納される。例えば、3次元地図データの各データ点は、北(North)、東(East)、及び下(Down)座標(NED座標)を含むことができる。NED座標は、固定されたグローバル座標系の原点に基づくことができる。車両ナビゲーションシステムは、異なる座標系を使用してもよい。例えば、車両ナビゲーションシステムは、車両102の出発位置又は車両102の現在位置を原点とすることができる。プロセッサ122は、異なる原点に基づく変換(translation)を適用することによって、受信した3次元地図データを車両座標系に変換することができる。
ブロック320において、方法300は、地図データを、車両座標系からカメラ座標系へ変換するステップを含む。本開示の一実施形態では、カメラ座標系は、車両座標系に対して回転される。例えば、車両座標系は、一般に、トップダウン又は鳥瞰図の視点であるが、カメラ座標系は、前方視の視点である。従って、車両座標系における高さは、カメラ座標系における垂直座標に対応し、車両102に対するカメラ118のピッチに依存する。同様に、北座標及び東座標は、車両102に対するカメラ118の姿勢に依存する。車両座標系とカメラ座標系との間の関係は、既知の位置の既知のパターンの画像を使用してカメラ118を較正することによって確定させることができる。こうして、プロセッサ122は、車両座標系の地図データをカメラ座標系に変換することができる。
ブロック330において、方法300は、3次元地図データをカメラ座標系からカメラ画像に投影するステップを含む。3次元地図データの投影において、3次元地図データは2次元の点(例えば、ピクセル)に変換される。投影はカメラの位置及び姿勢の推定値に基づく。本開示の一実施形態では、各粒子は、位置及び姿勢の仮想値を表し、投影は、各粒子に対して実行される。本開示の別の実施形態では、カルマンフィルタ等の単一の仮説推定法(single hypothesis estimator)が使用される。ブロック310、320、330に記載された変換のうちの2つ以上を数学的に組み合わせて単一の変換を生成してもよいことに留意されたい。
ブロック340において、方法300は、オプションとして、勾配に基づいて3次元地図データ内に投影された線を延長するステップを含む。本開示の一実施形態では、3次元地図データは、線を、一連のデータ点として表すことができる。データ点がカメラ画像に投影される場合、データ点が接続されない場合がある。プロセッサ122は、2以上の投影データ点(例えば、ピクセル)に基づいて勾配を決定することができる。次いで、プロセッサ122は、勾配に基づいて追加のピクセルを決定することによって、線を延長することができる。一実施形態では、線は、勾配に基づいてカメラ画像の縁まで延長される。
次に図4を参照して、投影された3次元地図データをカメラ画像と比較するための位置特定システム110の実施形態によって利用され得る例示的な方法400が説明される。一実施形態では、方法400は、方法200のブロック260に対応する。
ブロック410において、方法400は、カメラ画像でエッジ検出を行うステップを含む。エッジ検出のための様々な方法及びアルゴリズムは、画像処理の分野において知られており、プロセッサ122は、それらを使用することによって、カメラ画像内のエッジを検出することができる。一般に、エッジ検出アルゴリズムは、隣接するピクセル間の特性の変化を判定して、エッジを特定することができる。一実施形態では、エッジ検出を実行すると、エッジ及びそれに付随した方向のセットが生成される。本開示の一実施形態では、キャニー法(Canny edge detector)等の一般的なエッジ検出法を使用することができる。別の実施形態では、例えばスティアラブルフィルタ(steerable filter)を使用して路面マーキング又は縁石に沿ったエッジを検出するように、エッジ検出法を調整してもよい。別の実施形態では、エッジ検出は、外れ値を除去するためにnon−maxima suppression処理を適用することを含むこともできる。接続されたエッジを選択するために、ヒステリシス閾値処理(hysteresis thresholding)を適用することもできる。
ブロック420において、方法400は、オプションとして、3次元地図データ及びカメラ画像の一方又は両方にマスクを適用するステップを含む。マスクは、比較のためのエッジの数を減らすことができる。例えば、マスクは、極小点によって引き起こされるエッジを除去することができる。別の例として、マスクを適用するステップは、障害物(occluding objects)を特定し、該障害物にマスクを適用するステップを含む。例えば、画像内に他の車両が検出された場合には、検出された他の車両によってブロックされる画像の部分にマスクを適用することによって、検出された他の車両のエッジは、投影された3次元地図データと比較されないようにできる。
ブロック430において、方法400は、カメラ画像のエッジと投影された地図データのエッジとの間の最短距離を決定するステップを含む。最短距離は、チャンファー距離(chamfer distance)と呼ばれる。一実施形態では、プロセッサ122は、カメラ画像のエッジのピクセル座標を、最も近くに位置する投影された地図データ点のピクセル座標と比較する。一実施形態では、エッジは、方向に基づいてマッチングされる。例えば、エッジは、同様の方向を有するエッジとのみマッチングされる(例えば、マッチングしたエッジの方向は、閾値角度内にある)。一実施形態では、エッジ間のチャンファー距離は、マンハッタン距離(すなわち、水平距離と垂直距離の合計)として測定されてもよい。
ブロック440において、方法400は、投影された地図データのためのマッチングメトリックを決定するステップを含む。マッチングメトリックは、カメラ画像のエッジと投影された地図データのエッジとの間の類似度を示す任意のメトリックである。1つの実施形態では、マッチングメトリックは、マッチングエッジ間のチャンファー距離の合計である。一実施形態では、マッチングメトリックは、外れ値を除外するために、エッジの一部(例えば、最も近い90%)に基づく。さらに、マッチングメトリックを決定する際に、カメラ画像及び/又は投影された地図データのマスクされた部分を除外してもよい。上述したように、マッチングメトリックは、車両102又はカメラ118の現在の位置及び姿勢として最良の粒子を選択するために、方法200のブロック270において使用されてもよい。
次に、図5〜図7を参照して、3次元地図データの座標系の変換の例について説明する。図5は、一実施形態に係る地図データベースに格納された3次元地図データの一例を示す。該3次元地図データは、交差点又は2つの多車線道路を含む。縁石、車線マーキング、及び横断歩道は、該3次元地図データ内にデータ点として含まれる。図示されているように、北座標はx軸に関連付けられ、東座標はy軸に関連付けられ、下座標はz軸に関連付けられる。図示した例では、道路は北又は東に真っ直ぐに走っていない。
図6は、車両座標系における3次元地図データの一例を示す図である。図6に示すように、車両102は、座標系の原点に位置している。さらに、座標系の軸は、車両102の軸に合わせられている。従って、図示されているように、道路は、座標系の軸に沿っている(自動車が道路に沿って移動していると仮定)。例えば、x軸は、車両102の前方の距離を示し、y軸は、車両102の側部までの距離を示し、z軸は、車両102の上方又は下方の距離を示す。図7は、カメラ座標系における3次元地図データを示す。この場合、カメラ位置(車両位置と同じ)は、座標系の原点に位置している。カメラ座標系は、鳥瞰図の視点ではなく、前方を向いた視点からのものである。例えば、図示されているように、x軸はカメラの側部までの距離に対応し、y軸はカメラの上方又は下方の距離に対応し、z軸はカメラの前方の距離に対応する。座標系間の変換は、使用される特定の座標系に基づく線形変換を使用してプロセッサ122によって決定される。
図8〜図10を参照して、エッジマッチングの一例について説明する。図8は、カメラ画像800の一例を示す図である。カメラ画像800は、カメラ118から取得することができ、車両102の運転者の視点と同様の視点からのものである。一実施形態では、図8のカメラ画像は、図5〜図7に示す3次元地図データにおける交差点の画像である。図9は、第1の粒子又は第1の位置及び姿勢の推定値に従ってカメラ画像800に投影された3次元地図データを示す。示されるように、3次元地図データの投影データ点900は、カメラ画像内の個々のピクセルとして投影される。
図10は、マスキング及び線を引いた後のカメラ画像800及び投影データ点900の例を示す。例えば、マスク1010によって、道路の亀裂によって引き起こされるカメラ画像800における極小点を除去することができる。他の例として、マスク1020は、道路上の(地図データにはない)他の車両を除去する。さらに、投影データ点900の個々の点は、線を引くことによって接続される。図10に示すように、投影されたデータ点900は、カメラ画像800内の道路マーキング及び縁石に位置がそろっている。一方、図11は、異なる粒子又は異なる位置及び姿勢の推定値に基づく投影データ点1100の別のセットを示す。図11に示されるように、投影データ点1100は、カメラ画像800のランドマーク及び縁石から前方及び左にシフトしている。従って、マッチングメトリックに基づいて、プロセッサ122は、投影データ点900に対応する粒子が、投影データ点1100に対応する粒子よりも良好な粒子であると判定することができる。従って、プロセッサ122は、投影データ点900に対応する粒子の位置及び姿勢が、車両102又はカメラ118の現在の位置及び姿勢であると判断することができる。
図12は、エッジの方向に基づくエッジマッチングの例を示す。左の例では、方向を考慮せずにエッジがマッチングされている。従って、テンプレートエッジ点は、最短距離に基づいて、対応する画像エッジ点とマッチングされている。方向を考慮しないマッチングの場合、同じ画像エッジ点に対して、複数のテンプレート点がマッチングされ、マッチングメトリックの過小評価となる。右の例では、方向を考慮してエッジがマッチングされている。従って、各テンプレートエッジ点は、同様の方向を有する対応する画像エッジ点とマッチングされている。例えば、エッジの方向は、互いに閾値角度内にある。右側の例に示すように、同様の方向を有する対応する画像エッジ点は、最も近いエッジ点よりも遠く離れている。しかしながら、右側の例に示す距離は、テンプレートエッジと画像エッジとの相関を決定するためのより正確なメトリックとなる。
本開示の実施形態は、ハードウェア、ソフトウェア、又はそれらの組み合わせを使用して実行することができ、1つ又は複数のコンピュータシステム又は他の処理システムで実行することができる。一実施形態では、本開示は、本明細書に記載の機能を実行することができる1つ又は複数のコンピュータシステムで行われる。そのようなコンピュータシステム1300の例を図13に示す。
図13は、本開示の実施形態に従って使用され得る様々なハードウェア構成要素及び他の機能装備の例示的なシステム概略図を示す。本開示の実施形態は、ハードウェア、ソフトウェア、又はそれらの組み合わせを使用して実行することができ、1つ又は複数のコンピュータシステム又は他の処理システムで実行することができる。一変形例では、本開示の実施形態は、本明細書に記載の機能を実行することができる1つ又は複数のコンピュータシステムで行われる。そのようなコンピュータシステム1300の一例を図13に示す。
コンピュータシステム1300は、1つ又は複数のプロセッサ(例えば、プロセッサ1304)を含む。プロセッサ1304は、通信インフラストラクチャ1306(例えば、通信バス、クロスオーバーバー、又はネットワーク)に接続される。この例示的なコンピュータシステムの観点から、様々なソフトウェアの実施形態が説明される。この説明を読めば、他のコンピュータシステム及び/又はアーキテクチャを使用して本開示の実施形態を実行する方法は、当業者には明らかであろう。
コンピュータシステム1300は、ディスプレイユニット1330上に表示するために、通信インフラストラクチャ1306(又は、図示されていないフレームバッファ)からグラフィックス、テキスト、及び他のデータを転送するディスプレイインターフェース1302を含む。コンピュータシステム1300はまた、メインメモリ1308、好ましくはランダムアクセスメモリ(RAM)を含み、また、2次メモリ1310を含んでもよい。2次メモリ1310は、例えば、ハードディスクドライブ1312及び/又はリムーバブルストレージドライブ1314(フロッピーディスクドライブ、磁気テープドライブ、光ディスクドライブ等)を含む。リムーバブルストレージドライブ1314は、周知の方法で、リムーバブルストレージユニット1318から読み取り、及び/又はリムーバブルストレージユニット1318に書き込む。リムーバブルストレージユニット1318は、フロッピーディスク、磁気テープ、光ディスク等であり、リムーバブルストレージドライブ1314によって読み出され、またリムーバブルストレージドライブ1314に書き込まれる。理解されるように、リムーバブルストレージユニット1318は、コンピュータソフトウェア及び/又はデータを記憶したコンピュータ使用可能記憶媒体を含む。
別の実施形態では、2次メモリ1310は、コンピュータプログラム又は他の命令がコンピュータシステム1300にロードされることを可能にするための他の同様のデバイスを含むことができる。そのようなデバイスは、例えば、リムーバブルストレージユニット1322及びインターフェース1320を含むことができる。そのような例には、プログラムカートリッジ及びカートリッジインターフェース(ビデオゲーム装置に見られるもの等)、リムーバブルメモリチップ(消去可能なプログラム可能な読み出し専用メモリ(EPROM)、又はプログラム可能な読み出し専用メモリ(PROM)等)、対応するソケット、及び他のリムーバブルストレージユニット1322及び、リムーバブルストレージユニット1322からコンピュータシステム1300にソフトウェア及びデータを転送することを可能にするインターフェース1320を含む。
コンピュータシステム1300はまた、通信インターフェース1324を含んでもよい。通信インターフェース1324は、ソフトウェア及びデータがコンピュータシステム1300と外部装置との間で転送されることを可能にする。通信インターフェース1324の例には、モデム、ネットワークインターフェース(イーサネットカード等)、通信ポート、パーソナルコンピュータメモリカード国際協会(PCMCIA)スロット及びカード等が含まれる。通信インターフェース1324を介して転送されるソフトウェア及びデータは、通信インターフェース1324によって受信可能な電子信号、電磁信号、光学信号又は他の信号等の信号1328の形態をとる。これらの信号1328は、通信経路(例えば、チャネル)1326を介して通信インターフェース1324に供給される。この経路1326は、信号1328を搬送し、ワイヤ又はケーブル、光ファイバ、電話回線、セルラーリンク、無線周波数(RF)リンク及び/又は他の通信チャネルを使用して実現される。この明細書では、「コンピュータプログラム媒体」及び「コンピュータ使用可能媒体」という用語は、リムーバブルストレージドライブ1380やハードディスクドライブ1370にインストールされたハードディスクや信号1328等のメディアを総称するために使用される。これらのコンピュータプログラム製品は、コンピュータシステム1300にソフトウェアを提供する。本発明の実施形態は、そのようなコンピュータプログラム製品を対象にしている。
コンピュータプログラム(コンピュータ制御論理とも呼ばれる)は、メインメモリ1308及び/又は2次メモリ1310に格納される。コンピュータプログラムは、通信インターフェース1324を介して受信することもできる。このようなコンピュータプログラムが実行されると、コンピュータシステム1300は、本明細書で説明されるように、本発明の実施形態に係る様々な特徴機能を実行する。特に、コンピュータプログラムは、実行されると、プロセッサ1304にそのような特徴を実行させる。従って、そのようなコンピュータプログラムは、コンピュータシステム1300のコントローラとして機能する。
本発明の実施形態がソフトウェアを使用して実施される変形形態では、ソフトウェアは、コンピュータプログラム製品に格納され、リムーバブルストレージドライブ1314、ハードドライブ1312、又は通信インターフェース1320を使用して、コンピュータシステム1300にロードされる。制御ロジック(ソフトウェア)は、プロセッサ1304によって実行されると、プロセッサ1304に、本明細書に記載される本発明の実施形態に係る機能を実行させる。別の変形形態では、例えば、特定用途向け集積回路(ASIC)等のハードウェア構成要素を使用して、主にハードウェアで実施される。本明細書で説明された機能を実行するためのハードウェア状態機械の実施は、当業者には明らかであろう。
さらに別の変形例では、ハードウェアとソフトウェアの両方の組み合わせを使用して実施される。
図14は、本発明の実施形態に係る、様々な例示的なシステム構成要素のブロック図である。図14は、本開示に従って使用可能な通信システム1400を示す。通信システム1400は、1つ又は複数のアクセス者(accessors)1460、1462(本明細書では1又は複数の「ユーザ」と交換可能に呼ばれる)及び1又は複数の端末1442、1466を含む。一実施形態では、本発明の実施形態に従って使用するためのデータは、ネットワーク1444(例えば、インターネット又はイントラネット等)及び結合装置1445、1446、1464を介して、プロセッサ及びデータ保存場所及び/又はデータ保存場所への接続を有するサーバ1443(例えば、PC、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、又は他のデバイス等)に結合された端末1442、1466(例えば、パーソナルコンピュータ(PC)、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、電話装置、パーソナルデジタルアシスタント(「PDA」)やハンドヘルド無線デバイス等の無線デバイス等)を介して、アクセス者1460、1462によって、例えば、入力及び/又はアクセスされる。結合装置1445、1446、1464としては、例えば、有線、無線、又は光ファイバのリンク等が挙げられる。他の変形例では、本発明の実施形態による方法及びシステムは、単一の端末のようなスタンドアロン環境で動作する。
本明細書で説明される実施形態は、コンピュータ実行可能命令を格納するコンピュータ可読記憶媒体との関連において、説明され実施されてもよい。コンピュータ可読記憶媒体は、コンピュータ記憶媒体及び通信媒体を含む。例えば、フラッシュメモリドライブ、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、フロッピーディスク、テープカセット等である。コンピュータ可読記憶媒体としては、コンピュータ可読命令、データ構造、モジュール又は他のデータのような情報を記憶するための任意の方法又は技術で実施される揮発性及び不揮発性、取り外し可能な媒体及び取り外し不可能な媒体が挙げられる。
上記に開示された特徴及び機能、及び他の特徴及び機能、又はその代替形態又は変形形態の様々な実施形態を望ましいように組み合わせて、多くの他の異なるシステム又はアプリケーションとして構成してもよいことは理解されよう。 また、以下の請求項に包含されることが意図されるが、現在は予測されていない、又は予想されていない種々の代替、変形、変更、又は改良は、当業者であれば、引き続き行うことができる。

Claims (20)

  1. 車両の位置及び姿勢を決定する方法であって、
    該方法は、
    位置及び姿勢の推定値を決定するステップと、
    前記位置及び姿勢の推定値に基づいて3次元地図データを取り出すステップと、
    車載カメラからカメラ画像を取得するステップと
    前記位置及び姿勢の推定値に基づいて、前記カメラ画像上に前記3次元地図データを投影するステップと、
    投影された前記3次元地図データを前記カメラ画像と比較するステップと、
    前記比較するステップに基づいて前記車両の前記位置及び姿勢を決定するステップと
    を含む、車両の位置及び姿勢を決定する方法。
  2. 請求項1記載の車両の位置及び姿勢を決定する方法において、
    前記カメラ画像上に前記3次元地図データを投影する前記ステップは、
    前記3次元地図データを地図座標系から車両座標系に変換するステップと、
    前記地図データを前記車両座標系からカメラ座標系に変換するステップと、
    前記3次元地図データを前記カメラ座標系から前記カメラ画像上に投影するステップと
    を含む、車両の位置及び姿勢を決定する方法。
  3. 請求項2記載の車両の位置及び姿勢を決定する方法において、
    前記地図データを前記車両座標系から前記カメラ座標系に変換する前記ステップは、カメラ較正に基づいて行われる、車両の位置及び姿勢を決定する方法。
  4. 請求項1記載の車両の位置及び姿勢を決定する方法において、
    投影された前記3次元地図データを前記カメラ画像と比較する前記ステップは、前記カメラ画像のエッジを投影された前記3次元地図データのエッジとマッチングするステップを含む、車両の位置及び姿勢を決定する方法。
  5. 請求項4記載の車両の位置及び姿勢を決定する方法において、
    マッチングする前記ステップは、
    前記カメラ画像に対してエッジ検出を行って、前記カメラ画像のエッジのセットを決定するステップと、
    前記カメラ画像の前記エッジのセットの各エッジと投影された前記地図データのエッジとの間の最短距離を決定するステップと
    をさらに含む、車両の位置及び姿勢を決定する方法。
  6. 請求項5記載の車両の位置及び姿勢を決定する方法において、
    前記カメラ画像の前記エッジの方向は、投影された前記地図データの前記エッジの閾値角度内にある、車両の位置及び姿勢を決定する方法。
  7. 請求項1記載の車両の位置及び姿勢を決定する方法において、
    該方法は、前記車両の前記位置及び姿勢の推定値のための複数の粒子を生成するステップをさらに含み、
    投影された前記3次元地図データを前記カメラ画像と比較する前記ステップは、
    各粒子についてマッチングメトリックを決定するステップと、
    最良のマッチングメトリックを有する粒子を選択するステップと
    を含む、車両の位置及び姿勢を決定する方法。
  8. 請求項1記載の車両の位置及び姿勢を決定する方法において、
    前記マッチングメトリックは、チャンファー距離(chamfer distance)メトリックである、車両の位置及び姿勢を決定する方法。
  9. 請求項1記載の車両の位置及び姿勢を決定する方法において、
    該方法は、前記3次元地図データ又は前記カメラ画像の一方又は両方にマスクを適用するステップをさらに含み、前記マスクは前記比較のためのエッジの数を減少させる、車両の位置及び姿勢を決定する方法。
  10. 請求項1記載の車両の位置及び姿勢を決定する方法において、
    前記カメラ画像上に前記3次元地図データを投影する前記ステップは、
    投影された前記地図データにおける線の勾配を決定するステップと、
    前記線に沿った任意のピクセルに前記勾配を割り当てるステップと、
    前記勾配を使用して、前記線を、前記カメラ画像の縁まで延長するステップと、
    を含む、車両の位置及び姿勢を決定する方法。
  11. 車両の位置及び姿勢を決定するシステムであって、
    該システムは、
    前記車両の位置及び姿勢の推定値を決定するように構成された全地球測位システム受信機と、
    前記位置及び姿勢の推定値に基づいて3次元地図データを提供するように構成された地図データベースと、
    カメラ画像を取得するように構成された車載カメラと、
    メモリに通信可能に結合されたプロセッサと、
    を備え、
    前記プロセッサは、
    前記位置及び姿勢の推定値に基づいて、前記カメラ画像上に前記3次元地図データを投影し、
    投影された前記3次元地図データを前記カメラ画像と比較し、
    前記比較に基づいて前記車両の前記位置及び姿勢を決定する、
    車両の位置及び姿勢を決定するシステム。
  12. 請求項11記載の車両の位置及び姿勢を決定するシステムにおいて、
    前記カメラ画像上に前記3次元地図データを投影する前記プロセッサは、
    前記3次元地図データを地図座標系から車両座標系に変換し、
    前記地図データを前記車両座標系からカメラ座標系に変換し、
    前記3次元地図データを前記カメラ座標系から前記カメラ画像上に投影する、
    車両の位置及び姿勢を決定するシステム。
  13. 請求項12記載の車両の位置及び姿勢を決定するシステムにおいて、
    前記プロセッサは、カメラ較正に基づいて、前記地図データを前記車両座標系から前記カメラ座標系へ変換するように構成される、車両の位置及び姿勢を決定するシステム。
  14. 請求項11記載の車両の位置及び姿勢を決定するシステムにおいて、
    前記プロセッサは、前記カメラ画像のエッジと、投影された前記3次元地図データのエッジとをマッチングさせることによって、投影された前記3次元地図データを前記カメラ画像と比較するように構成される、車両の位置及び姿勢を決定するシステム。
  15. 請求項14記載の車両の位置及び姿勢を決定するシステムにおいて、
    前記プロセッサは、
    前記カメラ画像に対してエッジ検出を行って、前記カメラ画像のエッジのセットを決定し、
    前記カメラ画像の前記エッジのセットの各エッジと、投影された前記地図データのエッジとの間の最短距離を決定する、
    車両の位置及び姿勢を決定するシステム。
  16. 請求項15記載の車両の位置及び姿勢を決定するシステムにおいて、
    前記プロセッサは、前記カメラ画像の前記エッジの方向が、投影された前記地図データの前記エッジの閾値角度内にあることを判定するように構成される、車両の位置及び姿勢を決定するシステム。
  17. 請求項11記載の車両の位置及び姿勢を決定するシステムにおいて、
    前記プロセッサはさらに、
    前記車両の前記位置及び姿勢の推定値のための複数の粒子を生成し、
    各粒子についてマッチングメトリックを決定し、
    最良のマッチングメトリックを有する粒子を選択する、
    車両の位置及び姿勢を決定するシステム。
  18. 請求項11記載の車両の位置及び姿勢を決定するシステムにおいて、
    前記マッチングメトリックは、チャンファー距離(chamfer distance)メトリックである、車両の位置及び姿勢を決定するシステム。
  19. 請求項1記載の車両の位置及び姿勢を決定する方法において、
    前記プロセッサはさらに、前記3次元地図データ又は前記カメラ画像の一方又は両方にマスクを適用するように構成され、前記マスクは前記比較のためのエッジの数を減らす、車両の位置及び姿勢を決定する方法。
  20. 車両の位置及び姿勢を決定するためのコンピュータ実行可能コードを格納する非一過性のコンピュータ可読媒体であって、
    該媒体は、
    位置及び姿勢の推定値を決定すること、
    前記位置及び姿勢の推定値に基づいて3次元地図データを取り出すこと、
    車載カメラからカメラ画像を取得すること、
    前記位置及び姿勢の推定値に基づいて、前記カメラ画像上に前記3次元地図データを投影すること、
    投影された前記3次元地図データを前記カメラ画像と比較すること、
    前記比較に基づいて前記車両の前記位置及び姿勢を決定すること、
    を行うためのコードを有する、
    非一過性のコンピュータ可読媒体。
JP2018531062A 2015-12-15 2016-12-14 画像ベースの車両位置特定のためのシステム及び方法 Active JP6946298B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/970,251 2015-12-15
US14/970,251 US9727793B2 (en) 2015-12-15 2015-12-15 System and method for image based vehicle localization
PCT/US2016/066632 WO2017106327A1 (en) 2015-12-15 2016-12-14 System and method for image based vehicle localization

Publications (3)

Publication Number Publication Date
JP2019500602A true JP2019500602A (ja) 2019-01-10
JP2019500602A5 JP2019500602A5 (ja) 2019-12-05
JP6946298B2 JP6946298B2 (ja) 2021-10-06

Family

ID=59018803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018531062A Active JP6946298B2 (ja) 2015-12-15 2016-12-14 画像ベースの車両位置特定のためのシステム及び方法

Country Status (5)

Country Link
US (1) US9727793B2 (ja)
JP (1) JP6946298B2 (ja)
CN (1) CN108450034B (ja)
DE (1) DE112016005735T5 (ja)
WO (1) WO2017106327A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020122784A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. 経路プランニングのための自律走行車両の位置を決定する方法及び装置
JP7474137B2 (ja) 2020-06-30 2024-04-24 キヤノン株式会社 情報処理装置およびその制御方法

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108449945B (zh) * 2015-09-30 2020-12-08 索尼公司 信息处理设备、信息处理方法和程序
EP3422289A4 (en) * 2016-02-23 2019-02-27 Ricoh Company, Ltd. IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE ENTITY DEVICE CONTROL SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
JP6552448B2 (ja) * 2016-03-31 2019-07-31 株式会社デンソーアイティーラボラトリ 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
US10209081B2 (en) * 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
US10282860B2 (en) * 2017-05-22 2019-05-07 Honda Motor Co., Ltd. Monocular localization in urban environments using road markings
US10529089B2 (en) * 2018-02-23 2020-01-07 GM Global Technology Operations LLC Crowd-sensed point cloud map
CN110333524A (zh) * 2018-03-30 2019-10-15 北京百度网讯科技有限公司 车辆定位方法、装置及设备
DE102018207857A1 (de) * 2018-05-18 2019-11-21 Zf Friedrichshafen Ag Verfahren und Positionierungssystem zum Transformieren einer Position eines Fahrzeugs
US20200027241A1 (en) * 2018-07-19 2020-01-23 GM Global Technology Operations LLC Auto-calibration for vehicle cameras
KR20200029785A (ko) * 2018-09-11 2020-03-19 삼성전자주식회사 증강 현실에서 가상 객체를 표시하기 위한 측위 방법 및 장치
CN109345589A (zh) 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
CN109389650B (zh) * 2018-09-30 2021-01-12 京东方科技集团股份有限公司 一种车载相机的标定方法、装置、车辆和存储介质
DE102018217194A1 (de) * 2018-10-09 2020-04-09 Robert Bosch Gmbh Verfahren zum Lokalisieren eines Fahrzeugs
KR20200046437A (ko) * 2018-10-24 2020-05-07 삼성전자주식회사 영상 및 맵 데이터 기반 측위 방법 및 장치
DE102018220159B4 (de) * 2018-11-23 2021-03-11 Zf Friedrichshafen Ag Verfahren und System zum Bereitstellen von Transformationsparametern
KR102522923B1 (ko) * 2018-12-24 2023-04-20 한국전자통신연구원 차량의 자기위치 추정 장치 및 그 방법
US20200217667A1 (en) * 2019-01-08 2020-07-09 Qualcomm Incorporated Robust association of traffic signs with a map
US11227168B2 (en) 2019-01-08 2022-01-18 Qualcomm Incorporated Robust lane association by projecting 2-D image into 3-D world using map information
CN109961522B (zh) * 2019-04-02 2023-05-05 阿波罗智联(北京)科技有限公司 图像投射方法、装置、设备和存储介质
CN111829532B (zh) * 2019-04-18 2022-05-17 丰翼科技(深圳)有限公司 一种飞行器重定位系统和重定位方法
CN111753605A (zh) * 2019-06-11 2020-10-09 北京京东尚科信息技术有限公司 车道线定位方法、装置、电子设备及可读介质
CN110264517A (zh) * 2019-06-13 2019-09-20 上海理工大学 一种基于三维场景图像确定车辆当前位置信息的方法与系统
CN112097742B (zh) * 2019-06-17 2022-08-30 北京地平线机器人技术研发有限公司 一种位姿确定方法及装置
CN112150538B (zh) * 2019-06-27 2024-04-12 北京初速度科技有限公司 一种在三维地图构建过程中车辆位姿的确定方法和装置
US11629835B2 (en) * 2019-07-31 2023-04-18 Toyota Jidosha Kabushiki Kaisha Auto-calibration of vehicle sensors
US11500104B2 (en) 2019-08-16 2022-11-15 Ford Global Technologies, Llc Localizing a moving object
WO2021035471A1 (en) * 2019-08-26 2021-03-04 Beijing Voyager Technology Co., Ltd. Systems and methods for positioning a target subject
KR20210034253A (ko) * 2019-09-20 2021-03-30 삼성전자주식회사 위치 추정 장치 및 방법
US11620831B2 (en) * 2020-04-29 2023-04-04 Toyota Research Institute, Inc. Register sets of low-level features without data association
US11887323B2 (en) * 2020-06-08 2024-01-30 Ford Global Technologies, Llc Self-supervised estimation of observed vehicle pose
CN111968071A (zh) * 2020-06-29 2020-11-20 北京百度网讯科技有限公司 车辆的空间位置生成方法、装置、设备及存储介质
CN111833717B (zh) * 2020-07-20 2022-04-15 阿波罗智联(北京)科技有限公司 用于定位交通工具的方法、装置、设备和存储介质
CN114248778B (zh) * 2020-09-22 2024-04-12 华为技术有限公司 移动设备的定位方法和定位装置
CN112001456B (zh) * 2020-10-28 2021-07-30 北京三快在线科技有限公司 一种车辆定位方法、装置、存储介质及电子设备
CN112560680A (zh) * 2020-12-16 2021-03-26 北京百度网讯科技有限公司 车道线处理方法、装置、电子设备及存储介质
EP4020111B1 (en) * 2020-12-28 2023-11-15 Zenseact AB Vehicle localisation
US11482007B2 (en) 2021-02-10 2022-10-25 Ford Global Technologies, Llc Event-based vehicle pose estimation using monochromatic imaging
CN112966059B (zh) * 2021-03-02 2023-11-24 北京百度网讯科技有限公司 针对定位数据的数据处理方法、装置、电子设备和介质
US20230143872A1 (en) 2021-11-09 2023-05-11 Msrs Llc Method, apparatus, and computer readable medium for a multi-source reckoning system
CN114547551B (zh) * 2022-02-23 2023-08-29 阿波罗智能技术(北京)有限公司 基于车辆上报数据的路面数据获取方法及云端服务器
EP4257927A1 (en) * 2022-04-06 2023-10-11 Zenseact AB Vehicle pose assessment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100014712A1 (en) * 2008-07-16 2010-01-21 Volkswagen Of America, Inc. Method for updating a geographic database for an in-vehicle navigation system
JP2013186551A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法
JP2013186718A (ja) * 2012-03-08 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法
JP2013185871A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法
WO2014091877A1 (ja) * 2012-12-12 2014-06-19 日産自動車株式会社 移動物体位置姿勢角推定装置及び移動物体位置姿勢角推定方法
WO2015072217A1 (ja) * 2013-11-13 2015-05-21 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法
US9201424B1 (en) * 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6768944B2 (en) 2002-04-09 2004-07-27 Intelligent Technologies International, Inc. Method and system for controlling a vehicle
US6094508A (en) 1997-12-08 2000-07-25 Intel Corporation Perceptual thresholding for gradient-based local edge detection
US9126533B2 (en) * 2007-02-23 2015-09-08 Aisin Aw Co., Ltd. Driving support method and driving support device
JP4412380B2 (ja) * 2007-10-02 2010-02-10 アイシン・エィ・ダブリュ株式会社 運転支援装置、運転支援方法及びコンピュータプログラム
US8503762B2 (en) * 2009-08-26 2013-08-06 Jacob Ben Tzvi Projecting location based elements over a heads up display
US9077958B2 (en) * 2010-08-30 2015-07-07 Honda Motor Co., Ltd. Road departure warning system
US8452535B2 (en) * 2010-12-13 2013-05-28 GM Global Technology Operations LLC Systems and methods for precise sub-lane vehicle positioning
CN102252859B (zh) * 2011-05-31 2013-06-05 南京信息工程大学 汽车列车直线行驶横向稳定性自动辨识系统
US9111349B2 (en) 2011-12-16 2015-08-18 Microsoft Technology Licensing, Llc Object identification using 3-D curve matching
US9145139B2 (en) * 2013-06-24 2015-09-29 Google Inc. Use of environmental information to aid image processing for autonomous vehicles
KR20150058679A (ko) * 2013-11-20 2015-05-29 한국전자통신연구원 단지내 도로에서 자율주행차량의 위치 및 해딩 정보 제공 장치 및 방법
CN104007760B (zh) * 2014-04-22 2016-05-18 济南大学 一种自主机器人视觉导航中的自定位方法
CN104374376B (zh) * 2014-11-05 2016-06-15 北京大学 一种车载三维测量系统装置及其应用

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100014712A1 (en) * 2008-07-16 2010-01-21 Volkswagen Of America, Inc. Method for updating a geographic database for an in-vehicle navigation system
JP2013186551A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法
JP2013185871A (ja) * 2012-03-06 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法
JP2013186718A (ja) * 2012-03-08 2013-09-19 Nissan Motor Co Ltd 移動物体位置姿勢推定装置及び方法
WO2014091877A1 (ja) * 2012-12-12 2014-06-19 日産自動車株式会社 移動物体位置姿勢角推定装置及び移動物体位置姿勢角推定方法
US9201424B1 (en) * 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques
WO2015072217A1 (ja) * 2013-11-13 2015-05-21 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020122784A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. 経路プランニングのための自律走行車両の位置を決定する方法及び装置
JP7474137B2 (ja) 2020-06-30 2024-04-24 キヤノン株式会社 情報処理装置およびその制御方法

Also Published As

Publication number Publication date
US20170169300A1 (en) 2017-06-15
DE112016005735T5 (de) 2018-10-04
US9727793B2 (en) 2017-08-08
JP6946298B2 (ja) 2021-10-06
WO2017106327A1 (en) 2017-06-22
CN108450034A (zh) 2018-08-24
CN108450034B (zh) 2022-02-11

Similar Documents

Publication Publication Date Title
JP6946298B2 (ja) 画像ベースの車両位置特定のためのシステム及び方法
JP6799169B2 (ja) マルチモーダル融合による3dオブジェクト検出と配向推定の結合
TWI705263B (zh) 使用光達的運輸工具定位系統
JP7025276B2 (ja) 路面標示を用いた都市環境における位置特定
JP7043755B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP7103359B2 (ja) 制御装置、および制御方法、プログラム、並びに移動体
JP2019509552A (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
US20220180483A1 (en) Image processing device, image processing method, and program
US11035933B2 (en) Transition map between lidar and high-definition map
US11255959B2 (en) Apparatus, method and computer program for computer vision
KR20200043391A (ko) 화상 블러 보정을 위한 화상 처리, 화상 처리 방법 및 프로그램
WO2020116206A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2020087191A (ja) 車線境界設定装置、車線境界設定方法
CN115918101A (zh) 摄像装置、信息处理装置、摄像系统和摄像方法
JP5145138B2 (ja) 運転支援装置、運転支援制御方法および運転支援制御処理プログラム
JP2023068009A (ja) 地図情報作成方法
CN114821517A (zh) 用于学习神经网络以确定环境中车辆姿态的方法和系统
JP7095537B2 (ja) 画像処理装置、プログラム、情報処理システム、及び制御方法
CN111824163A (zh) 用于确定道路的曲线的方法和设备
JP2022017612A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN111627001B (zh) 图像检测方法及装置
US20230316546A1 (en) Camera-radar fusion using correspondences
JP2022067324A (ja) 物体検知装置、物体検知方法、および物体検知プログラム
CN117836818A (zh) 信息处理装置、信息处理系统、模型以及模型的生成方法

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20180814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210705

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210712

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210915

R150 Certificate of patent or registration of utility model

Ref document number: 6946298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150