JP2021167819A - 地図データ、レーザ、およびカメラからのヨー誤差の確定 - Google Patents

地図データ、レーザ、およびカメラからのヨー誤差の確定 Download PDF

Info

Publication number
JP2021167819A
JP2021167819A JP2021100730A JP2021100730A JP2021167819A JP 2021167819 A JP2021167819 A JP 2021167819A JP 2021100730 A JP2021100730 A JP 2021100730A JP 2021100730 A JP2021100730 A JP 2021100730A JP 2021167819 A JP2021167819 A JP 2021167819A
Authority
JP
Japan
Prior art keywords
image
vehicle
data
camera
yaw
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021100730A
Other languages
English (en)
Other versions
JP7301909B2 (ja
Inventor
ティスデイル,ジョン
Tisdale John
モンテメルロ,マイケル
Montemerlo Michael
チャタム,アンドリュー
Chatham Andrew
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waymo LLC
Original Assignee
Waymo LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waymo LLC filed Critical Waymo LLC
Publication of JP2021167819A publication Critical patent/JP2021167819A/ja
Application granted granted Critical
Publication of JP7301909B2 publication Critical patent/JP7301909B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Abstract

【課題】光による検知と測距(LIDAR)デバイスおよび/またはカメラデバイスから受信した地図データおよびセンサデータの様々な組み合わせに基づき、車両の姿勢の確定を容易にする。
【解決手段】一方法例は、(LIDAR)デバイスからポイントクラウドデータを受信することと、見下ろし画像を提供するようにポイントクラウドデータを変換することと、を含む。方法は、見下ろし画像を参照画像と比較することと、比較に基づき、ヨー誤差を確定することと、も含む。代替の方法は、カメラからカメラ画像データを受信することと、見下ろし画像を提供するようにカメラ画像データを変換することと、を含む。方法は、見下ろし画像を参照画像と比較することと、比較に基づき、ヨー誤差を確定することと、も含む。
【選択図】図6

Description

関連出願の相互参照
本出願は、その内容が参照により本明細書に組み込まれている2017年7月25日出願の米国特許出願第15/658,800号の利益を主張する。
本明細書に特に断りのない限り、この節に記載の資料は、本出願の請求項に先行する技術ではなく、この節への包含によって先行技術であると認められるものではない。
車両は、運転者からの入力がほとんどまたは全くない状態で、環境を車両がうまく通過する自律モードで作動するように構成され得る。自律車両は、車両が作動する環境に関する情報を検出するように構成されている1つまたは複数のセンサを含み得る。
このようなセンサは、光による検知と測距(LIDAR:Light Detection And Ranging)デバイスを含み得る。LIDARは、風景を走査しながら環境特徴までの距離を推定し、環境内の反射面を示す「ポイントクラウド」を集合させることができる。他のセンサは、車両の周りの環境の画像フレームを取り込むように構成された可視光カメラおよび/または無線周波数信号を使用して対象を検出するように構成されたRADARデバイスを含み得る。
本開示は、光による検知と測距(LIDAR)デバイスおよび/またはカメラデバイスから受信した地図データおよびセンサデータの様々な組み合わせに基づき、車両の姿勢の確定を容易にする方法およびシステムに関する。例えば、本開示は、車両姿勢推定装置のヨー誤差を確定し、訂正するためのシステムおよび方法を提供し得る。
第1の態様において、方法が提供される。方法は、光による検知と測距(LIDAR)デバイスからポイントクラウドデータを受信することを含む。方法は、見下ろし画像を提供するようにポイントクラウドデータを変換することも含む。方法は、見下ろし画像を参照画像と比較することと、比較に基づき、ヨー誤差を確定することと、をさらに含む。
第2の態様において、方法が提供される。方法は、カメラからカメラ画像データを受信することと、見下ろし画像を提供するようにカメラ画像データを変換することと、を含む。方法は、見下ろし画像を参照画像と比較することと、比較に基づき、ヨー誤差を確定することと、も含む。
第3の態様において、方法が提供される。方法は、参照データを受信することを含み、参照データは、俯瞰眺めから提供される。方法は、参照データをカメラの視野に対応するように変換することと、カメラからカメラ画像データを受信することと、をさらに含む。方法は、追加として、変換済み参照データをカメラ画像データと比較することと、比較に基づき、ヨー誤差を確定することと、を含む。
当業者には、該当する場合は添付図面を参照して、以下の詳述を読むことで、その他の態様、実施形態、および実装形態が見えてくるであろう。
一実施形態例によるシステムを示す図である。 一実施形態例による車両を示す図である。 一実施形態例による見下ろし地図画像を示す図である。 一実施形態例による見下ろしカメラ画像を示す図である。 一実施形態例による見下ろし集約画像を示す図である。 一実施形態例による見下ろし集約画像を示す図である。 一実施形態例による見下ろし地図画像を示す図である。 一実施形態例による見下ろしLIDAR画像を示す図である。 一実施形態例による見下ろし集約画像を示す図である。 一実施形態例による見下ろし集約画像を示す図である。 一実施形態例による前方地図画像を示す図である。 一実施形態例による前方カメラ画像を示す図である。 一実施形態例による前方集約画像を示す図である。 一実施形態例による前方集約画像を示す図である。 一実施形態例による方法を示す図である。 一実施形態例による方法を示す図である。 一実施形態例による方法を示す図である。
ここでは、方法、デバイス、およびシステムの例を記述する。ここでは、「例、場合、または例証の役割を果たす」ということを意味するために、「例」および「例示的」という語を使用することを理解しておく必要がある。ここに「例」または「例示的」であるとして記載される実施形態または特徴のいずれも、必ずしも他の実施形態または特徴よりも好まれる、または有利であると解釈されるべきものとは限らない。ここに提示される発明の対象の範囲を逸脱しない限り、その他の実施形態を活用することができ、その他の変更を行うことができる。
したがって、ここに記載の実施形態例は、限定することを目的とするものではない。本開示の態様は、ここに大まかに説明し、図に示すように、多種多様な構成で配置、置換、組み合わせ、分離、および設計が可能で、ここでは、そのすべての可能性が受け入れられている。
また、文脈上、そうではないと考えられない限り、図のそれぞれに示される特徴は、互いに組み合わせて使用され得る。したがって、図は、それぞれの実施形態にとって、図示の特徴のすべてが必要というわけではないとの理解の下、大体において、1つまたは複数の実施形態全体の構成要素側面として見るべきものである。
I.概要
従来の車両ナビゲーションシステムは、補助センサ(例えば、全地球測位システム(GPS:Global Positioning System)ホイールスピードセンサ、カメラ、LIDARなど)を有する慣性センサ(例えば、加速度計およびジャイロスコープ)と、および/または補足情報(例えば地図)を組み合わせて、車両の姿勢を確定し得る。
本明細書に記載のシステムおよび方法は、車両の姿勢、具体的にはそのヨー、または車首方位の正確で頻繁な測定値を提供する。多くの走行場面では(例えば、比較的平らな表面を移動している間)、車両のヨーは、車両のコンパス方位(例えば、北、南、東、西など)を含み得る。
ヨー測定値は、GPSによって、または地図に対する横方向位置誤差に基づいてヨー誤差を推測することによって、提供され得る。しかし、ヨー誤差を直接確定することが望ましい。本明細書では、LIDAR、電波による検知および測距(RADAR:RAdio Detection And Ranging)、および/またはカメラ情報を使用して、地図から直接小さなヨー誤差を確定することができるシステムおよび方法について説明する。
一実施形態例において、ポイントクラウドデータが見下ろし画像に投影され、地図データと比較され得る。投影ポイントクラウドデータと地図データとの比較に基づき、ヨー誤差が直接確定され得る。例えば、ヨー誤差は、投影ポイントクラウドデータを地図データに正しく見当合わせする(例えば、位置合わせする、または整合させる)のに適している回転角度調整として確定され得る。それにより、確定済みヨー誤差は、調整信号として、慣性ナビゲーションシステムに提供され得る。
他のいくつかの実施形態において、カメラ画像データが見下ろし画像に投影され、地図データと比較され得る。投影画像データと地図データとの比較に基づき、ヨー誤差が上記と同様に直接確定され得る。
さらなる実施形態において、地図データがカメラ画像フレームに対応する眺めに投影され得る。このような場合、地図データとカメラ画像間の、左から右の見当合わせ誤差が、直接ヨー誤差を示し得る。
実施形態によっては、地図データは、以前のカメラ画像、LIDARポイントクラウド、RADARデータ、衛星画像、その他の類の画像、または環境に関するその他の情報から生成される可能性のある参照データを含み得る。このような情報は、オフラインで処理され(例えば、クラウドサーバによって)、実施形態によっては、車両にローカルに格納され得る。
ヨー誤差は、正規化相互相関またはその他の画像見当合わせ方法を含む、様々な整合技法によって推測され得る。実施形態によっては、この整合は、車両内で行われてもよく、またはクラウドサーバもしくは別のタイプの分散型コンピューティングシステムによって少なくとも部分的に行われてもよい。一実施形態例において、画像比較とヨー誤差調整がほぼリアルタイムで行われ得る。追加としてまたは代替として、例えば、所与のセンサまたは参照データの長期ドリフトに関する情報を得るために、画像比較がオフラインで行われ得る。
本明細書に記載のシステムおよび方法は、車両に対する姿勢推定に関して、正確さと信頼性を高めることができる。より正確で信頼できる姿勢情報を提供することによって、車両の全体的な位置確定をよりうまく行うことができ、よりよい知覚、計画、障害物回避、地図作成、測量、および変化検出につなげることができる。追加としてまたは代替として、本明細書に記載の方法およびシステムにより得られた正確なヨー情報は、車線維持、障害物回避、大まかなナビゲーションおよび経路選定などの様々な運転挙動に活かされ得る。さらに、場合によっては、本明細書に記載の方法およびシステムは、比較的低品質または低精度のセンサを使用しながら、よりよいヨー確定をもたらし得る。
II.システム例
図1は、一実施形態例によるシステム100を示す。示すように、システム100は、車両110、俯瞰画像ソース130、およびコントローラ150を含む。
車両110は、乗用車、トラック、航空機、ボート、移動式ロボット、または別の類の可動対象を含み得る。車両110は、1つまたは複数のLIDARシステム112、1つまたは複数のカメラ114、および/または1つまたは複数のRADARシステム116などの、様々なセンサを含み得る。実施形態によっては、車両110は、様々なセンサおよび/または参照データ118から受信した情報に少なくとも部分的に基づき、半自律式または完全自律式に動くことができる。
LIDAR112は、車両110の環境内の1つまたは複数の対象(例えば、場所、形状など)に関する情報(例えば、ポイントクラウドデータ)を提供するように構成され得る。例えば、LIDAR112は、環境中に光パルスを放ち得る。放たれた光パルスは、環境内の対象と相互に作用して反射光を形成し得、LIDAR112は、反射光の少なくとも一部を反射信号として受信し得る。例えば、LIDAR112は、各それぞれの光パルスが放たれた時間を、それぞれの対応する反射光パルスが受信された時間と比較し、この比較に基づき、1つまたは複数の対象と車両110との間の距離を確定し得る。
実施形態によっては、LIDAR112は、軸(例えば、車両110の垂直軸)を中心に回転するように構成され得る。このような場合、LIDAR110の様々な構成要素の配置を頻繁に較正し直すことなく、車両110の環境の360度視界の3次元地図が確定され得る。追加としてまたは代替として、LIDAR112は、その回転軸を傾けて、LIDARが環境データを提供し得る環境の一部を制御するように構成され得る。
実施形態によっては、LIDAR112によって得られたポイントクラウドデータが、車両110の環境の見下ろし画像を形成するように平坦化されるか、編集されるか、それとも調整され得る。例えば、見下ろし画像を提供するように、3次元ポイントクラウドデータの少なくとも一部が無視され、取り除かれ、かつ/または変換され得る。
カメラ114は、静止画像またはビデオ画像を取り込むように構成され得る。カメラ114は、カメラ114の視野を示す情報を提供するように動作可能な画像センサを含み得る。実施形態によっては、カメラ114は、電荷結合素子(CCD:Charge−Coupled Device)アレイおよび/または相補型金属酸化膜半導体(CMOS:Complementary Metal Oxide Semiconductor)検出素子アレイを含み得る。その他のタイプの検出装置も考えられ得る。このような検出装置は、可視光波長においてかつ/またはその他の波長(例えば、赤外線)において動作可能であり得る。一実施形態例において、カメラ114は、前方視カメラ(例えば、車両110の前方方向に対応する視野を有する)である可能性がある。
追加としてまたは代替として、カメラ114は、車両110の周りの環境の一部またはすべてに及ぶようにそれぞれの視野を有する複数のカメラを含む可能性がある。例えば、カメラ114は、車両110の周囲の360度画像を取り込むように構成された複数のカメラを含み得る。このような場合、複数のカメラの各カメラ114が、それぞれの画像を取り込み得る。車両110の周りの環境の見下ろし画像を形成するように、対応する複数の画像が、縫い合わされ得るかそれとも組み合わせられ得る。すなわち、複数の画像に適用された1つまたは複数の射影幾何学変換に基づき、見下ろし画像が形成される可能性がある。
RADAR116は、電波信号を放ち、戻ってくる反射信号を検出することによって、環境特徴までの距離を活発に推定するように構成されたシステムを含む可能性がある。このような場合、送信と受信との間の時間遅延に従って、電波−反射特徴までの距離が確定され得る。RADAR116は、時変周波数ランプを有する信号など、経時で周波数が変わる信号を放ち、次に、放たれた信号と反射信号との周波数の差を範囲推定値に関係付けることができる。いくつかのシステムは、受信反射信号におけるドップラー周波数シフトに基づき、それぞれの対象の相対運動を推定することもできる。
実施形態によっては、RADAR116は、指向性アンテナを含み得、RADAR信号の指向性送信および/または指向性受信に、指向性アンテナを使用して、それぞれの範囲推定値を方位角に関連付けることができる。より一般的には、指向性アンテナを使用して、所与の対象とする視野に放射エネルギを集中させることもできる。測定距離と方向情報とを組み合わせることで、周囲の環境特徴を地図に描くことができる。このように、例えば、自律車両制御システムがRADARセンサを使用して、センサ情報によって示された障害物を避けることができる。
車両110は、参照データ118を受信し、格納し、かつ/または処理し得る。様々な実施形態において、参照データ118は、車両110の環境を示す地図またはその他の情報を含む可能性がある。例えば、参照データ118は、地図データおよび/または俯瞰画像を含み得る。例えば、参照データ118は、航空機または衛星からの俯瞰画像を含み得る。
追加としてまたは代替として、参照データ118は、以前に取り込まれたカメラ画像を含む可能性がある(例えば、カメラ114または別のカメラによって取り込まれた)。またさらに、参照データ118は、以前に取り込まれたLIDARポイントクラウドデータ(例えば、LIDAR112または別のLIDARシステムによって取り込まれた)、または以前に取り込まれたRADARデータ(例えば、RADAR116または別のRADARシステムによって取り込まれた)を含む可能性がある。参照データ118は、車両110の環境に関する情報を含み得る。例えば、参照データ118は、道路、建物、ランドマーク(例えば、地理上の場所)、および車両110の環境に関するその他の物理的特性に関する情報を含み得る。実施形態によっては、参照データ118は、リアルタイムで更新される可能性がある。また、実施形態によっては、参照データ118は、ローカルにまたは遠隔で格納され得る(例えば、クラウドベースのコンピューティングネットワークに)地図データベースから要求され、かつ/または受信され得る。その他の類の参照データ118も考えられ得、本明細書ではその可能性が受け入れられている。
システム100は、姿勢推定装置120も含む。姿勢推定装置120は、車両110に関する姿勢情報を確かめるために、概算する、推定する、確定する、計算する、またはその他の行動をとるように構成され得る。車両110の姿勢情報は、他にも考えられるが特に、ヨー値(または車首方位)、ピッチ値、ロール値、高度、および/または車両110の場所を含む可能性がある。言い換えると、姿勢推定装置120は、1次元、2次元、および/または3次元における車両のその時の向きおよび/または位置を確定するように動作可能であり得る。
実施形態によっては、車両110のヨー値は、度の単位で示され得る。例えば、車両110が北に向かって進んでいる、または北に向いている場合、姿勢推定装置120によって示されるヨー値は、0°であり得る。南は、180°のヨー値に対応し得、東と西は、それぞれ、90°と270°に対応し得る。度、10進数でも、またはその他の類の学術用語でも、ヨー値を表すその他の方法が考えられ得、本明細書ではその可能性が受け入れられていることが分かるであろう。
同様に、車両110のピッチ値および/またはロール値は、度または別の変数の関数として姿勢推定装置120によって示され得る。車両110の高度は、フィートもしくはメートルの関数として、または別の尺度の絶対高さもしくは相対高さとして、姿勢推定装置120によって示され得る。車両110の位置は、姿勢推定装置120によって、全地球測位システム座標において、または別の類の絶対座標系もしくは相対座標系において示される可能性がある。
姿勢推定装置120は、プロセッサおよびメモリを含み得る。実施形態によっては、姿勢推定装置120は、フィールドプログラマブルゲートアレイ(FPGA:Field−Programmable Gate Array)または特定用途向け集積回路(ASIC:Application−Specific Integrated Circuit)を含む可能性がある。実施形態によっては、姿勢推定装置120は、別のタイプのコンピューティングシステムである可能性がある。さらに、姿勢推定装置120は、車両110に対してローカルに(例えば、車載)かつ/または遠隔に(例えば、クラウドコンピューティングネットワーク)配置される可能性がある。実施形態によっては、姿勢推定装置120の機能の一部またはすべてが、本明細書の他の個所に記載のコントローラ150によって実施される可能性がある。
車両110は、追加として、通信インターフェース122を含み得る。通信インターフェース122は、車両110と、コントローラ150、俯瞰画像ソース130、1つまたは複数のコンピューティングネットワーク、および/またはその他の車両などのその他のシステムとの間に通信をもたらすように構成され得る。実施形態によっては、通信インターフェース122は、車両110の様々な要素間に通信リンクを提供する可能性がある。
通信インターフェース122は、例えば、1つまたは複数の他の車両、センサ、または他のエンティティ間に有線または無線の通信を直接にまたは通信ネットワークを介してもたらすように構成されたシステムである可能性がある。このために、通信インターフェース122は、他の車両、センサ、サーバ、または他のエンティティと直接にまたは通信ネットワークを介して通信するためのアンテナおよびチップセットを含み得る。チップセットまたは通信インターフェース122は、通常、他にも考えられるが特に、Bluetooth、Bluetooth Low Energy(BLE)、IEEE802.11で記述される通信プロトコル(いずれのIEEE802.11改訂も含む)、セルラーテクノロジー(GSM、CDMA、UMTS、EV−DO、WiMAX、またはLTEなど)、ZigBee、専用狭域通信(DSRC:Dedicated Short Range Communications)、および無線周波数識別(RFID:Radio Frequency IDentification)通信など、1つまたは複数のタイプの無線通信(例えば、プロトコル)に従って通信するように配置され得る。通信インターフェース122は、その他の形態を取ることもあり得る。
車両110は、追加として、誘導システム124を含む。誘導システム124は、GPS、慣性計測ユニット(IMU:Inertial Measurement Unit)、ジャイロスコープ、および/または車両110の位置または姿勢を示す情報を提供するように構成された別のタイプのデバイスを含み得る。GPSは、車両110の地理上の場所を推定するように構成されたいずれのセンサでもあり得る(例えば、位置センサ)。このために、GPSは、地球に対する車両110の位置を推定するように構成されたトランシーバを含み得る。GPSは、その他の形態を取ることもあり得る。IMUは、慣性加速度に基づき、車両110の位置および向きの変化を検知するように構成されたセンサの組み合わせを含み得る。実施形態によっては、センサの組み合わせは、例えば、加速度計およびジャイロスコープを含み得る。その他のセンサ組み合わせも考えられ得る。
誘導システム124は、車両110に対して走行経路を少なくとも部分的に定め得る、様々なナビゲーション能力および経路指定能力を含み得る。誘導システム124は、追加として、車両110が作動している間、走行経路を動的に更新するように構成され得る。実施形態によっては、誘導システム124は、車両110に対して走行経路を定めるために、センサフュージョンアルゴリズム、GPS、LIDARシステム112、および1つまたは複数の所定の地図(例えば、参照データ118)からのデータを組み込むように構成され得る。誘導システム124は、障害物回避システムも含み得、この障害物回避システムは、車両110が位置する環境内の障害物を特定し、見極め、かつ避けるかそれともうまく切り抜けるように構成され得る。車両110は、追加としてまたは代替として、示した構成要素以外の構成要素を含み得る。
実装形態によっては、システム100は、俯瞰画像ソース130を含み得る。一実施形態例において、俯瞰画像ソース130は、車両110の周りの環境の少なくとも一部の俯瞰ビューを提供するために、地図データ、画像、またはその他の類の情報を取り込むように構成され得る。場合によっては、車両110は、航空機(例えば、ドローン地図作成航空機)または衛星であり得る、俯瞰画像ソース130から地図データを受信し、格納し得る。一例として、地図データは、俯瞰画像ソース130により、車両110に、かつ/またはその他の場所に格納される可能性がある。
システム100は、コントローラ150も含む。コントローラ150は、1つまたは複数のプロセッサ152および少なくとも1つのメモリ154を含む。コントローラ150は、車両110に搭載でまたは遠隔に(例えば、クラウドコンピューティングネットワークに)位置する可能性がある。追加としてまたは代替として、コントローラ150のいくつかの部分が車両110に配置され得る一方、コントローラ150のその他の部分が別の場所に配置される。
コントローラ150は、オンボードコンピュータ、外部コンピュータ、またはスマートフォン、タブレットデバイス、パーソナルコンピュータ、ウェアラブルデバイスなどのモバイルコンピューティングプラットフォームを含み得る。追加としてまたは代替として、コントローラ150は、クラウドサーバなどの遠隔に位置するコンピュータシステムを含み得るか、またはそれに接続され得る。一実施形態例において、コントローラ150は、本明細書に記載の方法ブロックまたはステップの一部またはすべてを実施するように構成され得る。
プロセッサ152は、例えば、特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA)を含み得る。本明細書では、ソフトウェア命令を実施するように構成された、その他のタイプのプロセッサ、コンピュータ、またはデバイスがその可能性が受け入れられている。メモリ154は、以下に限定されるわけではないが、読み取り専用メモリ(ROM:Read−Only Memory)、プログラマブル読み取り専用メモリ(PROM:Programmable Read−Only Memory)、消去可能なプログラマブル読み取り専用メモリ(EPROM:Erasable Programmable Read−Only Memory)、電気的に消去可能なプログラマブル読み取り専用メモリ(EEPROM:Electrically Erasable Programmable Read−Only Memory)、不揮発性ランダムアクセスメモリ(例えば、フラッシュメモリ)、ソリッドステートドライブ(SSD:Solid State Drive)、ハードディスクドライブ(HDD:Hard Disk Drive)、コンパクトディスク(CD:Compact Disc)、デジタルビデオディスク(DVD:Digital Video Disk)、デジタルテープ、読み取り/書き込み(R/W:Read/Write)CD、R/W DVDなどの非一時的コンピュータ可読媒体を含み得る。
コントローラ150は、様々なセンサフュージョンアルゴリズム、機能、またはタスクを実施するように構成され得る。例えば、コントローラ150は、センサフュージョンアルゴリズムおよび/またはアルゴリズムを格納しているコンピュータプログラム製品を実施するように構成され得る。センサフュージョンアルゴリズムを実施する際、コントローラ150は、入力として、様々なセンサ(例えば、LIDAR112、カメラ114、RADAR116、および/またはその他のセンサ)からデータを受信し得るかそれとも受け入れ得る。データは、例えば、車両のセンサシステムの様々なセンサにおいて検知された情報を表すデータを含み得る。センサフュージョンアルゴリズムは、例えば、カルマンフィルタ、ベイジアンネットワーク、本明細書の方法の機能のいくつかを果たすように構成されたアルゴリズム、または別のアルゴリズムを含み得る。センサフュージョンアルゴリズムは、センサシステムからのデータに基づいて様々な評価を与えるようにさらに構成され得、評価には、例えば、車両110が位置する環境内の個々の対象および/または特徴の評価、特定の状況の評価、および/または特定の状況に基づく考えられる影響の評価が含まれる。その他の評価も考えられ得る。
コントローラ150は、コンピュータビジョンシステムを含み得、コンピュータビジョンシステムは、車両110が位置する環境内の対象および/または特徴を特定するために、LIDAR112、カメラ114、および/またはRADAR116のうちの少なくとも1つによって取り込まれた画像を処理し、解析するように構成されたシステムを含み得る。このような対象または特徴は、例えば、交通信号、他の車両、歩行者、自転車に乗っている人、ランドマーク、道路標識、道路、工事区域、およびその他の類の対象または障害物を含み得る。このために、コンピュータビジョンシステムは、対象認識アルゴリズム、運動からの構造復元(SFM:Structure From Motion)アルゴリズム、ビデオトラッキング、またはその他のコンピュータビジョン技法を使用し得る。実施形態によっては、コンピュータビジョンシステムは、追加として、環境の地図を作成する、対象を追跡する、対象の速さを推定する、などを行うように構成され得る。
実施形態によっては、コントローラ150は、様々な画像処理機能および/またはポイントクラウドデータ処理機能を実施するように構成され得る。すなわち、コントローラ150は、それぞれのカメラ画像、RADARデータ、および/またはポイントクラウドデータに基づき、見下ろし画像を提供するように構成され得る。
プロセッサ(複数可)152は、動作を実施するために、メモリ154に格納されたプログラム命令を実行するように構成され得る。したがって、コントローラ150は、本明細書に記載の動作のいずれかまたはすべてを実施するように構成され得る。
例えば、コントローラ150は、車両110の1つまたは複数のセンサシステムに、車両110の環境内の対象に関する情報を与え得るカメラ画像、ポイントクラウドデータ、および/またはレーダデータを提供させるように構成され得る。実施形態によっては、コントローラ150は、1つまたは複数のセンサシステムに、車両110の環境の望ましい部分または領域に関する情報を提供させ得る。
一例において、コントローラ150は、LIDAR112からポイントクラウドデータを受信し、見下ろし画像を提供するようにポイントクラウドデータを変換し得る。一実施形態例において、見下ろし画像は、車両110の周りの環境の平坦化2次元画像を含み得る。
コントローラ150は、見下ろし画像を参照画像と比較し、比較に基づき、ヨー誤差を確定する可能性もある。このような場合、参照画像は、地図データ(例えば、参照データ118)の少なくとも一部を含む。一実施形態例において、参照画像は、1つまたは複数の以前のカメラ画像、以前のLIDARポイントクラウド、以前のRADARデータ、衛星画像、またはその他の俯瞰画像のうちの少なくとも1つの少なくとも一部を含む。
見下ろし画像の参照画像との比較は、様々なやり方で行われ得る。例えば、正規化相互相関、グレースケール整合、階調度整合、ヒストグラム整合、エッジ検出(例えば、Cannyエッジ検出)、スケール不変特徴変換(SIFT:Scale−Invariant Feature Transform)、および/またはspeeded−up robust features(SURF)のうちの1つまたは複数により行われ得る。追加としてまたは代替として、実施形態によっては、比較は、様々な画像見当合わせアルゴリズムまたはモーフィングアルゴリズムを含み得る。
コントローラ150は、調整信号を姿勢推定装置120に提供する可能性もある。調整信号は、確定済みヨー誤差に少なくとも部分的に基づいている可能性がある。
このような場合、姿勢推定装置120は、車両110のヨー方位を確定するように構成され得る。調整信号を受信すると、姿勢推定装置120は、車両110のその時の推定ヨー方位を更新し得る。
実施形態によっては、コントローラ150は、カメラ画像データと地図データとの比較に基づき、確定済みヨー値を訂正するための他の動作を実施するように構成される可能性がある。例えば、コントローラ150は、カメラ114からカメラ画像データを受信し得る。一例において、カメラ画像データは、車両110の周りの環境を示す情報を含む。
コントローラ150は、見下ろし画像を提供するようにカメラ画像データを変換し得る。見下ろし画像は、車両の周りの環境の平坦化2次元画像を含む。実施形態によっては、見下ろし画像を提供するカメラ画像データの変換は、幾何学的透視変換アルゴリズムまたは別の類の画像処理を含み得る。
本明細書に記載のこれまでの例の場合のように、コントローラ150は、見下ろし画像を参照画像(例えば、参照データ118)と比較し、比較に基づき、ヨー誤差を確定し、車両110のその時のヨー方位を調整するように構成される可能性がある。
追加としてまたは代替として、コントローラ150は、カメラデータを変換済み地図データと比較するように構成され得る。例えば、コントローラ150は、参照データ118を受信し得る。このような場合、参照データ118は、俯瞰眺めからもたらされた画像を含み得る。それにより、カメラの視野に対応するように、参照データ118がコントローラ150によって変換され得る。コントローラ150は、カメラからカメラ画像データを受信し、カメラ画像データを変換済み参照データと比較するようにも構成され得る。比較に基づき、コントローラ150は、比較に基づきヨー誤差を確定し得る。
図2は、一実施形態例による車両200を示す。車両200は、図1に示し、それに関連して説明している車両110と同様または同一であり得る。図2は、自動車(例えば、乗用車)を示しているが、その他のタイプの車両も考えられ得、本明細書ではその可能性が受け入れられていることが分かるであろう。車両200は、1つまたは複数のセンサシステム202、204、206、208、および/または210を含み得る。1つまたは複数のセンサシステム202、204、206、208、および210は、システム100に関して説明しているセンサと同様または同一である可能性がある。すなわち、センサシステム202、204、206、208、および210は、LIDARセンサ(例えば、LIDAR112)、カメラ(例えば、カメラ114)、および/またはRADARセンサ(例えば、RADAR116)のうちの1つまたは複数を含む可能性がある。いくつかの例では、センサシステム202は、LIDARシステム、カメラ、およびRADARセンサを含む可能性があるが、その他の変種、組み合わせ、および配置のセンサも考えられ得る。
一実施形態例において、センサシステム202、204、206、208、および210のうちの1つまたは複数が、車両200の周りの環境を光パルスで照らすために、軸(例えば、垂直軸230)を中心に回転するように構成され得るLIDAR112を含む可能性がある。一実施形態例において、センサシステム202、204、206、208、および210は、車両200の環境内の物理的な対象に関係する可能性のあるそれぞれのポイントクラウド情報を提供するように構成され得る。このような場合、反射光パルスの様々な側面(例えば、経過飛行時間、偏光など)を検出することに基づき、環境に関する情報が確定され得る。追加としてまたは代替として、LIDAR112は、車両の周りの環境の望ましい部分におけるポイントクラウド情報を確定するために、比較的狭い望ましい視野を制御可能に走査するように構成されたLIDARシステムを含む可能性がある。このようなLIDARシステムは、より長い距離においてより良いポイントクラウド解像度をもたらすように構成され得る。
LIDAR112と同様に、カメラ114および/またはRADAR116は、車両200の環境に関する動的な情報を得るために、車両200に対して思い通りに動くように構成される可能性がある。例えば、カメラ114および/またはRADAR116は、車両200の環境の望ましい部分に関する情報を提供するために、軸を中心に回転し得るか、または望ましい視野へ制御可能に向けられる可能性がある。
図2は、センサシステム202、204、206、208、および210を車両200の特定の場所に位置するとして示しているが、センサのその他の多くの配置が考えられ得、その可能性が受け入れられていることが分かるであろう。
車両200の姿勢は、ヨー、ロール、およびピッチの観点から示され得る。例えば、車両200のヨーは、角度220の観点から示され得、車両200のロールは、角度240の観点から示され得、車両200のピッチは、角度222の観点から示され得る。車両200の姿勢を描写する他のやり方も考えられ得、本明細書ではその可能性が受け入れられている。
車両の推定ヨーの訂正に関係するいくつかのシナリオについて、ここで説明する。この説明されるシナリオは、自律型または半自律型の自動車に関係しているが、本明細書に記載の技法、プロセス、および方法が、特定の環境内で移動するような多くのその他のタイプの車両に適用され得ることが分かるであろう。
自走式車両は、通常、ヨー(車首方位)情報を使用して、多くの様々な運転挙動(例えば、車線維持、障害物回避、大まかなナビゲーション、および経路指定など)を行う。したがって、ヨー推定の向上により、経路計画、地図作成、測量、および変化検出を改善することができる。以下に記載のシナリオでは、比較的安価なセンサシステムからのヨー推定値を正確にするやり方を提供し得る。
本明細書に記載の実施形態が、車首方位(ヨー)に関係していることがあるが、様々な参照データとセンサデータとを比較することによって、推定姿勢に対するその他の正確化が考えられ得ることが分かる。例えば、本明細書に記載の方法またはシステムを使用して、車両の推定ピッチまたは推定ロールを正確にすることができる。
図3A〜3Dは、実施形態例による様々な画像を示す。図3Aは、一実施形態例による見下ろし地図画像300を示す。見下ろし地図画像300は、図1に示し、それに関連して説明している参照データ118の一部であり得る。見下ろし地図画像300は、環境(例えば、車両の周りの環境)の様々な特徴に関する情報を含み得る。このような特徴は、以下に限定するわけではないが、道路302、歩道304、車線標識306、縁石/中央分離帯308、およびサービスカバー310(例えば、マンホールまたは排水溝)を含む可能性がある。実施形態によっては、見下ろし地図画像300は、時間的に変わる対象(例えば、動いている車両、人、自転車に乗っている人、邪魔になっている雲量/靄など)を取り除くか、それとも画像を標準化/正規化するように、前処理され得る。
実施形態によっては、見下ろし地図画像300は、俯瞰画像ソース130によって取り込まれた画像として提供され得る。
図3Bは、一実施形態例による見下ろしカメラ画像320を示す。見下ろしカメラ画像320は、図1に示し、それに関連して説明しているカメラ114によって提供される1つまたは複数の画像と同様または同一であり得る。実施形態によっては、見下ろしカメラ画像320は、例えば透視モーフィング技法を使用して、見下ろし画像のように見えるように、縫い合わされ、調整されたいくつかのカメラ画像を含み得る。
見下ろしカメラ画像320は、例えば、図3Aの特徴と同様または同一であるいくつかの特徴を含み得る。例えば、一実施形態例において、見下ろしカメラ画像320は、道路302、歩道304、車線標識306、縁石/中央分離帯308、および/またはサービスカバー310を含み得る。さらに、見下ろしカメラ画像320は、車両200の環境内の対象に関するリアルタイムの情報を含み得る。一例として、見下ろしカメラ画像320は、他の車両322および自転車に乗っている人324を含み得る。
実施形態によっては、見下ろしカメラ画像320は、他の車両322および自転車に乗っている人324など、時間的に変わる対象を取り除くまたは無視することによって、調整され得る。時間の経過とともに変化する可能性があると見なされるその他の対象(例えば、歩行者、雲量など)は、本明細書の他の個所に記載の方法以外で削除、無視、それとも処理され得る。
図3Cは、一実施形態例による見下ろし集約画像340を示す。見下ろし集約画像340は、見下ろし地図画像310と見下ろしカメラ画像320との組み合わせ、オーバーレイ、重ね合わせ、並置、比較、または別の類の解析を含み得る。図3Cに示すように、一実施形態として、2つの画像のオーバーレイである集約画像340があり得る。このような場合、見下ろし集約画像340は、角度差342を含み得る。角度差342は、推定車首方位と実際の車首方位との差を含み得る。場合によっては、角度差342を姿勢推定装置120および/または誘導システム124に提供して、車両の推定車首方位を改善し得る。
図3Dは、一実施形態例による見下ろし集約画像350を示す。集約画像350は、地図画像300とカメラ画像320との組み合わせを示し得る。すなわち、カメラ画像320が地図画像300と対応する範囲が、集約画像350へ描き出され得る。実施形態によっては、集約画像350は、実質的な画像情報のない部分を含む可能性がある。このような部分は、カメラで撮像されていない範囲および/または地図画像とカメラ画像とで著しく異なっている画像の部分に対応し得る。
図4Aは、一実施形態例による見下ろし地図画像400を示す。見下ろし地図画像400は、図1に示し、それに関連して説明している参照データ118から形成され得る。見下ろし画像400は、以下に限定するわけではないが、車両の環境内の多くの異なる類の対象を含み得る。例えば、見下ろし地図画像400は、道路402、車線境界線403、歩道404、および木406を含み得る。実施形態によっては、見下ろし地図画像400は、時間的に変わる対象(例えば、動いている車両、人、自転車に乗っている人、排気ガスなど)を取り除くか、それとも画像を標準化/正規化するように、前処理され得る。実施形態例において、草木/葉は、見下ろし地図画像400から部分的にもしくは完全に取り除かれ得、またはその中で無視され得る。実施形態によっては、見下ろし地図画像400は、俯瞰画像ソース130によって取り込まれた画像として提供され得る。
図4Bは、一実施形態例による見下ろしLIDAR画像420を示す。見下ろしLIDAR画像420は、図4Aに関連して説明している特徴の少なくともいくつかを含み得る。さらに、LIDAR画像420は、他の車両422および/または他の時変要素を含み得る。見下ろしLIDAR画像420は、LIDAR112、または別のLIDARシステムによって提供されたポイントクラウドデータからの処理済みデータを含み得る。例えば、LIDAR112は、コントローラ150または別のタイプのイメージング処理コンピュータシステムにポイントクラウド情報を提供し得る。このような場合、3次元ポイントクラウド情報を遠近感に合わせて圧縮/平坦化/それとも調整し、2次元見下ろし透視画像420を形成し得る。
図4Cは、一実施形態例による見下ろし集約画像440を示す。見下ろし集約画像440は、見下ろし地図画像400と見下ろしLIDAR画像420との組み合わせ、オーバーレイ、重ね合わせ、または別の類の画像比較を示し得る。見下ろし集約画像440は、図4Aおよび図4B内の特徴と同じ特徴のうちのいくつを含み得る。例えば、画像440は、道路402、車線境界線403、歩道404、および木406を含み得る。実施形態によっては、見下ろし集約画像440は、他の車両422および自転車に乗っている人424を含む可能性があるが、含む必要はない。地図画像400とLIDAR画像420との比較では、時間的に変わるまたは永続的ではないと見なされた対象を、無視する、削除する、平均化する、それとも割り引いて考えるか優先順位を下げる可能性がある。
図4Dは、一実施形態例による見下ろし集約画像450を示す。集約画像450の非黒の範囲は、地図画像400の特徴に一致する、対応する、それともそれと同様である、LIDAR画像420からの特徴を示し得る。別の実施形態では、集約画像450の黒い範囲の少なくとも一部は、このような範囲がLIDARのスキャニングビューから遮られているかまたは締め出されているため、未走査範囲(例えば、ポイントクラウドデータがない)に相当し得る。
図5Aは、一実施形態例による前方地図画像500を示す。前方地図画像500は、前方視カメラ(例えば、カメラ114)の遠近感と同様または同一の遠近感を有するように調整、細工、それとも変更された見下ろし地図画像(例えば、地図画像300および400)を含み得る。本明細書に記載の実施形態では、前方視カメラビューの可能性が受け入れられているが、他の視点および/または観点に関わる方法およびシステムが考えられ得ることが分かるであろう。
前方地図画像500は、道路502、車線境界線503、交通標識/信号504、木506、建物、ランドマークなどを含み得る。地図画像に提供され得る特徴が他にも考えられ得、本明細書ではその可能性が受け入れられている。
図5Bは、一実施形態例による前方カメラ画像520を示す。前方カメラ画像520は、前方地図画像500の特徴と同様の特徴を含み得る。例えば、前方カメラ画像520は、道路502、車線境界線503、交通標識/信号504、木506、ならびに様々な他の車両522および524を含む可能性がある。実施形態によっては、前方カメラ画像520は、ビデオカメラまたは静止カメラ(例えば、カメラ114)によって取り込まれ得る。図5Bは、前方カメラ画像520を含むが、LIDARポイントクラウドデータが、前方視眺めを有する前方LIDAR「画像」を形成するように変換される可能性があることが分かる。
図5Cは、一実施形態例による前方集約画像540を示す。前方集約画像540は、前方地図画像500と前方カメラ画像520(または前方LIDAR画像)との組み合わせ、オーバーレイ、重ね合わせ、または別の類の画像比較を示し得る。前方集約画像540は、図5Aおよび図5Bに示されたいくつかの特徴を含み得る。例えば、画像540は、道路502、車線境界線503、および木506を含み得る。実施形態によっては、前方集約画像540は、他の車両522および524を含む可能性があるが、含む必要はない。実施形態によっては、前方地図画像500と前方カメラ画像520との比較では、時間的に変わるまたは永続的ではないと見なされた対象を、無視する、削除する、平均化する、それとも割り引いて考える可能性がある。実施形態によっては、基準画像542が車線境界線503、または画像540内のその他の特有な特徴もしくはランドマークに重ね合わせられるか、またはそれと比較される可能性がある。場合によっては、基準画像542が、LIDAR、RADAR、および/または地図データに相当するものであり得る。
場合によっては、前方集約画像540が、実際のヨー方向が推定ヨー方向とは異なることを示唆することがある。このような場合、画像解析に基づき、角度差が確定され得る。また、車両の実際のヨー位置を絞り込むために、調整済みヨー信号がコントローラ150、姿勢推定装置120、誘導システム124、または別の制御システムに提供され得る。
図5Dは、一実施形態例による前方集約画像550を示す。破車線の近くの点線形状は、図5Cに示し、それに関連して説明している基準画像542と同様または同一であり得る、LIDARポイントクラウドデータのグラフィカル表現を含み得る。
III.方法例
図6は、一実施形態例による方法600を示す。方法600は、図1および図2に示し、それに関連して説明している車両110、コントローラ150、または車両200によって、完全にまたは部分的に実施され得る。方法600は、図1、2、3A〜3D、4A〜4D、および/または5A〜5Dに示し、それに関連して説明している要素と同様または同一である要素を含み得る。方法600が、本明細書に明確に開示しているのよりもステップまたはブロックを多くまたは少なく含み得ることが分かるであろう。さらに、方法600のそれぞれのステップまたはブロックは、任意の順番で行われ得、それぞれのステップまたはブロックは、1回または複数回行われ得る。実施形態によっては、方法600は、図7および図8に示し、それに関連して説明している方法700または方法800のうちの1つまたは複数と組み合わせられ得る。
ブロック602は、光による検知と測距(LIDAR)デバイスからポイントクラウドデータを受信することを含む。実施形態によっては、ポイントクラウドデータは、車両の周りの環境内の対象を示す情報を含む。
ブロック604は、見下ろし画像を提供するようにポイントクラウドデータを変換することを含む。このような場合、見下ろし画像は、車両の周りの環境の平坦化2字次元画像を含む。例えば、この変換は、スケール不変特徴変換、画像平坦化、画像透視回転、および/または3Dから2Dへの画像変換を含む可能性がある。本明細書では、3次元対象情報を2次元の見下ろし画像として表すその他のやり方の可能性を受け入れている。
ブロック606は、見下ろし画像を、地図データの少なくとも一部を含み得る参照画像と比較することを含む。参照画像は、1つまたは複数の以前のカメラ画像、LIDARポイントクラウド、RADARデータ、衛星画像、その他の類の画像、または環境に関するその他の類の情報のうちの少なくとも1つの少なくとも一部を含み得る。
ブロック608は、比較に基づき、ヨー誤差を確定することを含む。
追加としてまたは代替として、方法600は、確定済みヨー誤差に基づき、調整信号を車両の姿勢推定装置に提供することを含み得る。このような場合、方法600は、追加として、慣性姿勢推定装置により車両のヨー方位を確定することと、調整信号および確定済みヨー方位に基づき、正確なヨー方位を確定することと、を含み得る。
図7は、一実施形態例による方法700を示す。方法700は、図1および図2に示し、それに関連して説明している車両110、コントローラ150、または車両200によって、完全にまたは部分的に実施され得る。方法700は、図1、2、3A〜3D、4A〜4D、および/または5A〜5Dに示し、それに関連して説明している要素と同様または同一である要素を含み得る。方法700が、本明細書に明確に開示しているのよりもステップまたはブロックを少なくまたは多く含み得ることが分かるであろう。さらに、方法700のそれぞれのステップまたはブロックは、任意の順番で行われ得、それぞれのステップまたはブロックは、1回または複数回行われ得る。実施形態によっては、方法700は、図6および図8に示し、それに関連して説明している方法600または方法800のうちの1つまたは複数と組み合わせられ得る。
ブロック702は、カメラからカメラ画像データを受信することを含む。本明細書の他の個所に記載のように、カメラ画像データは、車両の周りの環境を示す情報を含み得る。例えば、カメラ画像データは、車両道路、走行経路、障害物、ランドマーク、および/または車両の環境内のその他の対象に関する情報を含み得る。
ブロック704は、見下ろし画像を提供するようにカメラ画像データを変換することを含む。一実施形態例において、見下ろし画像は、車両の周りの環境の平坦化2次元画像を含み得る。
ブロック706は、見下ろし画像を参照画像と比較することを含む。実施形態によっては、参照画像は、地図データの少なくとも一部を含む。例えば、参照画像は、1つまたは複数の以前のカメラ画像、LIDARポイントクラウド、RADARデータ、衛星画像、その他の類の画像、または環境に関するその他の情報のうちの少なくとも1つの少なくとも一部を含み得る。
ブロック708は、比較に基づき、ヨー誤差を確定することを含む。
方法700は、確定済みヨー誤差に基づき、調整信号を車両の姿勢推定装置に提供することも含み得る。
一実施形態例において、方法700は、例えば、姿勢推定装置により、車両のヨー方位を確定することを含み得る。調整信号に基づき、方法700は、調整信号および確定済みヨー方位に基づき、正確なヨー方位を確定することも含み得る。
図8は、一実施形態例による方法800を示す。方法800は、図1および図2に示し、それに関連して説明している車両110、コントローラ150、または車両200によって、完全にまたは部分的に実施され得る。方法800は、図1、2、3A〜3D、4A〜4D、および/または5A〜5Dに示し、それに関連して説明している要素と同様または同一である要素を含み得る。方法800が、本明細書に明確に開示しているのよりもステップまたはブロックを少なくまたは多く含み得ることが分かるであろう。さらに、方法800のそれぞれのステップまたはブロックは、任意の順番で行われ得、それぞれのステップまたはブロックは、1回または複数回行われ得る。実施形態によっては、方法800は、図6および図8に示し、それに関連して説明している方法600または方法700のうちの1つまたは複数と組み合わせられ得る。
ブロック802は、参照データを受信することを含む。このような場合、参照データは、風景の俯瞰眺めを示す情報であり得る。実施形態によっては、参照画像は、1つまたは複数の以前のカメラ画像、LIDARポイントクラウド、RADARデータ、衛星画像、その他の類の画像、または環境に関するその他の情報のうちの少なくとも1つの少なくとも一部を含み得る。
ブロック804は、参照データをカメラの視野に対応するように変換することを含む。変換は、以下に限定するわけではないが、3Dから2Dへの画像変換と、スケール不変特徴変換と、または、画像データ、ポイントクラウドデータ、もしくはその他の類の環境データの眺めを調整するように構成された別の類の画像処理変換と、を含む可能性がある。実施形態によっては、変換により、参照データが俯瞰眺めから前方向きの眺めに変わる可能性がある。その他の類の画像処理変換も考えられ得、本明細書ではその可能性を受け入れている。
ブロック806は、カメラからカメラ画像データを受信することを含む。一実施形態例において、カメラ画像データは、車両の周りの環境の少なくとも一部の平坦化2次元画像を含み得る。
ブロック808は、変換済み参照データをカメラ画像データと比較することを含む。実施形態によっては、カメラ画像データは、変換済み参照データの少なくとも一部に対応する。場合によっては、参照データおよび/またはカメラ画像データは、画像差異アルゴリズム、画像ホモグラフィアルゴリズム、または画像偏位修正アルゴリズムのうちの少なくとも1つにより処理され得る。
ブロック810は、比較に基づき、ヨー誤差を確定することを含む。実施形態によっては、方法800は、確定済みヨー誤差に基づき、調整信号を車両の姿勢推定装置に提供することをさらに含む。
図に示す特定の配置は、限定と見るべきではない。他の実施形態が所与の図に示す各要素をもっと多くまたは少なく含み得ることを理解されたい。さらに、示した要素のいくつかが組み合わされても、または省かれてもよい。またさらに、図示の実施形態は、図に示されていない要素を含み得る。
情報の処理に相当するステップまたはブロックは、本明細書に記載の方法または技法の特定の論理機能を果たすように構成され得る回路網に対応し得る。代替としてまたは追加として、情報の処理に相当するステップまたはブロックは、モジュール、セグメント、物理コンピュータ(例えば、フィールドプログラマブルゲートアレイ(FPGA)もしくは特定用途向け集積回路(ASIC))、またはプログラムコードの一部(関連データを含む)に対応し得る。プログラムコードは、方法または技法において特定の論理機能または動作を実現するための、プロセッサによって実行可能な1つまたは複数の命令を含み得る。プログラムコードおよび/または関連データは、ディスク、ハードドライブ、またはその他の記憶媒体を含む記憶デバイスなどのいずれのタイプのコンピュータ可読媒体にも格納され得る。
コンピュータ可読媒体は、レジスタメモリ、プロセッサキャッシュ、およびランダムアクセスメモリ(RAM)のような短期間、データを格納するコンピュータ可読媒体などの非一時的コンピュータ可読媒体も含み得る。コンピュータ可読媒体は、より長い期間、プログラムコードおよび/またはデータを格納する非一時的コンピュータ可読媒体も含み得る。したがって、コンピュータ可読媒体は、例えば、読み取り専用メモリ(ROM)、光ディスクもしくは磁気ディスク、コンパクトディスク読み取り専用メモリ(CD−ROM)のような二次的または永続的な長期記憶域を含み得る。コンピュータ可読記憶媒体は、その他いずれかの揮発性または不揮発性の記憶システムとすることもできる。コンピュータ可読媒体は、例えばコンピュータ可読記憶媒体、または有形の記憶デバイスと考えることができる。
様々な例および実施形態を開示したが、当業者には、他の例および実施形態が見えてくるであろう。様々な開示した例および実施形態は、説明のためのものであり、限定することを意図したものではなく、実際の範囲は、以下の特許請求の範囲によって示される。

Claims (20)

  1. 光による検知と測距(LIDAR)デバイスからポイントクラウドデータを受信することと、
    見下ろし画像を提供するように前記ポイントクラウドデータを変換することと、
    前記見下ろし画像を参照画像と比較することと、
    前記比較に基づき、ヨー誤差を確定することと、を含む、方法。
  2. 前記ポイントクラウドデータが、車両の周りの環境内の対象を示す情報を含む、請求項1に記載の方法。
  3. 前記見下ろし画像が、前記車両の周りの前記環境の平坦化2次元画像を含む、請求項2に記載の方法。
  4. 前記確定済みヨー誤差に基づき、調整信号を車両の姿勢推定装置に提供することをさらに含む、請求項1に記載の方法。
  5. 前記姿勢推定装置により、前記車両のヨー方位を確定することと、
    前記調整信号および前記確定済みヨー方位に基づき、正確なヨー方位を確定することと、をさらに含む、請求項4に記載の方法。
  6. 前記参照画像が、地図データの少なくとも一部を含む、請求項1に記載の方法。
  7. 前記参照画像が、1つまたは複数の以前のカメラ画像、LIDARポイントクラウド、RADARデータ、衛星画像、またはその他の俯瞰画像のうちの少なくとも1つの少なくとも一部を含む、請求項1に記載の方法。
  8. カメラからカメラ画像データを受信することと、
    見下ろし画像を提供するように前記カメラ画像データを変換することと、
    前記見下ろし画像を参照画像と比較することと、
    前記比較に基づき、ヨー誤差を確定することと、を含む、方法。
  9. 前記カメラ画像データが、車両の周りの環境を示す情報を含む、請求項8に記載の方法。
  10. 前記見下ろし画像が、車両の周りの環境の平坦化2次元画像を含む、請求項8に記載の方法。
  11. 前記確定済みヨー誤差に基づき、調整信号を車両の姿勢推定装置に提供することをさらに含む、請求項8に記載の方法。
  12. 前記姿勢推定装置により、前記車両のヨー方位を確定することと、
    前記調整信号および前記確定済みヨー方位に基づき、正確なヨー方位を確定することと、をさらに含む、請求項11に記載の方法。
  13. 前記参照画像が、地図データの少なくとも一部を含む、請求項8に記載の方法。
  14. 前記参照画像が、1つまたは複数の以前のカメラ画像、LIDARポイントクラウド、RADARデータ、衛星画像、またはその他の俯瞰画像のうちの少なくとも1つの少なくとも一部を含む、請求項8に記載の方法。
  15. 参照データを受信することであって、前記参照データが、場面の俯瞰眺めを示す情報を含む、受信することと、
    前記参照データをカメラの視野に対応するように変換することと、
    前記カメラからカメラ画像データを受信することと、
    前記変換済み参照データを前記カメラ画像データと比較することと、
    前記比較に基づき、ヨー誤差を確定することと、を含む、方法。
  16. 前記カメラ画像データが、車両の周りの環境の平坦化2次元画像を含む、請求項15に記載の方法。
  17. 前記確定済みヨー誤差に基づき、調整信号を車両の姿勢推定装置に提供することをさらに含む、請求項15に記載の方法。
  18. 前記カメラ画像データが、前記変換済み参照データの少なくとも一部に対応する、請求項15に記載の方法。
  19. 前記参照データが、1つまたは複数の以前のカメラ画像、LIDARポイントクラウド、RADARデータ、衛星画像、またはその他の俯瞰画像のうちの少なくとも1つの少なくとも一部を含む、請求項15に記載の方法。
  20. 前記参照データまたは前記カメラ画像データのうちの少なくとも1つが、画像差異アルゴリズム、画像ホモグラフィアルゴリズム、または画像偏位修正アルゴリズムのうちの少なくとも1つにより処理される、請求項15に記載の方法。
JP2021100730A 2017-07-25 2021-06-17 地図データ、レーザ、およびカメラからのヨー誤差の確定 Active JP7301909B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/658,800 US10670725B2 (en) 2017-07-25 2017-07-25 Determining yaw error from map data, lasers, and cameras
US15/658,800 2017-07-25
JP2020503031A JP6901625B2 (ja) 2017-07-25 2018-07-10 地図データ、レーザ、およびカメラからのヨー誤差の確定

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020503031A Division JP6901625B2 (ja) 2017-07-25 2018-07-10 地図データ、レーザ、およびカメラからのヨー誤差の確定

Publications (2)

Publication Number Publication Date
JP2021167819A true JP2021167819A (ja) 2021-10-21
JP7301909B2 JP7301909B2 (ja) 2023-07-03

Family

ID=65038209

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020503031A Active JP6901625B2 (ja) 2017-07-25 2018-07-10 地図データ、レーザ、およびカメラからのヨー誤差の確定
JP2021100730A Active JP7301909B2 (ja) 2017-07-25 2021-06-17 地図データ、レーザ、およびカメラからのヨー誤差の確定

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020503031A Active JP6901625B2 (ja) 2017-07-25 2018-07-10 地図データ、レーザ、およびカメラからのヨー誤差の確定

Country Status (6)

Country Link
US (3) US10670725B2 (ja)
EP (1) EP3658957A4 (ja)
JP (2) JP6901625B2 (ja)
KR (1) KR102319191B1 (ja)
CN (1) CN110945379A (ja)
WO (1) WO2019022948A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL230192B1 (pl) * 2016-09-28 2018-10-31 Lipik Jacek Gama Skaner zwłaszcza do starodruków oraz sposób skanowania
JP6638695B2 (ja) * 2017-05-18 2020-01-29 トヨタ自動車株式会社 自動運転システム
WO2019012988A1 (ja) * 2017-07-14 2019-01-17 株式会社小松製作所 地形情報送信装置、施工管理システム及び地形情報送信方法
DE102017117545A1 (de) * 2017-08-02 2019-02-07 Jungheinrich Aktiengesellschaft Verfahren zur Überwachung des Fahrwegs eines Flurförderzeuges sowie ein Flurförderzeug
US10794710B1 (en) 2017-09-08 2020-10-06 Perceptin Shenzhen Limited High-precision multi-layer visual and semantic map by autonomous units
DE102017217065A1 (de) * 2017-09-26 2019-03-28 Robert Bosch Gmbh Verfahren und System zum Kartieren und Lokalisieren eines Fahrzeugs basierend auf Radarmessungen
US11237269B2 (en) * 2018-04-26 2022-02-01 Ford Global Technologies, Llc Localization technique
US10677900B2 (en) * 2018-08-06 2020-06-09 Luminar Technologies, Inc. Detecting distortion using known shapes
US10698408B2 (en) * 2018-08-30 2020-06-30 Pony Ai Inc. Distributed sensing for vehicle navigation
US11346950B2 (en) * 2018-11-19 2022-05-31 Huawei Technologies Co., Ltd. System, device and method of generating a high resolution and high accuracy point cloud
US11577647B2 (en) * 2018-12-27 2023-02-14 Continental Autonomous Mobility US, LLC Surround view by drones
WO2020252615A1 (zh) * 2019-06-17 2020-12-24 华为技术有限公司 一种车辆姿态识别方法及相关设备
US10613203B1 (en) * 2019-07-01 2020-04-07 Velodyne Lidar, Inc. Interference mitigation for light detection and ranging
CN112639882B (zh) * 2019-09-12 2021-12-14 华为技术有限公司 定位方法、装置及系统
CN110705577B (zh) * 2019-09-29 2022-06-07 武汉中海庭数据技术有限公司 一种激光点云车道线提取方法
DE102019215026A1 (de) * 2019-09-30 2021-04-01 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln eines hochgenauen Schätzwerts einer Gierrate zum Steuern eines Fahrzeugs
CN110686677B (zh) * 2019-10-10 2022-12-13 东北大学 一种基于几何信息的全局定位方法
US11262759B2 (en) * 2019-10-16 2022-03-01 Huawei Technologies Co., Ltd. Method and system for localization of an autonomous vehicle in real time
CN113312435B (zh) * 2020-02-27 2023-06-06 武汉四维图新科技有限公司 高精度地图更新方法和设备
US11257197B2 (en) * 2020-03-31 2022-02-22 Woven Planet North America, Inc. Mapping pipeline optimization using aggregated overhead view reconstruction
US11472442B2 (en) * 2020-04-23 2022-10-18 Zoox, Inc. Map consistency checker
CN111856492B (zh) * 2020-06-22 2021-04-23 北京驭光科技发展有限公司 动态船舶测高方法和装置
US11892574B2 (en) * 2020-07-31 2024-02-06 GM Global Technology Operations LLC Dynamic lidar to camera alignment
US20220113419A1 (en) * 2020-10-13 2022-04-14 Waymo, LLC LIDAR Based Stereo Camera Correction
CN112541971A (zh) * 2020-12-25 2021-03-23 深圳市慧鲤科技有限公司 点云地图构建方法及装置、电子设备和存储介质
EP4303627A1 (en) * 2021-03-01 2024-01-10 Pioneer Corporation Information processing device, control method, program, and storage medium
SE544775C2 (en) * 2021-03-30 2022-11-08 Saab Ab A method, software product, device and system for determining a direction at a position
CN113325428A (zh) * 2021-04-29 2021-08-31 中国科学院沈阳自动化研究所 一种基于激光雷达的距离与航向测量方法
CN114022760B (zh) * 2021-10-14 2022-08-05 湖南北斗微芯产业发展有限公司 铁路隧道障碍物监测预警方法、系统、设备及存储介质
CN115100622B (zh) * 2021-12-29 2023-09-22 中国矿业大学 深部受限空间无人运输设备可行驶域检测和自主避障方法
SE545879C2 (en) * 2022-09-03 2024-03-05 Spacemetric Ab Method and arrangement for determining a pose of an aerial vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1047978A (ja) * 1996-08-02 1998-02-20 Nissan Motor Co Ltd 車両用前方モニタ装置
JP2006277738A (ja) * 2005-03-03 2006-10-12 Nissan Motor Co Ltd 車載画像処理装置及び車両用画像処理方法
JP2013002820A (ja) * 2011-06-11 2013-01-07 Suzuki Motor Corp カメラキャリブレーション装置
JP2013115540A (ja) * 2011-11-28 2013-06-10 Clarion Co Ltd 車載カメラシステム及びその較正方法、及びその較正プログラム
US20130231825A1 (en) * 2012-03-01 2013-09-05 Magna Electronics, Inc. Vehicle yaw rate correction
JP2014211787A (ja) * 2013-04-19 2014-11-13 本田技研工業株式会社 情報提供装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774824A (en) 1995-08-24 1998-06-30 The Penn State Research Foundation Map-matching navigation system
US8294712B2 (en) * 2003-09-19 2012-10-23 The Boeing Company Scalable method for rapidly detecting potential ground vehicle under cover using visualization of total occlusion footprint in point cloud population
JP4682830B2 (ja) * 2005-12-05 2011-05-11 日産自動車株式会社 車載画像処理装置
JP4868964B2 (ja) * 2006-07-13 2012-02-01 三菱ふそうトラック・バス株式会社 走行状態判定装置
KR101055001B1 (ko) 2008-11-11 2011-08-05 주식회사 현대오토넷 차선 이탈 경보 시스템용 카메라의 촬영각 오차 자동 보정 방법
JP5074365B2 (ja) * 2008-11-28 2012-11-14 日立オートモティブシステムズ株式会社 カメラ装置
US8190330B2 (en) 2009-03-06 2012-05-29 GM Global Technology Operations LLC Model based predictive control for automated lane centering/changing control systems
JP5402244B2 (ja) * 2009-05-26 2014-01-29 トヨタ自動車株式会社 車両物理量推定装置
TW201100279A (en) * 2009-06-23 2011-01-01 Automotive Res & Testing Ct Composite-image-type parking auxiliary system
US8437936B2 (en) 2010-04-09 2013-05-07 Navteq B.V. Method and system for vehicle ESC system using map data
KR101236234B1 (ko) 2010-07-29 2013-02-22 한국과학기술연구원 레이저 센서와 카메라를 이용한 차선 인식 시스템
CN104185886B (zh) * 2012-03-30 2017-08-25 株式会社艾迪科 色素增感太阳能电池及色素增感太阳能电池的制造方法
US9626599B2 (en) 2012-04-09 2017-04-18 GM Global Technology Operations LLC Reconfigurable clear path detection system
US9052721B1 (en) * 2012-08-28 2015-06-09 Google Inc. Method for correcting alignment of vehicle mounted laser scans with an elevation map for obstacle detection
JP5820787B2 (ja) * 2012-08-30 2015-11-24 株式会社デンソー 画像処理装置、及びプログラム
US9043072B1 (en) 2013-04-04 2015-05-26 Google Inc. Methods and systems for correcting an estimated heading using a map
US8761457B1 (en) * 2013-11-27 2014-06-24 Google Inc. Aligning ground based images and aerial imagery
US9386302B2 (en) 2014-05-21 2016-07-05 GM Global Technology Operations LLC Automatic calibration of extrinsic and intrinsic camera parameters for surround-view camera system
US20150362587A1 (en) 2014-06-17 2015-12-17 Microsoft Corporation Lidar sensor calibration using surface pattern detection
US9568611B2 (en) 2014-08-20 2017-02-14 Nec Corporation Detecting objects obstructing a driver's view of a road
US9530235B2 (en) * 2014-11-18 2016-12-27 Google Inc. Aligning panoramic imagery and aerial imagery
JP2016120892A (ja) * 2014-12-25 2016-07-07 富士通株式会社 立体物検出装置、立体物検出方法および立体物検出プログラム
CA2976344A1 (en) 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
US9715016B2 (en) 2015-03-11 2017-07-25 The Boeing Company Real time multi dimensional image fusing
US9884623B2 (en) 2015-07-13 2018-02-06 GM Global Technology Operations LLC Method for image-based vehicle localization
JP6815724B2 (ja) * 2015-11-04 2021-01-20 トヨタ自動車株式会社 自動運転システム
US10011299B2 (en) * 2016-04-21 2018-07-03 Robert Bosch Gmbh Trailer angle detection using rear camera
CN106969763B (zh) * 2017-04-07 2021-01-01 百度在线网络技术(北京)有限公司 用于确定无人驾驶车辆的偏航角的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1047978A (ja) * 1996-08-02 1998-02-20 Nissan Motor Co Ltd 車両用前方モニタ装置
JP2006277738A (ja) * 2005-03-03 2006-10-12 Nissan Motor Co Ltd 車載画像処理装置及び車両用画像処理方法
JP2013002820A (ja) * 2011-06-11 2013-01-07 Suzuki Motor Corp カメラキャリブレーション装置
JP2013115540A (ja) * 2011-11-28 2013-06-10 Clarion Co Ltd 車載カメラシステム及びその較正方法、及びその較正プログラム
US20130231825A1 (en) * 2012-03-01 2013-09-05 Magna Electronics, Inc. Vehicle yaw rate correction
JP2014211787A (ja) * 2013-04-19 2014-11-13 本田技研工業株式会社 情報提供装置

Also Published As

Publication number Publication date
CN110945379A (zh) 2020-03-31
JP7301909B2 (ja) 2023-07-03
US11675084B2 (en) 2023-06-13
WO2019022948A1 (en) 2019-01-31
KR20200020969A (ko) 2020-02-26
US20190033459A1 (en) 2019-01-31
US20230152461A1 (en) 2023-05-18
JP2020529002A (ja) 2020-10-01
JP6901625B2 (ja) 2021-07-14
US10670725B2 (en) 2020-06-02
EP3658957A1 (en) 2020-06-03
EP3658957A4 (en) 2020-12-23
US20200249359A1 (en) 2020-08-06
KR102319191B1 (ko) 2021-10-29

Similar Documents

Publication Publication Date Title
JP6901625B2 (ja) 地図データ、レーザ、およびカメラからのヨー誤差の確定
JP7398506B2 (ja) ローカライゼーション基準データを生成及び使用する方法及びシステム
JP7090597B2 (ja) 位置特定基準データを生成及び使用する方法及びシステム
CN110057373B (zh) 用于生成高精细语义地图的方法、装置和计算机存储介质
CN109313031B (zh) 车载处理装置
US11143514B2 (en) System and method for correcting high-definition map images
EP3137850B1 (en) Method and system for determining a position relative to a digital map
US9151626B1 (en) Vehicle position estimation system
CN111856491B (zh) 用于确定车辆的地理位置和朝向的方法和设备
WO2019007263A1 (zh) 车载传感器的外部参数标定的方法和设备
US10955857B2 (en) Stationary camera localization
WO2007148546A1 (ja) 測位装置
JP6989284B2 (ja) 車両位置推定装置及びプログラム
US10249056B2 (en) Vehicle position estimation system
WO2022133986A1 (en) Accuracy estimation method and system
JP7302966B2 (ja) 移動体
US20220290996A1 (en) Information processing device, information processing method, information processing system, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230621

R150 Certificate of patent or registration of utility model

Ref document number: 7301909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150