JP2016532914A - 環境情報を用いた自律走行車両の画像処理支援 - Google Patents

環境情報を用いた自律走行車両の画像処理支援 Download PDF

Info

Publication number
JP2016532914A
JP2016532914A JP2015563088A JP2015563088A JP2016532914A JP 2016532914 A JP2016532914 A JP 2016532914A JP 2015563088 A JP2015563088 A JP 2015563088A JP 2015563088 A JP2015563088 A JP 2015563088A JP 2016532914 A JP2016532914 A JP 2016532914A
Authority
JP
Japan
Prior art keywords
environment
image data
travel lane
vehicle
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015563088A
Other languages
English (en)
Other versions
JP6055562B2 (ja
Inventor
デイヴィッド アイ ファーガソン
デイヴィッド アイ ファーガソン
ワン−イェン ロー
ワン−イェン ロー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2016532914A publication Critical patent/JP2016532914A/ja
Application granted granted Critical
Publication of JP6055562B2 publication Critical patent/JP6055562B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

自律走行車両を、環境情報を画像処理に使用するように構成することができる。車両は、環境内で自律モードで動作するように構成することができ、実質的に環境の走行車線内で動作することができる。車両は、環境を示す画像データを受け取るように構成されたセンサを含むことができる。車両は、環境の走行車線に対応する画像データ部分を特定するように、走行車線を示す環境情報を画像データと比較するように構成されたコンピュータシステムを含むこともできる。車両は、環境の走行車線に対応する画像データ部分に基づき、残りの画像データ部分を無視することにより、車線内に物体が存在するかどうかを判定し、この判定に基づいて、環境内で車両を自律モードで制御する命令を与えることができる。【選択図】図3A

Description

〔関連出願との相互参照〕
本出願は、2013年6月24日に出願された米国特許出願第13/925,795号に対する優先権を主張するものであり、この特許出願はその全体が引用により本明細書に組み入れられる。
本節で説明する内容は、本明細書で別途指示がない限り、本出願の特許請求の範囲に対する先行技術ではなく、また本節に含めることによって先行技術であると認めるものでもない。
車両は、ドライバーからの入力をほとんど又は全く伴わずに環境内を運転する自律モードで動作するように構成することができる。このような自律走行車両は、車両が動作する環境に関する情報を検出するように構成された1又はそれ以上のセンサを含むことができる。車両及びその関連するコンピュータ実装コントローラは、検出された情報を用いて環境内を運転する。例えば、(単複の)センサが、コンピュータ実装コントローラによって判定された障害物に車両が接近中であることを検出した場合、コントローラは、車両が障害物を避けて運転するように車両の方向制御を調整する。
いくつかの例では、自律走行車両の環境の既知の環境情報に基づく物体検出方法及びシステムを提供する。
第1の態様では、方法を提供する。この方法は、車両の少なくとも1つのセンサから、プロセッサを用いて環境を示す画像データ受け取るステップを含む。車両は、自律モードで動作するように構成することができ、実質的に環境の走行車線内に存在することができる。方法は、環境の走行車線に対応する画像データ部分を判定するように、走行車線を示す環境情報を画像データと比較するステップも含む。方法は、環境の走行車線に対応する画像データ部分に基づき、残りの画像データ部分を無視することにより、走行車線内に物体が存在するかどうかを判定するステップをさらに含む。残りの画像データ部分は、走行車線に対応する画像データ部分以外の画像データを含むことができる。方法は、判定に基づいて、環境内で車両を自律モードで制御する命令を与えるステップをさらに含む。
第2の態様では、車両を提供する。この車両は、環境を示す画像データを受け取るように構成されたセンサを含む。車両は、自律モードで動作するように構成することができ、実質的に環境の走行車線内に存在することができる。車両は、コンピュータシステムも含む。コンピュータシステムは、環境の走行車線に対応する画像データ部分を判定するように、走行車線を示す環境情報を画像データと比較するように構成することができる。コンピュータシステムは、環境の走行車線に対応する画像データ部分に基づき、残りの画像データ部分を無視することにより、走行車線内に物体が存在するかどうかを判定するように構成することもできる。残りの画像データ部分は、走行車線に対応する画像データ部分以外の画像データを含むことができる。コンピュータシステムは、判定に基づいて、環境内で車両を自律モードで制御する命令を与えるようにさらに構成することができる。
第3の態様では、車両内のコンピュータシステムによって実行された時にコンピュータシステムに機能を実行させる命令を記憶した非一時的コンピュータ可読媒体を開示する。この機能は、車両の少なくとも1つのセンサから環境を示す画像データ受け取るステップを含む。車両は、自律モードで動作するように構成することができ、実質的に環境の走行車線内に存在することができる。機能は、環境の走行車線に対応する画像データ部分を判定するように、走行車線を示す環境情報を画像データと比較するステップも含む。機能は、環境の走行車線に対応する画像データ部分のみに基づき、残りの画像データ部分を無視することにより、走行車線内に物体が存在するかどうかを判定するステップをさらに含む。残りの画像データ部分は、走行車線に対応する画像データ部分以外の画像データを含むことができる。機能は、判定に基づいて、環境内で車両を自律モードで制御する命令を与えるステップをさらに含む。
第4の態様では、システムを開示する。このシステムは、車両の少なくとも1つのセンサから環境を示す画像データを受け取る手段を含む。車両は、自律モードで動作するように構成することができ、実質的に環境の走行車線内に存在することができる。システムは、環境の走行車線に対応する画像データ部分を判定するように、走行車線を示す環境情報を画像データと比較する手段も含む。システムは、環境の走行車線に対応する画像データ部分に基づき、残りの画像データ部分を無視することにより、走行車線内に物体が存在するかどうかを判定する手段をさらに含む。残りの画像データ部分は、走行車線に対応する画像データ部分以外の画像データを含むことができる。システムは、判定に基づいて、環境内で車両を自律モードで制御する命令を与える手段をさらに含む。
上記の概要は例示にすぎず、決して限定を意図するものではない。図及び以下の詳細な説明を参照することにより、上述の例示的な態様、実施形態及び特徴に加えてさらなる態様、実施形態及び特徴が明らかになるであろう。
実施形態例による車両を示す機能ブロック図である。 実施形態例による車両を示す図である。 実施形態例による方法のブロック図である。 実施形態例による別の方法のブロック図である。 実施形態例による、環境内で動作する自律走行車両の上面図である。 実施形態例による、図4Aの自律走行車両によって取得された画像データ例の概略図である。 実施形態例による、図4Aの自律走行車両によって取得された環境情報例の概略図である。 実施形態例による、図4Cの環境情報例を図4Bの画像データと比較した概略図である。 実施形態例による、3次元(3D)環境情報の例を3D画像データの例と比較した概略図である。 実施形態例によるコンピュータプログラム製品の概略図である。
本明細書では、方法及びシステムの例について説明する。本明細書で説明するあらゆる実施形態又は特徴の例は、必ずしも他の実施形態又は特徴よりも好ましいもの又は有利なものとして解釈すべきではない。本明細書で説明する実施形態例は、限定を意図するものではない。開示するシステム及び方法のいくつかの態様は、様々な異なる構成での配置及び組み合わせが可能であり、本明細書ではこれらの全てが想定されていると容易に理解されるであろう。
さらに、図に示す特定の構成を限定と見なすべきではない。他の実施形態は、所与の図に示す各要素よりも多くの又は少ない要素を含むことができると理解されたい。さらに、図示の要素の一部を組み合わせ、又は省略することもできる。さらに、実施形態例は、図に示していない要素を含むこともできる。
自律モードで動作する車両では、車両の現在の車線内の物体の存在を認知又は認識することが有用となり得る。一般に、自律走行車両は、物体の存在を検出するために、LIDAR及びRADARを含む様々なセンサを利用して、車両が動作している環境を定期的に走査することができる。また、カメラが物体を遠距離から観察するように構成されており、金属物体と非金属物体を区別しないように構成できる時には、カメラを用いて物体の存在を検出することが望ましい場合もある。カメラは、LIDAR及びRADARと同様に、車両が動作している環境を定期的に走査し、画像データを取得し、画像データを処理して異物の存在を判定することができる。しかしながら、画像データの処理は計算コストが高く、画像ノイズを生じがちである。
いくつかの例では、環境のデータ(例えば、イメージマップ)を受け取り、これを利用して画像処理を容易にするように構成された自律走行車両を提供する。本明細書では、車両の環境を表す画像データ及びイメージマップを処理して物体の存在をより効率的かつ正確に検出する自律走行車両に関する方法及びシステムを開示する。開示する実施形態は、車両が動作している環境内の特定の車線の画像データを取り込むように構成できる自律走行車両に関する。画像データは、車両が動作している特定の車線に関する情報を含む、車両が動作している環境に関する情報を含むことができる。車両は、この情報を用いて、例えば無関係な範囲を無視し、特定の車線を表す画像データ部分に注目することにより、関連する範囲内の物体を検出することができる。
あるシナリオ例では、自律走行車両が、道路上の特定の車線内を走行中に、車両に結合されたカメラを用いて画像を取得することができる。このようなシナリオでは、車両の進行を妨げる恐れのあるあらゆる障害物(例えば、発炎筒、コーン、他の車両など)が車両にとって重要なものである可能性があり、従って車両は、理想的には特定の走行車線内に存在するあらゆるこのような物体を効率的かつ正確に検出したいと望む。車両は、これらの物体を検出するために、車両が走行している環境を定める又は示すイメージマップ(このシナリオでは、道路の詳細を定めて提供するイメージマップ)を求めることができる。車両は、道路のマップを用いて、(例えば、イメージマップを画像データと比較し、車線範囲を判定し、取り込んだ画像データに車線範囲を投影することにより)車両が動作している道路上の特定の車線を表す画像データ部分を判定することができる。車両は、判定された画像データ部分を処理して物体又はその他の物の存在を検出することができる。車両は、残りの画像データ部分を無視することができる。
本明細書で説明する方法及びシステムを利用すれば、自律走行車両における画像処理作業が容易になり、場合によっては一般的なカメラ処理法に存在し得る問題の一部を回避することができる。
以下、システム例についてさらに詳細に説明する。一般に、システム例はコンピュータ装置に実装することができ、或いはコンピュータ装置の形を取ることができる。しかしながら、システム例は、他の装置に実装することも、又は他の装置の形を取ることも、或いは自動車、トラック、オートバイ、バス、ボート、飛行機、ヘリコプタ、芝刈り機、レクリエーショナルビークル、遊園地の車両、農機具、建設機器、路面電車、ゴルフカート、列車及びトロリー車などの車両に含めることもできる。その他の車両も考えられる。
図1は、ある実施形態例による車両100を示す機能ブロック図である。車両100は、完全に又は部分的に自律モードで動作するように構成され、従って「自律走行車両」と呼ぶことができる。例えば、コンピュータシステム112は、車両100の制御システム106への制御命令を介して自律モード中の車両100を制御することができる。コンピュータシステム112は、センサシステム104から情報を受け取り、(検出された障害物を避けるように進行方向を設定することなどの)1又はそれ以上の制御プロセスが、受け取った情報に自動的に基づくようにすることができる。
車両100は、完全自律型又は部分的自律型とすることができる。部分的自律型の車両では、任意にいくつかの機能を時々又は常に(例えば、ドライバーによって)手動で制御することができる。さらに、部分的自律型の車両は、完全手動操作モードと、部分的自律操作モード及び/又は完全自律操作モードとの間で切り替わるように構成することができる。
車両100は、推進システム102、センサシステム104、制御システム106、1又はそれ以上の周辺機器108、並びに電源110、コンピュータシステム112及びユーザインターフェイス116などの様々なサブシステムを含むことができる。車両100は、さらに多くの又は少ないサブシステムを含むこともでき、各サブシステムは複数の要素を含むことができる。さらに、各サブシステムと車両100の要素とを相互接続することもできる。従って、説明する車両100の機能の1つ又はそれ以上は、さらなる機能的又は物理的コンポーネントに分割することも、或いはより少ない機能的又は物理的コンポーネントに組み合わせることもできる。いくつかのさらなる例では、図1に示す例にさらなる機能的及び/又は物理的コンポーネントを追加することができる。
推進システム102は、車両100に動力的な動きを与えるコンポーネントを含むことができる。この実施形態によれば、推進システム102は、エンジン/モータ118と、エネルギー源119と、トランスミッション120と、ホイール/タイヤ121とを含むことができる。エンジン/モータ118は、内燃機関、電気モータ、蒸気機関、スターリングエンジン、又はその他のタイプのエンジン及び/又はモータのいずれかの組み合わせとすることができる。いくつかの実施形態では、推進システム102が、複数のタイプのエンジン及び/又はモータを含むことができる。例えば、ガソリン電気ハイブリッド車両は、ガソリンエンジンと電気モータを含むことができる。他の例も考えられる。
エネルギー源119は、エンジン/モータ118に完全に又は部分的に動力を与えることができるエネルギー源を表すことができる。すなわち、エンジン/モータ118は、エネルギー源119を機械エネルギーに変換してトランスミッション120を動作させるように構成することができる。エネルギー源119の例としては、ガソリン、ディーゼル、他の石油系燃料、プロパン、他の圧縮ガス系燃料、エタノール、太陽電池パネル、バッテリ、コンデンサ、フライホイール、回生ブレーキシステム及び/又はその他の電気エネルギー供給源などを挙げることができる。エネルギー源119は、自動車100の他のシステムにエネルギーを供給することもできる。
トランスミッション120は、エンジン/モータ118からホイール/タイヤ121に機械力を伝える要素を含むことができる。このような要素としては、ギアボックス、クラッチ、ディファレンシャル、ドライブシャフト及び/又は(単複の)車軸などを挙げることができる。トランスミッション120は、他の要素を含むこともできる。ドライブシャフトは、1又はそれ以上のホイール/タイヤ121に結合できる1又はそれ以上の車軸を含むことができる。
ホイール/タイヤ121は、車両100を安定して支持すると同時に、車両100が移動する道路などの路面との摩擦牽引力をもたらすように配置することができる。従って、車両100のホイール/タイヤ121は、一輪車、自転車/オートバイ、三輪車、又は自動車/トラックの四輪形式を含む様々な形式で構成することができる。6又はそれ以上のホイールを含むような他のホイール/タイヤ形状も可能である。車両100のホイール/タイヤ121のいずれかの組み合わせは、他のホイール/タイヤ121に対して差動的に回転することができる。ホイール/タイヤ121は、トランスミッション120に固定して取り付けられた少なくとも1つのホイールと、ホイールのリムに結合された、走行路面に接することができる少なくとも1つのタイヤとを表すことができる。ホイール/タイヤ121は、金属とゴムのいずれかの組み合わせ、又は材料の別の組み合わせを含むことができる。
一般に、センサシステム104は、車両100を取り巻く環境に関する情報を検出するように構成された1又はそれ以上のセンサを含む。例えば、センサシステム104は、全地球測位システム(GPS)122、慣性測定装置(IMU)124、RADARユニット126、レーザー距離計/LIDARユニット128、カメラ130及び/又はマイク131を含むことができる。センサシステム104は、車両100の内部システム(例えば、O2モニタ、燃料計、エンジンオイル温度、ホイール速度センサなど)をモニタするように構成されたセンサを含むこともできる。センサシステム104に含まれるセンサの1つ又はそれ以上は、1又はそれ以上のセンサの位置及び/又は配向を修正するために個別に及び/又は集合的に作動するように構成することができる。
GPS122は、車両100の地理的位置を推定するように構成されたいずれかのセンサとすることができる。この目的のために、GPS122は、地球に対する車両100の位置に関する情報を提供するトランシーバを含むことができる。
IMU124は、慣性加速に基づいて車両100の位置及び配向の変化を検知するように構成されたセンサ(例えば、加速度計及びジャイロスコープ)のいずれかの組み合わせを含むことができる。
RADARユニット126は、無線信号を利用して車両100の局所環境内の物体を検知するシステムを表すことができる。いくつかの実施形態では、RADARユニット126を、物体を検知するだけでなく物体の速度及び/又は進行方向を検知するように構成することもできる。
同様に、レーザー距離計又はLIDARユニット128は、車両100が存在する環境内の物体を、レーザーを用いて検知するように構成されたいずれかのセンサとすることができる。実施形態によっては、レーザー距離計/LIDARユニット128が、他のシステムコンポーネントの中でも特に、1又はそれ以上のレーザー光源、レーザースキャナ、及び1又はそれ以上の検出器を含むことができる。レーザー距離計/LIDARユニット128は、(例えば、ヘテロダイン検波を用いた)コヒーレント検出モード又はインコヒーレント検出モードで動作するように構成することができる。
カメラ130は、車両100を取り巻く環境の複数の画像を取り込むように構成された1又はそれ以上の装置を含むことができる。カメラ130は、静止カメラ又はビデオカメラとすることができる。いくつかの実施形態では、カメラが取り付けられたプラットフォームを回転及び/又は傾斜させることなどにより、カメラ130を機械的に移動可能とすることができる。従って、車両100の制御プロセスは、カメラ130の動きを制御するように実装することができる。
センサシステム104は、マイク131を含むこともできる。マイク131は、車両100を取り巻く環境からの音を取り込むように構成することができる。いくつかの例では、複数のマイクをマイクアレイとして、又は場合によっては複数のマイクアレイとして配置することができる。
制御システム106は、車両100及びそのコンポーネントの(単複の)動作を制御するように構成することができる。従って、制御システム106は、ステアリングユニット132、スロットル134、ブレーキ装置136、センサフュージョンアルゴリズム138、コンピュータビジョンシステム140、ナビゲーション/パッシングシステム142、及び障害物回避システム144などを含む様々な要素を含むことができる。
ステアリングユニット132は、車両100の進行方向を調整できる機構のいずれかの組み合わせを表すことができる。例えば、ステアリングユニット132は、1又はそれ以上のホイール/タイヤ121の(1又は複数の)軸を、車両100を旋回させるように調整することができる。スロットル134は、例えばエンジン/モータ118の動作速度を制御し、ひいては車両100の速度を制御するように構成することができる。ブレーキ装置136は、車両100を減速させるように構成された機構のいずれかの組み合わせを含むことができる。ブレーキ装置136は、例えば摩擦を用いてホイール/タイヤ121を減速させることができる。他の実施形態では、ブレーキ装置136が、ホイール/タイヤ121の運動エネルギーを電流に変換する回生制動プロセスによってホイール/タイヤ121を誘導的に減速させる。ブレーキ装置136は、他の形態を取ることもできる。
センサフュージョンアルゴリズム138は、センサシステム104からのデータを入力として受け付けるように構成されたアルゴリズム(又はアルゴリズムを記憶するコンピュータプログラム製品)とすることができる。このデータは、例えばセンサシステム104のセンサにおいて検知された情報を表すデータを含むことができる。センサフュージョンアルゴリズム138は、カルマンフィルタ、ベイジアンネットワーク又はその他のアルゴリズムを含むことができる。センサフュージョンアルゴリズム138は、センサシステム104からのデータに基づいて様々な評価を提供することができる。実施形態にもよるが、これらの評価としては、車両100の環境内の個々の物体及び/又は特徴の評価、特定の状況の評価、及び/又は特定の状況に基づく衝突可能性の評価を挙げることができる。他の評価も可能である。
コンピュータビジョンシステム140は、交通信号、車道境界、他の車両、歩行者及び/又は障害物などを含むことができる車両100の環境内の物体及び/又は特徴を識別するために、カメラ130によって取り込まれた画像を処理して分析するいずれかのシステムとすることができる。コンピュータビジョンシステム140は、物体認識アルゴリズム、動画像解析(SFM)アルゴリズム、ビデオ追跡及びその他のコンピュータビジョン技術を使用することができる。いくつかの実施形態では、コンピュータビジョンシステム140を、環境マップの作成、物体の追跡、物体の速度推定などを行うようにさらに構成することができる。
ナビゲーション及びパッシングシステム142は、車両100の走行路を決定するように構成されたいずれかのシステムとすることができる。例えば、ナビゲーション/パッシングシステム142は、例えばユーザインターフェイス116を介したユーザ入力に従って設定できる最終目的地に至る車道に基づく経路に沿って車両100を大まかに前進させながら、認識された障害物を実質的に避ける経路に沿って車両100を動かすように一連の速度及び進行方向を決定することができる。また、ナビゲーション及びパッシングシステム142は、車両100の動作中に走行路を動的に更新するように構成することもできる。いくつかの実施形態では、ナビゲーション及びパッシングシステム142を、車両100の走行路を決定するために、センサフュージョンアルゴリズム138、GPS122及び1又はそれ以上の所定のマップからデータを取り込むように構成することができる。
障害物回避システム144は、車両100の環境内の潜在的障害物を識別し、評価し、回避又は別様に通り抜けるように構成された制御システムを表すことができる。例えば、障害物回避システム144は、制御システム106内の1又はそれ以上のサブシステムを、急ハンドル操作、旋回操作、ブレーキ操作などを行うように動作させることにより、車両100のナビゲーションに変化をもたらすことができる。いくつかの実施形態では、障害物回避システム144が、周囲の交通パターン、道路状況などに基づいて、実行可能な(「利用可能な」)障害物回避操作を自動的に決定するように構成される。例えば、障害物回避システム144は、急ハンドル操作を行う予定の車両100に隣接する領域内の車両、工事用障壁、他の障害物などが他のセンサシステムによって検出された時には、急ハンドル操作が行われないように構成することができる。いくつかの実施形態では、障害物回避システム144が、車両の乗員の安全を最大化する利用可能な操作を自動的に選択することができる。例えば、障害物回避システム144は、車両100の客室内に生じる加速量が最も少ないと予測される回避操作を選択することができる。
これに加えて、又はこれとは別に、制御システム106は、図示し説明する以外のコンポーネントを含むこともできる。
車両100は、車両100と、外部センサ、他の車両、他のコンピュータシステム、及び/又は車両100の乗員などのユーザとの間の相互作用を可能にするように構成された周辺機器108も含む。例えば、乗員、外部システムなどから情報を受け取るための周辺機器108は、無線通信システム146、タッチスクリーン148、マイク150及び/又はスピーカ152を含むことができる。
いくつかの実施形態では、周辺機器108が、車両100のユーザがユーザインターフェイス116と相互作用した入力を受け取るように機能する。この目的のために、タッチスクリーン148は、車両100のユーザに情報を提供するとともに、タッチスクリーン148を介して示されたユーザからの情報をユーザインターフェイス116に伝えることができる。タッチスクリーン148は、容量性検知、抵抗検知、光学検知、表面音響波処理などを介して、ユーザの指(又はスタイラスなど)によるタッチ位置及びタッチジェスチャーの両方を検知するように構成することができる。タッチスクリーン148は、タッチスクリーンの表面に対して平行又は平面的な方向、タッチスクリーンの表面に対して垂直な方向、又はこれらの両方向の指の動きを検知することができ、またタッチスクリーンの表面に加わる圧力レベルを検知することもできる。車両100の乗員は、音声コマンドインターフェイスを利用することもできる。例えば、マイク150を、車両100の乗員からの音声(例えば、音声コマンド又はその他の音声入力)を受け取るように構成することができる。同様に、スピーカ152を、車両100の乗員に音声を出力するように構成することもできる。
いくつかの実施形態では、周辺機器108が、車両100と、その周囲環境内の装置、センサ、他の車両など、及び/又は車両100から物理的に離れて位置する、車両の周囲環境に関する交通情報、気象情報などの有用な情報を提供するコントローラ、サーバなどの外部システムとの間の通信を可能にするように機能する。例えば、無線通信システム146は、1又はそれ以上の装置と直接又は通信ネットワークを介して無線で通信することができる。任意に、無線通信システム146は、CDMA、EVDO、GSM/GPRSなどの3Gセルラ通信、及び/又はWiMax又はLTEなどの4Gセルラ通信を使用することができる。これに加えて、又はこれとは別に、無線通信システム146は、例えばWiFiを用いて無線ローカルエリアネットワーク(WLAN)と通信することもできる。いくつかの実施形態では、無線通信システム146が、例えば赤外線リンク、Bluetooth及び/又はZigBeeなどを用いて装置と直接通信することができる。無線通信システム146は、車両間及び/又は道路沿いの局間の公共及び/又は民間データ通信を含むことができる1又はそれ以上の専用短距離通信(DSRC)装置を含むこともできる。また、本開示の文脈では、無線通信システム146により、様々な車両通信システムなどの、信号に埋め込まれた情報を送受信するための他の無線プロトコルを使用することもできる。
電源110は、周辺機器108、コンピュータシステム112、センサシステム104の電子部品などの車両100のコンポーネントに電力を供給することができる。電源110は、電気エネルギーを蓄積して例えば様々な電動式コンポーネントに放出する充電式リチウムイオンバッテリ又は鉛酸バッテリを含むことができる。いくつかの実施形態では、1又はそれ以上の一連のバッテリを、電力を供給するように構成することができる。いくつかの実施形態では、一部の全電化自動車と同様に、電源110とエネルギー源119を共に実装することができる。
車両100の機能の多く又は全ては、センサシステム104、周辺機器108などから入力を受け取り、環境に基づく車両100の自動操作を行うのに適した制御信号を推進システム102、制御システム106、周辺機器108などに通信するコンピュータシステム112を介して制御することができる。コンピュータシステム112は、データストレージ114などの非一時的コンピュータ可読媒体に記憶された命令115を実行する(少なくとも1つのマイクロプロセッサを含むことができる)少なくとも1つのプロセッサ113を含むことができる。コンピュータシステム112は、車両100の個々のコンポーネント又はサブシステムを分散方式で制御する複数のコンピュータ装置を表すこともできる。
いくつかの実施形態では、データストレージ114が、図1に関連して上述したものを含む様々な自動車機能を実行するようにプロセッサ113によって実行可能な命令115(例えば、プログラム論理)を含むことができる。データストレージ114は、推進システム102、センサシステム104、制御システム106及び周辺機器108のうちの1つ又はそれ以上との間でデータの送受信を行い、これらと相互作用し、及び/又はこれらを制御する命令を含むさらなる命令を含むこともできる。
データストレージ114は、命令115に加え、他の情報の中でも特に、道路マップ、経路情報などのデータを記憶することができる。このような情報は、車両100の自律モード、半自律モード及び/又は手動モードでの動作中に、車両100及びコンピュータシステム112によって使用することができる。
車両100及び関連するコンピュータシステム112は、車両100の客室内の乗員などの車両100のユーザに情報を提供し、及び/又はこれらのユーザから入力を受け取る。従って、車両100は、車両100のユーザに情報を提供し、又はこれらのユーザから入力を受け取るためのユーザインターフェイス116を含むことができる。ユーザインターフェイス116は、タッチスクリーン148上に表示できる相互作用イメージの内容及び/又はレイアウトを制御し、又はこれらの制御を可能にすることができる。さらに、ユーザインターフェイス116は、無線通信システム146、タッチスクリーン148、マイク150及びスピーカ152などの、一連の周辺機器108内の1又はそれ以上の入力/出力装置を含むこともできる。
コンピュータシステム112は、車両状態及び/又は環境状態を示す様々なサブシステム(例えば、推進システム102、センサシステム104及び/又は制御システム106)から受け取った入力、並びにユーザ選択を示すユーザインターフェイス116からの入力に基づいて車両100の動作を制御する。例えば、コンピュータシステム112は、制御システム106からの入力を利用して、センサシステム104及び障害物回避システム144によって検出された障害物を回避するようにステアリングユニット132を制御することができる。コンピュータシステム112は、車両100及びそのサブシステムの多くの側面を制御するように構成することができる。しかしながら、一般に緊急時には、又は単にユーザが無効化を作動させたことに応答して、コントローラが作動させた自動動作を手動で無効にすることもできる。
本明細書で説明した車両100のコンポーネントは、これらのそれぞれのシステム内又はシステム外の他のコンポーネントと相互接続された形で機能するように構成することができる。例えば、カメラ130は、自律モードで動作中の車両100の環境に関する情報を表す複数の画像を取り込むことができる。この環境は、他の車両、交通信号機、交通標識、路面表示、歩行者などを含むことができる。コンピュータビジョンシステム140は、予めデータストレージ114に記憶されている物体認識モデルに基づき、及び/又は他の技術により、センサフュージョンアルゴリズム138、コンピュータシステム112などと協働して、環境内の様々な側面を分類及び/又は認識することができる。
図1には、車両100の様々なコンポーネント、すなわち無線通信システム146、コンピュータシステム112、データストレージ114及びユーザインターフェイス116を車両100に一体化されたものとして示しているが、これらのコンポーネントの1つ又はそれ以上を車両100から分離して取り付け又は関連付けることもできる。例えば、データストレージ114は、部分的に又は完全に車両100から離れて存在することができる。従って、車両100は、離れて存在できる装置要素の形で提供することも、或いは共に存在できる装置要素の形で提供することもできる。一般に、車両100を構成する装置要素は、共に有線及び/又は無線で通信可能に結合することができる。
図2に、図1を参照しながら車両100に関連して説明した機能の全て又はほとんどを含むことができる車両例200を示す。図2では、例示を目的として車両例200を四輪セダン型の車として示しているが、本開示はこのように限定されるものではない。例えば、車両例200は、本明細書で言及したあらゆるタイプの車両を表すことができる。
車両例200は、センサユニット202、無線通信システム204、LIDARユニット206、レーザー距離計ユニット208、及びカメラ210を含む。さらに、車両例200は、図1の車両100に関連して説明したあらゆるコンポーネントを含むことができる。
センサユニット202は、車両例200の頂部に取り付けられ、車両例200を取り巻く環境に関する情報を検出してその指標を出力するように構成された1又はそれ以上のセンサを含む。例えば、センサユニット202は、カメラ、RADAR、LIDAR、距離計及び音響センサのいずれかの組み合わせを含むことができる。センサユニット202は、センサユニット202内の1又はそれ以上のセンサの配向を調整することができる1又はそれ以上の可動マウントを含むことができる。1つの実施形態では、可動マウントが、車両例200の周囲の各方向からの情報を取得するようにセンサを走査できる回転式プラットフォームを含むことができる。別の実施形態では、センサユニット202の可動マウントを、特定の角度範囲及び/又は方位角範囲内を走査する形で可動とすることができる。例えば、センサユニット202は、車の屋根上に取り付けることができるが、他の取り付け位置も可能である。また、センサユニット202のセンサは、異なる位置に分散させることもでき、1つの位置に共同配置する必要はない。いくつかの考えられるセンサタイプ及び取り付け位置としては、LIDARユニット206及びレーザー距離計ユニット208が挙げられる。さらに、センサユニット202の各センサは、センサユニット202の他のセンサとは無関係に移動又は走査するように構成することができる。
無線通信システム204は、図2に示すように車両例200の屋根上に位置することができる。或いは、無線通信システム204は、完全に又は部分的に他の場所に位置することもできる。無線通信システム204は、車両例200の外部又は内部の装置と通信するように構成できる無線送信機及び受信機を含むことができる。具体的には、無線通信システム204は、他の車両、及び/又は、例えば車両通信システム又は道路の局内のコンピュータ装置と通信するように構成されたトランシーバを含むことができる。このような車両通信システムの例としては、専用短距離通信(DSRC)、無線自動識別(RFID)、及びインテリジェント移送システムのための他の提案する通信標準が挙げられる。
カメラ210は、車両例200の環境の複数の画像を取り込むように構成された、静止カメラ、ビデオカメラなどの感光機器とすることができる。この目的のために、カメラ210は、可視光を検出するように構成することができ、これに加えて、又はこれとは別に、スペクトルの他の部分からの赤外線又は紫外線などの光を検出するように構成することもできる。カメラ210は、2次元検出器とすることができ、任意に3次元空間の感度範囲を有することもできる。いくつかの実施形態では、カメラ210が、例えばカメラ210から環境内の複数の地点までの距離を示す2次元画像を生成するように構成された範囲検出器を含むことができる。この目的のために、カメラ210は、1又はそれ以上の範囲検出技術を使用することができる。
例えば、カメラ210は、車両例200がグリッドパターン又は格子パターンなどの所定の光パターンで環境内の物体を照明し、カメラ210を用いて環境周囲からの所定の光パターンの反射を検出する構造光技術を使用することによって範囲情報を提供することができる。車両例200は、反射された光パターンの歪みに基づいて、物体上の点までの距離を判定することができる。この所定の光パターンは、赤外光又はこのような測定に適した他の波長の放射線を含むことができる。
カメラ210は、車両例200のフロントガラスの内側に取り付けることができる。具体的には、カメラ210は、車両例200の配向に対して前向きの視野からの画像を取り込むように位置することができる。車両例200の内部又は外部の、カメラ210の他の取り付け位置及び視野角を使用することもできる。
カメラ210は、調整可能な視野を提供する関連する光学素子を有することができる。さらに、カメラ210は、パン/チルト機構などを通じてカメラ210の指示角を変化させるように、可動マウントを用いて車両例200に取り付けることができる。
図3Aに、既知の環境情報を用いて画像処理を通じて物体検出を容易にする方法300を示す。この方法で説明する車両は、図1及び図2を参照しながらそれぞれ図示し説明したような車両100及び/又は車両200とすることができる。例えば、本明細書で説明する処理は、コンピュータシステム112、センサフュージョンアルゴリズム138及び/又はコンピュータビジョンシステム140と通信する、自律走行車両(例えば、車両200)に取り付けられたカメラ130によって実行することができる。
さらに、本明細書で説明するフローチャートに関連して説明する機能は、特殊機能ハードウェアモジュール及び/又は構成済みの一般機能ハードウェアモジュール、特定の論理機能、決定、及び/又は図3に示すフローチャートに関連して説明するステップを実現するようにプロセッサ(例えば、コンピュータシステム112内のプロセッサ113)によって実行されるプログラムコードの一部として実装することができる。プログラムコードは、使用される場合、例えばディスク又はハードドライブを含む記憶装置などのあらゆるタイプのコンピュータ可読媒体(例えば、コンピュータ可読記憶媒体、或いはコンピュータシステム112に関して上述したデータストレージ114及び/又は後述するコンピュータプログラム製品500などの非一時的媒体)に記憶することができる。
また、図3A(又は図3B)に示すフローチャートの各ブロックは、プロセス内の特定の論理関数を実行するように配線された回路を表すこともできる。別途示していない限り、図3A〜図3Bに示すフローチャート内の機能は、説明する方法の全体的機能が維持されるのであれば、関連する機能に応じて、別々に説明する機能を実質的に同時に、又は実施例よっては逆の順序で実行することを含め、図示又は説明する順序とは異なる順序で実行することができる。さらに、同様のハードウェア要素及び/又はソフトウェア要素の組み合わせを用いて、図3Bに示す追加のフローチャートなどの、本開示において提供する他のフローチャートに関連して説明する方法を実施することもできる。
まず、図3Aの方法300は、ブロック302において、実質的に環境の走行車線内で動作するように構成された車両のセンサから環境を示す画像データを受け取るステップを含む。この車両は、図1及び図2を参照して説明した車両とすることができ、環境内で自律モードで動作するように構成することができる。環境は、車両が走行車線内で自律的に動作することができるあらゆる環境とすることができる。このような環境のいくつかの例としては、幹線道路、道路又は州間高速道路を挙げることができる。1つの例では、図4Aを参照して分かるように、道路402、流出オイル408、トラック410及びコーン412を含む環境400内で車両404が動作していると考えることができる。環境400では、車両が実質的に走行車線402b内で動作中であり、流出オイル408、トラック410及びコーン412が実質的に車線402a内に存在すると考えることができる。
環境400の特徴は、恒久的及び非恒久的なものの両方とすることができる。例えば、流出オイル408、トラック410及びコーン412は非恒久的なものとすることができ、特定の時点(例えば、特定の日及び年)における環境400の現状を表すことができる。これとは逆に、道路402及び車線402a、402bは、恒久的特徴とすることができる。換言すれば、道路402及び車線402a、402bは、環境400の固定部分とすることができ、環境の恒久的変更(例えば、道路402の改築)が行われない限り環境400内に存在することができる。環境400には、他の恒久的及び非恒久的特徴が含まれることもある。
車両は、環境内での動作中に、動作中の環境の現在の表現を示す画像データを受け取ることができる。例えば、車両404は、カメラ130と同様又は同一のカメラなどの、センサユニット406の少なくとも1つのセンサを動作させて、環境400を示す画像データを受け取ることができる。図4Bに示す画像データ420は、環境400の一部を示す画像データ例を表す。
なお、図4Bでは、例えば車両404のセンサユニット406のカメラによって取り込まれた画像データ420は、破線矢印よりも上方に示す画像であり、車両404を含んでいない。車両404は、説明目的で示しているにすぎず、この例では画像データ420の一部であることを意図していない。実際には、画像データ420は、車両404から前方、後方、又はこれらの間のいずれかの段階で取得することができ、従って車両自体を表す画像データを含んでいないこともある。いくつかの例では、車両404の一部が画像データ420に含まれる場合もある。
画像データ420は、環境400を示すデジタル写真又はデジタル図形を含むことができる。画像データ420は、写真画像及び/又はグラフィック画像をデジタルファイルとして構造化して記憶できるあらゆるデータフォーマットを含むことができ、様々なタイプのデータを含むことができ、様々なファイルフォーマットとすることができ、様々な媒体に記憶することができ、これらのタイプのデータ、ファイルフォーマット及び媒体が既知のものであるか、それとも未開発であるかは関係ない。図4Bに示す例では、画像データ420が、道路402、車線402a、402b、流出オイル408、トラック410及びコーン412を含むことができる。画像データ420は、環境要素の各々を詳細に示す画像データを含むこともできる。例えば、画像データ420は、道路402の路面線、及び道路402を既定する他のいずれかの詳細(例えば、質感、色、照明など)を示すデータを含むことができる。他の例では、画像データ420が、環境400の各要素に関連する位置情報を含むことができる。例えば、画像データ420は、トラック410及びコーン412の位置を示す位置情報を含むことができる。
ブロック304は、走行車線を示す環境情報を画像データと比較して、走行車線に対応する画像データ部分を判定するステップを含む。環境情報は、画像データの取得前に車両が知っていた又は受け取っていた、環境の走行車線を正確に定めるいずれかの情報とすることができる。例えば図4Aを参照すると、他の情報の中でも特に、環境情報は、走行車線402a、402bの境界を定めるイメージマップを含むことができる。環境情報は、他のいずれかの情報を含むこともできる。一般に、環境情報は、画像データを取得する前に環境400内に存在する既知の構造、標識、又はその他の(恒久的及び非恒久的)特徴を示す情報を含むことができる。
いくつかの例では、環境情報が正確なままであることを確実にするために、車両404が定期的に環境情報を取得することができる。他の例では、車両404が、サーバから定期的に環境情報を受け取ることができる。例えば、第三者団体が環境400を継続的にモニタし、例えば構造的変化(例えば、上述した恒久的特徴の変更)が起きる可能性がある時に最新情報を提供することができる。この最新情報は、例えば最新のイメージマップの形で提供することができる。他の最新情報を提供することもできる。
図4Cに、環境400を示すイメージマップ440の例を示す。図4Cでは、イメージマップ440が、道路402の位置(例えば、経度及び緯度、又は基本方位)、車線402a、402bの位置、道路402の境界444a、及び各車線402a、402bの境界444b、444aを含むことができる。イメージマップ440は、車線402a及び402bを分離する道路402の中央境界446を含むこともできる。イメージマップ内には、他の情報が含まれることもある。図4Cに示すイメージマップ440の例では、イメージマップを作成した時点では道路402上に恒久的構造又は非恒久的構造は存在しない。
イメージマップ440からの情報を用いて、車両404が実質的に走行している走行車線、すなわちこの例では車線402bに対応する画像データ部分を判定することができる。走行車線に対応する画像データ部分は、取得したイメージマップを環境の画像データにマッピング(又は投影)し、イメージマップ内の走行車線に対応する位置情報を用いて画像データ内の対応する位置を判定することによって判定することができる。このマッピングは、既知の車両404の位置、及び画像データ420を取得したカメラ130の既知のカメラ変換を用いて行うことができる。換言すれば、道路402の位置などの情報を用いて、車線402a、402bの位置、道路402の境界444a、各車線402a、402bの境界444a、444b、車線範囲及び車線境界線を画像データ420に投影することができる。他の例では、車両の進行方向に基づいて画像データ部分を判定することができる。多くの技術を用いてイメージマップから画像データに車線範囲を投影することができ、これらの技術は当業で周知である。
図4Dに、イメージマップ440を重ね合わせて車線範囲を投影した画像データ420を示す。図4Dに示すように、イメージマップ440からの点線が画像データ440に投影されている。
なお、例示を目的として、(画像データ420として取り込んだものであるか、それともイメージマップ440として取り込んだものであるかに関わらず)図4A、図4B、図4D及び図4Fに示す環境400については2次元x−y平面で説明している。しかしながら、車両404のセンサユニット406のカメラをx−y平面から上下に調整することにより、さらに完全な3次元画像データを取得することもできる。さらに、例えば図4Eに示すように、環境400を示すイメージマップを3次元とし、画像データ420上に3次元の形で投影することもできる。図4Eでは、図4Dと同様に、画像データ460に車線範囲462を投影することができる。
車両は、この投影に基づいて、画像データのどの部分が走行車線を表しているかを判定することができる。例えば、車両404は、車両404が現在動作中の車線402bを画像データ420のどの部分が表しているかを判定することができる。このように画像データを処理することにより、車両404は、画像データの全てを処理するのではなく車線402b内の流出オイル408の部分に注目することによって処理量を低減することができる。そうでなければ、車両404は、トラック410及びコーン412が車両404の進行方向とは無関係であり、或いは車両404の走行車線内に存在しないという事実にも関わらず、トラック410及びコーン412を処理してしまう可能性がある。
走行車線を表す画像データ部分が判定されると、方法300は、ブロック306において、環境の走行車線に対応する画像データ部分に基づき、残りの画像データ部分を無視することにより、走行車線内に物体が存在するかどうかを判定するステップを含む。残りの画像データ部分は、走行車線に対応しないあらゆる画像データとすることができる。換言すれば、車両404は、走行車線に対応する画像データ部分のみを処理し、他のあらゆる画像データ部分を無視することができる。このように画像データを処理することにより、処理時間及び/又は処理の複雑性を大幅に低減することができる。物体は、車両の走行車線内のあらゆる物体とすることができるが、車両にとって未知のものとすることができる。いくつかの物体の例としては、障害物(例えば、コーン、残骸など)、他の車両、又は歩行者を挙げることができる。車両(又は車両のコンピュータ装置)は、検出を行うために、走行車線を表す画像データ部分内の既知の物体又は構造を示す画像データ部分を判定し、未知の構造を含む画像データ部分と比較することができる。
例えば、図4Dに示すように、車両404は、走行車線402bの位置を識別すると、初期車線部分460を処理して車線の既知の構造を判定することができる。例えば、車両404は、この判定を行うために、初期車線部分460を処理して陰影、色、色強度などを判定し、その後に車線の残り部分を処理して、判定された属性を比較する(例えば、陰影の類似性を求める)ことができる。
例えば、この比較は、既知の構造の色平均、色強度、影の存在、色強度のばらつき又は色のばらつきを含む1又はそれ以上の変数を、未知の物体の色平均、色強度、影の存在、色強度のばらつき又は色のばらつきのうちの1つ又はそれ以上と比較することを含むことができる。他の例では、他のいずれかの既知の又は標準的な画像処理特徴記述子を用いて既知の範囲を記述することができる。このような例として、コーナー検出子、エッジ検出子、ブロブ検出子、リッジ検出子、勾配検出子などを挙げることができる。実際には、既知の構造及び未知の構造を定める分布を計算し、この分布からこのような変数を判定して比較することができる。例えば、既知の構造の色強度を定める画素を表すガウス分布を計算し、画像データ内の未知の物体の色強度を定める画素を表すガウス分布と比較して画素の類似性を判断することができる。上述した変数を全て分布として定め、比較において使用することができる。
いくつかの例では、既知の構造及び未知の物体の外観を示す情報が判定されると、例えばコンピュータシステム112などのコンピュータシステムを用いて自動的に比較を行うことができる。他の例では、車両の外部で比較を処理し、完了時に車両に提供することができる。
判定が行われると、方法400は、ブロック308において、判定に基づいて車両を自律モードで制御する命令を与えるステップを含む。例えば、車両の現在の車線内に停止している可能性のある障害物又は車両を回避するように車両を制御することができる。図4A〜図4Cに示す例では、現在の走行車線402b内に存在する流出オイル408の一部を安全に回避するように車両404を制御することができる。
図3Bに、既知の環境情報を用いて画像処理を通じて物体検出を容易にする別の方法320を示す。まず、方法320は、ブロック322において、環境情報を画像データと比較して、第2の走行車線に対応する第2の画像データ部分を判定するステップを含む。第2の走行車線は、方法300を参照しながら説明した走行車線と同様のものとすることもできるが、異なるものであってもよい。例えば、図4Aを参照すると、環境400は第2の走行車線を含むことができるが、第2の走行車線は走行車線402aと異なることができる。例えば、第2の走行車線は、402bなどの、車線402aに隣接する走行車線とすることができる。他の例では、第2の走行車線を道路402上の走行車線とすることができるが、元々の車線402から1車線又は2車線離れた車線とすることができる。
方法320は、ブロック324において、比較に基づいて、第2の走行車線に対応する第2の画像データ部分を判定するステップを含む。第2の走行車線に対応する第2の画像データ部分は、方法300を参照してステップ304において説明した方法と同じ方法で判定することができる。
方法320は、ブロック326において、環境の第2の走行車線に対応する第2の画像データ部分に基づき、第2の残りの画像データ部分を無視することにより、第2の走行車線内に物体が存在するかどうかを判定するステップを含む。第2の残りの画像データ部分は、第2の走行車線に対応する第2の画像データ部分以外の画像データを含むことができる。このような判定は、方法300を参照してステップ306において説明した方法と同じ方法で行うことができる。
方法320は、ブロック328において、判定に基づいて環境内で車両を自律モードで制御する命令を与えるステップを含む。命令は、方法300を参照してステップ308において説明した方法と同じ方法で与えることができ、同じ方法で車両を制御することができる。
なお、上述した方法300及び320では、「走行車線」内で動作する車両の行動に注目しているが、これはほんの一例にすぎない。上述した方法を用いて、車両が行っている可能性のある作業に関連する他の環境範囲に注目することもできる。例えば、他の用途では、車両が、歩道、路肩又は横断歩道上の物体を探すことや、或いは標識が見えると予想する場所にのみ関心を有している場合もある。従って、車両は、方法300及び320を同様に用いて、環境内の他の関心範囲又は関心部分の物体を検出することができる。
図3Aの方法300又は図3Bの方法320などの方法例は、車両及びそのサブシステムによって全体的又は部分的に実行することができる。従って、本明細書では、一例として方法例を車両に実装されるものとして説明することができた。しかしながら、方法例は、他のコンピュータ装置によって全体的又は部分的に実施することもできると理解されたい。例えば、方法例は、車両に関連する装置などの装置からデータを受け取るサーバシステムによって全体的又は部分的に実施することができる。方法例を実施できる他のコンピュータ装置例又はコンピュータ装置の組み合わせ例も考えられる。
いくつかの実施形態では、本明細書で開示した技術を、非一時的コンピュータ可読記憶媒体に機械可読フォーマットで符号化された、又は他の非一時的媒体又は製造の物品に符号化されたコンピュータプログラム命令(例えば、車両100のコンピュータシステム112のデータストレージ114に記憶された命令115)として実装することができる。図5は、本明細書で示した少なくともいくつかの実施形態に従って構成されたコンピュータ装置上でコンピュータ処理を実行するコンピュータプログラムを含むコンピュータプログラム製品例の部分的概念図を示す概略図である。
1つの実施形態では、コンピュータプログラム製品例500が、信号保持媒体502を用いて提供される。信号保持媒体502は、1又はそれ以上のプロセッサによって実行された時に本明細書で説明した機能又は機能の一部を提供できる1又はそれ以上のプログラム命令504を含むことができる。いくつかの例では、信号保持媒体502を、以下に限定されるわけではないが、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、メモリなどの非一時的コンピュータ可読媒体506とすることができる。いくつかの実装では、信号保持媒体502が、以下に限定されるわけではないが、メモリ、読み取り/書込み(R/W)CD、R/W DVDなどのコンピュータ記録可能媒体508を含むことができる。いくつかの実装では、信号保持媒体502が、以下に限定されるわけではないが、デジタル及び/又はアナログ通信媒体(例えば、光ファイバケーブル、導波路、有線通信リンク、無線通信リンクなど)などの通信媒体510を含むことができる。従って、例えば、信号保持媒体502は、無線形態の通信媒体510によって伝えることができる。
1又はそれ以上のプログラム命令504は、例えばコンピュータが実行可能な命令及び/又はロジックを実装する命令とすることができる。いくつかの例では、図1のコンピュータシステム112などのコンピュータ装置を、コンピュータ可読媒体506、コンピュータ記録可能媒体508及び/又は通信媒体510のうちの1つ又はそれ以上によってプログラム命令504がコンピュータシステム112に伝えられたことに応答して、様々な動作、機能又は行動を実行するように構成することができる。
非一時的コンピュータ可読媒体は、互いに離れて存在することができる複数のデータストレージ要素間に分散させることもできる。記憶された命令の一部又は全部を実行するコンピュータ装置は、図2に示す車両例200などの車両とすることができる。或いは、記憶された命令の一部又は全部を実行するコンピュータ装置は、サーバなどの別のコンピュータ装置とすることもできる。
上記の詳細な説明では、開示するシステム及び方法の様々な特徴及び機能について添付図を参照しながら説明した。本明細書では様々な態様及び実施形態を開示したが、他の態様及び実施形態も可能である。本明細書で開示した様々な態様及び実施形態は、限定を意図するものではなく例示を目的とするものであり、その真の範囲は、以下の特許請求の範囲によって示される。
300:方法
302:実質的に環境の走行車線内で動作するように構成された車両のセンサから環境を示す画像データを受け取る
304:走行車線を示す環境情報を画像データと比較して、走行車線に対応する画像データ部分を判定
306:環境の走行車線に対応する画像データ部分に基づき、残りの画像データ部分を無視することにより、走行車線内に物体が存在するかどうかを判定
308:判定に基づいて車両を自律モードで制御する命令を与える

Claims (18)

  1. 実質的に環境の走行車線内に存在する、前記環境内で自律モードで動作するように構成された車両の少なくとも1つのセンサから、プロセッサを用いて前記環境を示す画像データを受け取るステップと、
    前記走行車線を示す前記環境内の道路の所定のイメージマップを前記画像データ上に投影するステップを含む、前記画像データを前記所定のイメージマップと比較するステップと、
    前記比較するステップと、前記所定のイメージマップによって示される前記走行車線の所定の特徴とに基づいて、前記走行車線の前記所定の特徴の少なくとも一部に対応する前記走行車線の特徴を含む画像データ部分を前記画像データ内で判定するステップと、
    前記判定された前記画像データ部分に基づき、該画像データ部分以外の画像データを含む残りの画像データ部分を無視することにより、前記走行車線内に物体が存在するかどうかを判定するステップと、
    前記走行車線内に物体が存在するかどうかについての前記判定に基づいて、前記環境内で前記車両を前記自律モードで制御する命令を与えるステップと、
    を含むことを特徴とする方法。
  2. 前記環境内の前記道路の前記所定のイメージマップは、前記環境の前記走行車線と異なる前記環境の第2の走行車線をさらに示し、前記方法は、
    前記比較するステップに基づいて、前記環境の前記第2の走行車線に対応する、前記画像データ部分とは異なる第2の画像データ部分を判定するステップと、
    前記環境の前記第2の走行車線に対応する前記第2の画像データ部分に基づき、前記第2の走行車線に対応する前記第2の画像データの部分以外の画像データを含む第2の残りの画像データ部分を無視することにより、前記第2の走行車線内に物体が存在するかどうかを判定するステップと、
    前記第2の走行車線内に物体が存在するかどうかについての前記判定に基づいて、前記環境内で前記車両を前記自律モードで制御する命令を与えるステップと、
    をさらに含む、
    請求項1に記載の方法。
  3. 前記所定のイメージマップは、前記環境の前記第2の走行車線の位置又は前記環境の前記第2の走行車線の境界の少なくとも一方を示し、
    前記所定のイメージマップを前記画像データと比較するステップは、
    前記画像データを、(i)前記所定のイメージマップによって示される前記環境の前記第2の走行車線の前記位置、又は(ii)前記所定のイメージマップによって示される前記環境の前記第2の走行車線の前記境界、の少なくとも一方と比較するステップをさらに含む、
    請求項2に記載の方法。
  4. 前記環境の前記第2の走行車線は、前記環境の前記走行車線に隣接する、
    請求項2に記載の方法。
  5. 前記所定のイメージマップは、前記環境の前記走行車線の位置又は前記環境の前記走行車線の境界の少なくとも一方を示し、
    前記所定のイメージマップを前記画像データと比較するステップは、
    前記画像データを、(i)前記所定のイメージマップによって示される前記環境の前記走行車線の前記位置、又は(ii)前記所定のイメージマップによって示される前記環境の前記走行車線の前記境界、の少なくとも一方と比較するステップをさらに含む、
    請求項1に記載の方法。
  6. 前記所定のイメージマップは、前記環境内における前記車両の進行方向を含む、
    請求項1に記載の方法。
  7. 環境内で自律モードで動作するように構成された、実質的に前記環境の走行車線内に存在する車両であって、
    前記環境を示す画像データを受け取るように構成されたセンサと、
    コンピュータシステムと、
    を備え、前記コンピュータシステムは、
    前記走行車線を示す前記環境内の道路の所定のイメージマップを前記画像データ上に投影することを含め、前記画像データを前記所定のイメージマップと比較し、
    前記比較と、前記所定のイメージマップによって示される前記走行車線の所定の特徴とに基づいて、前記走行車線の前記所定の特徴の少なくとも一部に対応する前記走行車線の特徴を含む画像データ部分を前記画像データ内で判定し、
    前記判定された前記画像データ部分に基づき、該画像データ部分以外の画像データを含む残りの画像データ部分を無視することにより、前記走行車線内に物体が存在するかどうかを判定し、
    前記走行車線内に物体が存在するかどうかについての前記判定に基づいて、前記環境内で前記車両を前記自律モードで制御する命令を与える、
    ように構成される、
    ことを特徴とする車両。
  8. 前記環境内の前記道路の前記所定のイメージマップは、前記環境の前記走行車線と異なる前記環境の第2の走行車線をさらに示し、前記コンピュータシステムは、
    前記比較に基づいて、前記環境の前記第2の走行車線に対応する、前記画像データ部分とは異なる第2の画像データ部分を判定し、
    前記環境の前記第2の走行車線に対応する前記第2の画像データ部分に基づき、前記第2の走行車線に対応する前記第2の画像データの部分以外の画像データを含む第2の残りの画像データ部分を無視することにより、前記第2の走行車線内に物体が存在するかどうかを判定し、
    前記第2の走行車線内に物体が存在するかどうかについての前記判定に基づいて、前記環境内で前記車両を前記自律モードで制御する命令を与える、
    ようにさらに構成される、
    請求項7に記載の車両。
  9. 前記所定のイメージマップは、前記環境の前記第2の走行車線の位置又は前記環境の前記第2の走行車線の境界の少なくとも一方を示し、
    前記所定のイメージマップを前記画像データと比較することは、
    前記画像データを、(i)前記所定のイメージマップによって示される前記環境の前記第2の走行車線の前記位置、又は(ii)前記所定のイメージマップによって示される前記環境の前記第2の走行車線の前記境界、の少なくとも一方と比較することをさらに含む、
    請求項8に記載の車両。
  10. 前記環境の前記第2の走行車線は、前記環境の前記走行車線に隣接する、
    請求項9に記載の車両。
  11. 前記所定のイメージマップは、前記環境の前記走行車線の位置又は前記環境の前記走行車線の境界の少なくとも一方を示し、
    前記所定のイメージマップを前記画像データと比較することは、
    前記画像データを、(i)前記所定のイメージマップによって示される前記環境の前記走行車線の前記位置、又は(ii)前記所定のイメージマップによって示される前記環境の前記走行車線の前記境界、の少なくとも一方と比較することをさらに含む、
    請求項7に記載の車両。
  12. 命令を記憶した非一時的コンピュータ可読媒体であって、前記命令は、車両内のコンピュータシステムによって実行された時に、該コンピュータシステムに、
    実質的に環境の走行車線内に存在する、前記環境内で自律モードで動作するように構成された車両の少なくとも1つのセンサから前記環境を示す画像データを受け取るステップと、
    前記走行車線を示す前記環境内の道路の所定のイメージマップを前記画像データ上に投影するステップを含む、前記画像データを前記所定のイメージマップと比較するステップと、
    前記比較するステップと、前記所定のイメージマップによって示される前記走行車線の所定の特徴とに基づいて、前記走行車線の前記所定の特徴の少なくとも一部に対応する前記走行車線の特徴を含む画像データ部分を前記画像データ内で判定するステップと、
    前記判定された前記画像データ部分に基づき、該画像データ部分以外の画像データを含む残りの画像データ部分を無視することにより、前記走行車線内に物体が存在するかどうかを判定するステップと、
    前記走行車線内に物体が存在するかどうかについての前記判定に基づいて、前記環境内で前記車両を前記自律モードで制御する命令を与えるステップと、
    を含む機能を実行させる、
    ことを特徴とする非一時的コンピュータ可読媒体。
  13. 前記環境内の前記道路の前記所定のイメージマップは、前記環境の前記走行車線と異なる前記環境の第2の走行車線をさらに示し、前記命令は、前記コンピュータシステムに、
    前記比較するステップに基づいて、前記環境の前記第2の走行車線に対応する、前記画像データ部分とは異なる第2の画像データ部分を判定するステップと、
    前記環境の前記第2の走行車線に対応する前記第2の画像データ部分に基づき、前記第2の走行車線に対応する前記第2の画像データの部分以外の画像データを含む第2の残りの画像データ部分を無視することにより、前記第2の走行車線内に物体が存在するかどうかを判定するステップと、
    前記第2の走行車線内に物体が存在するかどうかについての前記判定に基づいて、前記環境内で前記車両を前記自律モードで制御する命令を与えるステップと、
    を含む機能を実行させるように前記車両内の前記コンピュータシステムによってさらに実行可能である、
    請求項12に記載の非一時的コンピュータ可読媒体。
  14. 前記所定のイメージマップは、前記環境の前記第2の走行車線の位置又は前記環境の前記第2の走行車線の境界の少なくとも一方を示し、
    前記所定のイメージマップを前記画像データと比較するステップは、
    前記画像データを、(i)前記所定のイメージマップによって示される前記環境の前記第2の走行車線の前記位置、又は(ii)前記所定のイメージマップによって示される前記環境の前記第2の走行車線の前記境界、の少なくとも一方と比較するステップをさらに含む、
    請求項13に記載の非一時的コンピュータ可読媒体。
  15. 前記環境の前記第2の走行車線は、前記環境の前記走行車線に隣接する、
    請求項12に記載の非一時的コンピュータ可読媒体。
  16. 前記所定のイメージマップは、前記環境の前記走行車線の位置又は前記環境の前記走行車線の境界の少なくとも一方を示し、
    前記所定のイメージマップを前記画像データと比較するステップは、
    前記画像データを、(i)前記所定のイメージマップによって示される前記環境の前記走行車線の前記位置、又は(ii)前記所定のイメージマップによって示される前記環境の前記走行車線の前記境界、の少なくとも一方と比較するステップをさらに含む、
    請求項12に記載の非一時的コンピュータ可読媒体。
  17. 前記所定のイメージマップは、前記環境内における前記車両の進行方向を含む、
    請求項12に記載の非一時的コンピュータ可読媒体。
  18. 前記所定の特徴は、前記走行車線の既知の車線境界を含む、
    請求項1に記載の方法。
JP2015563088A 2013-06-24 2014-04-22 環境情報を用いた自律走行車両の画像処理方法、車両及び非一時的コンピュータ可読媒体 Active JP6055562B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/925,795 2013-06-24
US13/925,795 US9145139B2 (en) 2013-06-24 2013-06-24 Use of environmental information to aid image processing for autonomous vehicles
PCT/US2014/034904 WO2014209477A1 (en) 2013-06-24 2014-04-22 Use of environmental information to aid image processing for autonomous vehicles

Publications (2)

Publication Number Publication Date
JP2016532914A true JP2016532914A (ja) 2016-10-20
JP6055562B2 JP6055562B2 (ja) 2016-12-27

Family

ID=52111572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015563088A Active JP6055562B2 (ja) 2013-06-24 2014-04-22 環境情報を用いた自律走行車両の画像処理方法、車両及び非一時的コンピュータ可読媒体

Country Status (6)

Country Link
US (2) US9145139B2 (ja)
EP (2) EP3196804B1 (ja)
JP (1) JP6055562B2 (ja)
KR (2) KR101606337B1 (ja)
CN (2) CN105358399B (ja)
WO (1) WO2014209477A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021514069A (ja) * 2018-09-17 2021-06-03 ウェイモ エルエルシー ブリッジ構造を有する送信機デバイス
JP2021088357A (ja) * 2016-07-21 2021-06-10 モービルアイ ビジョン テクノロジーズ リミテッド 自律車両ナビゲーションのための疎な地図並びにレーン測定値のクラウドソーシング及び配信
WO2023043620A1 (en) * 2021-09-15 2023-03-23 Zoox, Inc. Road network validation

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110920609B (zh) * 2013-12-04 2023-08-22 移动眼视力科技有限公司 用于模仿前车的系统和方法
US10422649B2 (en) * 2014-02-24 2019-09-24 Ford Global Technologies, Llc Autonomous driving sensing system and method
DE102014204309A1 (de) * 2014-03-10 2015-09-10 Robert Bosch Gmbh Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs
US10534370B2 (en) * 2014-04-04 2020-01-14 Signify Holding B.V. System and methods to support autonomous vehicles via environmental perception and sensor calibration and verification
JP6348357B2 (ja) * 2014-07-09 2018-06-27 株式会社デンソーテン 情報提供装置、通信システム及び情報提供方法
US9321461B1 (en) * 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
DE102015201247A1 (de) * 2015-01-26 2016-07-28 Robert Bosch Gmbh Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs
CA2976344A1 (en) * 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
JP6376059B2 (ja) * 2015-07-06 2018-08-22 トヨタ自動車株式会社 自動運転車両の制御装置
US11935256B1 (en) 2015-08-23 2024-03-19 AI Incorporated Remote distance estimation system and method
US11069082B1 (en) * 2015-08-23 2021-07-20 AI Incorporated Remote distance estimation system and method
US9881219B2 (en) * 2015-10-07 2018-01-30 Ford Global Technologies, Llc Self-recognition of autonomous vehicles in mirrored or reflective surfaces
US9727793B2 (en) * 2015-12-15 2017-08-08 Honda Motor Co., Ltd. System and method for image based vehicle localization
EP3190022B1 (en) * 2016-01-11 2018-08-29 Delphi Technologies, Inc. Lane extension for vision steered automated vehicle
US9802599B2 (en) * 2016-03-08 2017-10-31 Ford Global Technologies, Llc Vehicle lane placement
EP3223188A1 (en) * 2016-03-22 2017-09-27 Autoliv Development AB A vehicle environment mapping system
DE102016005884A1 (de) * 2016-05-12 2017-11-16 Adam Opel Ag Fahrerassistenzsystem
US10448555B2 (en) 2016-05-27 2019-10-22 Cnh Industrial America Llc System and method for scouting vehicle mapping
DE102016210632A1 (de) * 2016-06-15 2017-12-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Überprüfen eines Medienverlustes eines Kraftfahrzeuges sowie Kraftfahrzeug und System zum Ausführen eines solchen Verfahrens
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
US11210436B2 (en) * 2016-07-07 2021-12-28 Ford Global Technologies, Llc Virtual sensor-data-generation system and method supporting development of algorithms facilitating navigation of railway crossings in varying weather conditions
US10521677B2 (en) * 2016-07-14 2019-12-31 Ford Global Technologies, Llc Virtual sensor-data-generation system and method supporting development of vision-based rain-detection algorithms
US11511768B2 (en) 2016-07-15 2022-11-29 Harman International Industries, Incorporated Device and method for virtualizing driving environment, and vehicle
US10762358B2 (en) * 2016-07-20 2020-09-01 Ford Global Technologies, Llc Rear camera lane detection
US10152058B2 (en) * 2016-10-24 2018-12-11 Ford Global Technologies, Llc Vehicle virtual map
US10410074B2 (en) * 2016-10-25 2019-09-10 Ford Global Technologies, Llc Systems and methods for locating target vehicles
KR102647407B1 (ko) * 2016-11-04 2024-03-14 현대모비스 주식회사 차량 사고 예방 시스템 및 그 방법
WO2018089714A1 (en) * 2016-11-09 2018-05-17 Aatonomy, Inc. Autonomous vehicle moving system, device and method
US10423156B2 (en) 2016-12-11 2019-09-24 Aatonomy, Inc. Remotely-controlled device control system, device and method
DE102016015514A1 (de) * 2016-12-23 2018-06-28 Lucas Automotive Gmbh Fahrassistenz für ein Kraftfahrzeug
CN110383005B (zh) 2017-01-27 2023-04-11 科派克系统公司 一种用于为自动驾驶车辆形成局部导航路径的方法
GB2559196B (en) * 2017-01-31 2021-11-17 Sony Europe Bv Determining a position of a vehicle on a track
US10053088B1 (en) * 2017-02-21 2018-08-21 Zoox, Inc. Occupant aware braking system
DE102017203838B4 (de) * 2017-03-08 2022-03-17 Audi Ag Verfahren und System zur Umfelderfassung
WO2018170074A1 (en) * 2017-03-14 2018-09-20 Starsky Robotics, Inc. Vehicle sensor system and method of use
KR102565533B1 (ko) 2017-06-14 2023-08-10 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 항법 정보의 융합 프레임워크 및 배치 정렬
WO2018232681A1 (en) * 2017-06-22 2018-12-27 Baidu.Com Times Technology (Beijing) Co., Ltd. TRAFFIC PREDICTION BASED ON CARD IMAGES FOR AUTONOMOUS DRIVING
US10386856B2 (en) 2017-06-29 2019-08-20 Uber Technologies, Inc. Autonomous vehicle collision mitigation systems and methods
US10065638B1 (en) 2017-08-03 2018-09-04 Uber Technologies, Inc. Multi-model switching on a collision mitigation system
US10629080B2 (en) 2017-08-31 2020-04-21 Uatc Llc Autonomous vehicles featuring vehicle intention system
US20190072978A1 (en) * 2017-09-01 2019-03-07 GM Global Technology Operations LLC Methods and systems for generating realtime map information
US10957201B2 (en) 2017-09-15 2021-03-23 Qualcomm Incorporated System and method for relative positioning based safe autonomous driving
US10551849B2 (en) * 2017-09-25 2020-02-04 Aptiv Technologies Limited Automated vehicle simulated lane-marking guidance system
US11080537B2 (en) * 2017-11-15 2021-08-03 Uatc, Llc Autonomous vehicle lane boundary detection systems and methods
JP6930394B2 (ja) * 2017-11-24 2021-09-01 トヨタ自動車株式会社 物体認識装置
KR102333033B1 (ko) * 2017-12-07 2021-12-01 삼성전자주식회사 차량 및 그 제어 방법
US10921142B2 (en) * 2017-12-14 2021-02-16 Waymo Llc Methods and systems for sun-aware vehicle routing
US10712168B2 (en) * 2017-12-28 2020-07-14 Uatc, Llc Submap geographic projections
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
US20190208136A1 (en) * 2017-12-29 2019-07-04 Waymo Llc High-speed image readout and processing
KR102323394B1 (ko) * 2018-01-22 2021-11-08 삼성전자주식회사 차량의 주행을 보조하는 장치 및 방법
KR102055156B1 (ko) * 2018-02-05 2019-12-12 주식회사 만도 적응형 순항 제어 시스템의 제어 장치 및 제어 방법
CN108284838A (zh) * 2018-03-27 2018-07-17 杭州欧镭激光技术有限公司 一种用于检测车辆外部环境信息的检测系统及检测方法
WO2019195191A1 (en) * 2018-04-02 2019-10-10 Phantom Al, Inc. Dynamic image region selection for visual inference
US11650059B2 (en) * 2018-06-06 2023-05-16 Toyota Research Institute, Inc. Systems and methods for localizing a vehicle using an accuracy specification
US10843702B2 (en) * 2018-06-06 2020-11-24 Ford Global Technologies, Llc Methods and systems for oil leak determination
US10656647B2 (en) * 2018-06-27 2020-05-19 Aptiv Technologies Limited Verification of vehicle operator awareness before transition from autonomous-mode to manual-mode
DK201870683A1 (en) * 2018-07-05 2020-05-25 Aptiv Technologies Limited IDENTIFYING AND AUTHENTICATING AUTONOMOUS VEHICLES AND PASSENGERS
KR102146451B1 (ko) * 2018-08-17 2020-08-20 에스케이텔레콤 주식회사 좌표계 변환 정보 획득 장치 및 방법
EP3617650A1 (en) 2018-08-31 2020-03-04 Volkswagen Aktiengesellschaft Methods, apparatuses and computer program for vehicles and a backend entity
US11495028B2 (en) * 2018-09-28 2022-11-08 Intel Corporation Obstacle analyzer, vehicle control system, and methods thereof
DE102018217840A1 (de) * 2018-10-18 2020-04-23 Volkswagen Aktiengesellschaft Verfahren und System zum Bestimmen eines Umfeldmodells für ein Fahrzeug
US11200430B2 (en) * 2018-11-05 2021-12-14 Tusimple, Inc. Systems and methods for detecting trailer angle
KR102555916B1 (ko) * 2018-12-12 2023-07-17 현대자동차주식회사 Odm 정보 신뢰성 판단 장치 및 그의 판단 방법과 그를 이용하는 차량
KR102247168B1 (ko) * 2018-12-26 2021-05-03 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량 내 비 회피 계획 시스템의 장애물 필터링 방법
WO2020146983A1 (zh) * 2019-01-14 2020-07-23 深圳市大疆创新科技有限公司 一种车道检测方法、装置及车道检测设备、移动平台
EP3918589B1 (en) 2019-01-30 2022-11-09 Volvo Truck Corporation A method for adjusting a display view of a vision aid system
CN113840762A (zh) 2019-05-17 2021-12-24 沃尔沃卡车集团 用于操作自主车辆的方法
US20220269274A1 (en) 2019-07-31 2022-08-25 Volvo Truck Corporation Method for forming a travelling path for a vehicle
US11310451B1 (en) 2019-09-05 2022-04-19 Waymo Llc Smart sensor with region of interest capabilities
US11233840B2 (en) 2019-09-13 2022-01-25 Roku, Inc. Use of in-band metadata as basis to access reference fingerprints to facilitate content-related action
US11591012B2 (en) * 2019-10-01 2023-02-28 Robert Bosch Gmbh Vehicle trajectory prediction using road topology and traffic participant object states
US11428550B2 (en) 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data
CN111611709B (zh) * 2020-05-20 2023-09-15 阿波罗智能技术(北京)有限公司 用于控制仿真车辆的方法、装置、电子设备和存储介质
US20220075378A1 (en) * 2020-06-23 2022-03-10 California Institute Of Technology Aircraft-based visual-inertial odometry with range measurement for drift reduction
CN111598061B (zh) * 2020-07-21 2020-10-20 成都中轨轨道设备有限公司 一种自主识别定位轨道标识牌内容的系统和方法
US20220111859A1 (en) * 2020-10-12 2022-04-14 Ford Global Technologies, Llc Adaptive perception by vehicle sensors
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes
US11772603B2 (en) 2021-05-18 2023-10-03 Motional Ad Llc Passenger authentication and entry for autonomous vehicles

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160995A (ja) * 1993-12-08 1995-06-23 Mitsubishi Motors Corp 車両用自動操舵装置
JP2005056128A (ja) * 2003-08-04 2005-03-03 Denso Corp 道路位置検出方法、道路位置検出装置、プログラム
JP2005098917A (ja) * 2003-09-26 2005-04-14 Mazda Motor Corp 車両用情報提供装置
JP2005202678A (ja) * 2004-01-15 2005-07-28 Nissan Motor Co Ltd 走行支援装置
JP2006284414A (ja) * 2005-04-01 2006-10-19 Xanavi Informatics Corp 車載情報端末、自動車の走行制御システム、自動車の走行制御装置及び方法
WO2007017693A1 (en) * 2005-08-10 2007-02-15 Trw Limited Method and apparatus for determining motion of a vehicle
JP2007315861A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 車両用画像処理装置
JP2008128827A (ja) * 2006-11-21 2008-06-05 Matsushita Electric Ind Co Ltd ナビゲーション装置およびナビゲーション方法ならびにそのプログラム
JP2011149835A (ja) * 2010-01-22 2011-08-04 Clarion Co Ltd カーナビゲーション装置
JP2011199501A (ja) * 2010-03-18 2011-10-06 Aisin Seiki Co Ltd 画像表示装置
JP4862036B2 (ja) * 2006-03-06 2012-01-25 日立オートモティブシステムズ株式会社 自動車の制御装置及び制御方法
JP2012208111A (ja) * 2011-12-05 2012-10-25 Pioneer Electronic Corp 画像表示装置及び制御方法
JP2013529153A (ja) * 2010-03-11 2013-07-18 ダイムラー・アクチェンゲゼルシャフト 車体の動きを特定するための方法
JP2013544696A (ja) * 2010-10-05 2013-12-19 グーグル・インク 検出された物体の挙動を予測するシステム及び方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3284845B2 (ja) * 1995-09-20 2002-05-20 三菱自動車工業株式会社 障害物認識装置
JP3849505B2 (ja) 2001-11-26 2006-11-22 株式会社デンソー 障害物監視装置及びプログラム
JP2004098827A (ja) 2002-09-09 2004-04-02 Denso Corp 障害物検知装置及びプログラム
KR20040091788A (ko) * 2003-04-22 2004-11-02 현대자동차주식회사 고속도로 자율주행 시스템 및 그의 제어방법
DE102004003850A1 (de) 2004-01-26 2005-08-18 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von Markierungen auf einer Fahrbahn
JP4377284B2 (ja) * 2004-06-02 2009-12-02 株式会社ザナヴィ・インフォマティクス 車載ナビゲーション装置
JP2006199273A (ja) * 2004-12-24 2006-08-03 Fujitsu Ten Ltd 車両情報提供装置
JP4392389B2 (ja) * 2005-06-27 2009-12-24 本田技研工業株式会社 車両及び車線認識装置
US8027029B2 (en) * 2007-11-07 2011-09-27 Magna Electronics Inc. Object detection and tracking system
CN101910793B (zh) 2007-12-28 2012-11-28 三菱电机株式会社 导航装置
JP5094658B2 (ja) * 2008-09-19 2012-12-12 日立オートモティブシステムズ株式会社 走行環境認識装置
US8259998B2 (en) 2008-09-30 2012-09-04 Mazda Motor Corporation Image processing device for vehicle
DE102009007342A1 (de) * 2009-02-04 2010-08-05 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln einer geltenden Fahrspurmarkierung
CN102421572B (zh) 2009-04-15 2015-10-14 比克-维尔莱克 剃须刀刀架和包括该刀架的机械剃须刀
DE102009060377B4 (de) 2009-12-24 2016-10-20 Richard Wolf Gmbh Trokarhülse
JP5531733B2 (ja) * 2010-04-01 2014-06-25 トヨタ自動車株式会社 道路情報取得装置
EP2583217A1 (en) * 2010-06-21 2013-04-24 Centre De Visió Per Computador Method for obtaining drivable road area
US8704887B2 (en) * 2010-12-02 2014-04-22 GM Global Technology Operations LLC Multi-object appearance-enhanced fusion of camera and range sensor data
US20120310465A1 (en) 2011-06-02 2012-12-06 Harman International Industries, Incorporated Vehicle nagivation system
JP5645769B2 (ja) * 2011-08-01 2014-12-24 株式会社日立製作所 画像処理装置
DE102011084993A1 (de) 2011-10-21 2013-04-25 Robert Bosch Gmbh Übernahme von Daten aus bilddatenbasierenden Kartendiensten in ein Assistenzsystem

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160995A (ja) * 1993-12-08 1995-06-23 Mitsubishi Motors Corp 車両用自動操舵装置
JP2005056128A (ja) * 2003-08-04 2005-03-03 Denso Corp 道路位置検出方法、道路位置検出装置、プログラム
JP2005098917A (ja) * 2003-09-26 2005-04-14 Mazda Motor Corp 車両用情報提供装置
JP2005202678A (ja) * 2004-01-15 2005-07-28 Nissan Motor Co Ltd 走行支援装置
JP2006284414A (ja) * 2005-04-01 2006-10-19 Xanavi Informatics Corp 車載情報端末、自動車の走行制御システム、自動車の走行制御装置及び方法
WO2007017693A1 (en) * 2005-08-10 2007-02-15 Trw Limited Method and apparatus for determining motion of a vehicle
JP4862036B2 (ja) * 2006-03-06 2012-01-25 日立オートモティブシステムズ株式会社 自動車の制御装置及び制御方法
JP2007315861A (ja) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd 車両用画像処理装置
JP2008128827A (ja) * 2006-11-21 2008-06-05 Matsushita Electric Ind Co Ltd ナビゲーション装置およびナビゲーション方法ならびにそのプログラム
JP2011149835A (ja) * 2010-01-22 2011-08-04 Clarion Co Ltd カーナビゲーション装置
JP2013529153A (ja) * 2010-03-11 2013-07-18 ダイムラー・アクチェンゲゼルシャフト 車体の動きを特定するための方法
JP2011199501A (ja) * 2010-03-18 2011-10-06 Aisin Seiki Co Ltd 画像表示装置
JP2013544696A (ja) * 2010-10-05 2013-12-19 グーグル・インク 検出された物体の挙動を予測するシステム及び方法
JP2013544697A (ja) * 2010-10-05 2013-12-19 グーグル・インク 自律走行車両の診断と修理
JP2013544695A (ja) * 2010-10-05 2013-12-19 グーグル・インク ゾーンドライビング
JP2012208111A (ja) * 2011-12-05 2012-10-25 Pioneer Electronic Corp 画像表示装置及び制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021088357A (ja) * 2016-07-21 2021-06-10 モービルアイ ビジョン テクノロジーズ リミテッド 自律車両ナビゲーションのための疎な地図並びにレーン測定値のクラウドソーシング及び配信
JP7040867B2 (ja) 2016-07-21 2022-03-23 モービルアイ ビジョン テクノロジーズ リミテッド システム、方法およびプログラム
JP2021514069A (ja) * 2018-09-17 2021-06-03 ウェイモ エルエルシー ブリッジ構造を有する送信機デバイス
JP7072654B2 (ja) 2018-09-17 2022-05-20 ウェイモ エルエルシー ブリッジ構造を有する送信機デバイス
WO2023043620A1 (en) * 2021-09-15 2023-03-23 Zoox, Inc. Road network validation

Also Published As

Publication number Publication date
CN107757616A (zh) 2018-03-06
JP6055562B2 (ja) 2016-12-27
WO2014209477A1 (en) 2014-12-31
CN105358399A (zh) 2016-02-24
US20140379247A1 (en) 2014-12-25
EP3196804B1 (en) 2018-09-05
EP2976243A4 (en) 2016-05-18
EP2976243A1 (en) 2016-01-27
EP3196804A1 (en) 2017-07-26
KR20160035099A (ko) 2016-03-30
EP2976243B1 (en) 2017-03-29
KR20150123946A (ko) 2015-11-04
US20160214605A1 (en) 2016-07-28
US9387854B1 (en) 2016-07-12
KR101606337B1 (ko) 2016-03-24
US9145139B2 (en) 2015-09-29
CN105358399B (zh) 2017-10-31
CN107757616B (zh) 2020-09-08
KR101727439B1 (ko) 2017-04-14

Similar Documents

Publication Publication Date Title
JP6055562B2 (ja) 環境情報を用いた自律走行車両の画像処理方法、車両及び非一時的コンピュータ可読媒体
US11281918B1 (en) 3D position estimation of objects from a monocular camera using a set of known 3D points on an underlying surface
US11068726B1 (en) Static obstacle detection
US11762386B1 (en) Modifying the behavior of an autonomous vehicle using context based parameter switching
US10181084B2 (en) Combining multiple estimates of an environment into a consolidated estimate for an autonomous vehicle
JP6622265B2 (ja) 交通信号とそれらに関連した状態を検出するためのロバスト法
US10724865B1 (en) Methods and systems for calibrating sensors using road map data
US9026303B1 (en) Object detection based on known structures of an environment of an autonomous vehicle
US8825259B1 (en) Detecting lane closures and lane shifts by an autonomous vehicle
US9081383B1 (en) Enhancing basic roadway-intersection models using high intensity image data
US9261881B1 (en) Filtering noisy/high-intensity regions in laser-based lane marker detection
US9417631B2 (en) Use of prior maps for estimation of lane boundaries
US20180329423A1 (en) System To Optimize Sensor Parameters In An Autonomous Vehicle
US8838322B1 (en) System to automatically measure perception sensor latency in an autonomous vehicle
US9373045B1 (en) Bus detection for an autonomous vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161202

R150 Certificate of patent or registration of utility model

Ref document number: 6055562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250