JP6468839B2 - センサー場の選択 - Google Patents

センサー場の選択 Download PDF

Info

Publication number
JP6468839B2
JP6468839B2 JP2014513491A JP2014513491A JP6468839B2 JP 6468839 B2 JP6468839 B2 JP 6468839B2 JP 2014513491 A JP2014513491 A JP 2014513491A JP 2014513491 A JP2014513491 A JP 2014513491A JP 6468839 B2 JP6468839 B2 JP 6468839B2
Authority
JP
Japan
Prior art keywords
vehicle
sensor
sensor field
field
control policy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014513491A
Other languages
English (en)
Other versions
JP2014515527A (ja
Inventor
フェアフィールド、ナザニエル
ヂュウ、ジャジュン
ドルゴヴ、ディミトリ・エー
Original Assignee
ウェイモ エルエルシー
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー, ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2014515527A publication Critical patent/JP2014515527A/ja
Application granted granted Critical
Publication of JP6468839B2 publication Critical patent/JP6468839B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

(関連出願の相互参照)
この出願は、2011年6月1日に出願された「センサー場の選択(Sensor Field Selection)」と題された米国特許出願番号13/150,385に基づく優先権を主張するものであり、この出願のすべてを参照することにより本出願に組み込むものとする。
自律走行車両は、乗客を1つの場所から他の場所へ移送することを目的として、種々の演算システムを用いる。自律走行車両によっては、パイロット、ドライバー、又は乗客のようなオペレーターからの何らかの初期入力又は連続入力を必要とすることもある。他のシステムでは、例えば自動操縦システムを、手動モード(このモードでは、オペレーターはその車両の動作の高度なコントロールを行う)から自律走行モード(このモードでは、車両は基本的に自分で動く)、或いは、その間のモードにオペレーターが切り替えるシステムが導入されているときのみに用いることができる。
そのような車両は、周囲の物体を検出するために種々の形式のセンサーを装備する。例えば、自律走行車両には、レーザー、ソナー、レーダー、カメラ、及び車両の周囲をスキャンし、データを記録する他の装置を含めることができる。これらの装置は、組み合わせて(場合によっては単独で)車両の周囲で検出された物体の3Dモデルを構築するために用いることができる。
本開示の一形態では、自律走行運転モードを有する車両をコントロールする方法を提供する。この方法には、プロセッサーにより、第1のコントロール方針に基づき車両の運転をコントロールするステップと、この車両の1以上のセンサーの視野に基づきセンサー場を特定するステップと、1以上のセンサーのうち選択されたものからのセンサーデータを受け取るステップと、このセンサーデータに基づき1以上のセンサーのセンサーによる検知の変化を特定するステップであって、このセンサーによる検知の変化はセンサー場内での物体を検知する能力が減少したことを含むことを特徴とする、ステップと、この変化に基づき第2のコントロール方針を決定するステップと、プロセッサーにより、第2のコントロール方針に基づき車両の運転をコントロールするステップと、が含まれる。
1つの実施例において、また、この方法には、受信したセンサーデータに基づきセンサー場内の物体及び物体の位置を検出し、この物体の位置に基づき変化を特定するステップが含まれる。他の実施例では、センサーによる検知の変化を特定するステップには、センサー場内の物体の位置に基づきセンサーによる検知が狭まった領域を計算し、このセンサーによる検知が狭まった領域に基づき第2のコントロール方針を決定するステップが含まれる。他の実施例では、センサーによる検知の変化を特定するステップには、センサー場内の物体の位置に基づき現在のセンサー場を計算し、この現在のセンサー場に基づき第2のコントロール方針を決定するステップが含まれる。他の実施例では、物体は他の車両である。他の実施例では、この方法には、1以上のセンサーの特定の1つが信頼性のない情報を提供している兆候を示していると判断するステップと、この変化がこのように判断した兆候に基づくものであると認定するステップとが含まれる。他の実施例では、この信頼性のない情報には、1以上のカメラ画像が含まれる。他の実施例では、この方法にはまた、センサーデータに基づき1以上のセンサーのセンサーによる検知にもはや変化はなく、車両の運転のコントロールは、もはや変化はないとの判断に基づく第1のコントロール方針にさらに基づくと判断するするステップが含まれる。他の実施例では、第1のコントロール方針に基づき車両の運転をコントロールするステップには、第1の方向へ車両を操縦することが含まれ、第2のコントロール方針に基づき車両の運転をコントロールするステップには、第1の方向とは異なる第2の方向へ車両を操縦することが含まれる。他の実施例では、第1のコントロール方針に基づき車両の運転をコントロールするステップには、第1の速度で車両を操縦することが含まれ、第2のコントロール方針に基づき車両の運転をコントロールするステップには、第1の速度とは異なる第2の速度で車両を操縦することが含まれる。
本開示の他の形態では、自律走行運転モードを有する車両をコントロールする装置を提供する。この装置には、車両の周囲の物体を検出する1以上のセンサーと、この1以上のセンサーと接続されたプロセッサーとが含まれる。このプロセッサーは、第1のコントロール方針に基づき車両の運転をコントロールすることと、車両の1以上のセンサーの視野に基づきセンサー場を特定することと、1以上のセンサーからのうち選択されたものからのセンサーデータを受け取ることと、このセンサーデータに基づき1以上のセンサーのセンサーによる検知の変化を特定することであって、このセンサーによる検知の変化はセンサー場内での物体を検知する能力が減少したことを含むことを特徴とする、センサーによる検知の変化を特定することと、この変化に基づき第2のコントロール方針を決定することと、第2のコントロール方針に基づき車両の運転をコントロールすることとができる。
1つの実施例において、プロセッサーはさらに、受信したセンサーデータに基づきセンサー場内の物体及び物体の位置を検出し、この物体の位置に基づき変化を特定することができる。他の実施例では、プロセッサーは、センサー場内の物体の位置に基づきセンサーによる検知が狭まった領域を計算することによりセンサーによる検知の変化を特定することができ、このセンサーによる検知が狭まった領域に基づき第2のコントロール方針を決定することができる。他の実施例では、プロセッサーは、センサー場内の物体の位置に基づき現在のセンサー場を計算することによりセンサーによる検知の変化を特定することができ、この現在のセンサー場に基づき第2のコントロール方針を決定することができる。他の実施例では、プロセッサーはさらに、物体を他の車両として特定することができる。他の実施例では、プロセッサーはさらに、1以上のセンサーのうちの特定の1つが信頼性のない情報を提供している兆候を示していると判断することができ、プロセッサーは、このように判断した兆候に基づき変化を特定することができる。他の実施例では、この信頼性のない情報には、1以上のカメラ画像が含まれる。他の実施例では、また、プロセッサーはセンサーデータに基づき1以上のセンサーのセンサーによる検知にもはや変化はないと判断することができ、もはや変化はないとの判断に基づく第1のコントロール方針に基づき車両の運転のコントロールを行うことができる。他の実施例では、また、プロセッサーは、第1の方向へ車両を操縦することにより、第1のコントロール方針に基づき車両の運転をコントロールすることができ、第1の方向とは異なる第2の方向へ車両を操縦することにより、第2のコントロール方針に基づき車両の運転をコントロールすることができる。他の実施例では、プロセッサーはまた、第1の速度で車両を操縦することにより、第1のコントロール方針に基づき車両の運転をコントロールすることができ、第1の速度とは異なる第2の速度で車両を操縦することにより、第2のコントロール方針に基づき車両の運転をコントロールすることができる。
本開示のさらに他の形態では、コンピュータ読み取り可能なプログラムの命令が保存された、実体のあるコンピュータ読み取り可能記憶媒体を提供し、この命令が、プロセッサーにより実行されたとき、プロセッサーは自律走行運転モードを有する車両のコントロール方法を実行する。この方法には、プロセッサーにより、第1のコントロール方針に基づく車両の運転をコントロールするステップと、この車両の1以上のセンサーの視野に基づくセンサー場、及び、このセンサー場内での物体を検知する能力が減少したことを含むセンサーによる検知の変化を特定するステップと、1以上のセンサーのうち選択されたものからセンサーデータを受け取るステップと、このセンサーデータに基づき1以上のセンサーのセンサーによる検知の変化を特定するステップと、この変化に基づき第2のコントロール方針を決定するステップと、プロセッサーにより、この第2のコントロール方針に基づき車両の運転をコントロールするステップと、が含まれる。
1つの実施例では、この方法にはまた、受信したセンサーデータに基づきセンサー場内の物体及び物体の位置を検出し、この物体の位置に基づき変化を特定するステップが含まれる。他の実施例では、センサーによる検知の変化を特定するステップには、センサー場内の物体の位置に基づきセンサーによる検知が狭まった領域を計算し、このセンサーによる検知が狭まった領域に基づき第2のコントロール方針を決定するステップが含まれる。他の実施例では、センサーによる検知の変化を特定するステップには、センサー場内の物体の位置に基づき現在のセンサー場を計算し、この現在のセンサー場に基づき第2のコントロール方針を決定するステップが含まれる。他の実施例では、物体は他の車両である。他の実施例では、この方法にはまた、1以上のセンサーの特定の1つが信頼性のない情報を提供している兆候を示していると判断するステップと、この変化がこのように判断された兆候に基づくものであると認定するステップとが含まれる。他の実施例では、この信頼性のない情報には、1以上のカメラ画像が含まれる。他の実施例では、この方法にはまた、センサーデータに基づき1以上のセンサーのセンサーによる検知にもはや変化はなく、車両の運転のコントロールは、もはや変化はないとの判断に基づく第1のコントロール方針にさらに基づくと判断するするステップが含まれる。他の実施例では、第1のコントロール方針に基づき車両の運転をコントロールするステップには、第1の方向へ車両を操縦することが含まれ、第2のコントロール方針に基づき車両の運転をコントロールするステップには、第1の方向とは異なる第2の方向へ車両を操縦することが含まれる。他の実施例では、第1のコントロール方針に基づき車両の運転をコントロールするステップには、第1の速度で車両を操縦することが含まれ、第2のコントロール方針に基づき車両の運転をコントロールするステップには、第1の速度とは異なる第2の速度で車両を操縦することが含まれる。
典型的な実施の形態によるシステムの機能図である。 典型的な実施の形態による自律走行車両の内装である。 典型的な実施の形態による自律走行車両の外装である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両の図解である。 典型的な実施の形態による自律走行車両のフロー線図である。 典型的な実施の形態による自律走行車両のフロー線図である。 典型的な実施の形態による自律走行車両のフロー線図である。
図1に示すように、ここに開示した1つの形態による自律走行運転システム100には、種々の構成部品を有する車両101が含まれる。開示した特定の形態では、特定のタイプの車両について特に実益があり、これらの車両として、乗用車、トラック、オートバイ、バス、ボート、飛行機、ヘリコプター、芝刈り機、RV車、遊園地の乗り物、農機具、建設用機器、市街電車、ゴルフカート、列車、及び路面電車を含むあらゆるタイプの車両があげられるがこれらに限定されるものではない。車両は、プロセッサー120、メモリー130、及び汎用コンピュータに一般的に用いられる他の構成部品を有するコンピュータ110のような、1以上のコンピュータを有することができる。
メモリー130は、プロセッサー120により実行或いは用いることができる命令132及びデータ134を含む、プロセッサー120がアクセス可能な情報を保存する。メモリー130は、コンピュータ読み取り可能媒体、又は、ハードディスクドライブ、メモリーカード、ROM、RAM、DVD又は他の光ディスクのみならず、他の書き込み可能なメモリー及び読み込み専用メモリーのような、電子装置により読み込むことのできるデータを保存するコンピュータ読み取り可能媒体、又は他の媒体を含むプロセッサーがアクセス可能な情報を保存することのできるあらゆるタイプとすることができる。システム及び方法には、前述の種々の組み合わせを含むことができ、命令及びデータの異なる部分は異なるタイプの媒体に保存される。
命令132は、プロセッサーにより(機械語のように)直接的に又は(スクリプトのように)間接的に実行できる命令のどのようなセットでもよい。例えば、コンピュータ読み取り可能媒体上のコンピュータコードとして命令を保存することができる。これに関連して、「命令」及び「プログラム」の語は、ここでは互いに置き換え可能に用いることができる。命令は、プロセッサーで直接処理ができるオブジェクトコードフォーマット、又は、要求によりインタープリトされ又はあらかじめコンパイルされる独立のソースコードのスクリプト又はコレクションを含む他のあらゆるコンピュータ言語で保存することができる。命令の機能、方法、及び業務については以下に詳述する。
命令132に従い、プロセッサー120によりデータ134を検索し、保存し、変更することができる。例えば、要求の対象が、特定のデータ構造により制限されていなくても、複数の異なるフィールド及びレコードを有するテーブル、XMLドキュメント、又はフラットファイルとして、リレーショナルデータベースとしてデータをコンピュータレジスターに保存することができる。データは、いろいろなコンピュータ読み取り可能フォーマットにフォーマットすることもできる。さらにほんの例示として、グラフィックを描画するためのコンピュータ命令のみならず、圧縮又は非圧縮、損失のない(例えば、BMP)又は損失のある(例えば、JPEG)、及びビットマップ又はベクトルベース(例えば、SVG)のフォーマットで保存されたピクセルのグリッドからなるビットマップとして、イメージデータを保存することができる。データは、数値、説明文、所有者コード、同じメモリー又は異なるメモリー(他のネットワーク中のものも含む)の他の領域に保存されたデータへの参照、又は、対応するデータを計算する機能により用いられる情報のような、対応する情報を特定するのに十分なあらゆる情報を具備することができる。
プロセッサー120は、商業上入手可能なCPUのような、従来のどのようなプロセッサーでもよい。代替的に、プロセッサーをASICその他のハードワイヤベースのプロセッサーのような専用装置とすることもできる。図1には、同じブロック内にあるものとして、プロセッサー、メモリー、及び他のコンピュータ110要素を機能的に図示しているが、当業者であれば、プロセッサー、コンピュータ、又は、メモリーは、実際には、同じ物理的な筺体内に収納することも同じ筺体内に収納しないこともできる、複数のプロセッサー、コンピュータ、又は、メモリーであってもよいことは理解できるであろう。例えば、メモリーは、コンピュータ110の筺体とは別の筺体内に収納したハードディスクドライブ又は他の記憶媒体とすることができる。従って、当然のことながら、プロセッサー又はコンピュータと言うときには、並列運転していることも並列に運転していないこともあるプロセッサー又はコンピュータ又はメモリーを言うことが含まれる。ここで記載するステップを実行させるために単一のプロセッサーを使わないで、ステアリング用部品及び減速用部品のような構成部品の各々に、その構成部品特有の機能に関する計算のみを実行するような特有のプロセッサーを持たせることもできる。
ここに記載した種々の形態において、プロセッサーを、車両から隔てて配置し、車両と無線で交信させることもできる。他の形態において、ここに記載した処理は車両中に配置したプロセッサーにより実行され、1つの操作を実行するために必要なステップを行う場合も含めて、他の処理は遠隔のプロセッサーにより実行される。
コンピュータ110は、中央演算処理装置(CPU)、ウェブブラウザのようなデータ134や命令を保存するメモリー(例えば、RAM及び内部ハードディスクドライブ)、電子表示142(例えば、スクリーン、小型LCDタッチスクリーン、又は、情報を表示することのできる他の電子装置)、ユーザー入力140(例えば、マウス、キーボード、タッチスクリーン、及び/又は、マイクロフォン)、及び、人の状態又は人が求める明確な(例えば、ジェスチャー)又は間接的な(例えば、「居眠りしている」)情報を収集するための種々のセンサー(例えば、ビデオカメラ)を具備する。
1つの実施例では、コンピュータ110は、車両101に組み込まれた自律走行運転演算システムとすることができる。図2は、自律走行車両の内装の典型的なデザインを示す。自律走行車両は、例えば、ステアリングホイール210のようなステアリング装置やナビゲーション表示215のようなナビゲーション表示装置や変速装置220のようなギア比選択装置のような、自律走行車両でない車両のすべての機構が含まれる。自律走行車両はまた、1つ以上の自律走行運転モードを始動又は停止させるため、及び、ナビゲーション目的地のような情報をドライバー又は乗客290が自律走行運転コンピュータ110に提供することができるようにするために、変速装置220、タッチスクリーン217、又はボタン入力219のような種々のユーザー入力装置を有することができる。
車両101には、1以上の表示装置を含めることができる。例えば、車両には、自律走行車両又はその車両のコンピュータの状態に関する情報を表示するための表示装置225を含めることができる。他の実施例では、車両101の現在の状態を表示するための、ステータスバー230のような、状態表示装置138(図1参照)を含めることができる。図2の例では、ステータスバー230は、車両が現在ドライブモードで、毎時2マイルで走っていることを示す「D」及び「2mph」を表示している。これに関して、車両は、ステアリングホイール210のような車両101の一部を照らすことで文字を電子表示することや、他の表示を行うことができる。
自律走行運転演算システムは、車両の種々の構成部品と通信することができる。例えば、図1に戻って、コンピュータ110は車両の中央プロセッサー160と通信することができ、車両101の動き、速度等をコントロールするために、車両101の種々のシステム、例えばブレーキングシステム180、加速システム182、信号システム184、及びナビゲーションシステム186と情報を送受信することができる。加えて、スイッチをいれたとき、コンピュータ110は、車両101のこれらのすべての機能または一部の機能をコントロールし、完全な自律走行又は部分的な自律走行にすることができる。種々のシステム及びコンピュータ110は車両101内にあるように示されているが、これらの構成要素は、車両101の外部又は物理的に遠く離しておくことができる。
車両にはまた、装置の地理的位置を決定するためにコンピュータ110と通信を行う地理的位置検出要素144を含めることができる。例えば、この位置検出要素には、装置の緯度、経度、及び/又は高度を判断するためにGPS受信機を含めることができる。レーザーベースの位置特定システム、慣性援用GPS、又はカメラベースの位置検出のような他の位置検出システムも、車両の位置を特定するために用いることができる。車両の位置には、絶対的地理的位置より少ないノイズで判断することのできる、すぐ近くの他の乗用車等との相対位置のような、相対位置情報のみならず、緯度、経度、及び高度のような、絶対的地理的位置を含めることができる。
車両には、車両の方向と速度又はその変化を決定するための、加速度計、ジャイロスコープ、又は他の方向/速度検出装置146のような、コンピュータ110との通信を行う他の装置を含めることもできる。単なる例として、加速装置146は、重力の方向又は重力に垂直な平面の方向に対するピッチ、振れ、揺れ(又はそれらの変化)を決定することができる。この装置は、このような変化の速さ及び方向の増加又は減少を追跡することもできる。ここに述べたようなこの装置の位置及び方向データについての項目は、ユーザー、コンピュータ110、他のコンピュータ、及びこれらを組み合わせたものに自動的に提供される。
コンピュータ110は、種々の構成部品を制御することにより車両の方向及び速度をコントロールすることができる。例示として、車両を完全に自律走行モードで運転している場合、コンピュータ110は、(例えば、エンジンに供給される燃料又は他のエネルギーを増加させることにより)車両を加速させること、(例えば、エンジンに供給される燃料を減少させること、又はブレーキをかけることにより)車両を減速させること、及び(例えば、前方の2つの車輪の向きを変えることにより)車両の方向を変えることができる。
車両には、他の車両、道路上の障害物、交通信号、標識、樹木、等のような、車両の外にある物体を検出するための構成部品を含めることができる。検出システムには、コンピュータ110で処理することのできるデータを記録するレーザー、ソナー、レーダー、カメラ又はその他の検出装置を含めることができる。例えば、車両が小型乗用車である場合、この乗用車には、屋根又は他の具合のいい場所に取り付けたレーザーを含めることができる。
図3に示すように、小型乗用車301には、それぞれ乗用車の前方及び屋根に取り付けたレーザー310及び311を含めることができる。レーザー310は、約150メートルの到達距離、13度の垂直視野、約30度の水平視野を有することができる。レーザー311は、約50〜80メートルの到達距離、13度の垂直視野、360度の水平視野を有することができる。レーザーにより、車両は、種々の物体の位置と距離を特定するためにコンピュータが用いることのできる距離と強さの情報を得ることができる。1つの特徴によれば、レーザーは、レーザー軸を回転し傾きを変更することにより車両と物体の車両のほうを向く面との距離を計測することができる。
車両には、適応巡航コントロールシステムに用いるような、種々のレーダー検出装置を含めることもできる。レーダー検出装置は、乗用車のフロントバンパーのどちらか一方の側のみならず、前方及び後方に配置することもできる。図3の例に示すように、車両301には、車両の側面(一方だけが示されている)、前方及び後方に、レーダー検出装置320〜323が含まれている。これらのレーダー検出装置は、約56度の視野で60メートルの到達距離を持つのみならず、約18度の視野で約200メートルの到達距離を持つことができる。
他の実施例では、種々のカメラを車両に取り付けることができる。カメラは、2つ以上のカメラからの視差を種々の物体までの距離を計算するために用いることができるよう、所定の距離を置いて取り付けることができる。図3に示すように、車両301には、バックミラー(不図示)の近くのフロントガラス340の裏に取り付けたカメラ330〜331を含めることができる。カメラ330は、約200メートルの到達距離及び約30度の水平視野を持つことができる一方、カメラ331は、約100の到達距離及び約60度の水平視野を持つことができる。
各センサーは、センサーが物体を検出するために用いることのできる特定のセンサー場と関連付けることができる。図4Aは、種々のセンサーの概略センサー場を上から見た図である。図4Bは、レーザー310及び311の概略センサー場410及び411を示し、それぞれ、これらのセンサーの視野に基づく。例えば、センサー場410は、約150メートルで、約30度の水平視野を有し、センサー場411は、約80で、360度の水平視野を有する。
図4Cは、レーダー検出装置320〜323についての概略センサー場420A〜423Bを示し、それぞれ、これらのセンサーの視野に基づく。例えば、レーダー検出装置320は、センサー場420A及び420Bを有する。センサー場420Aは、約200メートルで、約18度の水平視野を有し、センサー場420Bは、約80メートルで、約56度の水平視野を有する。同様に、レーダー検出装置321〜323はセンサー場421A〜423A及び421B〜423Bを有する。センサー場421A〜423Aは、約200メートルで、約18度の水平視野を有し、センサー場421B〜423Bは、約80メートルで、約56度の水平視野を有する。センサー場421A及び422Aは、図4A及び4Cの縁まで伸びる。
図4Dは、カメラ330〜331の、これらのセンサーの視野に基づく、概略センサー場430〜431を示す。例えば、カメラ330のセンサー場430は、約200メートルで約30度の視野を有し、カメラ430のセンサー場431は、約100で約60度の視野を有する。
他の実施例では、自律走行車両には、ソナー装置、ステレオカメラ、定位カメラ、レーザー、及びレーダー検出装置が含まれ、それぞれ異なる視野を有する。ソナーは、約6メートルの最大距離で、約60度の水平視野を有することができる。これらのステレオカメラは、重複する領域で、約50度の水平視野、約10度の垂直視野、約30メートルで約30度の視野を有することができる。定位カメラは、約75度の水平視野、約90度の垂直視野、そして、約10メートルの最大距離を有することができる。レーザーは、約360度の水平視野、約30度の垂直視野、そして、約100メートルの最大距離を有することができる。レーダーは、近接ビームで60度の水平視野、遠隔ビームで30度の水平視野、そして、200メートルの最大距離を有することができる。
1つの実施例では、車両101はゴルフカートのような小さなカートとすることができる。図5A〜5Bは、小さなカート501の側面及び上から見た図であり、カートのセンサー場を形成する典型的な視野の集合体の側面及び上から見た図である。小さなカート501には、ソナー、ステレオカメラ、及び定位カメラのようなセンサーを含めることができる。定位カメラは、地図情報上の地図の上にセンチメートルの精度で車両を定位するためにもといることができる。これらのセンサーの各々は、ある水平角度及び垂直角度である距離までの視野を得ることができる。例えば、カート501には、カートの前方約1.5メートルから7メートルの範囲で約35度の水平視野を持つセンサー場560を持つ、カートの前方に取り付けた定位カメラを含めることができる。カートはまた、カートの前方に横切って取り付けた複数のソナー検出装置を持つこともできる。これらのソナー装置は、特定の周波数の範囲の周波数で、音波を送受信することで物体を検出するために用いることができる。これらの装置の各々は、センサー場570〜575のようなセンサー場を得ることができ、各々、カートの前方約3メートルの範囲で約35度の水平視野を持つ。カート501にはまた、カートの前方に取り付けたステレオカメラを含めることもできる。ステレオカメラは、各々がカートの前方約10メートルの範囲で約30度の水平視野を持つセンサー場580を得ることができる。
他の実施例では、カートには、定位カメラ、ステレオカメラ、及び1以上のソナー検出装置が含まれ、カートのカート定位カメラは、約75度の水平視野、約90度の垂直視野、そして、約10メートルの範囲の視野を有することができる。ステレオカメラの重複領域には、約50度の水平視野、約10度の垂直視野、そして、約30メートルの範囲の視野を含めることができる。ソナー検出装置は各々、約60度水平視野及び約6メートルの範囲の視野を有することができる。
前述のセンサーにより、車両は判断を行うことができ、周囲の物体や人々だけでなく乗客の安全を最大限にするために、周囲状況に応答する能力を有することができる。車両の形式、センサーの数量や形式、センサーの位置、センサーの視野、及びセンサーのセンサー場は、単なる例示であることは理解されよう。
上述のセンサーに加え、コンピュータは、自律走行でない一般的な車両のセンサーからの入力も使うことができる。例えば、これらのセンサーには、タイヤ空気圧センサー、エンジン温度センサー、ブレーキ熱センサー、ブレーキパッド状態センサー、タイヤトレッドセンサー、燃料センサー、オイルのレベル及び質センサー、(温度、湿度、又は空気中の微粒子を検出するための)空気特性センサー、等を含めることができる。
これらのセンサーの多くは、リアルタイムでコンピュータにより処理されるデータを提供する。すなわち、センサーは、ある時間範囲で測定中の周囲状況を反映する出力を連続的に更新し、コンピュータが、車両のその時の最新の方向又は速度を検出した周囲状況に応じて修正すべきかどうか判断することができるように、連続的に又は要求に応じて更新された出力をコンピュータに提供することができる。
種々のセンサーから提供されたデータの処理に加えて、コンピュータは、時間的に先に得られた、周囲に車両の存在の有無にかかわらず存続する周囲データに頼ることができる。例えば、図1に戻って、データ134には、地図情報136、例えば、道路の形や高さ、レーンライン、交差点、横断歩道、又はそのような物や情報を特定する非常に詳細な地図を含めることができる。例えば、地図情報には、道路の種々の区画での系統立てた速度制限情報を含めることができる。速度制限データは、人手により、又は、例えば、光学式文字認識を用いて速度制限標識のイメージをあらかじめ読み込むことにより入力することができる。地図情報には、上述の1つ以上の対象物を組み込んだ3次元地形図を含めることができる。例えば、車両は、リアルタイムデータ(例えば、他の乗用車の現在のGPSを特定するためのセンサーを用いて)及び他のデータ(例えば、この他の乗用車が右(左)折レーン内にあるかどうかを判断するための、あらかじめ保存されているレーン専用の地図データとGPSとを比較することで)に基づき他の乗用車が向きを変えようとしているかどうかを判断することができる。
さらに、地図情報はここでは画像ベースの地図として示されているが、地図情報は完全に画像ベース(例えば、ラスタ)である必要はない。例えば、地図情報には、道路、レーン、交差点、及びこれらのつながりのような情報の1つ以上のロードグラフ又はグラフネットワークを含めることができる。各地形は、グラフデータとして保存することができ、地理的位置及び関連地形と関連しているかどうかのような情報と関係づけることができ、例えば、ストップ表示は、道路及び交差点等と関連付けることができる。いくつかの例では、関連付けたデータには、効率的にロードグラフの地形を参照することができるよう、ロードグラフのグリッドベースの標識を含めることができる。
上述し図示した動作に加え、種々の動作について説明する。以下の動作は以下に正確に記載の順序で行わなければならないわけではないことは理解されよう。むしろ、種々のステップは異なる順序又は同時に行うことができ、ステップを付け加えることも省略することもできる。
自律走行車両は、車両自体、乗客、及び/又は、貨物を、道順に従って、2点間で輸送することができる。例えば、ドライバーは、目的地を入力し車両の自律走行モードを始動させることができる。これに応答して、車両のコンピュータは、ロードグラフ、現在位置、及び目的地に基づき道順を算出する。この道順(又は生成した道順の一部)に基づき車両は、目的地への道順に沿って車両をコントロールするコントロール方針を決定する。例えば、コントロール方針として、方向転換する位置、走行速度、交通信号を見る点、交差点又はストップ表示により停止する位置、等を含めることができる。
上記説明の通り、道順の途上で、車両はセンサー場の範囲内で車両の周囲に物体を検出することができる。検出した物体に応じて、コンピュータは自律走行車両の速度の調整又は方向の変更を行うことができる。いくつかの例では、しかしながら、車両の周囲の物体又はその他の状況に基づき、センサー場は、変化し、あるいは信頼性が低下する可能性がある。
物体は、車両のセンサー場の一部を占有する可能性がある。例えば、図6Aに示すように、車両301は、トレーラトラック610のような他の大きな移動物体の側方を走る可能性がある。図6Bに示すように、トレーラトラック610は、車両301のセンサー場の範囲内の領域620を占有する。他の実施例では、図7Aに示すように、車両301は、ビルディング710に沿って走り道路の曲がり角に近付く。これらのビルディングは、車両301のセンサー場の範囲内の領域720を占有する。
障害物が車両のセンサー場の一部を占有する場合、障害物の存在により1以上のセンサーの感知能力が変化し、例えば他の物体の検知が制限されることがある。車両のコンピュータは、障害物の後ろの領域、又は、センサーの検出線の内側にない領域にある他の物体を正確に検出することができないことがある。場合によっては、ガラスのように障害物が半透明又は透明である場合、センサーはその障害物を「通り抜けて」検出することができるかもしれないが、その障害物がない場合より精度が低くなる。従って、車両のセンサー場の大きさ及び精度は低下する可能性がある。その結果、車両のコンピュータは、センサーの削減された領域の大きさ及び形状を算出し、削減された領域に基づいて、新しい現在のセンサー場を算出することができる。
例えば、図6Bに戻って、コンピュータはトレーラトラックを物体として認識し、領域620の大きさと形、領域620内のセンサー場の大きさと形、及び/又は、領域620の外のセンサー場の大きさと形を算出することができる。領域620内の物体は、車両301のセンサーによりもはや検出されない。この領域は、概ね「盲目」の領域を表す。コンピュータは、ロードグラフからの情報に基づき、或いは、最近この領域に入ってきた物体を追跡している場合、物体の位置を推定することができる。例えば、ソナーセンサー、レーザーセンサー、又はカメラセンサーは、トレーラトラックにより不透明になっているので、領域620内のデータを集めることはできない。
図7の例に戻って、車両のセンサー場はビルディングの影響を受ける。車両のコンピュータは、ビルディングを物体として認識し、領域720の大きさと形、領域720内のセンサー場の大きさと形、及び/又は、領域720の外のセンサー場の大きさと形を算出することができる。この例では、車両は、ビルディング710の傍に駐車しているが領域720内にあるトラック730を検出することができない。例えば、車両730の位置は、図7Bの領域720内にあることも明らかである。
物体に加えて、他の状況により、1つ以上のセンサーによる車両の周囲を認知する能力が減少または抑制されるという形で、自律走行車両のセンサー場が影響を受けることがある。例えば、明るい太陽光の中ではカメラに画像は飽和し信頼度が低下する可能性がある。従って、光によりカメラの効率が影響を受けるので、カート501のセンサー場は損なわれる。従って、図8aに示すように、明るい太陽光880のために、カメラセンサーの視野560及び580では、もはや物体を検出することはできない。従って、これらの視野は破線で示されている。上記の物体の例で示すように、カートのセンサー場の大きさ及び精度も低下する可能性がある。そして、カートのコンピュータは、例えば、ソナー検出装置570〜576のみに基づき新たなセンサー場を算定することができ、或いは、カートがソナー装置の視野からのセンサー場にのみ信頼を置くよう決定することができる。
他の実施例では、図8Bの音890は、カートのソナー装置で用いられる周波数の近傍又はその周波数の範囲にある。例えば、この音は、他のソナー装置により生じる場合もあり、近くの車両のノイズの場合もある。これらの音は、ソナーデータを、物体を検出するために十分な信頼性が得られない状態にするような影響を与える。従って、ソナー検出装置の視野570〜575では、もはや物体を検出することができない。従って、これらの視野は破線で示されている。カートのコンピュータは、例えば、カメラ装置560及び580のみに基づき新たなセンサー場を算定することができ、或いは、カートがカメラの視野からのセンサー場にのみに信頼を置くよう決定することができる。
センサー場における変化の発見に応答して、車両のコンピュータは車両のコントロール方針を変えることができる。例えば、車両の速度及び方向を維持しないで、車両のコンピュータは、原則、レーンの維持、(速度制限を考えた上での)加速、又は他の応答を採用することができる。他の実施例では、向きを変えるような、その道順に必要な行動をとるために第1の速度の速度へ減速するのではなく、もっと遅い速度の第2の速度に車両を減速することができる。いくつかの例では、車両は、具体的な対策は取る必要はなく、現在の速度及び方向を維持するだけとすることができる。
1つの実施例では、図6Aに戻って、車両301は、(トレーラトラック610に向かって)1以上左のレーンに移動することを必要とするルートに従うことができる。通常は、車両がトレーラトラックより速く走行するなら、車両301は、トレーラトラック610を追い抜いてからレーンの変更を行うことができる。しかし、車両のコンピュータが減少したセンサーの領域又は現在のセンサー場を決定した場合、コンピュータは、車両301がトレーラトラック610の左の物体を検出することができるようセンサー場を増大させるためにトレーラトラックの後ろにつくよう車両を減速させることができる。
図7Aに戻って、他の実施例では、車両301は、ビルディングの周りの道に通る必要のある道順を通る可能性がある。通常は、車両が曲がり角の周りを通る時は、コンピュータ車両の速度を維持することができる。しかし、車両のコンピュータが減少したセンサーの領域又は現在のセンサー場を決定した場合、コンピュータは、車両のセンサー場がトラック730の近くにある物体を検出できた時、その物体を避けるのに必要なあらゆる行動を取るために必要な十分な時間を車両に与えることができるように、車両を減速させることができる。
同様に、図8Aの実施例では、カートがもはやカメラセンサーを信頼できなくなった場合、ソナーの視野範囲の約3メートル内に物体を検出した場合、カート501を停止、又は物体の側方をすり抜けさせるために必要な十分な時間をカート501に与えることができるように、カートは急減速することができる。カートのセンサー場がカメラの視野に限定されている場合、図8Bに示すように、カート501は、向きを帰る前に再度急減速することができる。この例では、カートが、ソナー検出装置の効果がなくなる前に速度を維持しようとしていた場合、カート501は速度を維持すること、少し減速させること、又は速度を上げることもできる。
自律走行車両のコンピュータは、連続的に又は周期的に、センサー場が変化したので対策を講じるか、又は、コントロール方針をそれに従い変更するかを判断する。例えば、図7Aに戻って、車両301が道路の曲がり角を通り抜けトラック710を通過した場合、車両のコンピュータは、元のコントロール方針に戻り、再び速度を上げることができる。同様に、(図8Aの)カート501が、光880がカメラセンサーに同様の作用をもはや及ぼさなくなる影の領域に入った場合、カートのコンピュータは、再び物体を検出するカメラを信頼し、元のコントロール方針に戻り、再び速度を上げることができる。この速度及び操縦の調整とコントロール方針の変更は、領域の減少又は車両の現在のセンサー場に基づいて連続的に生じさせることができる。
図9のフロー線図900は、上述した自律走行車両制御のもう1つの例である。車両のコンピュータは、ブロック910で、コントロール方針に基づき自律走行車両をコントロールする。ブロック920で、自律走行車両のセンサーの1つ以上の視野に基づきセンサー場を特定する。センサー場における物体及びその位置がブロック930で検出される。例えば、1以上のセンサーからのデータは、物体及びその位置を特定するために車両のコンピュータにより受け取られ処理されることが可能となる。センサーによる検知が狭まった領域は、ブロック940で、センサー場との相対的な物体の位置に基づき計算される。次に、新しいコントロール方針が、ブロック950で、現在のセンサー場に基づき定められる。そして、コンピュータは、ブロック960で、センサーによる検知が狭まった領域に基づき車両の方向と速度をコントロールする。次いで、コンピュータは、ブロック970で、センサー場が狭まっている状態が続いているかどうかを判断する。センサー場が狭まっている状態が続いている場合は、コンピュータは、ブロック980で、新しいコントロール方針を維持し、又は、必要に応じてコントロール方針を調整し、ブロック970に戻ることができる。車両のセンサー場がもはや狭まってはいないと判断された場合は、コンピュータは、ブロック990で、再び元のコントロール方針に基づき自律走行車両をコントロールし、新しい物体が発見されたときブロック930にもどる。
図10のフロー線図1000は、上述した自律走行車両制御のさらにもう1つの例である。車両のコンピュータは、ブロック1010で、コントロール方針に基づき自律走行車両をコントロールする。ブロック1020で、自律走行車両の1つ以上のセンサーの視野に基づきセンサー場を特定する。センサー場における物体及びその位置がブロック1030で検出される。例えば、1つ以上のセンサーからのデータは、物体及びその位置を特定するために車両のコンピュータにより受け取られ処理されることが可能となる。現在のセンサー場は、ブロック1040で、センサー場との相対的な物体の位置に基づき計算される。新しいコントロール方針が、ブロック1050で、現在のセンサー場に基づき定められる。コンピュータは、ブロック1060で、新しいコントロール方針に基づき車両の方向と速度をコントロールする。次に、コンピュータは、ブロック1070で、センサー場が狭まっている状態が続いているかどうかを判断する。センサー場が狭まっている状態が続いている場合は、コンピュータは、ブロック1080で、必要に応じて、新しいコントロール方針を維持し、又は、コントロール方針を調整し、ブロック1070に戻ることができる。車両のセンサー場がもはや狭まってはいないと判断された場合は、コンピュータは、ブロック1090で、再び元のコントロール方針に基づき自律走行車両をコントロールし、新しい物体が発見されたときブロック1030にもどる。
図11のフロー線図1100は、上述した自律走行車両制御のさらなる例である。車両のコンピュータは、ブロック1110で、コントロール方針に基づき自律走行車両をコントロールする。ブロック1120で、自律走行車両のセンサーの1つ以上の視野に基づきセンサー場を特定する。1以上のセンサーの識別力の変化を1130で特定する。例えば、1以上のセンサーからのデータが信頼できないことを示す1以上のセンサーからのデータが、車両のコンピュータにより受け取られ処理されることが可能となる。次いで、新しいコントロール方針が、ブロック1140で、この変化に基づき定められる。そして、コンピュータは、ブロック1150で、新しいコントロール方針に基づき車両の方向と速度をコントロールすることができる。コンピュータは、ブロック1160で、この変化がまだ有効かどうかを、例えば、センサーからの付加的なデータを受け取ることにより判断する。変化が続いている場合は、コンピュータは、ブロック1170で、必要に応じて、新しいコントロール方針を維持し、又は、コントロール方針を調整し、ブロック1160に戻ることができる。変化がもはや存在しないとコンピュータが判断した場合は、コンピュータは、ブロック1180で、再び元のコントロール方針に基づき自律走行車両をコントロールし、新しい物体が発見されたときブロック1130にもどる。
上述の特徴のこれらの及び他の変形及び組み合わせは、特許請求の範囲で定義した対象から離れることなく利用することができるので、これまで説明した典型的な実施の形態は、特許請求の範囲で定義した発明を限定するものではなく、概説するためにものであると理解すべきである。当然のことながら、ここに記載した例示的な実施の形態(及び、「のような」、「例えば」、「含む」、のような語句)は、権利化を要求する対象を特定の実施例に限定するものと解釈すべきでなく、実施例は多くの形態の一部を概説するためのものである。
本発明は、これらに限定されるものではないが、自律走行運転モードを有する車両の使用を含む、広い産業分野で適用可能である。

Claims (17)

  1. 自律走行運転モードを有する車両をコントロールする方法であって、
    プロセッサーにより、第1のコントロール方針に基づき車両の運転をコントロールするステップと、
    この車両の1以上のセンサーの視野に基づきセンサー場を特定するステップと、
    前記1以上のセンサーのうち選択されたものからのセンサーデータを受け取るステップと、
    前記受け取ったセンサーデータに基づき前記センサー場内の、道路上の物体及び該物体の位置を検出するステップと、
    前記センサー場内の前記物体の位置に基づ前記センサー場が狭まっていると判断すステップと、
    前記センサー場が狭まっているとの前記判断に基づき、前記センサー場を増大させるために第2のコントロール方針を決定するステップと、
    プロセッサーにより、前記第2のコントロール方針に基づき前記車両の運転をコントロールするステップと、
    前記センサーデータに基づき前記センサー場が狭まっている状態が続いていないと判断するステップと、
    前記センサー場が狭まっている状態が続いていないとの前記判断に基づき、プロセッサーにより、前記第1のコントロール方針に基づき前記車両の運転をコントロールするステップと、
    を具備することを特徴とする方法。
  2. 前記センサー場が狭まっていると判断するステップは、前記センサー場内の前記物体の位置に基づきセンサーによる検知が狭まった領域を計算するステップを含み、前記第2のコントロール方針を決定するステップは、該センサーによる検知が狭まった領域に基づくことを特徴とする請求項1に記載の方法。
  3. 前記センサー場が狭まっていると判断するステップは、前記センサー場内の前記物体の位置に基づき現在のセンサー場を計算するステップを含み、前記第2のコントロール方針を決定するステップは、該現在のセンサー場に基づくことを特徴とする請求項1に記載の方法。
  4. 前記物体は他の車両であることを特徴とする請求項1に記載の方法。
  5. 前記第2のコントロール方針に基づき前記車両の運転をコントロールするステップには、前記物体の後ろにつくよう前記車両を減速させることが含まれることを特徴とする請求項1に記載の方法。
  6. 前記センサーデータには、1以上のカメラ画像が含まれることを特徴とする請求項1に記載の方法。
  7. 前記第1のコントロール方針に基づき前記車両の運転をコントロールするステップには、第1の方向へ前記車両を操縦することが含まれ、前記第2のコントロール方針に基づき前記車両の運転をコントロールするステップには、前記車両を前記物体の後ろに位置させるために前記第1の方向とは異なる第2の方向へ前記車両を操縦することが含まれることを特徴とする請求項1に記載の方法。
  8. 前記第1のコントロール方針に基づき前記車両の運転をコントロールするステップには、第1の速度で前記車両を操縦することが含まれ、前記第2のコントロール方針に基づき前記車両の運転をコントロールするステップには、前記第1の速度とは異なる第2の速度で前記車両を操縦することが含まれることを特徴とする請求項1に記載の方法。
  9. 自律走行運転モードを有する車両をコントロールする装置であって、該装置は、
    前記車両の周囲の物体を検出する1以上のセンサーと、
    前記1以上のセンサーと接続されたプロセッサーと、
    を具備し、
    前記プロセッサーは、
    第1のコントロール方針に基づき前記車両の運転をコントロールすることと、
    前記車両の前記1以上のセンサーの視野に基づきセンサー場を特定することと、
    前記1以上のセンサーからのうち選択されたものからのセンサーデータを受け取ることと、
    前記受け取ったセンサーデータに基づき前記センサー場内の、道路上の物体及び該物体の位置を検出することと、
    前記センサー場内の前記物体の位置に基づ前記センサー場が狭まっていると判断することを含むことと、
    前記センサー場が狭まっているとの前記判断に基づき、前記センサー場を増大させるために第2のコントロール方針を決定することと、
    前記第2のコントロール方針に基づき前記車両の運転をコントロールすることと、
    前記センサーデータに基づき前記センサー場が狭まっている状態が続いていないと判断することと、
    前記センサー場が狭まっている状態が続いていないとの前記判断に基づき、前記第1のコントロール方針に基づき前記車両の運転をコントロールすることと、
    ができることを特徴とする、
    装置。
  10. 前記プロセッサーは、前記センサー場内の前記物体の位置に基づきセンサーによる検知が狭まった領域を計算することにより、前記センサー場が狭まっていると判断することができ、前記第2のコントロール方針を決定することは、該センサーによる検知が狭まった領域に基づくことを特徴とする請求項9に記載の装置。
  11. 前記プロセッサーは、前記センサー場内の物体の位置に基づき現在のセンサー場を計算することにより、前記センサー場が狭まっていると判断することができ、前記第2のコントロール方針を決定することは、前記現在のセンサー場に基づくことを特徴とする請求項9に記載の装置。
  12. 前記プロセッサーはさらに、前記物体を他の車両として特定することができることを特徴とする請求項9に記載の装置。
  13. 前記プロセッサーは、前記物体の後ろにつくよう前記車両を減速させることにより、前記第2のコントロール方針に基づき前記車両の運転をコントロールすることができることを特徴とする請求項9に記載の装置。
  14. 前記センサーデータには、1以上のカメラ画像が含まれることを特徴とする請求項9に記載の装置。
  15. 前記プロセッサーはさらに、
    第1の方向へ前記車両を操縦することにより、前記第1のコントロール方針に基づき前記車両の運転をコントロールすることができ、
    前記車両を前記物体の後ろに位置させるために前記第1の方向とは異なる第2の方向へ車両を操縦することにより、前記第2のコントロール方針に基づき前記車両の運転をコントロールすることができることを特徴とする請求項9に記載の装置。
  16. プロセッサーはさらに、
    第1の速度で前記車両を操縦することにより、前記第1のコントロール方針に基づき前記車両の運転をコントロールすることができ、
    前記第1の速度とは異なる第2の速度で前記車両を操縦することにより、前記第2のコントロール方針に基づき車両の運転をコントロールすることができることを特徴とする請求項9に記載の装置。
  17. コンピュータ読み取り可能なプログラムの命令が保存された、実体のあるコンピュータ読み取り可能記憶媒体であって、該命令が、プロセッサーにより実行されたとき、プロセッサーは自律走行運転モードを有する車両のコントロール方法を実行し、該方法は、
    第1のコントロール方針に基づく車両の運転をコントロールするステップと、
    前記車両の1以上のセンサーの視野に基づくセンサー場を特定するステップと、
    前記1以上のセンサーのうち選択されたものからセンサーデータを受け取るステップと、
    前記受け取ったセンサーデータに基づき前記センサー場内の、道路上の物体及び該物体の位置を検出するステップと、
    前記センサー場内の前記物体の位置に基づ前記センサー場が狭まっていると判断すステップと、
    前記センサー場が狭まっているとの前記判断に基づき、前記センサー場を増大させるために第2のコントロール方針を決定するステップと、
    前記第2のコントロール方針に基づき前記車両の運転をコントロールするステップと、
    前記センサーデータに基づき前記センサー場が狭まっている状態が続いていないと判断するステップと、
    前記センサー場が狭まっている状態が続いていないとの前記判断に基づき、前記第1のコントロール方針に基づき前記車両の運転をコントロールするステップと、
    を具備することを特徴とするコンピュータ読み取り可能記憶媒体。
JP2014513491A 2011-06-01 2011-09-30 センサー場の選択 Active JP6468839B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/150,385 US8589014B2 (en) 2011-06-01 2011-06-01 Sensor field selection
US13/150,385 2011-06-01
PCT/US2011/054157 WO2012166170A1 (en) 2011-06-01 2011-09-30 Sensor field selection

Publications (2)

Publication Number Publication Date
JP2014515527A JP2014515527A (ja) 2014-06-30
JP6468839B2 true JP6468839B2 (ja) 2019-02-13

Family

ID=47259698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014513491A Active JP6468839B2 (ja) 2011-06-01 2011-09-30 センサー場の選択

Country Status (6)

Country Link
US (1) US8589014B2 (ja)
EP (1) EP2771751B1 (ja)
JP (1) JP6468839B2 (ja)
KR (2) KR20140039243A (ja)
CN (1) CN103718124B (ja)
WO (1) WO2012166170A1 (ja)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT508634B1 (de) * 2009-08-28 2011-05-15 Riegl Laser Measurement Sys Laserscanvorrichtung zur montage am dachträger eines fahrzeugs
JP5503419B2 (ja) * 2010-06-03 2014-05-28 株式会社日立製作所 無人搬送車および走行制御方法
US9381916B1 (en) 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
US9760092B2 (en) * 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
US8700251B1 (en) * 2012-04-13 2014-04-15 Google Inc. System and method for automatically detecting key behaviors by vehicles
US9062979B1 (en) 2013-07-08 2015-06-23 Google Inc. Pose estimation using long range features
US9719801B1 (en) * 2013-07-23 2017-08-01 Waymo Llc Methods and systems for calibrating sensors using road map data
GB2516629B (en) * 2013-07-26 2020-04-08 Randoll Electrical Ltd Interactive vehicles
WO2015056105A1 (en) * 2013-10-14 2015-04-23 Mobileye Vision Technologies Ltd. Forward-facing multi-imaging system for navigating a vehicle
KR101491622B1 (ko) * 2014-02-17 2015-02-11 연세대학교 산학협력단 자율 주행형 차량의 주행 제어 장치 및 방법
EP2921363A1 (en) * 2014-03-18 2015-09-23 Volvo Car Corporation Vehicle, vehicle system and method for increasing safety and/or comfort during autonomous driving
EP2921362B1 (en) 2014-03-18 2020-08-12 Volvo Car Corporation Vehicle, vehicle system and method for increasing safety and/or comfort during autonomous driving
TWI630130B (zh) 2014-07-30 2018-07-21 鴻海精密工業股份有限公司 智能尋車系統及交通工具之控制方法
JP6260544B2 (ja) * 2015-01-19 2018-01-17 トヨタ自動車株式会社 自動運転装置
US9649979B2 (en) 2015-01-29 2017-05-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in view-obstructed environments
US9493157B2 (en) 2015-01-29 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in obstructed occupant view and sensor detection environments
US10216196B2 (en) 2015-02-01 2019-02-26 Prosper Technology, Llc Methods to operate autonomous vehicles to pilot vehicles in groups or convoys
US9139199B2 (en) 2015-02-01 2015-09-22 Thomas Danaher Harvey Methods for dense parking of remotely controlled or autonomous vehicles
WO2016126317A1 (en) 2015-02-06 2016-08-11 Delphi Technologies, Inc. Method of automatically controlling an autonomous vehicle based on electronic messages from roadside infrastructure of other vehicles
US10678261B2 (en) 2015-02-06 2020-06-09 Aptiv Technologies Limited Method and apparatus for controlling an autonomous vehicle
JP6222137B2 (ja) 2015-03-02 2017-11-01 トヨタ自動車株式会社 車両制御装置
US9963155B2 (en) 2015-05-29 2018-05-08 Clearpath Robotics, Inc. Method, system and apparatus for path control in unmanned vehicles
US9594378B2 (en) * 2015-07-31 2017-03-14 Delphi Technologies, Inc. Variable object detection field-of-focus for automated vehicle control
US10183667B2 (en) * 2015-09-15 2019-01-22 Deere & Company Human presence detection on a mobile machine
US10267908B2 (en) * 2015-10-21 2019-04-23 Waymo Llc Methods and systems for clearing sensor occlusions
US9720415B2 (en) * 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
DE102015224553A1 (de) * 2015-12-08 2017-06-08 Robert Bosch Gmbh Verfahren, Computerprogramm, Speichermedium und Elektronische Steuereinheit zum Betreiben eines Fahrzeugs
US10101747B2 (en) 2015-12-11 2018-10-16 Uber Technologies, Inc. Formatting sensor data for use in autonomous vehicle communications platform
US9537956B1 (en) 2015-12-11 2017-01-03 Uber Technologies, Inc. System for acquiring time-synchronized sensor data
US9785150B2 (en) * 2015-12-11 2017-10-10 Uber Technologies, Inc. Formatting sensor data for use in autonomous vehicle communications platform
US9596666B1 (en) 2015-12-11 2017-03-14 Uber Technologies, Inc. System for processing asynchronous sensor data
JP2017114155A (ja) * 2015-12-21 2017-06-29 三菱自動車工業株式会社 運転支援装置
US9915951B2 (en) 2015-12-27 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Detection of overhanging objects
US10029682B2 (en) 2016-01-22 2018-07-24 Toyota Motor Engineering & Manufacturing North America, Inc. Surrounding vehicle classification and path prediction
US10328949B2 (en) * 2016-01-28 2019-06-25 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor blind spot indication for vehicles
US10114103B2 (en) * 2016-03-31 2018-10-30 Uber Technologies, Inc. System and method for sensor triggering for synchronized operation
US9817403B2 (en) 2016-03-31 2017-11-14 Intel Corporation Enabling dynamic sensor discovery in autonomous devices
US9672446B1 (en) * 2016-05-06 2017-06-06 Uber Technologies, Inc. Object detection for an autonomous vehicle
US10245730B2 (en) * 2016-05-24 2019-04-02 Asustek Computer Inc. Autonomous mobile robot and control method thereof
JP6712906B2 (ja) * 2016-05-31 2020-06-24 株式会社小松製作所 作業機械の管理装置、作業機械、及び作業機械の管理システム
US10078335B2 (en) * 2016-06-28 2018-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Ray tracing for hidden obstacle detection
US10137890B2 (en) 2016-06-28 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded obstacle classification for vehicles
US9910442B2 (en) 2016-06-28 2018-03-06 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded area detection with static obstacle maps
CN106323288A (zh) * 2016-08-01 2017-01-11 杰发科技(合肥)有限公司 一种交通工具的定位和搜寻方法、装置以及移动终端
US10471904B2 (en) 2016-08-08 2019-11-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for adjusting the position of sensors of an automated vehicle
US10712746B2 (en) * 2016-08-29 2020-07-14 Baidu Usa Llc Method and system to construct surrounding environment for autonomous vehicles to make driving decisions
WO2018042444A1 (en) * 2016-09-04 2018-03-08 Otonomo Technologies Ltd. Method and system for implementing a policy based central orchestration for autonomous vehicles to meet local regulations and requirements
JP6913687B2 (ja) 2016-09-15 2021-08-04 株式会社小糸製作所 照明システム
FR3058514B1 (fr) * 2016-10-26 2019-08-09 Valeo Schalter Und Sensoren Gmbh Procede d'evaluation d'un risque d'eblouissement d'un capteur d'image et unite electronique associee
US10482559B2 (en) 2016-11-11 2019-11-19 Uatc, Llc Personalizing ride experience based on contextual ride usage data
US10802484B2 (en) * 2016-11-14 2020-10-13 Baidu Usa Llc Planning feedback based decision improvement system for autonomous driving vehicle
US10377380B2 (en) 2017-01-09 2019-08-13 Denso International America, Inc. Vehicle safety system
US10585440B1 (en) 2017-01-23 2020-03-10 Clearpath Robotics Inc. Systems and methods for using human-operated material-transport vehicles with fleet-management systems
US10286906B2 (en) 2017-01-24 2019-05-14 Denso International America, Inc. Vehicle safety system
US11097736B2 (en) 2017-02-28 2021-08-24 Clearpath Robotics Inc. Systems and methods for traction detection and control in a self-driving vehicle
US10338594B2 (en) * 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
US10423162B2 (en) 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
CN110892233B (zh) * 2017-05-22 2024-06-21 Drnc控股公司 用于传感器范围和视场的车载增强可视化的方法和装置
US10377377B2 (en) * 2017-06-08 2019-08-13 GM Global Technology Operations LLC Active lane positioning for blind zone mitigation
US10386856B2 (en) 2017-06-29 2019-08-20 Uber Technologies, Inc. Autonomous vehicle collision mitigation systems and methods
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10065638B1 (en) 2017-08-03 2018-09-04 Uber Technologies, Inc. Multi-model switching on a collision mitigation system
US20190041859A1 (en) * 2017-08-04 2019-02-07 Aptiv Technologies Limited Sensor failure compensation system for an automated vehicle
JP6747405B2 (ja) 2017-08-25 2020-08-26 トヨタ自動車株式会社 自車位置自信度演算装置
KR102400555B1 (ko) 2017-09-04 2022-05-20 삼성전자주식회사 주행 차량을 제어하는 방법 및 장치
JP2019099035A (ja) * 2017-12-06 2019-06-24 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh モータサイクルの挙動を制御する制御装置及び制御方法
JP6791106B2 (ja) * 2017-12-06 2020-11-25 株式会社デンソー 周辺認識装置及び周辺認識方法
JP2019099034A (ja) * 2017-12-06 2019-06-24 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh モータサイクルの挙動を制御する制御装置及び制御方法
US10768304B2 (en) 2017-12-13 2020-09-08 Luminar Technologies, Inc. Processing point clouds of vehicle sensors having variable scan line distributions using interpolation functions
JP7067067B2 (ja) 2018-01-11 2022-05-16 トヨタ自動車株式会社 信号機認識装置、及び自動運転システム
US11022971B2 (en) 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
TWI645242B (zh) * 2018-03-29 2018-12-21 鴻海精密工業股份有限公司 拍攝裝置
US10915159B2 (en) * 2018-04-03 2021-02-09 GM Global Technology Operations LLC Method of controlling a vehicle to adjust perception system energy usage
US11454970B2 (en) 2018-05-21 2022-09-27 Cummins Inc. Adjustment of autonomous vehicle control authority
US11326888B2 (en) * 2018-07-25 2022-05-10 Uatc, Llc Generation of polar occlusion maps for autonomous vehicles
US10877473B2 (en) * 2018-08-09 2020-12-29 Here Global B.V. Method, apparatus and computer program product for differential policy enforcement for roadways
US11390277B2 (en) * 2018-11-30 2022-07-19 Clearpath Robotics Inc. Systems and methods for self-driving vehicle collision prevention
US11016489B2 (en) * 2019-01-18 2021-05-25 Baidu Usa Llc Method to dynamically determine vehicle effective sensor coverage for autonomous driving application
US20220155450A1 (en) * 2019-03-05 2022-05-19 Waymo Llc Methods and systems for detecting degraded lidar range measurement accuracy
US11280897B2 (en) * 2019-03-31 2022-03-22 Waymo Llc Radar field of view extensions
US11548526B2 (en) 2019-04-29 2023-01-10 Motional Ad Llc Systems and methods for implementing an autonomous vehicle response to sensor failure
US11585934B2 (en) * 2019-04-30 2023-02-21 Lg Electronics Inc. Cart robot having auto-follow function
US20200348669A1 (en) * 2019-05-02 2020-11-05 Hyundai Motor Company Autonomous driving control apparatus, vehicle including autonomous driving control apparatus, and method of controlling vehicle
US11285941B2 (en) * 2019-07-16 2022-03-29 Lg Electronics Inc. Electronic device for vehicle and operating method thereof
US11649147B2 (en) 2019-09-20 2023-05-16 Clearpath Robotics Inc. Autonomous material transport vehicles, and systems and methods of operating thereof
DE102019129263A1 (de) 2019-10-30 2021-05-06 Wabco Europe Bvba Verfahren zur Überwachung einer momentanen Fahrzeugumgebung eines Fahrzeuges sowie Überwachungssystem
KR20210051601A (ko) * 2019-10-31 2021-05-10 엘지전자 주식회사 인공지능 무빙 에이전트
US20210191399A1 (en) * 2019-12-23 2021-06-24 Waymo Llc Real-Time Adjustment Of Vehicle Sensor Field Of View Volume
DE102020111486A1 (de) 2020-04-28 2021-10-28 Daimler Ag Verkehrsregelkonforme Entscheidungsfindung in dynamischen Verkehrsszenarien
KR102472448B1 (ko) 2020-11-24 2022-12-01 (주)유엠로직스 다차원 함수를 이용한 화상회의에서의 보안자료 공유 시스템 및 그 방법
KR20220074494A (ko) * 2020-11-27 2022-06-03 주식회사 넥스트칩 초음파 센서를 이용하여 다채널 영상들을 효율적으로 저장하는 전자 장치 및 그 동작방법
KR102687407B1 (ko) * 2021-02-19 2024-07-23 주식회사 에이치엘클레무브 레이더 제어 장치 및 방법
DE102021005311A1 (de) 2021-10-26 2023-04-27 Mercedes-Benz Group AG Verfahren zur automatischen Regelung einer Längsbewegung eines Fahrzeuges
US20240124028A1 (en) * 2022-10-14 2024-04-18 Aurora Operations, Inc Autonomous vehicle blind spot management

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2583641B2 (ja) 1990-05-18 1997-02-19 日産自動車株式会社 走行制御方法
JPH1031799A (ja) * 1996-07-15 1998-02-03 Toyota Motor Corp 自動走行制御装置
DE59809476D1 (de) 1997-11-03 2003-10-09 Volkswagen Ag Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
JP2001034898A (ja) * 1999-07-21 2001-02-09 Toyota Central Res & Dev Lab Inc 探査不能領域推定装置及び運転支援システム
DE19945268A1 (de) * 1999-09-21 2001-03-22 Bosch Gmbh Robert Verfahren und Vorrichtung zur Zustandserkennung bei einem System zur automatischen Längs- und/oder Querregelung bei einem Kraftfahrzeug
DE19947766A1 (de) 1999-10-02 2001-05-10 Bosch Gmbh Robert Einrichtung zur Überwachung der Umgebung eines einparkenden Fahrzeugs
DE19948254C2 (de) * 1999-10-07 2002-07-11 Bayerische Motoren Werke Ag Verfahren zur Erkennung einer Verschmutzung und/oder Blindheit bei einem nach dem Radar- oder Lidarprinzip arbeitenden Sensor
DE19948252C2 (de) * 1999-10-07 2002-06-13 Bayerische Motoren Werke Ag Verfahren zur Erkennung einer Verschmutzung und/oder Blindheit bei einem nach dem Radar- oder Lidarprinzip arbeitenden Sensor
DE10114187A1 (de) * 2001-03-23 2002-09-26 Bosch Gmbh Robert Verfahren und Vorrichtung zur Unterstützung eines Überholvorgangs bei Kraftfahrzeugen
KR100398529B1 (ko) * 2001-06-15 2003-09-19 현대자동차주식회사 타이밍벨트의 교환시기 감지장치와 그 제어방법
US6771208B2 (en) 2002-04-24 2004-08-03 Medius, Inc. Multi-sensor system
JP2003329773A (ja) * 2002-05-10 2003-11-19 Hitachi Ltd 複数の距離検知センサを設置した車両制御装置
JP3636184B2 (ja) * 2002-07-31 2005-04-06 株式会社デンソー タイヤ空気圧センサのid登録方法及びid登録システムと、タイヤ空気圧監視システム、タイヤ空気圧センサ及びスマート制御システム
CN1416033A (zh) * 2002-10-30 2003-05-07 徐州重型机械厂 高空消防车支腿控制装置
DE10258287A1 (de) 2002-12-13 2004-06-24 Robert Bosch Gmbh Verfahren und Einrichtung zur Objektdetekrierung
DE10318500A1 (de) * 2003-04-24 2004-11-25 Robert Bosch Gmbh Vorrichtung und Verfahren zur Kalibrierung eines Bildsensors
US20060100783A1 (en) 2004-10-21 2006-05-11 Sick Ag Monitoring the surroundings of a vehicle
US7499804B2 (en) 2004-10-22 2009-03-03 Irobot Corporation System and method for multi-modal control of an autonomous vehicle
GB2419430B (en) * 2004-10-22 2008-05-21 Irobot Corp Systems and Methods for Control of a Vehicle
US7233683B2 (en) * 2005-01-04 2007-06-19 Deere & Company Method and system for guiding a vehicle with vision-based adjustment
US8150574B2 (en) * 2005-01-04 2012-04-03 Deere & Company Method and system for guiding a vehicle with vision-based adjustment
US7610123B2 (en) * 2005-01-04 2009-10-27 Deere & Company Vision-aided system and method for guiding a vehicle
JP4517393B2 (ja) * 2005-02-16 2010-08-04 株式会社デンソー 運転支援装置
JP2006260217A (ja) * 2005-03-17 2006-09-28 Advics:Kk 車両用走行支援装置
CN100447001C (zh) * 2005-04-06 2008-12-31 肖国 利用车轮与车身之间振动提供动力的汽车避震方法及系统
CN100470411C (zh) * 2005-08-25 2009-03-18 比亚迪股份有限公司 一种纯电动汽车四轮驱动控制系统
JP4400584B2 (ja) * 2006-03-01 2010-01-20 トヨタ自動車株式会社 障害物検出方法及び障害物検出装置
DE102006030560A1 (de) * 2006-07-03 2008-01-10 Robert Bosch Gmbh Verfahren zur Unterstützung eines Einparkvorgangs eines Fahrzeugs
US9302678B2 (en) * 2006-12-29 2016-04-05 Robotic Research, Llc Robotic driving system
JP2008293099A (ja) * 2007-05-22 2008-12-04 Mazda Motor Corp 車両の運転支援装置
CN201096539Y (zh) * 2007-08-09 2008-08-06 苏州工业园区美尔冷却系统有限公司 车用温度传感器
JP2009086788A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 車両周辺監視装置
JP2009093431A (ja) * 2007-10-09 2009-04-30 Toyota Motor Corp 速度規制システム
US8090489B2 (en) 2007-11-09 2012-01-03 Bruno Delean Computerized driverless vehicles and traffic control system
US8160811B2 (en) * 2008-06-26 2012-04-17 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system to estimate driving risk based on a hierarchical index of driving
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
JP5319255B2 (ja) * 2008-12-03 2013-10-16 綜合警備保障株式会社 自律移動体および速度制御方法
JP5146292B2 (ja) * 2008-12-08 2013-02-20 トヨタ自動車株式会社 進路評価装置
US20100194593A1 (en) * 2009-02-05 2010-08-05 Paccar Inc Neural network for intelligent transportation systems
JP5613398B2 (ja) * 2009-10-29 2014-10-22 富士重工業株式会社 交差点運転支援装置
US8761990B2 (en) * 2011-03-30 2014-06-24 Microsoft Corporation Semi-autonomous mobile device driving with obstacle avoidance

Also Published As

Publication number Publication date
WO2012166170A8 (en) 2014-01-03
WO2012166170A1 (en) 2012-12-06
US8589014B2 (en) 2013-11-19
JP2014515527A (ja) 2014-06-30
EP2771751A4 (en) 2015-09-16
CN103718124A (zh) 2014-04-09
KR20190003800A (ko) 2019-01-09
CN103718124B (zh) 2016-07-13
EP2771751B1 (en) 2019-08-21
KR102219593B1 (ko) 2021-02-25
EP2771751A1 (en) 2014-09-03
US20120310466A1 (en) 2012-12-06
KR20140039243A (ko) 2014-04-01

Similar Documents

Publication Publication Date Title
JP6468839B2 (ja) センサー場の選択
US12001217B1 (en) Detecting sensor degradation by actively controlling an autonomous vehicle
USRE49650E1 (en) System and method for automatically detecting key behaviors by vehicles
US11868133B1 (en) Avoiding blind spots of other vehicles
AU2020202527B2 (en) Using wheel orientation to determine future heading
US9646497B1 (en) System and method for determining position and distance of objects using road fiducials
JP5973447B2 (ja) ゾーンドライビング
JP5944598B1 (ja) センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正
JP2015506310A (ja) 認知の不確実性に基づく車両コントロール
JP2018154338A (ja) 自律運転のための作業中及び非作業中の工事区域のマップ作成
US10380757B2 (en) Detecting vehicle movement through wheel movement
US10685566B1 (en) Differentiating roadways by elevation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150918

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160615

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160623

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160812

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170118

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190115

R150 Certificate of patent or registration of utility model

Ref document number: 6468839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250