JP2016520882A - センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 - Google Patents

センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 Download PDF

Info

Publication number
JP2016520882A
JP2016520882A JP2015555195A JP2015555195A JP2016520882A JP 2016520882 A JP2016520882 A JP 2016520882A JP 2015555195 A JP2015555195 A JP 2015555195A JP 2015555195 A JP2015555195 A JP 2015555195A JP 2016520882 A JP2016520882 A JP 2016520882A
Authority
JP
Japan
Prior art keywords
model
vehicle
comprehensive
information
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015555195A
Other languages
English (en)
Other versions
JP5944598B1 (ja
Inventor
ドルゴフ、ドゥミトリィ・エー
アームソン、クリストファー・ポール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Application granted granted Critical
Publication of JP5944598B1 publication Critical patent/JP5944598B1/ja
Publication of JP2016520882A publication Critical patent/JP2016520882A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0095Automatic control mode change
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)

Abstract

本願開示の形態は、一般に、車両(101)の周辺の光景のモデル化に関する。この光景には、車両が実際にどんな物体又は形態を見ているのかを含める必要はなく、センサーに遮るものがない場合に車両がそのセンサー(310〜311、320〜323、330〜331)を用いて観測することができる区域を含める必要がある。例えば、物体検出要素(148)の複数のセンサーの各々に対して、コンピュータ(110)は、センサーの視野の個々の3Dモデルを採用することができる。天候情報を受け取り、1つ以上の前記モデル(図13での1304、1306)を調整するために用いる。この調整が終わった後、このモデルを包括的な3Dモデルに統合することができる。この包括的なモデルを、別の場所(図11での1100、図13での1301)で物体を検出する確率を示す詳細な地図情報と結合することができる。車両の周辺のモデルを、結合された包括的な3Dモデルと詳細な地図情報とに基づき計算することができ(図13での1312)、車両の操作に用いることができる(図13での1314)。【選択図】図13

Description

(関連出願の相互参照)
この出願は、2013年1月25日に出願された米国特許出願番号13/749,793、表題、「センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正」に基づく継続出願であり、この出願のすべてを参照することにより本出願に組み込むものとする。
自律走行車両は、乗客を1つの場所から他の場所へ移送することを目的として、種々の演算システムを用いる。自律走行車両によっては、パイロット、ドライバー、又は乗客のようなオペレーターからの初期入力又は連続入力を必要とすることもある。他のシステムでは、例えば自動操縦システムを、手動モード(このモードでは、オペレーターはその車両の動作の高度なコントロールを行う)から自律走行モード(このモードでは、車両は基本的に自分で動く)、或いは、その間の中間的なモードにオペレーターが切り替えるシステムが導入されているときのみに用いることができる。
そのような車両は、周囲の物体を検出するために種々の形式のセンサーを装備する。例えば、自律走行車両には、レーザー、ソナー、レーダー、カメラ、及び車両の周囲をスキャンし、データを記録する他の装置を含めることができる。これらの装置は、組み合わせて(場合によっては単独で)車両の周辺で検出された物体の3Dモデルを構築するために用いることができる。
車両の周辺にある物体のモデル化及び検出に加えて、自律走行車両は、安全に走行するために、(例えば、閉塞により)センサーが見えない部分を推論する必要がある。センサーにおけるこれらの制限を考慮しない場合、見通しのきかない曲がり角を通ったり、他の物体により部分的に閉塞されたところに入り込んだり、等の危険な運転となってしまうことがある。
本開示の1つの形態では、方法を提供する。前記方法には、車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成するステップと、前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取るステップと、実際の又は予想される気象条件が複数のセンサーの1つ以上に与える影響を明確にするために、受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整するステップと、前記調整を行った後、包括的な3Dモデルを生成するために前記複数の3Dモデルを、プロセッサーにより統合するステップと、前記包括的な3Dモデルと詳細な地図情報とを結合するステップと、前記車両を操作するために前記結合した包括的な3Dモデルと詳細な地図情報とを用いるステップと、が含まれる。
1つの実施例では、各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づく。別の例では、各々の所定のセンサーの視野についての3Dモデルは、所定のセンサーの車両に対する所定のセンサーの位置及び方向に基づく。別の例では、天候情報を、ネットワークを介して遠隔のコンピュータから受け取る。別の例では、天候情報を、複数のセンサーのうちの1つから受け取る。別の例では、複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、包括的な3Dモデルを生成するための複数の3Dモデルを統合するときに用いられる。別の例では、前記詳細な地図情報には、前記地図の所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、前記包括的な3Dモデルと詳細な地図情報とを結合するときに用いられる。別の例では、前記包括的な3Dモデルと詳細な地図情報とを結合することで、前記周辺のさまざまな部分が塞がっているか又は塞がっていないか又は遮られているかを記述する情報により注釈がつけられた車両の周辺のモデルが得られる。
本開示の他の形態では、システムを提供する。前記システムには、車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成し、前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取り、実際の又は予想される気象条件が複数のセンサーの1つ以上に与える影響を明確にするために、受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整し、前記調整を行った後、包括的な3Dモデルを生成するために前記複数の3Dモデルを、プロセッサーにより統合し、前記包括的な3Dモデルと詳細な地図情報とを結合し、前記車両を操作するために前記結合した包括的な3Dモデルと詳細な地図情報とを用いるよう構成されたプロセッサーが含まれる。
1つの実施例では、各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づく。別の例では、各々の所定のセンサーの視野についての3Dモデルは、所定のセンサーの車両に対する所定のセンサーの位置及び方向に基づく。別の例では、天候情報を、ネットワークを介して遠隔のコンピュータから受け取る。別の例では、天候情報を、複数のセンサーのうちの1つから受け取る。別の例では、複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、包括的な3Dモデルを生成するための複数の3Dモデルを統合するときに用いられる。別の例では、前記詳細な地図情報には、前記地図の所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、前記包括的な3Dモデルと詳細な地図情報とを結合するときに用いられる。別の例では、前記包括的な3Dモデルと詳細な地図情報とを結合することで、前記周辺のさまざまな部分が塞がっているか又は塞がっていないか又は遮られているかを記述する情報により注釈がつけられた車両の周辺のモデルが得られる。
本開示の更なる形態では、コンピュータ読み取り可能なプログラムの命令を記録するための、実体のある、非一時的なコンピュータ読み取り可能記憶媒体を提供する。前記命令は、プロセッサーにて実行されたとき、前記プロセッサーにある方法を遂行させる。前記方法には、車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成するステップと、前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取るステップと、実際の又は予想される気象条件が複数のセンサーの1つ以上に与える影響を明確にするために、受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整するステップと、前記調整を行った後、包括的な3Dモデルを生成するために前記複数の3Dモデルを統合するステップと、前記包括的な3Dモデルと詳細な地図情報とを結合するステップと、前記車両を操作するために前記結合した包括的な3Dモデルと詳細な地図情報とを用いるステップと、が含まれる。
1つの実施例では、各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づく。別の例では、複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、包括的な3Dモデルを生成するための複数の3Dモデルを統合するときに用いられる。別の例では、前記詳細な地図情報には、前記地図の所定の位置で物体を検出する確率を示す確率データが含まれ、この確率データは、前記包括的な3Dモデルと詳細な地図情報とを結合するときに用いられる。
例示的実施の形態によるシステムの機能図である。 例示的実施の形態による自律走行車両の内装である。 本開示の形態による自律走行車両の外装である。 本開示の形態による自律走行車両の図解である。 本開示の形態による自律走行車両の図解である。 本開示の形態による自律走行車両の図解である。 本開示の形態による自律走行車両の図解である。 本開示の形態による詳細な地図情報の1つの例である。 本開示の形態による詳細な地図情報の別の例である。 本開示の形態によるシステムの絵図である。 本開示の形態によるシステムの機能図である。 本開示の形態によるセンサーの3Dモデルの構成要素の例である。 本開示の形態によるセンサーの3Dモデルの構成要素の例である。 本開示の形態によるセンサーの3Dモデルの構成要素の別の例である。 本開示の形態によるセンサーの3Dモデルの構成要素の別の例である。 本開示の形態による複数のセンサーの包括的な3Dモデルの1つの例である。 本開示の形態による複数のセンサーの包括的な3Dモデルの別の例である。 本開示の形態による詳細な地図情報と結び付けられた複数のセンサーの包括的な3Dモデルの1つの例である。 本開示の形態によるフロー線図の1つの例である。
本願開示の形態は、一般に、車両の周辺の現在の光景のモデル化に関する。この光景には、車両が実際にどんな物体又は形態を見ているのかを含める必要はなく、センサーに遮るものがない場合に車両がそのセンサーを用いて観測することができる区域を含める必要がある。例えば、物体検出要素の複数のセンサーの各々に対して、コンピュータは、センサーの視野の個々の3Dモデルを採用することができる。天候情報を受け取り、1つ以上の前記モデルを調整するために用いる。この調整が終わった後、このモデルを包括的な3Dモデルに統合することができる。この包括的なモデルを、別の場所で物体を検出する確率を示す詳細な地図情報と結合することができる。車両の周辺のモデルを、結合された包括的な3Dモデルと詳細な地図情報とに基づき計算することができ、車両の操作に用いることができる。
図1に示すように、ここに開示した1つの形態による自律走行運転システム100には、種々の構成部品を有する車両101が含まれる。開示した特定の形態では、特定のタイプの車両について特に実益があり、これらの車両として、乗用車、トラック、オートバイ、バス、ボート、飛行機、ヘリコプター、芝刈り機、RV車、遊園地の乗り物、農機具、建設用機器、市街電車、ゴルフカート、列車、及び路面電車を含むあらゆるタイプの車両があげられるがこれらに限定されるものではない。車両は、プロセッサー120、メモリー130、及び汎用コンピュータに一般的に用いられる他の構成部品を有するコンピュータ110のような、1以上のコンピュータを有することができる。
メモリー130は、プロセッサー120により実行或いは用いることができる命令132及びデータ134を含む、プロセッサー120がアクセス可能な情報を保存する。メモリー130は、コンピュータ読み取り可能媒体、又は、ハードディスクドライブ、メモリーカード、ROM、RAM、DVD又は他の光ディスクのみならず、他の書き込み可能なメモリー及び読み込み専用メモリーのような、電子装置により読み込むことのできるデータを保存するコンピュータ読み取り可能媒体、又は他の媒体を含むプロセッサーがアクセス可能な情報を保存することのできるあらゆるタイプとすることができる。システム及び方法には、前述の種々の組み合わせを含むことができ、命令及びデータの異なる部分は異なるタイプの媒体に保存される。
命令132は、プロセッサーにより(機械語のように)直接的に又は(スクリプトのように)間接的に実行できる命令のどのようなセットでもよい。例えば、コンピュータ読み取り可能媒体上のコンピュータコードとして命令を保存することができる。これに関連して、「命令」及び「プログラム」の語は、ここでは互いに置き換え可能に用いることができる。命令は、プロセッサーで直接処理ができるオブジェクトコードフォーマット、又は、要求によりインタープリトされ又はあらかじめコンパイルされる独立のソースコードのスクリプト又はコレクションを含む他のあらゆるコンピュータ言語で保存することができる。命令の機能、方法、及び業務については以下に詳述する。
命令132に従い、プロセッサー120によりデータ134を検索し、保存し、変更することができる。例えば、要求する対象が、特定のデータ構造により制限されていなくても、複数の異なるフィールド及びレコードを有するテーブル、XMLドキュメント、又はフラットファイルとして、リレーショナルデータベースとしてデータをコンピュータレジスターに保存することができる。データは、いろいろなコンピュータ読み取り可能フォーマットにフォーマットすることもできる。さらにほんの例示として、グラフィックを描画するためのコンピュータ命令のみならず、圧縮又は非圧縮、損失のない(例えば、BMP)又は損失のある(例えば、JPEG)、及びビットマップ又はベクトルベース(例えば、SVG)のフォーマットで保存されたピクセルのグリッドからなるビットマップとして、イメージデータを保存することができる。データは、数値、説明文、所有者コード、同じメモリー又は異なるメモリー(他のネットワーク中のものも含む)の他の領域に保存されたデータへの参照、又は、対応するデータを計算する機能により用いられる情報のような、対応する情報を特定するのに十分なあらゆる情報を具備することができる。
プロセッサー120は、商業的に入手可能なCPUのような、従来のどのようなプロセッサーでもよい。代替的に、プロセッサーをASIC、その他のハードウェア・ベースのプロセッサーのような専用装置とすることもできる。図1には、同じブロック内にあるものとして、プロセッサー、コンピュータ、メモリー、及び他のコンピュータ110要素を機能的に図示しているが、当業者であれば、プロセッサー及びメモリーは、実際には、同じ物理的な筺体内に収納することも同じ筺体内に収納しないこともできる、複数のプロセッサー及びメモリーであってもよいことは理解できるであろう。例えば、メモリーは、コンピュータ110の筺体とは別の筺体内に収納したハードディスクドライブ又は他の記憶媒体とすることができる。従って、当然のことながら、プロセッサー又はコンピュータと言うときには、並列運転していることも並列に運転していないこともあるプロセッサー又はコンピュータ又はメモリーを言うことが含まれる。ここで記載するステップを実行させるために単一のプロセッサーを使わないで、ステアリング用部品及び減速用部品のような構成部品の各々が、その構成部品特有の機能に関する計算のみを実行するような特有のプロセッサーを持つようにすることもできる。
ここに記載した種々の形態において、プロセッサーを、車両から隔てて配置し、車両と無線で交信させることもできる。他の形態において、ここに記載した処理は車両中に配置したプロセッサーにより実行され、1つの操作を実行するために必要なステップを行う場合も含めて、他の処理は遠隔のプロセッサーにより実行される。
コンピュータ110は、中央演算処理装置(CPU)、ウェブブラウザのようなデータ134や命令を保存するメモリー(例えば、RAM及び内部ハードディスクドライブ)、電子表示142(例えば、スクリーン、小型LCDタッチスクリーン、又は、情報を表示することのできる他の電子装置)、ユーザー入力140(例えば、マウス、キーボード、タッチスクリーン、及び/又は、マイクロフォン)、及び、人の状態又は人が求める明確な(例えば、ジェスチャー)又は間接的な(例えば、「居眠りしている」)情報を収集するための種々のセンサー(例えば、ビデオカメラ)のような、コンピュータと共に通常用いられる構成要素を具備する。
1つの実施例では、コンピュータ110は、車両101に組み込まれた自律走行運転演算システムとすることができる。図2は、自律走行車両の内装の典型的なデザインを示す。自律走行車両は、例えば、ステアリングホイール210のようなステアリング装置やナビゲーション表示215のようなナビゲーション表示装置や変速装置220のようなギア比選択装置のような、自律走行車両でない車両のすべての機構が含まれる。自律走行車両はまた、1つ以上の自律走行運転モードを始動又は停止させるため、及び、ナビゲーション目的地のような情報をドライバー又は乗客290が自律走行運転コンピュータ110に提供することができるようにするために、変速装置220、タッチスクリーン217、又はボタン入力219のような種々のユーザー入力装置を有することができる。
自律走行運転演算システムは、車両の種々の構成部品と通信することができる。例えば、図1に戻って、コンピュータ110は車両の中央プロセッサー160と通信することができ、車両101の動き、速度等をコントロールするために、車両101の種々のシステム、例えばブレーキングシステム180、加速システム182、信号システム184、及びナビゲーションシステム186と情報を送受信することができる。加えて、スイッチをいれたとき、コンピュータ110は、車両101のこれらのすべての機能または一部の機能をコントロールし、完全な自律走行又は部分的な自律走行にすることができる。種々のシステム及びコンピュータ110は車両101内にあるように示されているが、これらの構成要素は、車両101の外部又は物理的に遠く離しておくことができる。
車両にはまた、装置の地理的位置を決定するためにコンピュータ110と通信を行う地理的位置検出要素144を含めることもできる。例えば、この位置検出要素には、装置の緯度、経度、及び/又は高度を判断するためにGPS受信機を含めることができる。レーザーベースの位置特定システム、慣性援用GPS、又はカメラベースの位置検出のような他の位置検出システムも、車両の位置を特定するために用いることができる。車両の位置には、絶対的地理的位置より少ないノイズで判断することのできる、すぐ近くの他の乗用車等との相対位置のような、相対位置情報のみならず、緯度、経度、及び高度のような、絶対的地理的位置を含めることができる。
車両には、車両の方向と速度又はその変化を決定するための、加速度計、ジャイロスコープ、又は他の方向/速度検出装置146のような、コンピュータ110との通信を行う他の装置を含めることもできる。単なる例として、加速装置146は、重力の方向又は重力に垂直な平面の方向に対するピッチ、振れ、揺れ(又はそれらの変化)を決定することができる。この装置は、このような変化の速さ及び方向の増加又は減少を追跡することもできる。ここに述べたようなこの装置の位置及び方向データについての項目は、ユーザー、コンピュータ110、他のコンピュータ、及びこれらを組み合わせたものに自動的に提供される。
コンピュータ110は、種々の構成部品を制御することにより車両の方向及び速度をコントロールすることができる。例示として、車両を完全に自律走行モードで運転している場合、コンピュータ110は、(例えば、エンジンに供給される燃料又は他のエネルギーを増加させることにより)車両を加速させること、(例えば、エンジンに供給される燃料を減少させること、又はブレーキをかけることにより)車両を減速させること、及び(例えば、前方の2つの車輪の向きを変えることにより)車両の方向を変えることができる。
車両には、他の車両、道路上の障害物、交通信号、標識、樹木、等のような、車両の外にある物体を検出するための構成部品を含めることができる。検出システムには、コンピュータ110で処理することのできるデータを記録するレーザー、ソナー、レーダー、カメラ又はその他の検出装置を含めることができる。例えば、車両が小型の乗客車両である場合、この車には、屋根又は他の具合のいい場所に取り付けたレーザーを含めることができる。
図3に示すように、小型の乗客車両301には、それぞれ車両の前方及び屋根に取り付けたレーザー310及び311を含めることができる。レーザー310は、約150メートルの到達距離、13度の垂直視野、約30度の水平視野を有することができる。レーザー311は、約50〜80メートルの到達距離、13度の垂直視野、360度の水平視野を有することができる。レーザーにより、車両は、種々の物体の位置と距離を特定するためにコンピュータが用いることのできる距離と強さの情報を得ることができる。1つの形態によれば、レーザーは、レーザー軸を回転し傾きを変更することにより車両と車両のほうを向く物体の面との距離を計測することができる。
車両には、適応巡航コントロールシステムに用いるような、種々のレーダー検出装置を含めることもできる。レーダー検出装置は、乗用車のフロントバンパーのどちらか一方の側のみならず、前方及び後方に配置することもできる。図3の例に示すように、車両301には、車両の側面(一方だけが示されている)、前方及び後方に、レーダー検出装置320〜323が含まれている。これらのレーダー検出装置は、約56度の視野で60メートルの到達距離を持つのみならず、約18度の視野で約200メートルの到達距離を持つことができる。
別の例では、種々のカメラを車両に取り付けることができる。カメラは、2つ以上のカメラからの視差を種々の物体までの距離を計算するために用いることができるよう、所定の距離を置いて取り付けることができる。図3に示すように、車両300には、バックミラー(不図示)の近くのフロントガラス340の裏に取り付けたカメラ330〜331を含めることができる。カメラ330は、約200メートルの到達距離及び約30度の水平視野を持つことができる一方、カメラ331は、約100の到達距離及び約60度の水平視野を持つことができる。
各センサーは、センサーが物体を検出するために用いることのできる特定のセンサー場と関連付けることができる。図4Aは、種々のセンサーの概略のセンサー場を上から見た図である。図4A〜4Dでは、これらの視野は、2次元(2D)で示されているが、実際のセンサー場は、3次元となる。図4Bは、レーザー310及び311の概略の2Dセンサー場410及び411を示し、それぞれ、これらのセンサーの視野に基づく。例えば、2Dセンサー場410は、約150メートルで、約30度の水平視野を有し、センサー場411は、約80メートルで、360度の水平視野を有する。これらは2Dで例示されているので、垂直視野は示されていない。
図4Cは、レーダー検出装置320〜323の各々についてについての概略の2Dセンサー場420A〜423Bを示し、それぞれ、これらのセンサーの視野に基づく。例えば、レーダー検出装置320は、センサー場420A及び420Bを有する。センサー場420Aは、約200メートルで、約18度の水平視野を有し、センサー場420Bは、約80メートルで、約56度の水平視野を有する。同様に、レーダー検出装置321〜323はセンサー場421A〜423A及び421B〜423Bを有する。センサー場421A〜423Aは、約200メートルで、約18度の水平視野を有し、センサー場421B〜423Bは、約80メートルで、約56度の水平視野を有する。センサー場421A及び422Aは、図4A及び4Cの縁まで伸びる。この場合もやはり、2Dで例示されているので、垂直視野は示されていない。
図4Dは、カメラ330〜331の、これらのセンサーの視野に基づく、概略の2Dセンサー場430〜431を示す。例えば、カメラ330のセンサー場430は、約200メートルで約30度の視野を有し、カメラ430のセンサー場431は、約100で約60度の視野を有する。この場合もやはり、2Dで例示されているので、垂直視野は示されていない。この場合もやはり、2Dで例示されているので、垂直視野は示されていない。
前述のセンサーにより、車両は評価を行うことができ、周囲の物体や人々だけでなく乗客の安全を最大限にするために、周囲状況に応答する能力を有することができる。車両の形式、センサーの数量や形式、センサーの位置、センサーの視野、及びセンサー(2D又は3D)のセンサー場は、単なる例示であることは理解されよう。種々の他の構成を用いることもできる。
上述のセンサーに加え、コンピュータは、他のセンサーからの入力も使うことができる。例えば、これらの他のセンサーには、タイヤ空気圧センサー、エンジン温度センサー、ブレーキ熱センサー、ブレーキパッド状態センサー、タイヤトレッドセンサー、燃料センサー、オイルのレベル及び質センサー、(温度、湿度、又は空気中の微粒子を検出するための)空気特性センサー、等を含めることができる。
これらのセンサーの多くは、リアルタイムでコンピュータにより処理されるデータを提供する。すなわち、センサーは、ある時間範囲で測定中の周囲状況を反映する出力を連続的に更新し、コンピュータが、車両のその時の最新の方向又は速度を検出した周囲状況に応じて修正すべきかどうか判断することができるように、連続的に又は要求に応じて更新された出力をコンピュータに提供することができる。
種々のセンサーから提供されたデータの処理に加えて、コンピュータは、時間的に先に得られた、周囲に車両の存在の有無にかかわらず存続する周囲データに頼ることができる。例えば、図1に戻って、データ134には、詳細な地図情報136、例えば、道路の形や高さ、車線境界線、交差点、横断歩道、制限速度、交通信号、建物、リアルタイムの交通情報、植物、又はそのような物や情報を特定する非常に詳細な地図を含めることができる。例えば、地図情報には、道路の種々の区画での系統立てた速度制限情報を含めることができる。速度制限データは、人手により、又は、例えば、光学式文字認識を用いて速度制限標識のイメージをあらかじめ読み込むことにより入力することができる。
地図情報には、上述の1つ以上の対象物を組み込んだ3次元地形図を含めることができる。例えば、車両は、リアルタイムデータ(例えば、他の乗用車の現在のGPSを特定するためのセンサーを用いて)及び他のデータに(例えば、この他の乗用車が右(左)折車線内にあるかどうかを判断するための、あらかじめ保存されている車線専用の地図データとGPSとを比較することで)基づき他の乗用車が向きを変えようとしているかどうかを判断することができる。
図5は、交差点510を含む道路部分の地図情報500の1つの例である。この実施例において、交差点510は、4方向の停止位置があるが、地図情報136には、任意の数の異なる道路構成、道路の組み合わせ、及び/又は道路の形態を含めることができる。地図情報には、車線境界線530〜533及び540〜547により定義される車線520〜527が含まれる。地図情報にはまた、横断歩道550〜553の形状及び位置に関する詳細を含めることができる。道路の範囲を越えて、地図情報500にはまた、歩道560〜563、建造物570〜573、及び(樹木のような)植物580〜582を含めることができる。建造物570〜573には、種々の形式の建造物を含めることができる。例えば、建造物570及び571には、ガレージ、店舗、家、事務所、等のような建物を含めることができる。別の例では、建造物572には壁面構造を含めることができる。
この場合もやはり、詳細な地図情報136をここでは画像に基づく地図として示したが、地図情報は全部画像に基づいたもの(例えば、ラスター)である必要はない。例えば、詳細な地図情報には、道路、車線、交差点、及びこれらの形態の接続点のような、1以上の道路グラフ又は情報のグラフネットワークを含むことができる。各形態は、グラフデータとして保存することができ、地理的位置、及び、他の関連形態と関連付けられているかどうか、例えば停止信号が道路や交差点等と関連付けられているかどうかのような情報と関連付けることができる。例えば、停止標識は、道路及び交差点と関連付けることができる。いくつかの実施例では、関連するデータには、特定の道路グラフ形態を効率的にルックアップすることができるように、道路グラフのグリッドに基づくインデックスを含むことができる。
詳細な地図情報には、種々の区域において、物体を検出する確率に関する情報にコード化することができる。図6の地図情報600は、このような地図情報の1つの例である。例えば、壁572を見る車両センサー及び車両のコンピュータがこの構造物を「壁」と認識する代わりに、地図は、壁572がレーザー又はレーダーの妨げとなっていることに注目することができ、従って、地図情報600には、壁572の後ろの(又は、車両のセンサーの、壁の反対側にある)物を検出する確率がゼロであることを示す注釈と関連させた区域610を含めることができる。
別の例では、地図情報600には、壁572が3フィート(91.4cm)高さであることを示すことができる。このことについて、区域610についての注釈では、その区域について、3フィート(91.4cm)より高い物体を見ることについて高い信頼性があるが、3フィート(91.4cm)より低い物体を見ることについて信頼性が低くなることを注釈することができる。このことについて、植物、建物、壁、モニュメント、標識、タワー、その他の構造物又は物体のような、詳細な地図情報に明記された物体と、それぞれ、車両のセンサーに対してその構造物とは反対側にある、特定の大きさ又は形状の別の物体を、車両が検出することができる確率とを結び付けることができる。
コンピュータ110はまた、他のコンピュータから情報を受け取ったり、又は他のコンピュータに情報を送信することもできる。コンピュータ110に記録された地図情報を、(図5及び6に示した実施例のように)他のコンピュータから受け取ったり、又は他のコンピュータに送信することができ、及び/又は、車両101のセンサーから集められたセンサーデータを、ここで説明するように、処理するために他のコンピュータに送信することができる。図7A及び7Bに示すように、コンピュータ110からのデータは、ネットワークを介して、さらなる処理のためにコンピュータ720に送信することができる。ネットワーク及び介在するノードは、インターネット、ワールド・ワイド・ウェブ、イントラネット、仮想私設ネットワーク、ワイド・エリア・ネットワーク、ローカル・ネットワーク、1以上の会社で独自の通信プロトコルを用いたプライベート・ネットワーク、イーサネット、WiFi及びHTTP、及びこれらの様々な組み合わせを含む種々の構成及びプロトコルを具備する。このような通信は、モデム及び無線インターフェースのような、他のコンピュータへの送信及び他のコンピュータからの受信ができる任意の装置により行うことができる。別の例では、データは、コンピュータ110及び720にアクセス又は接続することができるメモリーに記録することで伝達することができる。
1つの実施例では、例えば、コンピュータ110からのデータを受け取り処理し伝送するため、ネットワークの別々のノードの情報を交換する、複数のコンピュータ、例えば、ロード・バランス・サーバー・ファームを有するサーバーを具備することができる。サーバーは、プロセッサー730、メモリー740、命令750、及びデータ760を有するコンピュータ110と同様の構成とすることができる。
1つの実施例では、サーバー720のデータ760には、天候に関係する情報を提供することを含めることができる。例えば、サーバー720は、天候に関係する様々な情報を受け取り、監視し、記録し、更新し、送信することができる。この情報には、レポート、レーダー情報、予報、等の形の、例えば、降水量、雲、及び/又は、温度の情報を含めることができる。
上述し図示した動作に加え、種々の動作について説明する。以下の動作は、正確に以下に記載の順序で行わなければならないわけではないことは理解されよう。むしろ、種々のステップは異なる順序又は同時に行うことができ、ステップを付け加えることも省略することもできる。
車両のセンサーの限界を判断し、車両の動きを調整するために、コンピュータ110は、車両の相異なるセンサーの各々が車両の周辺を観測するため現在どのように見ることができているかを示す3Dモデルを生成することができる。これには、例えば、センサーが現在見ている物体や形態ではなく、センサーの視野が物体により遮られることが全くなかったとした場合にセンサーが見ることのできる区域を含めることができる。これらのモデルは、車両に対して相対的なセンサーの位置や方向が与えられたときの各センサーの視野に基づくことができる。この情報は、個々のセンサーモデルを各々決定する前に、一般的な校正ステップを用いて、あらかじめ決めておくことができる。
例えば、図8A及び8Bには、センサー311についての個々の3Dモデル800の構成要素が含まれる。レーザー311についてのモデル800には、図8Aに示した2Dセンサー場411の寸法と、図8Bに示した第3の垂直の寸法とを含むことができる。従って、これらの要素(411及び811)の組み合わせをレーザー311についての3Dモデル800を生成するために用いることができる。同様のモデルを、これにより、物体検出要素148のセンサーの各々について生成することができる。
加えて、この個々のセンサーモデルには、所定のセンサー場内の種々の地点又は区域で物体を検出する確実性を記述する確率的なデータを含めることができる。例えば、特定のモデルには、所定のセンサー場内で物体を検出する確実性を示す情報を含めることができる。例えば、1つのモデルは、センサー場の中央にある物体、又は、センサーからある距離以内にある物体を検出する確実性は高く、センサー場の外側では確実性が低くなることがある。
図9及び9Bには、確率的なデータを有する、レーザー311についての3Dモデル900の構成要素の実施例である。3Dモデル900の影をつけた構成要素は、物体を検出する確実性が高くなるような、レーザー311に近い場所ほど濃くなるよう示され、レーザー311から遠い区域は、物体を検出する確実性が低くなり、薄い色で示される。
別の例では、確率的なデータを有するモデルには、モデル内の特定の位置で検出されそうな物体の寸法及び形状についての非常に詳細な情報を含めることができる。例えば、確率的なデータは、センサーが60%の確率で他の車両を目撃し、20%の確率で金属でない物体を目撃する、等の、区域についての記述を含めることができる。
個々のセンサーの初期モデル化にはまた、天候の現在の状態についての情報を活用し、リアルタイムで各センサーモデルの形状及び/又は確率情報を調整することを含めることができる。例えば、天候は、この特定のモデルのセンサー又は別のセンサーから受け取ったデータ、及び/又は、サーバー520のような中央から受け取ったリアルタイム情報に基づき自動的に検出することができる。これに関し、センサー又は中央から天候情報を受け取ることができ、この情報を用いて、センサーの各々について、3Dモデルの形状又は他の特性を調整することができる。例えば、非常に太陽がまぶしい場合又は降雨量が大きい場合、レーザーは、センサーとしての信頼性が下がることがある。同様に、レーダーユニットは、濃霧状態で用いるとき信頼性が下がることがある。このように、この例によるアプローチにより、関連する気象条件(例えば、霧の深さ、雨の量、地面の濡れ具合及び反射の程度、太陽光の強さと方向、等)のパラメータ化したモデルを組み立てることになる。加えて、このような気象条件が異なるセンサーに影響を与える度合いのモデル(例えば、霧の深さの関数としての有効なレーザー到達距離の減少の程度、太陽光の強さと方向の関数としてのレーザー内での盲点の程度、等)を先験的に構築することができ、センサーのオンラインの視野を計算するのに適したモデルを適用することができる。
次に、すべてのセンサーの個々のモデルは、センサーが現在監視することのできる、統合された包括的な3次元(3D)モデルとなることができる。この包括的なモデルは、単に、車両が物体を検出することのできる区域と、車両のセンサーが物体を検出できない区域とを示す2値の地図とすることができる。この情報は、個々のモデルに組み込まれた天候情報に含めることができる。
例えば、図10は、物体検出要素148の種々のセンサーの2Dセンサー場を統合した1つの例である。この場合もやはり、図10は2Dで示されているが、実際の結合したモデルは3Dである。この実施例において、(車両301に対して)区域1010内の物体は、車両のセンサーにより検出することができる一方、区域1010の外側に位置する物体は検出することができない。
個々のモデルに確率データが含まれる場合は、包括的な3Dモデルにも確率データを含めることができる。この点について、結合したモデルは、個々のセンサーモデルからの検出確率を種々の方法で合成することができる。1つの実施例では、3Dモデルの各区域での確率は、個々のセンサーモデルの各々についての各確率を処理して得られた、検出する最大の確率とすることができる。従って、1つのセンサーモデルが、場所1で小型乗用車の大きさの物体を検出する確率が10%であり、他のセンサーモデルが、場所1で小型乗用車の大きさの物体を検出する確率が20%である場合、場所1で小型乗用車の大きさの物体を検出する確率は20%とすることができる。
別の例では、前記確率は、確実性のある領域又は閾値を有するような、より複雑な方法で結合することができる。図11は、個々のセンサーについての複数のモデルに基づく包括的な3Dモデル1100の別の実施例である。この実施例において、各モデルの各々には、すでに天候情報を含めておくことができる。包括的な3Dモデル1100には、3つの確実性のある領域、1110、1120、及び1130が含まれる。影で示したように、領域1110は、領域1120(40%と69%との間)より車両の周辺の物体及び外観を検出する確実性を高くすることができる(例えば、70%以上)。同様に、領域1120は領域1130(0%と39%との間)より物体及び外観を検出する確実性を高くすることができる。他の包括的な3Dモデルには、顕著に確実性が高くなったり低くなったりする領域、確実性の値の異なる形式、等を含めることができる。
複数のセンサーのこの結合モデルは、センサーから除外され見えない地点を計算するための詳細な地図情報136と結合することもできる。前述のように、詳細な地図情報136は、物体を検出する確率でコード化することができる。例えば、車両の現在の位置を用いて、車両の地理的位置検出要素から決定されたとき、コンピュータ110は、詳細な地図情報136の対応する部分を特定し、前記結合モデルにこの情報を結合することができる。これについて、詳細な地図情報136の形態は、物体を検出する確率を含めて、前記結合モデルを調整するために用いることができる。この結合又は調整の結果を、周辺のさまざまな場所が占有されているか、占有されていないか、又は観測できないか(センサーにより検出できない)を記述した情報について注釈をつけた、車両の周辺のモデルとすることができる。占有されたデータ/自由なデータは、リアルタイムのセンサーデータ(例えば、トラックからセンサーを除外しているモデル)及び事前のデータ(例えば、交差点の近くのビルはすべてのセンサーをブロックする、高い草木はレーザー及びカメラを遮蔽し、レーダーを部分的にブロックするかもしれない、金属製の梁でできた橋又はトンネルは、レーダーを遮蔽するかもしれない、ノイズレベルの高い区域に進む場合は、死角と等価になるであろう)の結合からもたらされるであろう。これらの注釈は、上述の確率データに含めることができる。
図12は、地図情報600と包括的な3Dモデル1100との結合の1つの例である。この実施例では、壁572は、区域610と表示され、3Dモデル1100の除外部分となっている。従って、包括的な3Dモデルは、確実性の高い領域1210、1220、及び、1230の確実性の値に応じて、新たな確実性の高い領域1210、1220、及び、1230にそれぞれ再構成される。
従って、コンピュータ110は、車両のコンピュータがすでにその周辺を見ることができるか見えないかが予想できるので、センサーデータに基づく周辺の地理を再構成する必要はない。事前に地図を用いることのもう1つの利点は、離れた距離で(該当する物体が検出可能な距離に到達する前に)システムが死角及び遮蔽区域を推定することができ、例えば、システムは、取り付けてあるセンサーが遮蔽の原因となる物体を見つけることができるかなり前に死角となる交差点に近づいていることを知ることができ、これにより、車両は、早い時期に操作を修正し(例えば、スピードを落とし始め)、円滑に安全に運転することができる。
結合モデル及び地図は、コンピュータ110により用いられ、それにより運転を定めるので安全性を向上させることができる。例えば、コンピュータは、コンピュータは、検出可能距離が減少した場合(例えば、霧の中を運転している場合)車両のスピードを落とし、車両を視界がよくなるような状態にし、コンピュータが、センサーは十分周辺を検出することができるとの確信を持てない場合は、危険な運転(例えば、対向車線を通り抜ける運転)を避けることができる。
図13のフロー線図1300は、コンピュータ110が実行する上述の形態の1つの例である。この実施例において、物体検出要素の複数のセンサーの各々に対し、コンピュータ110は、ブロック1302でセンサーの視野の個々の3Dモデルを生成する。天候情報は、ブロック1304で、例えばセンサーから又はコンピュータ520のような外部情報源から受け取る。天候情報には、例えば、降水量、雲、霧の濃さ、雨の強さ、道路の湿り及び反射度、日差しの強さ及び方向、及び/又は、温度情報を含めることができる。天候情報は、レポート、レーダー情報、予報、リアルタイム計測、等の形とすることができる。コンピュータは、続いて、ブロック1306で、受け取った天候情報に基づいて3Dモデルの1つ以上の特性を調整する。これにより1つ以上のセンサーによる実際の、又は予想される気象条件への影響を明らかにする。この調整の後、ブロック1308で、コンピュータは、3Dモデルを包括的な3Dモデルに統合する。包括的な3Dモデルは次に、ブロック1310で、詳細な地図情報に組み込まれる。上述の通り、これには、車両の現在の位置を決定するステップと、包括的な3Dモデルに組み込むべき詳細な地図情報の該当する部分を選択するためにこの情報を用いるステップとを含めることができる。コンピュータは、次いで、ブロック1312で、結合された包括的な3Dモデルと詳細な地図情報とに基づいて車両の周辺のモデルを計算する。車両の周辺のこのモデルは、次に、ブロック1314で、車両の操作に用いられる。
上述の形態のこれらの及び他の変形及び組み合わせは、特許請求の範囲で定義した対象から離れることなく利用することができるので、これまで説明した例示的実施の形態は、特許請求の範囲で定義した発明を限定するものではなく、概説するためにものであると理解すべきである。当然のことながら、ここに記載した実施の形態の条件(及び、「のような」、「例えば」、「含む」、のような語句)は、権利化を要求する対象を特定の実施例に限定するものと解釈すべきでなく、実施例は多くの形態の一部を概説するためのものである。
本発明は、これらに限定されるものではないが、自律走行車両の管理及びコントロールを含む、広い産業分野で適用可能である。

Claims (20)

  1. 車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成するステップと、
    前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取るステップと、
    実際の又は予想される気象条件が複数のセンサーの1つ以上に与える影響を明確にするために、受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整するステップと、
    前記調整を行った後、包括的な3Dモデルを生成するために前記複数の3Dモデルを、プロセッサーにより統合するステップと、
    前記包括的な3Dモデルと詳細な地図情報とを結合するステップと、
    前記車両を操作するために前記結合した包括的な3Dモデルと詳細な地図情報とを用いるステップと、
    を具備する方法。
  2. 各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づくことを特徴とする、請求項1に記載の方法。
  3. 各々の所定のセンサーの視野についての3Dモデルは、所定のセンサーの車両に対する所定のセンサーの位置及び方向に基づくことを特徴とする、請求項1に記載の方法。
  4. 前記天候情報を、ネットワークを介して遠隔のコンピュータから受け取ることを特徴とする、請求項1に記載の方法。
  5. 前記天候情報を、複数のセンサーのうちの1つから受け取ることを特徴とする、請求項1に記載の方法。
  6. 前記複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、
    この確率データは、前記包括的な3Dモデルを生成するための複数の3Dモデルを統合するときに用いられることを特徴とする、請求項1に記載の方法。
  7. 前記詳細な地図情報には、前記地図の所定の位置で物体を検出する確率を示す確率データが含まれ、
    この確率データは、前記包括的な3Dモデルと詳細な地図情報とを結合するときに用いられることを特徴とする、請求項1に記載の方法。
  8. 前記包括的な3Dモデルと詳細な地図情報とを結合することで、前記周辺のさまざまな部分が塞がっているか又は塞がっていないか又は遮られているかを記述する情報により注釈がつけられた車両の周辺のモデルが得られることを特徴とする、請求項1に記載の方法。
  9. 車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成し、
    前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取り、
    実際の又は予想される気象条件が複数のセンサーの1つ以上に与える影響を明確にするために、受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整し、
    前記調整を行った後、包括的な3Dモデルを生成するために前記複数の3Dモデルを、プロセッサーにより統合し、
    前記包括的な3Dモデルと詳細な地図情報とを結合し、
    前記車両を操作するために前記結合した包括的な3Dモデルと詳細な地図情報とを用いるよう構成されたプロセッサーを具備するシステム。
  10. 各々の所定のセンサーの視野の3Dモデルは、所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づくことを特徴とする、請求項9に記載のシステム。
  11. 各々の所定のセンサーの視野についての3Dモデルは、所定のセンサーの車両に対する所定のセンサーの位置及び方向に基づくことを特徴とする、請求項9に記載のシステム。
  12. 前記天候情報を、ネットワークを介して遠隔のコンピュータから受け取ることを特徴とする、請求項9に記載のシステム。
  13. 前記天候情報を、複数のセンサーのうちの1つから受け取ることを特徴とする、請求項9に記載のシステム。
  14. 前記複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、
    この確率データは、前記包括的な3Dモデルを生成するための前記複数の3Dモデルを統合するときに用いられることを特徴とする、請求項9に記載のシステム。
  15. 前記詳細な地図情報には、前記地図の所定の位置で物体を検出する確率を示す確率データが含まれ、
    この確率データは、前記包括的な3Dモデルと詳細な地図情報とを結合するときに用いられることを特徴とする、請求項9に記載のシステム。
  16. 前記包括的な3Dモデルと詳細な地図情報とを結合することで、前記周辺のさまざまな部分が塞がっているか又は塞がっていないか又は遮られているかを記述する情報により注釈がつけられた車両の周辺のモデルが得られることを特徴とする、請求項9に記載のシステム。
  17. コンピュータ読み取り可能なプログラムの命令を記録するための、実体のある、非一時的なコンピュータ読み取り可能記憶媒体であって、前記命令は、プロセッサーにて実行されたとき、前記プロセッサーに、
    車両の周辺にある物体を検出するための複数のセンサーの所定の各センサーについて、前記所定のセンサーの視野での3Dモデルを生成するステップと、
    前記車両の周辺の実際の又は予想される気象条件に関する、1つ以上の、レポート、レーダー情報、予想される計測値及びリアルタイム計測値を含む、天候情報を受け取るステップと、
    実際の又は予想される気象条件が複数のセンサーの1つ以上に与える影響を明確にするために、受け取った天候情報に基づき複数の3Dモデルの1以上の特性を調整するステップと、
    前記調整を行った後、包括的な3Dモデルを生成するために前記複数の3Dモデルを統合するステップと、
    前記包括的な3Dモデルと詳細な地図情報とを結合するステップと、
    前記車両を操作するために前記結合した包括的な3Dモデルと詳細な地図情報とを用いるステップと、
    を具備する方法を実行させることを特徴とする、記憶媒体。
  18. 各々の所定のセンサーの視野の3Dモデルは、前記所定のセンサーの遮るもののない視野のあらかじめ定められたモデルに基づくことを特徴とする、請求項17に記載の記憶媒体。
  19. 複数の3Dモデルのうちの少なくとも1つのモデルには、前記少なくとも1つのモデルの所定の位置で物体を検出する確率を示す確率データが含まれ、
    この確率データは、包括的な3Dモデルを生成するための前記複数の3Dモデルを統合するときに用いられることを特徴とする、請求項17に記載の記憶媒体。
  20. 前記詳細な地図情報には、前記地図の所定の位置で物体を検出する確率を示す確率データが含まれ、
    この確率データは、前記包括的な3Dモデルと詳細な地図情報とを結合するときに用いられることを特徴とする、請求項17に記載の記憶媒体。
JP2015555195A 2013-01-25 2014-01-17 センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正 Active JP5944598B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/749,793 US9367065B2 (en) 2013-01-25 2013-01-25 Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
US13/749,793 2013-01-25
PCT/US2014/012020 WO2014116512A1 (en) 2013-01-25 2014-01-17 Modifying behavior of autonomous vehicles based on sensor blind spots and limitations

Publications (2)

Publication Number Publication Date
JP5944598B1 JP5944598B1 (ja) 2016-07-05
JP2016520882A true JP2016520882A (ja) 2016-07-14

Family

ID=51223805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015555195A Active JP5944598B1 (ja) 2013-01-25 2014-01-17 センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正

Country Status (6)

Country Link
US (7) US9367065B2 (ja)
EP (1) EP2948928B1 (ja)
JP (1) JP5944598B1 (ja)
KR (1) KR101655712B1 (ja)
CN (1) CN105009175B (ja)
WO (1) WO2014116512A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044652A1 (en) 2017-08-29 2019-03-07 Sony Corporation INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND MOBILE OBJECT
JP2019109705A (ja) * 2017-12-18 2019-07-04 パイオニア株式会社 データ構造、記録装置及び記録方法並びに記録用プログラム
JP2019168984A (ja) * 2018-03-23 2019-10-03 パイオニア株式会社 データ構造
JP2021534484A (ja) * 2018-08-09 2021-12-09 ズークス インコーポレイテッド 手続き的な世界の生成

Families Citing this family (184)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US20170242443A1 (en) 2015-11-02 2017-08-24 Peloton Technology, Inc. Gap measurement for vehicle convoying
US10520952B1 (en) 2011-07-06 2019-12-31 Peloton Technology, Inc. Devices, systems, and methods for transmitting vehicle data
US8744666B2 (en) 2011-07-06 2014-06-03 Peloton Technology, Inc. Systems and methods for semi-autonomous vehicular convoys
US10520581B2 (en) 2011-07-06 2019-12-31 Peloton Technology, Inc. Sensor fusion for autonomous or partially autonomous vehicle control
US9367065B2 (en) * 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
US20180210463A1 (en) 2013-03-15 2018-07-26 Peloton Technology, Inc. System and method for implementing pre-cognition braking and/or avoiding or mitigation risks among platooning vehicles
US11294396B2 (en) 2013-03-15 2022-04-05 Peloton Technology, Inc. System and method for implementing pre-cognition braking and/or avoiding or mitigation risks among platooning vehicles
US9187099B2 (en) 2013-10-17 2015-11-17 Richard M. Powers Systems and methods for predicting weather performance for a vehicle
US9321461B1 (en) * 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
EP3470950A1 (en) * 2014-12-17 2019-04-17 Husqvarna Ab Boundary learning robotic vehicle
EP3971672A1 (en) * 2014-12-17 2022-03-23 Husqvarna AB Multi-sensor, autonomous robotic vehicle with mapping capability
US9649979B2 (en) 2015-01-29 2017-05-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in view-obstructed environments
US9493157B2 (en) 2015-01-29 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in obstructed occupant view and sensor detection environments
US10366285B2 (en) 2015-04-09 2019-07-30 Bendix Commercial Vehicle Systems Llc Method and apparatus for determining the operation of a vehicle safety system
US9963155B2 (en) 2015-05-29 2018-05-08 Clearpath Robotics, Inc. Method, system and apparatus for path control in unmanned vehicles
US20160368336A1 (en) 2015-06-19 2016-12-22 Paccar Inc Use of laser scanner for autonomous truck operation
EP3118834B1 (en) * 2015-07-13 2019-07-03 Volvo Car Corporation Lane change control arrangement, a vehicle comprising such arrangement and a method for controlling lane changes
US9869560B2 (en) 2015-07-31 2018-01-16 International Business Machines Corporation Self-driving vehicle's response to a proximate emergency vehicle
US9785145B2 (en) 2015-08-07 2017-10-10 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9483948B1 (en) 2015-08-07 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and pedestrians
US9721397B2 (en) 2015-08-11 2017-08-01 International Business Machines Corporation Automatic toll booth interaction with self-driving vehicles
US9718471B2 (en) 2015-08-18 2017-08-01 International Business Machines Corporation Automated spatial separation of self-driving vehicles from manually operated vehicles
US9481366B1 (en) 2015-08-19 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
US9896100B2 (en) 2015-08-24 2018-02-20 International Business Machines Corporation Automated spatial separation of self-driving vehicles from other vehicles based on occupant preferences
US9731726B2 (en) 2015-09-02 2017-08-15 International Business Machines Corporation Redirecting self-driving vehicles to a product provider based on physiological states of occupants of the self-driving vehicles
US10183667B2 (en) * 2015-09-15 2019-01-22 Deere & Company Human presence detection on a mobile machine
US10082797B2 (en) 2015-09-16 2018-09-25 Ford Global Technologies, Llc Vehicle radar perception and localization
US9513632B1 (en) 2015-09-16 2016-12-06 International Business Machines Corporation Driving mode alerts from self-driving vehicles
US9566986B1 (en) 2015-09-25 2017-02-14 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9481367B1 (en) 2015-10-14 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
US9834224B2 (en) 2015-10-15 2017-12-05 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9944291B2 (en) 2015-10-27 2018-04-17 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9751532B2 (en) 2015-10-27 2017-09-05 International Business Machines Corporation Controlling spacing of self-driving vehicles based on social network relationships
US10607293B2 (en) 2015-10-30 2020-03-31 International Business Machines Corporation Automated insurance toggling for self-driving vehicles
US9754490B2 (en) 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US10000124B2 (en) 2015-11-04 2018-06-19 Zoox, Inc. Independent steering, power, torque control and transfer in vehicles
US9734455B2 (en) 2015-11-04 2017-08-15 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US9720415B2 (en) * 2015-11-04 2017-08-01 Zoox, Inc. Sensor-based object-detection optimization for autonomous vehicles
US10745003B2 (en) 2015-11-04 2020-08-18 Zoox, Inc. Resilient safety system for a robotic vehicle
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
US9517767B1 (en) 2015-11-04 2016-12-13 Zoox, Inc. Internal safety systems for robotic vehicles
US10334050B2 (en) 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9910441B2 (en) 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9507346B1 (en) 2015-11-04 2016-11-29 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US9878664B2 (en) 2015-11-04 2018-01-30 Zoox, Inc. Method for robotic vehicle communication with an external environment via acoustic beam forming
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US9958864B2 (en) 2015-11-04 2018-05-01 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
US10496766B2 (en) 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
US9916703B2 (en) * 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US10248119B2 (en) 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
US9804599B2 (en) 2015-11-04 2017-10-31 Zoox, Inc. Active lighting control for communicating a state of an autonomous vehicle to entities in a surrounding environment
US9802661B1 (en) 2015-11-04 2017-10-31 Zoox, Inc. Quadrant configuration of robotic vehicles
US9701239B2 (en) 2015-11-04 2017-07-11 Zoox, Inc. System of configuring active lighting to indicate directionality of an autonomous vehicle
US10176525B2 (en) 2015-11-09 2019-01-08 International Business Machines Corporation Dynamically adjusting insurance policy parameters for a self-driving vehicle
US9791861B2 (en) 2015-11-12 2017-10-17 International Business Machines Corporation Autonomously servicing self-driving vehicles
US10061326B2 (en) 2015-12-09 2018-08-28 International Business Machines Corporation Mishap amelioration based on second-order sensing by a self-driving vehicle
US9836973B2 (en) 2016-01-27 2017-12-05 International Business Machines Corporation Selectively controlling a self-driving vehicle's access to a roadway
US10328949B2 (en) * 2016-01-28 2019-06-25 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor blind spot indication for vehicles
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
US9835709B2 (en) 2016-02-02 2017-12-05 Bao Tran Systems and methods for permission based control of robots
US10291348B2 (en) 2016-02-02 2019-05-14 Bao Tran Systems and methods for control of drones
SE541846C2 (en) * 2016-02-10 2019-12-27 Scania Cv Ab Method and control unit for rear view
US10989542B2 (en) * 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
WO2017155970A1 (en) 2016-03-11 2017-09-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
DE112016006811T5 (de) * 2016-04-28 2019-02-14 Honda Motor Co., Ltd. Fahrzeugsteuersystem, fahrzeugsteuerverfahren und fahrzeugsteuerprogramm
US10034066B2 (en) 2016-05-02 2018-07-24 Bao Tran Smart device
US10685391B2 (en) 2016-05-24 2020-06-16 International Business Machines Corporation Directing movement of a self-driving vehicle based on sales activity
JP7005526B2 (ja) 2016-05-31 2022-01-21 ぺロトン テクノロジー インコーポレイテッド 隊列走行コントローラの状態マシン
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
US11092446B2 (en) 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
US10126136B2 (en) 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
US10829116B2 (en) 2016-07-01 2020-11-10 nuTonomy Inc. Affecting functions of a vehicle based on function-related information about its environment
EP3481661A4 (en) 2016-07-05 2020-03-11 Nauto, Inc. AUTOMATIC DRIVER IDENTIFICATION SYSTEM AND METHOD
EP3497405B1 (en) 2016-08-09 2022-06-15 Nauto, Inc. System and method for precision localization and mapping
DE102016215538A1 (de) * 2016-08-18 2018-03-08 Robert Bosch Gmbh Verfahren zum Transformieren von Sensordaten
EP3500940A4 (en) 2016-08-22 2020-03-18 Peloton Technology, Inc. AUTOMATED CONNECTED VEHICLE CONTROL SYSTEM ARCHITECTURE
US10369998B2 (en) 2016-08-22 2019-08-06 Peloton Technology, Inc. Dynamic gap control for automated driving
US10182225B1 (en) * 2016-08-31 2019-01-15 Amazon Technologies, Inc. Processing images to remove precipitation
US10497129B1 (en) 2016-08-31 2019-12-03 Amazon Technologies, Inc. Image-based weather condition detection
US10678240B2 (en) * 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
WO2018053175A1 (en) 2016-09-14 2018-03-22 Nauto Global Limited Systems and methods for near-crash determination
US10093322B2 (en) 2016-09-15 2018-10-09 International Business Machines Corporation Automatically providing explanations for actions taken by a self-driving vehicle
US10643256B2 (en) 2016-09-16 2020-05-05 International Business Machines Corporation Configuring a self-driving vehicle for charitable donations pickup and delivery
US9905133B1 (en) 2016-09-30 2018-02-27 Allstate Insurance Company Controlling autonomous vehicles to provide automated emergency response functions
US10331129B2 (en) 2016-10-20 2019-06-25 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10473470B2 (en) 2016-10-20 2019-11-12 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10681513B2 (en) 2016-10-20 2020-06-09 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10857994B2 (en) 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
US10146223B1 (en) 2016-10-21 2018-12-04 Waymo Llc Handling sensor occlusions for autonomous vehicles
EP3535646A4 (en) 2016-11-07 2020-08-12 Nauto, Inc. SYSTEM AND METHOD FOR DETERMINING DRIVER DISTRACTION
US10262539B2 (en) * 2016-12-15 2019-04-16 Ford Global Technologies, Llc Inter-vehicle warnings
US10259452B2 (en) 2017-01-04 2019-04-16 International Business Machines Corporation Self-driving vehicle collision management system
US10529147B2 (en) 2017-01-05 2020-01-07 International Business Machines Corporation Self-driving vehicle road safety flare deploying system
US10363893B2 (en) 2017-01-05 2019-07-30 International Business Machines Corporation Self-driving vehicle contextual lock control system
US10228693B2 (en) * 2017-01-13 2019-03-12 Ford Global Technologies, Llc Generating simulated sensor data for training and validation of detection models
US10359783B2 (en) 2017-02-28 2019-07-23 Warfarer, Inc. Transportation system
US11097736B2 (en) 2017-02-28 2021-08-24 Clearpath Robotics Inc. Systems and methods for traction detection and control in a self-driving vehicle
US10281920B2 (en) 2017-03-07 2019-05-07 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10234864B2 (en) * 2017-03-07 2019-03-19 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10095234B2 (en) 2017-03-07 2018-10-09 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10152060B2 (en) 2017-03-08 2018-12-11 International Business Machines Corporation Protecting contents of a smart vault being transported by a self-driving vehicle
US10338594B2 (en) 2017-03-13 2019-07-02 Nio Usa, Inc. Navigation of autonomous vehicles to enhance safety under one or more fault conditions
JPWO2018180245A1 (ja) * 2017-03-28 2020-05-14 パイオニア株式会社 出力装置、制御方法、プログラム及び記憶媒体
US10423162B2 (en) 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
US20210142526A1 (en) * 2017-05-22 2021-05-13 Pcms Holdings, Inc. Method and apparatus for in-vehicle augmented reality visualization of sensor range and field-of-view
US10753753B2 (en) 2017-05-26 2020-08-25 Ford Global Technologies, Llc Vehicle route navigation
US20180339730A1 (en) * 2017-05-26 2018-11-29 Dura Operating, Llc Method and system for generating a wide-area perception scene graph
EP3631362A4 (en) * 2017-05-31 2021-01-13 Bayerische Motoren Werke Aktiengesellschaft METHOD AND DEVICE FOR CONSTRUCTION OF AN ENVIRONMENTAL MODEL
US10453150B2 (en) 2017-06-16 2019-10-22 Nauto, Inc. System and method for adverse vehicle event determination
US10430695B2 (en) 2017-06-16 2019-10-01 Nauto, Inc. System and method for contextualized vehicle operation determination
CN109145680B (zh) * 2017-06-16 2022-05-27 阿波罗智能技术(北京)有限公司 一种获取障碍物信息的方法、装置、设备和计算机存储介质
US10417816B2 (en) 2017-06-16 2019-09-17 Nauto, Inc. System and method for digital environment reconstruction
CN110855775B (zh) * 2017-06-19 2022-08-19 深圳市盛路物联通讯技术有限公司 一种基于过滤网关的终端设备工作状态检测方法及系统
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US20190041859A1 (en) * 2017-08-04 2019-02-07 Aptiv Technologies Limited Sensor failure compensation system for an automated vehicle
US11625045B2 (en) * 2017-08-31 2023-04-11 Uatc, Llc Systems and methods for controlling an autonomous vehicle with occluded sensor zones
US20190072978A1 (en) * 2017-09-01 2019-03-07 GM Global Technology Operations LLC Methods and systems for generating realtime map information
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
US10501085B2 (en) * 2017-12-07 2019-12-10 Waymo Llc Early object detection for unprotected turns
US10558873B2 (en) 2017-12-14 2020-02-11 Waymo Llc Methods and systems for controlling extent of light encountered by an image capture device of a self-driving vehicle
US10921142B2 (en) 2017-12-14 2021-02-16 Waymo Llc Methods and systems for sun-aware vehicle routing
US20190204845A1 (en) * 2017-12-29 2019-07-04 Waymo Llc Sensor integration for large autonomous vehicles
DE102018100667A1 (de) 2018-01-12 2019-07-18 Connaught Electronics Ltd. Computersichtvorfusion und räumlich-zeitliche Verfolgung
EP3511740B1 (en) * 2018-01-12 2021-08-25 Bayerische Motoren Werke Aktiengesellschaft Method, system, and computer program product for determining a blockage of a sensor of a plurality of sensors of an ego vehicle
US11022971B2 (en) 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
US10480952B2 (en) * 2018-02-01 2019-11-19 Didi Research America, Llc Probabilistic navigation system and method
US11084512B2 (en) * 2018-02-12 2021-08-10 Glydways, Inc. Autonomous rail or off rail vehicle movement and system among a group of vehicles
US10613550B2 (en) * 2018-02-12 2020-04-07 Vinod Khosla Autonomous rail vehicle movement and system among a group of vehicles on a rail system
WO2019165194A1 (en) 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
US11392131B2 (en) 2018-02-27 2022-07-19 Nauto, Inc. Method for determining driving policy
WO2019195270A1 (en) 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
CN108482025B (zh) * 2018-05-03 2021-05-07 河南省高迈科技有限公司 具有四轮自动定位功能的胎压监测系统及其定位方法
US10642275B2 (en) 2018-06-18 2020-05-05 Zoox, Inc. Occulsion aware planning and control
US11048265B2 (en) 2018-06-18 2021-06-29 Zoox, Inc. Occlusion aware planning
EP3807807A1 (en) * 2018-06-18 2021-04-21 Zoox, Inc. Occlusion aware planning
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
US10845818B2 (en) * 2018-07-30 2020-11-24 Toyota Research Institute, Inc. System and method for 3D scene reconstruction of agent operation sequences using low-level/high-level reasoning and parametric models
US10706724B2 (en) * 2018-08-01 2020-07-07 GM Global Technology Operations LLC Controlling articulating sensors of an autonomous vehicle
US11353577B2 (en) * 2018-09-28 2022-06-07 Zoox, Inc. Radar spatial estimation
US10762791B2 (en) 2018-10-29 2020-09-01 Peloton Technology, Inc. Systems and methods for managing communications between vehicles
US11390277B2 (en) 2018-11-30 2022-07-19 Clearpath Robotics Inc. Systems and methods for self-driving vehicle collision prevention
US11693423B2 (en) * 2018-12-19 2023-07-04 Waymo Llc Model for excluding vehicle from sensor field of view
US11598864B2 (en) 2018-12-27 2023-03-07 Wipro Limited Method and system for testing LiDAR sensors
US11338816B2 (en) * 2019-02-02 2022-05-24 Ford Global Technologies, Llc Over-the-air flashing and reproduction of calibration data using data regression techniques
US11433883B2 (en) * 2019-03-31 2022-09-06 Gm Cruise Holdings Llc Autonomous vehicle maneuvering based upon risk associated with occluded regions
US11427196B2 (en) 2019-04-15 2022-08-30 Peloton Technology, Inc. Systems and methods for managing tractor-trailers
WO2020237207A1 (en) 2019-05-23 2020-11-26 Systomix, Inc. Apparatus and method for processing vehicle signals to compute a behavioral hazard measure
US20200379465A1 (en) * 2019-05-31 2020-12-03 GM Global Technology Operations LLC Method and apparatus for adusting sensor field of view
KR20210008260A (ko) 2019-07-12 2021-01-21 현대자동차주식회사 자율주행차량의 거동 제어 장치 및 그 방법
JP7056632B2 (ja) 2019-09-05 2022-04-19 トヨタ自動車株式会社 運転支援装置
US11649147B2 (en) 2019-09-20 2023-05-16 Clearpath Robotics Inc. Autonomous material transport vehicles, and systems and methods of operating thereof
US11348332B2 (en) * 2019-09-25 2022-05-31 Toyota Research Institute, Inc. Object location analysis
US11474203B2 (en) 2019-09-27 2022-10-18 Wipro Limited Method and system for determining correctness of Lidar sensor data used for localizing autonomous vehicle
KR20210051601A (ko) * 2019-10-31 2021-05-10 엘지전자 주식회사 인공지능 무빙 에이전트
US11288509B2 (en) * 2019-11-12 2022-03-29 Toyota Research Institute, Inc. Fall detection and assistance
US20210191399A1 (en) * 2019-12-23 2021-06-24 Waymo Llc Real-Time Adjustment Of Vehicle Sensor Field Of View Volume
US11127301B1 (en) 2020-03-10 2021-09-21 Denso Corporation Systems and methods for adapting operation of an assistance system according to the presence of a trailer
EP4121331A4 (en) 2020-03-20 2024-05-01 Glydways, Inc. VEHICLE CONTROL SCHEMES FOR AUTONOMOUS VEHICLE SYSTEM
CN113442830B (zh) * 2020-03-24 2023-07-18 荷兰移动驱动器公司 交通安全管控方法、车载装置
CN111127651A (zh) * 2020-03-31 2020-05-08 江苏广宇科技产业发展有限公司 基于高精度可视化技术的自动驾驶测试开发方法及装置
EP3901661B1 (en) * 2020-04-22 2024-05-22 Bayerische Motoren Werke Aktiengesellschaft Method and control unit for operating an autonomous vehicle
DE102020111486A1 (de) * 2020-04-28 2021-10-28 Daimler Ag Verkehrsregelkonforme Entscheidungsfindung in dynamischen Verkehrsszenarien
US11320272B2 (en) * 2020-07-07 2022-05-03 Waymo Llc Localization adaptation based on weather estimation
WO2022016351A1 (zh) * 2020-07-21 2022-01-27 华为技术有限公司 一种行驶决策选择方法以及装置
KR20220046731A (ko) * 2020-10-07 2022-04-15 현대자동차주식회사 자율주행장치 및 정밀지도 생성방법
CN112489495B (zh) * 2020-10-26 2023-01-17 浙江吉利控股集团有限公司 一种车辆预警方法、装置、电子设备及存储介质
US11733054B2 (en) 2020-12-11 2023-08-22 Motional Ad Llc Systems and methods for implementing occlusion representations over road features
US11488422B1 (en) * 2021-06-22 2022-11-01 Samsara Inc. Fleet metrics analytics reporting system
US11845454B2 (en) 2021-09-14 2023-12-19 Motional Ad Llc Operational envelope detection with situational assessment
US11851091B2 (en) 2021-09-14 2023-12-26 Motional Ad Llc Immobility detection within situational context
US20230093601A1 (en) * 2021-09-14 2023-03-23 Motional Ad Llc Environmental limitation and sensor anomaly system and method
CN114348023B (zh) * 2022-01-25 2024-08-20 北京三快在线科技有限公司 一种基于盲区的无人驾驶设备控制方法及装置
FR3133816A1 (fr) * 2022-03-23 2023-09-29 Psa Automobiles Sa Procédé et dispositif de détermination d’instructions de contrôle pour véhicule en fonction de l’éblouissement d’une caméra du véhicule par le soleil
CN114993335B (zh) * 2022-06-30 2024-09-27 重庆长安汽车股份有限公司 一种自动驾驶路径规划方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339494A (ja) * 1999-05-28 2000-12-08 Mitsubishi Electric Corp 情報可視化装置、情報可視化方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005138764A (ja) * 2003-11-07 2005-06-02 Nissan Motor Co Ltd 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630806B2 (en) 1994-05-23 2009-12-08 Automotive Technologies International, Inc. System and method for detecting and protecting pedestrians
US7209221B2 (en) 1994-05-23 2007-04-24 Automotive Technologies International, Inc. Method for obtaining and displaying information about objects in a vehicular blind spot
US5644386A (en) 1995-01-11 1997-07-01 Loral Vought Systems Corp. Visual recognition system for LADAR sensors
US6526352B1 (en) * 2001-07-19 2003-02-25 Intelligent Technologies International, Inc. Method and arrangement for mapping a road
WO2001085491A1 (en) * 2000-05-08 2001-11-15 Automotive Technologies International, Inc. Vehicular blind spot identification and monitoring system
US9321401B2 (en) * 2003-11-06 2016-04-26 Woodstock Transportation Components, Inc. Stop-arm with camera system
JP3931879B2 (ja) * 2003-11-28 2007-06-20 株式会社デンソー センサフュージョンシステム及びそれを用いた車両制御装置
US7912633B1 (en) * 2005-12-01 2011-03-22 Adept Mobilerobots Llc Mobile autonomous updating of GIS maps
US8577538B2 (en) 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US7310190B2 (en) * 2006-02-09 2007-12-18 Delphi Technologies, Inc. Vehicle imaging system with windshield condition determination
US7729607B2 (en) * 2006-05-31 2010-06-01 Technologies4All, Inc. Camera glare reduction system and method
JP2007333486A (ja) * 2006-06-13 2007-12-27 Denso Corp 車両用障害物検知装置
EP2036043A2 (en) * 2006-06-26 2009-03-18 Lockheed Martin Corporation Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data
JP4730267B2 (ja) * 2006-07-04 2011-07-20 株式会社デンソー 車両用視界状況判定装置
US20080262669A1 (en) 2006-09-22 2008-10-23 Jadi, Inc. Autonomous vehicle controller
US8532862B2 (en) * 2006-11-29 2013-09-10 Ryan A. Neff Driverless vehicle
US7865285B2 (en) * 2006-12-27 2011-01-04 Caterpillar Inc Machine control system and method
EP2362951B1 (en) 2008-06-27 2013-09-04 Raytheon Company Apparatus and method of controlling an unmanned vehicle
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
US9026315B2 (en) * 2010-10-13 2015-05-05 Deere & Company Apparatus for machine coordination which maintains line-of-site contact
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
DE102009009896B4 (de) * 2009-02-20 2011-02-10 Eads Deutschland Gmbh Verfahren und Vorrichtung zur Erfassung von Zielobjekten
US8269652B2 (en) * 2009-04-02 2012-09-18 GM Global Technology Operations LLC Vehicle-to-vehicle communicator on full-windshield head-up display
US8350724B2 (en) * 2009-04-02 2013-01-08 GM Global Technology Operations LLC Rear parking assist on full rear-window head-up display
US8384532B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Lane of travel on windshield head-up display
US8676466B2 (en) * 2009-04-06 2014-03-18 GM Global Technology Operations LLC Fail-safe speed profiles for cooperative autonomous vehicles
US8340438B2 (en) * 2009-12-17 2012-12-25 Deere & Company Automated tagging for landmark identification
SG184520A1 (en) * 2010-03-26 2012-11-29 Fortem Solutions Inc Effortless navigation across cameras and cooperative control of cameras
WO2012029058A1 (en) * 2010-08-30 2012-03-08 Bk-Imaging Ltd. Method and system for extracting three-dimensional information
JP5206752B2 (ja) * 2010-08-30 2013-06-12 株式会社デンソー 走行環境認識装置
US9043129B2 (en) * 2010-10-05 2015-05-26 Deere & Company Method for governing a speed of an autonomous vehicle
CA2824606A1 (en) * 2010-12-30 2012-07-05 Irobot Corporation Mobile human interface robot
EP2498059B1 (en) * 2011-03-09 2020-04-29 Harman Becker Automotive Systems GmbH Navigation route calculation using three-dimensional models
WO2013006826A2 (en) 2011-07-06 2013-01-10 Peloton Technology Inc. Systems and methods for semi-autonomous vehicular convoying
US8888304B2 (en) * 2012-05-10 2014-11-18 Christopher V. Beckman Optical control techniques
US8612135B1 (en) * 2012-02-14 2013-12-17 Google Inc. Method and apparatus to localize an autonomous vehicle using convolution
US9279693B2 (en) * 2012-02-17 2016-03-08 Blackberry Limited Navigation system and method for determining a route based on sun position and weather
US8571743B1 (en) * 2012-04-09 2013-10-29 Google Inc. Control of vehicles based on auditory signals
US9367065B2 (en) 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
EP2881697A1 (en) * 2013-12-06 2015-06-10 BAE Systems PLC Capturing and processing images
KR101513591B1 (ko) * 2014-08-26 2015-04-21 (주)비엔티솔루션 웹 3d를 이용한 실시간 해양공간정보 제공시스템
JP6819076B2 (ja) 2016-05-17 2021-01-27 株式会社デンソー 走行計画作成装置及びセンタ
US9840253B1 (en) * 2016-06-14 2017-12-12 Delphi Technologies, Inc. Lane keeping system for autonomous vehicle during camera drop-outs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339494A (ja) * 1999-05-28 2000-12-08 Mitsubishi Electric Corp 情報可視化装置、情報可視化方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005138764A (ja) * 2003-11-07 2005-06-02 Nissan Motor Co Ltd 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044652A1 (en) 2017-08-29 2019-03-07 Sony Corporation INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND MOBILE OBJECT
US11288860B2 (en) 2017-08-29 2022-03-29 Sony Corporation Information processing apparatus, information processing method, program, and movable object
JP2019109705A (ja) * 2017-12-18 2019-07-04 パイオニア株式会社 データ構造、記録装置及び記録方法並びに記録用プログラム
JP2019168984A (ja) * 2018-03-23 2019-10-03 パイオニア株式会社 データ構造
JP2021534484A (ja) * 2018-08-09 2021-12-09 ズークス インコーポレイテッド 手続き的な世界の生成
US11861790B2 (en) 2018-08-09 2024-01-02 Zoox, Inc. Procedural world generation using tertiary data
JP7440490B2 (ja) 2018-08-09 2024-02-28 ズークス インコーポレイテッド 手続き的な世界の生成

Also Published As

Publication number Publication date
US20140214255A1 (en) 2014-07-31
KR20150111983A (ko) 2015-10-06
US20230341871A1 (en) 2023-10-26
EP2948928A4 (en) 2016-10-05
EP2948928A1 (en) 2015-12-02
EP2948928B1 (en) 2017-07-19
KR101655712B1 (ko) 2016-09-07
US20180032084A1 (en) 2018-02-01
CN105009175B (zh) 2017-08-08
US10663975B2 (en) 2020-05-26
US10663976B2 (en) 2020-05-26
US11726493B2 (en) 2023-08-15
US20160266581A1 (en) 2016-09-15
US11188092B2 (en) 2021-11-30
US20220050474A1 (en) 2022-02-17
US20200159248A1 (en) 2020-05-21
CN105009175A (zh) 2015-10-28
US20180032085A1 (en) 2018-02-01
JP5944598B1 (ja) 2016-07-05
US9811091B2 (en) 2017-11-07
WO2014116512A1 (en) 2014-07-31
US9367065B2 (en) 2016-06-14

Similar Documents

Publication Publication Date Title
JP5944598B1 (ja) センサー検出不能場所及びセンサーの制限に基づく自律走行車両の動作の修正
US11807235B1 (en) Modifying speed of an autonomous vehicle based on traffic conditions
US11868133B1 (en) Avoiding blind spots of other vehicles
JP6468839B2 (ja) センサー場の選択
US9600768B1 (en) Using behavior of objects to infer changes in a driving environment
JP6453209B2 (ja) 車線区分線の検出
US20130197736A1 (en) Vehicle control based on perception uncertainty
US10094670B1 (en) Condensing sensor data for transmission and processing
US11593996B2 (en) Synthesizing three-dimensional visualizations from perspectives of onboard sensors of autonomous vehicles

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160331

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160331

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160525

R150 Certificate of patent or registration of utility model

Ref document number: 5944598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250