JP2021500652A - 自律型車両のための歩行者行動予測 - Google Patents

自律型車両のための歩行者行動予測 Download PDF

Info

Publication number
JP2021500652A
JP2021500652A JP2020521297A JP2020521297A JP2021500652A JP 2021500652 A JP2021500652 A JP 2021500652A JP 2020521297 A JP2020521297 A JP 2020521297A JP 2020521297 A JP2020521297 A JP 2020521297A JP 2021500652 A JP2021500652 A JP 2021500652A
Authority
JP
Japan
Prior art keywords
vehicle
grid
pedestrian
sensor data
cells
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020521297A
Other languages
English (en)
Other versions
JP7153071B2 (ja
Inventor
ラッセル,ジャレッド,スティーブン
ディン,カイ
Original Assignee
ウェイモ エルエルシー
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー, ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2021500652A publication Critical patent/JP2021500652A/ja
Application granted granted Critical
Publication of JP7153071B2 publication Critical patent/JP7153071B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/50Magnetic or electromagnetic sensors
    • B60W2420/506Inductive sensors, i.e. passive wheel sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/80Other vehicles not covered by groups B60Y2200/10 - B60Y2200/60
    • B60Y2200/84Wheelchairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Walking Sticks, Umbrellas, And Fans (AREA)

Abstract

本技術は、自律運転モードにおいて車両(100)を制御することに関する。例えば、車両の環境内の物体を識別するセンサデータが、受信され得る。複数のセルを含むグリッド(780、782、784)が、物体の周りに投影されてもよい。複数のセルのうちの各所与のセルについて、物体が、将来にわたる期間内に所与のセルに進入する可能性が予測される。予測された可能性に基づいて、輪郭(1280〜1284)が生成される。次いで、車両が、輪郭内のエリアを回避するために、自律運転モードにおいて制御される。【選択図】図13

Description

関連出願の相互参照
本出願は、2017年10月24日に出願された、米国特許出願第15/791,602号の継続であり、その開示が参照により本明細書に組み込まれる。
人間の運転手を必要としない車両などの自律型車両が、ある場所から他の場所への乗員または物品の輸送を支援するために使用される場合がある。かかる車両は、乗員が集荷または目的地などのいくつかの初期入力を提供することができ、かつ車両がその場所に車両自体を操縦する、完全な自律モードで動作することができる。
無人車両を、車両、自転車、および歩行者など、他の独立した行為者を有する環境を通してどのように操縦するかを判定するために、無人車両のコンピューティングデバイスがそのような行為者を検出し、またそれらの行為者の将来の運動について予測することが重要である。典型的な予測システムは、学習された軌道提案ベースの動作モデルを使用して、物体が以前に観測された運動に基づいて、所与の軌道を追従する可能性を評価する。いくつかの軌道モデルは、そのような予測を行うとき、他の行為者の相対的な位置および移動を考慮に入れることさえあり得る。車両の知覚システムからのデータの品質が高く、所与の行為者の実現可能な経路の数が比較的小さいとき、この軌道モデリングは、実用的かつ有用なアプローチになり得る。
本開示の一態様は、自律運転モードを有する車両を制御する方法を提供する。本方法は、車両の1つ以上のプロセッサによって、車両の環境内の物体を識別するセンサデータを受信することと、1つ以上のプロセッサによって、物体の周りに複数のセルを含むグリッドを投影することと、複数のセルのうちの各所与のセルについて、1つ以上のプロセッサによって、物体が将来にわたる期間内に所与のセルに進入する可能性を予測することと、1つ以上のプロセッサによって、予測された可能性に基づいて、輪郭を生成することと、1つ以上のプロセッサによって、輪郭内のエリアを回避するために、自律運転モードにおいて車両を制御することと、を含む。
一例では、センサデータは、物体を、歩行者物体タイプとして識別し、グリッドを投影することが、歩行者物体タイプにさらに基づく。別の例では、本方法はまた、物体上の点を選択することを含み、グリッドを投影することは、グリッドの中心に点を配置することを含む。別の例では、本方法はまた、輪郭の周りにバッファ距離を提供することを含み、車両を制御することは、輪郭の周りのバッファ距離内のエリアを回避することを含む。別の例では、期間は、2秒以下である。別の例では、本方法はまた、閾値および予測された可能性を使用して、複数のセルのうちのセルを廃棄することを含み、輪郭は、複数のセルのうちの任意の残りのセルを使用して生成される。この例では、本方法はまた、センサデータで識別された物体に基づいて、閾値を選択することを含む。この例では、閾値を選択することは、センサデータで識別された歩行者の数に基づく。加えてまたは代替的に、閾値を選択することは、グリッドのエリアを回避する車両の実現可能性に基づく。別の例では、予測された可能性を予測することが、ヒートマップを提供する。
本開示の別の態様は、自律運転モードを有する車両を制御するためのシステムを提供する。システムは、車両の環境内の物体を識別するセンサデータを受信することと、物体の周りに複数のセルを含むグリッドを投影することと、複数のセルのうちの各所与のセルについて、物体が将来にわたる期間内に所与のセルに進入する可能性を予測することと、予測された可能性に基づいて、輪郭を生成することと、かつ輪郭内のエリアを回避するために、自律運転モードにおいて車両を制御することと、を行うように構成された、1つ以上のプロセッサを含む。
一例では、センサデータは、物体を歩行者物体タイプとして識別し、グリッドを投影することが、歩行者物体タイプにさらに基づく。別の例では、本方法はまた、物体上の点を選択することを含み、グリッドを投影することは、グリッドの中心に点を配置することを含む。この例では、本方法はまた、輪郭の周りにバッファ距離を提供することを含み、車両を制御することは、輪郭の周りのバッファ距離内のエリアを回避することを含む。別の例では、本方法はまた、閾値および予測された可能性を使用して、複数のセルのうちのセルを廃棄することを含み、輪郭は、複数のセルのうちの任意の残りのセルを使用して生成される。この例では、本方法はまた、センサデータ内で識別された物体に基づいて、閾値を選択することを含む。この例では、閾値を選択することは、センサデータ内で識別された歩行者の数に基づく。加えてまたは代替的に、閾値を選択することは、車椅子がセンサデータで識別されるかどうかに基づく。別の例では、予測された可能性を予測することが、ヒートマップを提供する。他の例では、システムはまた、車両も含む。
本開示の態様による、例示的な車両の機能図である。 本開示の態様による、詳細な地図情報の例示的な表現である。 本開示の態様による、車両の例示的な外観図である。 本開示の態様による、車両の例示的な外観図である。 本開示の態様による、車両の例示的な外観図である。 本開示の態様による、車両の例示的な外観図である。 本開示の態様による、道路の断面図である。 本開示の態様による、車道およびセンサデータの区分の図である。 本開示の態様による、車道、センサデータ、および予測された軌道の区分の図である。 本開示の態様による、例示的なグリッド投影である。 本開示の態様による、例示的なグリッド投影である。 本開示の態様による、例示的なグリッド投影である。 本開示の態様による、車道、センサデータ、予測された軌道、およびグリッド投影の区分の図である。 本開示の態様による、例示的な確率分布である。 本開示の態様による、例示的な確率分布である。 本開示の態様による、例示的な確率分布である。 本開示の態様による、例示的な確率分布である。 本開示の態様による、例示的な確率分布である。 本開示の態様による、例示的なフィルタリングされた確率分布である。 本開示の態様による、例示的なフィルタリングされた確率分布である。 本開示の態様による、例示的なフィルタリングされた確率分布である。 本開示の態様による、例示的な輪郭エリアである。 本開示の態様による、例示的な輪郭エリアである。 本開示の態様による、例示的な輪郭エリアである。 本開示の態様による、車道、センサデータ、予測された軌道、および輪郭エリアの区分の図である。 本開示の態様による、フロー図である。
概要
上記のように、車両の知覚システムからのデータの品質が高く、所与の行為者の実現可能な経路の数が比較的小さいとき、この軌道モデリングは、実用的かつ有用なアプローチになり得る。しかしながら、場合によっては、データの品質が最適ではなく、エージェントの動作を予測するのが困難な場合がある。これは、無限に多様で、非剛体で、頻繁に部分的に遮られており、方向をすばやく変え、あらゆるタイプの地形を横断する能力を有する歩行者の場合に、特に当てはまる。このことが、歩行者の検出、分類、追跡、特に軌道モデリングを使用した予測を困難にする可能性がある。
これらの障害に対処するために、軌道モデリング予測の代わりに、またはそれに加えて、将来にわたる短期間での、歩行者の可能性のある将来の場所のグリッドベースの予測が、使用されてもよい。例えば、車両の知覚システムによって検出されたすべての歩行者に関して、グリッドが、歩行者の周りに投影され得る。グリッドのサイズは、歩行者が短期間に移動できる距離の外側の境界に対応する場合がある。
グリッドは、歩行者上の任意の点または所与の点がグリッドの中心になるように投影され得る。観察された歩行者の速度、移動方向、および配向を使用して、歩行者が短期間にわたってそのセルに移動する可能性を示す値が、各セルについて判定され得る。場合によっては、予測はまた、環境要因に基づいてもよい。
したがって、各グリッドセルは、歩行者が短期間にわたってそのセルに移動する可能性を表現するはずである。この点について、グリッドは、歩行者が短期間にわたって事実上存在する可能性が高いエリアを識別するヒートマップと見なしてもよい。ヒートマップは、知覚の不確実性を経路計画に使用できる形式に伝播するのに役立ち得る。
歩行者が所与のセルに進入しない可能性が高い場合、そのセルは、破棄され得る。換言すると、閾値を満たさないセルは、破棄され得る。残りのグリッドセルの周りに、輪郭を描くことができる。この輪郭は、経路計画に使用され得る。
上記および下記で考察される利点に加えて、このグリッドベースの予測を使用することは、歩行者に対応するとき、または車両の知覚システムが物体のタイプを確実に識別できない任意の状況において、車両をより慎重にさせる。この形式の予測はまた、人間の観測者に、位置、進行方向、速度、加速度、および輪郭影響の予測される運動の知覚における不確実性を識別させることもできる。実際、ヒートマップは、予測再帰型ニューラルネットワークからかなり簡単な方法で取得できるが、提案ベースの軌道は、この方法で定式化することがより困難である。同時に、このグリッドベースの予測は、非常に短い期間の水平にわたる行為者の将来の場所と運動を予測するため、必要とされる実際の「グラウンドトゥルース」トレーニングデータは、非常に小さい。換言すると、信頼性の高い予測が行われ得る前に、知覚システムは、数コンマ秒の間だけエージェントを観察する必要がある。
例示的システム
図1に示されるように、本開示の一態様による車両100は、様々な構成要素を含む。本開示のある態様は、特定のタイプの車両との接続に特に有用であるが、車両は、限定されるものではないが、乗用車、トラック、オートバイ、バス、レクリエーション用車両などを含む、任意のタイプの車両であってもよい。車両は、1つ以上のプロセッサ120、メモリ130、および汎用コンピューティングデバイスに典型的に存在する他の構成要素を含む、コンピューティングデバイス110などの1つ以上の制御コンピューティングデバイスを有することができる。
メモリ130は、1つ以上のプロセッサ120によってアクセス可能である情報を記憶し、その情報には、プロセッサ120によって実行または別様に使用され得る命令132およびデータ134が含まれる。メモリ130は、プロセッサによってアクセス可能である情報を記憶することができる任意のタイプのメモリであってもよく、それらには、コンピューティングデバイス可読媒体、またはハードドライブ、メモリカード、ROM、RAM、DVD、もしくは他の光ディスク、ならびに他の書き込み可能および読み取り専用メモリなどの電子デバイスを使って読み取ることができるデータを記憶する他の媒体が含まれる。システムおよび方法は、上記の異なる組み合わせを含んでもよく、それによって、命令およびデータの様々な部分が、様々なタイプの媒体に格納される。
命令132は、プロセッサにより直接的に(マシンコードなど)または間接的に(スクリプトなど)実行される任意の組の命令であってもよい。例えば、命令は、コンピューティングデバイス可読媒体上のコンピューティングデバイスコードとして記憶されてもよい。その点において、「命令」および「プログラム」という用語は、本明細書では、区別なく使用され得る。命令は、プロセッサによる直接処理のための物体コード形式で、または要求に応じて解釈されるか、もしくは事前にコンパイルされる独立したソースコードモジュールのスクリプトもしくはコレクションを含む、任意の他のコンピューティングデバイス言語で記憶されてもよい。命令の機能、方法、およびルーチンについては、以下でさらに詳細に説明される。
データ134は、命令132に従って、プロセッサ120によって検索、記憶、または修正されてもよい。1つ以上のプロセッサ120は、市販されているCPUなどの任意の従来のプロセッサであってもよい。別の方法として、1つ以上のプロセッサは、ASICまたは他のハードウェアベースプロセッサなどの専用デバイスであってもよい。図1は、プロセッサ、メモリ、およびコンピューティングデバイス110の他の要素を同じブロック内にあるものとして機能的に例示しているが、プロセッサ、コンピューティングデバイス、またはメモリは、実際には、同じ物理的な筐体内に格納されていてもいなくてもよい、複数のプロセッサ、コンピューティングデバイス、またはメモリを含むことができることは、当業者により、理解されるであろう。一例として、内部電子ディスプレイ152は、高帯域幅または他のネットワーク接続を介してコンピューティングデバイス110とインターフェースし得る、それ自体のプロセッサまたは中央処理装置(CPU)、メモリなどを有する専用コンピューティングデバイスによって制御され得る。いくつかの例では、コンピューティングデバイスは、ユーザのクライアントデバイスと通信することができるユーザインターフェースコンピューティングデバイスであり得る。同様に、メモリは、コンピューティングデバイス110の筐体とは異なる筐体内に位置付けられたハードドライブ、または他の記憶媒体であってもよい。したがって、プロセッサまたはコンピューティングデバイスへの参照は、並行に動作してもしなくてもよいプロセッサ、コンピューティングデバイス、またはメモリの集合体への参照を含むことを理解されたい。
コンピューティングデバイス110は、上述したプロセッサおよびメモリ、ならびにユーザ入力150(例えば、マウス、キーボード、タッチスクリーンおよび/またはマイクロフォン)、様々な電子ディスプレイ(例えば、スクリーン、または情報を表示するように動作可能である任意の他の電気デバイスを有するモニタ)などのコンピューティングデバイスと接続して通常使用されるすべての構成要素であってもよい。この例では、車両は、内部の電子ディスプレイ152、ならびに1つ以上のスピーカ154を含み、情報または音響映像体験を提供する。この点について、内部の電子ディスプレイ152は、車両100の車内に位置付けられてもよく、コンピューティングデバイス110によって使用されて、車両100内の乗員に情報を提供してもよい。内部スピーカに加えて、1つ以上のスピーカ154は、外部スピーカを含むことができ、車両100の外部の物体に可聴通知を提供するために、車両上の様々な場所に配置される。
一例では、コンピューティングデバイス110は、車両100に組み込まれた自律運転コンピューティングシステムであってもよい。自律運転コンピューティングシステムは、車両の様々な構成要素と通信することが可能であり得る。例えば、図1に戻ると、コンピューティングデバイス110は、車両の乗員からの連続的または定期的な入力を要求しない、または必要としない自律運転モードにおいて、メモリ130の命令132に従って車両100の移動、速度などを制御するための、(車両の制動を制御するための)減速システム160、(車両の加速を制御するための)加速システム162、(車輪の配向および車両の方向を制御するための)ステアリングシステム164、(方向指示器を制御するための)シグナリングシステム166、(車両を場所または物体の周りにナビゲートするための)ナビゲーションシステム168、(車両の位置を判定するための)測位システム170、(車両の外部環境における物体を検出するための)知覚システム172、および電力システム174(例えば、バッテリおよび/またはガスもしくはディーゼルエンジン)などの、車両100の様々なシステムと通信することができる。また、これらのシステムは、コンピューティングデバイス110の外部にあるものとして示されているが、実際には、これらのシステムもまた、車両100を制御するための自律運転コンピューティングシステムとして再度、コンピューティングデバイス110の中に組み込まれてもよい。
コンピューティングデバイス110は、様々な構成要素を制御することによって車両の方向および速度を制御してもよい。例として、コンピューティングデバイス110は、地図情報およびナビゲーションシステム168からのデータを使用して、車両を目的地に完全に自律的にナビゲートし得る。コンピューティングデバイス110は、車両の場所を判定するために測位システム170を使用し、その場所に安全に到着する必要があるとき、物体を検出かつ物体に対応するために知覚システム172を使用してもよい。そうするために、コンピューティングデバイス110は、車両を、(例えば、加速システム162により、エンジンに供給される燃料または他のエネルギーを増やすことによって)加速させ、(例えば、エンジンに供給される燃料を減らし、ギヤを切り替え、および/または減速システム160によりブレーキをかけることによって)減速させ、(例えば、ステアリングシステム164により、車両100の前輪または後輪の向きを変えることによって)方向を変更させ、(例えば、シグナリングシステム166の方向指示器を点灯することによって)かかる変更を伝えさせてもよい。このため、加速システム162および減速システム160は、車両のエンジンと車両の車輪との間に様々な構成要素を含む、動力伝達装置の一部であり得る。再び、これらのシステムを制御することによって、コンピューティングデバイス110はまた、車両を自律的に操縦するために、車両の動力伝達装置を制御してもよい。
一例として、コンピューティングデバイス110は、車両の速度を制御するために、減速システム160および加速システム162と相互作用してもよい。同様に、ステアリングシステム164は、車両100の方向を制御するために、コンピューティングデバイス110によって使用され得る。例えば、車両100が自動車またはトラックなどの道路上で使用するように構成されている場合、ステアリングシステムは、車両を転回するためにホイールの角度を制御するための構成要素を含み得る。信号システム166は、例えば、必要に応じて方向指示器またはブレーキライトを点灯させることによって、車両の意図を他の運転手または車両に知らせるために、コンピューティングデバイス110によって使用され得る。
ナビゲーションシステム168は、ある場所までのルートを判定および追従するために、コンピューティングデバイス110によって使用され得る。この点について、ナビゲーションシステム168および/またはデータ134は、詳細な地図情報、例えば、車道の形状および標高、車線境界線、交差点、横断歩道、速度制限、交通信号、建物、標識、リアルタイム交通情報、植生、または他のかかる物体および情報を識別する高精密地図、を記憶し得る。換言すると、この詳細な地図情報は、車道を含む車両の予想される環境の幾何学形状、ならびにそれらの車道の速度制限(法定速度制限)を定義し得る。
図2は、交差点202および204を含む、車道の区分に関する地図情報200の例である。この例では、地図情報200は、車線境界線210、212、214、信号機220、222、横断歩道230、歩道240、一時停止標識250、252、および譲れの標識260の形状、場所、ならびに他の特性を識別する情報を含む。車両が運転できるエリアは、車両がマップ情報の様々な場所で概して走行すべき場所および方向を示す、1つ以上のレール270、272、および274と関連付けられ得る。例えば、車両は、車線境界線210と車線境界線212との間の車線内を運転するときにレール270に追従し得、交差点204で右折するために、レール272に移行し得る。その後、車両は、レール274に追従し得る。もちろん、レールの数および性質を考慮して、数本のみが、簡潔さおよび理解を容易にするために地図情報200内に図示される。
本明細書では詳細な地図情報は、画像ベースの地図として描かれているが、地図情報は、完全に画像ベースである必要はない(例えば、ラスタ)。例えば、詳細な地図情報は、1つ以上の道路グラフ、または道路、車線、交差点、およびこれらの特徴間の接続などの情報のグラフネットワークを含むことができる。各特徴は、グラフデータとして記憶されてもよく、地理的場所などの情報と関連付けられてもよく、いずれにせよ、他の関連する特徴にリンクされ、例えば、一時停止標識は、道路や交差点などにリンクされてもよい。いくつかの例では、関連付けられたデータは、ある道路グラフ特徴の効率的な検索を可能にするために道路グラフのグリッドベースのインデックスを含むことができる。
知覚システム172はまた、他の車両、車道内の障害物、交通信号、標識、樹木などの車両の外部の物体を検出するために1つ以上の構成要素を含む。例えば、知覚システム172は、1つ以上のLIDARセンサ、ソナーデバイス、レーダーユニット、カメラ、および/またはコンピューティングデバイス110によって処理され得るセンサデータを記録する任意の他の検出デバイスを含んでもよい。知覚システムのセンサは、物体、および、場所、配向、サイズ、形状、タイプ(例えば、車両、歩行者、自転車に乗る人など)、進行方向、および移動速度などのそれらの特性を検出する。センサからの未加工データおよび/または前述の特性は、定量化されるか、または記述関数、ベクトル、および/または境界ボックスに配置され、知覚システム172によって生成されると、周期的かつ継続的にコンピューティングデバイス110にさらなる処理のためのセンサデータとして送信され得る。さらなる詳細を以下で考察するが、コンピューティングデバイス110は、車両の場所を判定するために測位システム170を使用し、その場所に安全に到着する必要があるとき、物体を検出かつ物体に対応するために知覚システム172を使用してもよい。
図3A〜図3Dは、車両100の外観図の例である。これらの図からわかるように、車両100は、ヘッドライト302、フロントガラス303、テールライト/方向指示灯304、リアガラス305、ドア306、サイドミラー308、タイヤおよびホイール310、ならびに方向指示/駐車灯312などの典型的な車両の多くの特徴を含む。ヘッドライト302、テールライト/方向指示灯304、および方向指示/駐車灯312は、シグナリングシステム166と関連付けられることができる。ライトバー307はまた、シグナリングシステム166と関連付けられることができる。筐体314は、知覚システム172のLIDARセンサ、ソナーデバイス、レーダーユニット、カメラなどの1つ以上のセンサを収容することができるが、かかるセンサはまた、同様に車両の他のエリアに組み込むこともできる。
例示的な方法
上述し、図に例示した動作に加えて、様々な動作が、ここで記載される。以下の動作は、下記に記載されたまさにその順序で実行される必要はないことを理解されたい。むしろ、様々な工程が、異なる順序で、または同時に処理されてもよく、工程もまた、追加または省略されてもよい。
コンピューティングデバイス110は、例えば、貨物および/または1人以上の乗員を輸送するために、目的地まで車両100を操縦し得る。この点について、コンピューティングデバイス110は、目的地までのルートに沿って自律的に車両を制御するために必要なシステムを開始し得る。例えば、ナビゲーションシステム168は、地図情報のデータ134を使用して、地図情報200の一組の接続されたレールを追従する目的地への経路またはルートを判定してもよい。次いで、コンピューティングデバイス110は、目的地に向かうルートに沿って、上記のように自律的に(または自律運転モードで)車両を操縦することができる。
例えば、図4は、地図情報200に対応する交差点402および404を含む車道400の区分上で操縦されている車両100を図示する。この例では、交差点402および404は、それぞれ地図情報200の交差点202および204に対応する。この例では、車線境界線410、412、および414は、車線境界線210、212、および214の形状、場所、および他の特性にそれぞれ対応する。同様に、横断歩道430は、横断歩道230の形状、場所、および他の特性にそれぞれ対応し、歩道440は、歩道240に対応し、交通信号灯420、422は、交通信号灯220、222にそれぞれ対応し、一時停止標識450、452は、一時停止標識250、252にそれぞれ対応し、譲れの標識460は、譲れの標識260に対応する。加えて、様々な歩行者480〜484、および車両490、492が、車道400の周りの異なる場所に配置される。
車両100がその環境を通って移動する際、車両の知覚システム172は、車両の環境に関する情報を含むセンサデータをコンピューティングデバイスに提供してもよい。上記のように、このセンサデータは、場所、進行方向、速度、タイプ、および地図情報の特徴などの他の特性、ならびに車両、歩行者、自転車などの物体を含む他の「道路ユーザ」を含んでもよい。例えば、図5は、知覚システム172によってコンピューティングデバイス110に提供されるように、歩行者480〜484および車両490、492の一般的な形状および場所を表現する境界ボックス580、582および590、592を有する、図4の車両100の環境の特徴を図示する(理解を容易にするために交通信号灯は除去されている)。この例では、ナビゲーションシステム168は、地図情報200を使用して、目的地(図示せず)に到達するために車両100が追従するルート570を判定し、さらに考察されるように、コンピューティングデバイス110は、ルートを追従するために、次の数秒にわたって車両が追跡する軌道を判定してもよい。
他の道路ユーザに対応する物体の各々について、コンピューティングデバイス110は、その物体の将来の動作を予測してもよい。上記のように、これは、物体の位置、配向、速度、位置の変化、配向の変化、信号(ターン信号)など、以前の観測、交通信号灯の状態、一時停止標識の場所、速度制限、交通規則(一方通行、ターン専用車線など)などの文脈情報、および他の情報、ならびに物体の予測動作モデルに基づいて、軌道の幾何学形状を形成するために共に接続された一連の予測される将来の場所を記載する、その物体のための将来の軌道を推定することを含んでもよい。単なる例として、矢印680〜684および690、692は、歩行者480〜484および車両490、492の推定された軌道を表現し、これらは、これらの他の道路ユーザが、おおよそ2秒などの、将来にわたる期間を引き継ぐ可能性が最も高い経路を示してもよい。
歩行者物体タイプまたは単に歩行者に対応する他の道路ユーザ物体の場合、軌道モデリング予測の代わりに、またはそれに加えて、将来にわたる短期間での、歩行者の可能性のある将来の場所のグリッドベースの予測が、使用されてもよい。例えば、車両の知覚システムによって検出されたすべての歩行者に関して、グリッドが、歩行者の周りに投影され得る。例えば、グリッドは、歩行者480〜484の各々について予測され得る。図7Aは、歩行者480の例示的なグリッド投影780であり、図7Bは、歩行者482の例示的なグリッド投影782であり、図7Cは、歩行者484の例示的なグリッド投影784である。図8は、参照のために図5の例上に重ね合わされたこれらのグリッド投影を図示する。
グリッドのサイズは、歩行者が将来にわたる期間内に移動することができる距離の外側の境界に対応し得る。例えば、期間が、1.5秒などの、2秒以下である場合、グリッドは、セルが0.5メートルで、5メートルx5メートルであり得る。もちろん、サイズの選択は、計算リソース(時間および労力)と予測精度との間の損失評価に対処するために、必要に応じて大きくまたは小さくなり得る。場合によっては、歩行者が非常に速く移動している場合、グリッドサイズは、大きくなり得る。
図6Aおよび図6Bに示されるように、グリッドは、歩行者上の任意の点または所与の点がグリッドの中心にあるように投影され得る。一例として、所与の点は、推定された重心、胴体上の点、歩行者の頭上の点などであってもよい。
観察された歩行者の速度、移動方向、および配向を使用して、歩行者が短期間にそのセルに移動する可能性を示す値が、各セルについて判定され得る。例えば、歩行者は、(歩行者が方向を180度変える必要がある)歩行者の背面のグリッドセルよりも、前方に移動してグリッドセルを前方左または右に覆う可能性がより高くなり得る。
場合によっては、予測はまた、環境要因に基づいてもよい。これらは、例えば、歩行者と他の1つまたは複数の道路グラフ特徴(交差点、横断歩道、道路の縁石、中央分離帯、一時停止標識、工事区域など)との間の距離、歩行者の進行方向と1つまたは複数の道路グラフ特徴に到達するための最短経路(例えば、歩行者が1つまたは複数の道路グラフ特徴に面しているかどうかを示す測定値を含み得る)との間の差、セルのエリアが1つまたは複数の道路グラフ特徴内にあるか、もしくはそれを占めているか、歩行者と車両または他のより大きい障害物などの任意の周りの物体との間の距離、セルが現在、車両、歩行者、自転車、瓦礫、他の物体などのいくつかの他の物体で占められているかどうか、を含み得る。
一例として、歩行者が車道に対して位置付けられる場所は、歩行者があるセルに進入する可能性が高まる場合と低まる場合があり得る。例えば、歩行者が車道を出る場合、その人が方向を変えて、車道に戻ることはほとんどないであろう(歩行者の背後のセルがさらに少なくなり得る)。この点について、歩行者480および歩行者484は、それぞれ横断歩道および車道の端部に向かって移動している。このため、彼らは、方向を変えるより、それをし続ける可能性がより高くなり得る。さらに、歩行者484は横断歩道内におらず、歩行者480が横断歩道内にいるため、歩行者484は、交差点402を通って歩行者480より速く移動する傾向があり得る。同様に、歩行者が車道の端部に近づいている、つまり歩行者482が端部486に近づいている(図4に示されている)場合、彼らは、現在の速度で進むというよりも減速する可能性が高い。そのため、歩行者482が、短期間に歩行者の前の1メートル以上のグリッドセルに到達する可能性はより低くなるであろう。
各グリッドセルは、歩行者が短時間でそのセルに移動する確率を表現するはずである。図9A〜図9Cは、それぞれ、図7A〜図7Cのグリッド投影780〜784の各々に対する例示的な確率分布980〜984を図示する。これらのグリッドを上から見た図は、歩行者が歩行者の近くのグリッドセルを横断するより高い可能性を有するエリア(例えば、濃い色のエリア)、および予測に基づいて、歩行者が外側に移動する可能性の低いエリア(暗くなっている)を備えるヒートマップを提供する。
一例では、車両のコンピューティングデバイスが、歩行者がどの方向を向いているかについて確信できない(または十分に確信できない)場合、結果として生じるヒートマップは、図10Aのグリッド予測1010の例などの、歩行者の周りの全ての方向においてより均一であり得る。別の例では、車両のコンピューティングデバイスが、歩行者が前を向いていることを非常に確信している場合、結果は、図10Bのグリッド投影1020の例のように、大きく方向付けられたヒートマップになるであろう。この点について、ヒートマップは、以下でさらに考察されるように、知覚の不確実性を、経路計画に使用できる形式に伝播するのに役立ち得る。
歩行者が所与のセルに進入しない可能性が高い場合、そのセルは、破棄またはフィルタリングされ得る。換言すると、閾値または特定の信頼閾値を満たさないセルは、破棄され得る。一例として、占有されていない可能性が95%または占有されている可能性が5%のセルは、廃棄されるであろう。図9A〜図9Cの実施例に戻ると、図11A〜図11Cは、可能性が低いセル(空または陰のないセル)を除去した、確率分布980〜984に対応するフィルタリングされた確率分布1180〜1184を図示する。
状況に応じて閾値を調整してもよい。例えば、エリア内に所定数以上の歩行者がいる場合、子供がいるかどうか、車椅子の人がいるかどうかなど、閾値を、増加または減少させて、車両の注意力を高めてもよい。例えば、閾値は、閾値のタイプに応じて、95%〜98%に調節したり、5%〜2%に減少させてもよい。別の例として、別の物体の「通行権」を使用して、閾値を調整してもよい。例えば、歩行者が歩道にいるときよりも横断歩道内に位置するとき、車両は、より慎重になるか、またはより高い閾値を使用し得る。さらに別の例として、グリッドのセルを回避することが実現可能であるかどうかを使用して、閾値を調整してもよい。例えば、すべてのセルを回避するために旋回またはブレーキをかけることが運動学的に実現可能でない場合、車両および歩行者にとってさらに安全な、実現可能な軌道を計画できるように、閾値を低減することができる。換言すると、車両が非常に保守的なアプローチをとり、高い閾値を使用する場合、車両が時間内に旋回したり、またはブレーキをかけ、一部の低い可能性セルとの衝突を完全に回避できない場合がある。しかしながら、車両は、やや高い可能性のセルのエリアを通過することを回避できる可能性がある。このため、閾値は、満足できる閾値にするために、実際的な意味で安全性を保ちながら、非常に保守的な高い閾値から低い閾値に調整されてもよい。この点について、グリッドベースの予測は、さらに動的であり、状況の変化に対応することができる。
残りのグリッドセルの周りに、輪郭を描くことができる。図12A〜図12Cは、確率分布1180〜1184に関する例示的な輪郭エリア1280〜1284である。これらの輪郭は、経路計画のためにコンピューティングデバイスによって使用され得る。例えば、経路計画は、輪郭を使用して、車両が短時間に通過することを許可されないエリアを画定することを含む。
コンピューティングデバイス110は、これらの輪郭エリアのいずれかを回避する軌道を生成することができる。例えば、図13は、図6の例を、例示的な輪郭エリア1280〜1284と共に図示する。この例では、コンピューティングデバイス110は、車両の位置を調整し、車両を減速させる軌道1370を生成して、ルート570を追従しながら、車両494の軌道694だけでなく輪郭エリア1282も回避することができる。
場合によっては、車両が歩行者に近づきすぎないようにするために、輪郭の周りに緩衝距離またはエリアが課されることもある。例えば、この数は、およそ1メートルの歩行者ならびに乗員のための「快適な」通過マージンを確保するために選択されてもよい。
加えて、結果として生じる輪郭が、短時間の水平を表現するので、輪郭は、時間に依存しない方法(例えば、静的物体のように扱うなど)で経路計画のために使用することができ、これにより、歩行者が移動する物体であるとみなされる場合よりも、歩行者を回避することがより容易な問題にできる。この点について、一定期間の車両の軌道を判定するとき、コンピューティングデバイス110は、輪郭エリア1280〜1284の各々を、コンピューティングデバイス110が回避しなければならない個々のより大きい静止物体として単順に処理してもよい。
図14は、自律運転モードにおいて車両を制御するために、コンピューティングデバイス110の1つ以上のプロセッサ120などの、1つ以上のプロセッサによって実行され得るフロー図1400である。この例では、ブロック1402において、車両の環境における物体を識別するセンサデータが、受信される。ブロック1404において、複数のセルを含むグリッドが、物体の周りに投影される。ブロック1406において、複数のセルのうちの各所与のセルについて、物体が将来にわたる期間内に所与のセルに進入する可能性が、予測される。ブロック1408において、輪郭が、予測された可能性に基づいて生成される。次いで、ブロック1410において、車両は、輪郭内のエリアを回避するために、自律運転モードにおいて制御される。
特段の記述がない限り、前述の代替例は、相互に排他的ではないが、独自の利点を達成するために様々な組み合わせで実施することができる。上述した特徴のこれらおよび他の変形および組み合わせは、特許請求の範囲によって定義される主題から逸脱せずに利用され得るため、前述の実施形態の説明は、特許請求の範囲によって定義された主題を限定するものとしてではなく、例示するものとして見なされるべきである。さらに、本明細書に記載された例、ならびに「など」、「含む」などとして表現された語句の提供は、特許請求の範囲の主題を特定の例に限定するものと解釈されるべきではなく、むしろ、それらの例は、多くの可能性のある実施形態のうちの単なる1つを例示することが意図されている。さらに、異なる図面中の同じ参照番号は、同じまたは類似の要素を識別することができる。

Claims (20)

  1. 自律運転モードを有する車両を制御する方法であって、
    前記車両の1つ以上のプロセッサによって、前記車両の環境内の物体を識別するセンサデータを受信することと、
    前記1つ以上のプロセッサによって、前記物体の周りに複数のセルを含むグリッドを投影することと、
    前記複数のセルのうちの各所与のセルについて、前記1つ以上のプロセッサによって、前記物体が将来にわたる期間内に前記所与のセルに進入する可能性を予測することと、
    前記1つ以上のプロセッサによって、前記予測された可能性に基づいて、輪郭を生成することと、
    前記1つ以上のプロセッサによって、前記輪郭内のエリアを回避するために、前記自律運転モードにおいて前記車両を制御することと、を含む、方法。
  2. 前記センサデータが、前記物体を、歩行者物体タイプとして識別し、前記グリッドを投影することが、前記歩行者物体タイプにさらに基づいている、請求項1に記載の方法。
  3. 前記物体上の点を選択することをさらに含み、前記グリッドを投影することが、前記グリッドの中心に前記点を配置することを含む、請求項1に記載の方法。
  4. 前記輪郭の周りにバッファ距離を提供することをさらに含み、前記車両を制御することが、前記輪郭の周りの前記バッファ距離内のエリアを回避することを含む、請求項1に記載の方法。
  5. 前記期間が、2秒以下である、請求項1に記載の方法。
  6. 閾値および前記予測された可能性を使用して、前記複数のセルうちのセルを廃棄することをさらに含み、前記輪郭が、前記複数のセルのうちの任意の残りのセルを使用して生成されている、請求項1に記載の方法。
  7. 前記センサデータで識別された物体に基づいて、前記閾値を選択することをさらに含む、請求項6に記載の方法。
  8. 前記閾値を選択することが、前記センサデータで識別された歩行者の数に基づいている、請求項7に記載の方法。
  9. 前記閾値を選択することが、前記グリッドの前記エリアを回避する前記車両の実現可能性に基づいている、請求項7に記載の方法。
  10. 前記予測された可能性を予測することが、ヒートマップを提供する、請求項1に記載の方法。
  11. 自律運転モードを有する車両を制御するためのシステムであって、
    前記車両の環境内の物体を識別するセンサデータを受信することと、
    前記物体の周りに複数のセルを含むグリッドを投影することと、
    前記複数のセルのうちの各所与のセルについて、前記物体が将来にわたる期間内に前記所与のセルに進入する可能性を予測することと、
    前記予測された可能性に基づいて、輪郭を生成することと、
    前記輪郭内のエリアを回避するために、前記自律運転モードにおいて前記車両を制御することと、を行うように構成されている、1つ以上のプロセッサを備える、システム。
  12. 前記センサデータが、前記物体を歩行者物体タイプとして識別し、前記グリッドを投影することが、前記歩行者物体タイプにさらに基づいている、請求項11に記載のシステム。
  13. 前記物体上の点を選択することをさらに含み、前記グリッドを投影することが、前記グリッドの中心に前記点を配置することを含む、請求項11に記載のシステム。
  14. 前記輪郭の周りにバッファ距離を提供することをさらに含み、前記車両を制御することが、前記輪郭の周りの前記バッファ距離内のエリアを回避することを含む、請求項11に記載のシステム。
  15. 閾値および前記予測された可能性を使用して、前記複数のセルうちのセルを廃棄することをさらに含み、前記輪郭が、前記複数のセルのうちの任意の残りのセルを使用して生成されている、請求項11に記載のシステム。
  16. 前記センサデータ内で識別された物体に基づいて、前記閾値を選択することをさらに含む、請求項15に記載のシステム。
  17. 前記閾値を選択することが、前記センサデータ内で識別された歩行者の数に基づいている、請求項16に記載のシステム。
  18. 前記閾値を選択することが、車椅子が前記センサデータで識別されるかどうかに基づいている、請求項16に記載のシステム。
  19. 前記予測された可能性を予測することが、ヒートマップを提供する、請求項11に記載のシステム。
  20. 前記車両をさらに備える、請求項11に記載のシステム。
JP2020521297A 2017-10-24 2018-10-23 自律型車両のための歩行者行動予測 Active JP7153071B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/791,602 US11048927B2 (en) 2017-10-24 2017-10-24 Pedestrian behavior predictions for autonomous vehicles
US15/791,602 2017-10-24
PCT/US2018/057071 WO2019083978A1 (en) 2017-10-24 2018-10-23 PREDICTIONS OF PEDESTRIAN BEHAVIOR FOR AUTONOMOUS VEHICLES

Publications (2)

Publication Number Publication Date
JP2021500652A true JP2021500652A (ja) 2021-01-07
JP7153071B2 JP7153071B2 (ja) 2022-10-13

Family

ID=66171094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020521297A Active JP7153071B2 (ja) 2017-10-24 2018-10-23 自律型車両のための歩行者行動予測

Country Status (7)

Country Link
US (2) US11048927B2 (ja)
EP (1) EP3678911B1 (ja)
JP (1) JP7153071B2 (ja)
KR (2) KR102382577B1 (ja)
CN (1) CN111278707B (ja)
IL (1) IL273953B2 (ja)
WO (1) WO2019083978A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022157582A (ja) * 2021-03-31 2022-10-14 トヨタ自動車株式会社 制御装置、システム、車両、及び制御方法

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10496091B1 (en) 2016-08-17 2019-12-03 Waymo Llc Behavior and intent estimations of road users for autonomous vehicles
US11195410B2 (en) * 2018-01-09 2021-12-07 Continental Automotive Systems, Inc. System and method for generating a traffic heat map
GB2572127B (en) * 2018-01-10 2022-09-14 Xihelm Ltd Method and system for agriculture
DE102018200944A1 (de) * 2018-01-22 2019-07-25 Ford Global Technologies, Llc Cross Traffic Alert mit Blinkerkennung
JP2019156180A (ja) * 2018-03-13 2019-09-19 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP2019156222A (ja) * 2018-03-14 2019-09-19 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US20190337511A1 (en) * 2018-05-02 2019-11-07 GM Global Technology Operations LLC System and Method for Controlling an Autonomous Vehicle
US10860025B2 (en) * 2018-05-15 2020-12-08 Toyota Research Institute, Inc. Modeling graph of interactions between agents
US10678245B2 (en) * 2018-07-27 2020-06-09 GM Global Technology Operations LLC Systems and methods for predicting entity behavior
US11520346B2 (en) 2019-01-30 2022-12-06 Perceptive Automata, Inc. Navigating autonomous vehicles based on modulation of a world model representing traffic entities
EP3707061A1 (en) * 2019-02-01 2020-09-16 Carit Automotive GmbH & Co. KG Vehicle park assist systems
US11467579B2 (en) 2019-02-06 2022-10-11 Perceptive Automata, Inc. Probabilistic neural network for predicting hidden context of traffic entities for autonomous vehicles
KR20200099264A (ko) * 2019-02-14 2020-08-24 한화디펜스 주식회사 장애물 지도 생성 방법 및 그 장치
EP3951744A4 (en) * 2019-03-26 2022-05-25 Sony Semiconductor Solutions Corporation IMAGE PROCESSING DEVICE, VEHICLE CONTROL DEVICE, METHOD AND PROGRAM
US20220169245A1 (en) * 2019-03-29 2022-06-02 Sony Group Corporation Information processing apparatus, information processing method, computer program, and mobile body device
CN110689719B (zh) * 2019-05-31 2021-01-19 北京嘀嘀无限科技发展有限公司 用于识别封闭路段的系统和方法
CN110298122B (zh) * 2019-07-03 2021-04-27 北京理工大学 基于冲突消解的无人驾驶车辆城市交叉口左转决策方法
CN112242069B (zh) * 2019-07-17 2021-10-01 华为技术有限公司 一种确定车速的方法和装置
RU2745804C1 (ru) 2019-11-06 2021-04-01 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способ и процессор для управления перемещением в полосе движения автономного транспортного средства
US10981507B1 (en) * 2019-11-07 2021-04-20 Focused Technology Solutions, Inc. Interactive safety system for vehicles
RU2744012C1 (ru) 2019-12-24 2021-03-02 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для автоматизированного определения присутствия объектов
CN114930124A (zh) * 2020-01-08 2022-08-19 索尼集团公司 信息处理装置、信息处理方法和程序
JP7276181B2 (ja) * 2020-01-29 2023-05-18 トヨタ自動車株式会社 運転支援システム
US11467580B2 (en) * 2020-02-14 2022-10-11 Uatc, Llc Systems and methods for detecting surprise movements of an actor with respect to an autonomous vehicle
US11708071B2 (en) 2020-03-30 2023-07-25 Denso Corporation Target-orientated navigation system for a vehicle using a generic navigation system and related method
US11577759B2 (en) 2020-05-26 2023-02-14 Toyota Research Institute, Inc. Systems and methods for hybrid prediction framework with inductive bias
CN111907520B (zh) * 2020-07-31 2022-03-15 东软睿驰汽车技术(沈阳)有限公司 行人姿态识别方法、装置及无人驾驶汽车
US20220105955A1 (en) * 2020-10-01 2022-04-07 Uatc, Llc Metrics for Evaluating Autonomous Vehicle Performance
US11841704B2 (en) * 2020-11-04 2023-12-12 Waymo Llc Behavior prediction for railway agents for autonomous driving system
SE2100097A1 (en) * 2021-06-09 2022-12-10 Saab Ab Method and Device for object tracking
US20220410882A1 (en) * 2021-06-28 2022-12-29 GM Global Technology Operations LLC Intersection collision mitigation risk assessment model
JP2023015858A (ja) * 2021-07-20 2023-02-01 株式会社Subaru 車両の運転支援装置
EP4131180A1 (en) * 2021-08-05 2023-02-08 Argo AI, LLC Methods and system for predicting trajectories of actors with respect to a drivable area
US11904906B2 (en) 2021-08-05 2024-02-20 Argo AI, LLC Systems and methods for prediction of a jaywalker trajectory through an intersection
US20230043601A1 (en) * 2021-08-05 2023-02-09 Argo AI, LLC Methods And System For Predicting Trajectories Of Actors With Respect To A Drivable Area
US20230159060A1 (en) * 2021-11-24 2023-05-25 Zoox, Inc. Focusing prediction distribution output for efficient sampling
US20230213945A1 (en) * 2021-12-30 2023-07-06 Nvidia Corporation Obstacle to path assignment for autonomous systems and applications
US20230264716A1 (en) * 2022-02-22 2023-08-24 Waymo Llc Inferring Good User Pickup Locations From Detected Walking Paths

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007331458A (ja) * 2006-06-13 2007-12-27 Nissan Motor Co Ltd 回避制御装置、この回避制御装置を備える車両および回避制御方法
JP2009150722A (ja) * 2007-12-19 2009-07-09 Toyota Motor Corp 位置検出装置
US20100305858A1 (en) * 2009-06-01 2010-12-02 Raytheon Company Non-kinematic behavioral mapping
US20140195138A1 (en) * 2010-11-15 2014-07-10 Image Sensing Systems, Inc. Roadway sensing systems
US20150210311A1 (en) * 2014-01-27 2015-07-30 Robert Bosch Gmbh Method for operating a driver assistance system, and driver assistance system
US20160375768A1 (en) * 2015-06-24 2016-12-29 Nissan North America, Inc. Vehicle operation assistance information management for autonomous vehicle control operation
JP2017159884A (ja) * 2016-03-10 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 運転制御装置、運転制御方法及び運転制御プログラム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3717283A1 (de) 1987-05-22 1988-12-01 Ruetgerswerke Ag Verfluessigungsmittel fuer mineralische bindemittel
DE19641261C1 (de) * 1996-10-07 1998-02-12 Siemens Ag Verfahren zur Bewertung der Meßqualität eines Entfernungsmeßsensors an einem autonomen mobilen System
JP4747863B2 (ja) * 2006-02-08 2011-08-17 トヨタ自動車株式会社 運転支援装置
JP4254844B2 (ja) * 2006-11-01 2009-04-15 トヨタ自動車株式会社 走行制御計画評価装置
US8554478B2 (en) 2007-02-23 2013-10-08 Honeywell International Inc. Correlation position determination
US9283910B2 (en) * 2008-12-09 2016-03-15 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and object detection method
JP5206452B2 (ja) 2009-02-02 2013-06-12 日産自動車株式会社 車両走行支援装置及び車両走行支援方法
KR101105325B1 (ko) 2009-09-08 2012-01-16 부산대학교 산학협력단 실제 로봇의 다중 경로계획 방법
KR101096592B1 (ko) 2010-09-29 2011-12-20 국방과학연구소 장애물격자지도를 활용하는 무인차량의 자율주행성능 향상 장치 및 방법
EP2615598B1 (en) 2012-01-11 2017-12-06 Honda Research Institute Europe GmbH Vehicle with computing means for monitoring and predicting traffic participant objects
US10648803B2 (en) * 2012-02-29 2020-05-12 Nec Corporation Movement line information generation system, movement line information generation method and movement line information generation program
WO2014103879A1 (ja) 2012-12-26 2014-07-03 オリンパスメディカルシステムズ株式会社 画像記録装置及び画像記録方法
DE102013203239A1 (de) 2013-02-27 2014-08-28 Bayerische Motoren Werke Aktiengesellschaft Gridbasierte Vorhersage der Position eines Objektes
US9523984B1 (en) * 2013-07-12 2016-12-20 Google Inc. Methods and systems for determining instructions for pulling over an autonomous vehicle
JP6467798B2 (ja) 2013-07-25 2019-02-13 株式会社リコー 画像処理装置、立体物検出方法、立体物検出プログラム、および、移動体制御システム
US9786178B1 (en) * 2013-08-02 2017-10-10 Honda Motor Co., Ltd. Vehicle pedestrian safety system and methods of use and manufacture thereof
FR3022049B1 (fr) 2014-06-06 2016-07-22 Inria Inst Nat De Rech En Informatique Et En Automatique Procede d'analyse d'une scene dynamique, module d'analyse et programme d'ordinateur associes
JP6289284B2 (ja) 2014-06-20 2018-03-07 ルネサスエレクトロニクス株式会社 半導体装置及び制御方法
CN105389855B (zh) 2014-08-26 2019-11-01 三星电子株式会社 对对象进行建模的方法和设备
KR20160048530A (ko) 2014-10-24 2016-05-04 국방과학연구소 자율 이동 차량의 경로 생성 방법 및 경로 생성 장치
EP3278317B1 (en) 2015-03-31 2022-11-16 Sony Group Corporation Method and electronic device
JP6481520B2 (ja) 2015-06-05 2019-03-13 トヨタ自動車株式会社 車両の衝突回避支援装置
US9604639B2 (en) * 2015-08-28 2017-03-28 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
US10229363B2 (en) 2015-10-19 2019-03-12 Ford Global Technologies, Llc Probabilistic inference using weighted-integrals-and-sums-by-hashing for object tracking
US9878664B2 (en) * 2015-11-04 2018-01-30 Zoox, Inc. Method for robotic vehicle communication with an external environment via acoustic beam forming
JP6625419B2 (ja) * 2015-12-07 2019-12-25 パナソニック株式会社 歩行者端末装置、車載端末装置、歩車間通信システムおよび歩車間通信方法
CN107179767B (zh) 2016-03-10 2021-10-08 松下电器(美国)知识产权公司 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质
US10055652B2 (en) 2016-03-21 2018-08-21 Ford Global Technologies, Llc Pedestrian detection and motion prediction with rear-facing camera
JP6622148B2 (ja) * 2016-06-17 2019-12-18 日立オートモティブシステムズ株式会社 周辺環境認識装置
US20180217603A1 (en) 2017-01-31 2018-08-02 GM Global Technology Operations LLC Efficient situational awareness from perception streams in autonomous driving systems
US10195992B2 (en) * 2017-04-03 2019-02-05 Ford Global Technologies, Llc Obstacle detection systems and methods
GB2564897A (en) * 2017-07-27 2019-01-30 Kompetenzzentrum Das Virtuelle Fahrzeug Method and process for motion planning in (un-)structured environments with pedestrians and use of probabilistic manifolds
US10969789B2 (en) * 2018-11-09 2021-04-06 Waymo Llc Verifying predicted trajectories using a grid-based approach
US11215997B2 (en) * 2018-11-30 2022-01-04 Zoox, Inc. Probabilistic risk assessment for trajectory evaluation
US11170567B2 (en) * 2019-06-28 2021-11-09 Woven Planet North America, Inc. Dynamic object detection model based on static map collection data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007331458A (ja) * 2006-06-13 2007-12-27 Nissan Motor Co Ltd 回避制御装置、この回避制御装置を備える車両および回避制御方法
JP2009150722A (ja) * 2007-12-19 2009-07-09 Toyota Motor Corp 位置検出装置
US20100305858A1 (en) * 2009-06-01 2010-12-02 Raytheon Company Non-kinematic behavioral mapping
US20140195138A1 (en) * 2010-11-15 2014-07-10 Image Sensing Systems, Inc. Roadway sensing systems
US20150210311A1 (en) * 2014-01-27 2015-07-30 Robert Bosch Gmbh Method for operating a driver assistance system, and driver assistance system
US20160375768A1 (en) * 2015-06-24 2016-12-29 Nissan North America, Inc. Vehicle operation assistance information management for autonomous vehicle control operation
JP2017159884A (ja) * 2016-03-10 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 運転制御装置、運転制御方法及び運転制御プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HARDY, J. ET AL.: "Contingency Planning Over Probabilistic Obstacle Predictions for Autonomous Road Vehicles", IEEE TRANSACTIONS ON ROBOTICS, vol. 29, no. 4, JPN6021023665, 2013, pages 913 - 929, XP011523509, ISSN: 0004532020, DOI: 10.1109/TRO.2013.2254033 *
SOUZA, A. ET AL.: "Probabilistic robotic grid mapping based on occupancy and elevation information", 2013 16TH INTERNATIONAL CONFERENCE ON ADVANCED ROBOTICS, JPN6021023663, pages 1 - 6, XP032579248, ISSN: 0004532021, DOI: 10.1109/ICAR.2013.6766467 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022157582A (ja) * 2021-03-31 2022-10-14 トヨタ自動車株式会社 制御装置、システム、車両、及び制御方法
JP7409346B2 (ja) 2021-03-31 2024-01-09 トヨタ自動車株式会社 制御装置、システム、車両、及び制御方法

Also Published As

Publication number Publication date
KR20200047740A (ko) 2020-05-07
IL273953B2 (en) 2023-12-01
US20210286985A1 (en) 2021-09-16
IL273953A (en) 2020-05-31
KR102308924B1 (ko) 2021-10-05
CN111278707B (zh) 2023-09-12
EP3678911A1 (en) 2020-07-15
IL273953B1 (en) 2023-08-01
EP3678911A4 (en) 2021-05-05
CN111278707A (zh) 2020-06-12
EP3678911B1 (en) 2023-08-23
US11783614B2 (en) 2023-10-10
JP7153071B2 (ja) 2022-10-13
US20190122037A1 (en) 2019-04-25
KR20210124502A (ko) 2021-10-14
KR102382577B1 (ko) 2022-04-08
WO2019083978A1 (en) 2019-05-02
US11048927B2 (en) 2021-06-29

Similar Documents

Publication Publication Date Title
JP7153071B2 (ja) 自律型車両のための歩行者行動予測
JP6800899B2 (ja) 視界に制限のある交差点への接近のためのリスクベースの運転者支援
US10969789B2 (en) Verifying predicted trajectories using a grid-based approach
US11110922B2 (en) Vehicle trajectory modification for following
US11720116B1 (en) Collision mitigation static occupancy grid
JP6691634B2 (ja) 自律走行車のための物体の運転可能性の判定
US11934193B2 (en) Speed-dependent required lateral clearance for autonomous vehicle path planning
CN114245885A (zh) 基于动作数据的自上而下场景预测
US9495874B1 (en) Automated system and method for modeling the behavior of vehicles and other agents
EP4018364A1 (en) Yield behavior modeling and prediction
CN112789481A (zh) 对自上而下场景的轨迹预测
JP2021531208A (ja) 車両のための衝突予測及び回避
CN114502441A (zh) 阻挡物体避开
Rummelhard et al. Probabilistic grid-based collision risk prediction for driving application
WO2020041443A1 (en) Detecting and responding to sounds for autonomous vehicles
KR20140020230A (ko) 검출된 물체의 행동을 예측하기 위한 시스템 및 방법
CN111295628A (zh) 用于自主车辆决策的语义对象聚类
US20210082283A1 (en) Systems and methods for providing future object localization
JP2021160532A (ja) 車両制御装置、車両制御方法、及びプログラム
US11866041B1 (en) Vehicle control in rescue lane scenarios

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7153071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150