JP7422687B2 - Occlusion awareness planning - Google Patents

Occlusion awareness planning Download PDF

Info

Publication number
JP7422687B2
JP7422687B2 JP2020570423A JP2020570423A JP7422687B2 JP 7422687 B2 JP7422687 B2 JP 7422687B2 JP 2020570423 A JP2020570423 A JP 2020570423A JP 2020570423 A JP2020570423 A JP 2020570423A JP 7422687 B2 JP7422687 B2 JP 7422687B2
Authority
JP
Japan
Prior art keywords
occlusion
vehicle
determining
field
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020570423A
Other languages
Japanese (ja)
Other versions
JPWO2019245982A5 (en
JP2021527591A (en
Inventor
アンソニー シルヴァ ウィリアム
ディミトロフ アンゲロフ ドラゴミール
イサーク ツヴィーベル ベンジャミン
カンガスプンタ ユハナ
Original Assignee
ズークス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/011,468 external-priority patent/US10642275B2/en
Priority claimed from US16/011,436 external-priority patent/US11048265B2/en
Application filed by ズークス インコーポレイテッド filed Critical ズークス インコーポレイテッド
Publication of JP2021527591A publication Critical patent/JP2021527591A/en
Publication of JPWO2019245982A5 publication Critical patent/JPWO2019245982A5/ja
Application granted granted Critical
Publication of JP7422687B2 publication Critical patent/JP7422687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Description

本発明は、オクルージョン認識プランニングに関する。 The present invention relates to occlusion-aware planning.

[関連出願の相互参照]
この特許出願は、2018年6月18日に出願されたシリアル番号16/011,436の「オクルージョン認識プランニング」と題された米国実用特許出願の優先権を主張、及び2018年6月18日に出願されたシリアル番号16/011,468の「オクルージョン認識プランニング及びコントロール」と題された米国実用特許出願の優先権を主張する。シリアル番号16/011,436及び16/011,468の出願は参照により本明細書に完全に組み込まれる。
[Cross reference to related applications]
This patent application claims priority to a U.S. utility patent application entitled "Occclusion Aware Planning," serial number 16/011,436, filed on June 18, 2018; Claims priority to United States Utility Patent Application entitled "Occclusion Aware Planning and Control," filed serial number 16/011,468. Applications with serial numbers 16/011,436 and 16/011,468 are fully incorporated herein by reference.

様々な方法、装置、及びシステムが、複数の障害物を含む環境を通る自律車両をガイドするために、自律車両に利用される。例えば、自律車両は、他の車両、建物、歩行者、又は他の物体を含み得る混雑領域内で自律車両をガイドするルート計画方法、装置、及びシステムを利用する。いくつかの例では、環境内の車両、建物、及び/又は物体は、環境の領域を自律車両のセンサから可視であるのを妨害でき、そのような領域を通るルートを計画する際に課題を提示できる。 Various methods, devices, and systems are utilized in autonomous vehicles to guide the autonomous vehicle through environments that include multiple obstacles. For example, autonomous vehicles utilize route planning methods, devices, and systems that guide the autonomous vehicle through crowded areas that may include other vehicles, buildings, pedestrians, or other objects. In some instances, vehicles, buildings, and/or objects in the environment can prevent areas of the environment from being visible to the autonomous vehicle's sensors, creating challenges when planning routes through such areas. Can be presented.

詳細な説明は添付の図面を参照し説明する。図面において、参照番号の左端の数字は参照番号が最初に現れる図を識別している。異なる図面における同じ参照番号の使用は類似又は同一の項目又は機能を示す。 A detailed description will be given with reference to the accompanying drawings. In the drawings, the left-most digit of a reference number identifies the figure in which the reference number first appears. The use of the same reference numbers in different drawings indicates similar or identical items or features.

図1は、本開示の実施形態による、環境内の複数のオクルージョンフィールドを含む例示のオクルージョングリッドの斜視図を示し、障害物に起因するオクルージョングリッドのオクルージョン領域及び非オクルージョン領域を決定するためのオクルージョン監視コンポーネントを含む車両を示す環境である。FIG. 1 shows a perspective view of an example occlusion grid including multiple occlusion fields in an environment, according to an embodiment of the present disclosure, and illustrates an occlusion grid for determining occlusion and non-occlusion regions of the occlusion grid due to obstacles. 1 is an environment depicting a vehicle including monitoring components; 図2は、本開示の実施形態による、LIDARデータを光線放射することに基づいて、オクルージョングリッド内のオクルージョンフィールドの占有率を決定するための例示のプロセスの図解フロー図である。FIG. 2 is an illustrated flow diagram of an example process for determining occlusion field occupancy in an occlusion grid based on beaming LIDAR data, according to embodiments of the present disclosure. 図3は、本開示の実施形態による、オクルージョンフィールドを画像データに投影することに基づいて、オクルージョングリッド内のオクルージョンフィールドの占有率を決定するための例示のプロセスの図解フロー図である。FIG. 3 is an illustrated flow diagram of an example process for determining the occupancy of an occlusion field in an occlusion grid based on projecting the occlusion field onto image data, according to an embodiment of the present disclosure. 図4は、本明細書で説明する技法を実装するための例示のシステムのブロック図を示す。FIG. 4 depicts a block diagram of an example system for implementing the techniques described herein. 図5は、本開示の実施形態による、領域特性に基づいてオクルージョングリッドを生成するための例示のプロセスの図解フロー図である。FIG. 5 is an illustrated flow diagram of an example process for generating an occlusion grid based on area characteristics, according to an embodiment of the present disclosure. 図6は、本開示の実施形態による、交差点にてオクルージョングリッドを評価し、車両を制御し交差点を横断させるための例示のプロセスの図解フロー図である。FIG. 6 is an illustrated flow diagram of an example process for evaluating an occlusion grid at an intersection and controlling a vehicle to cross the intersection, according to an embodiment of the present disclosure. 図7は、本開示の実施形態による、交差点にてオクルージョングリッドを評価し、車両を制御し交差点を横断させるための別の例示のプロセスの図解フロー図である。FIG. 7 is an illustrated flow diagram of another example process for evaluating an occlusion grid at an intersection and controlling a vehicle to cross the intersection, according to an embodiment of the present disclosure. 図8は、本開示の実施形態による、物体に関連付けられたオクルージョン領域を決定し、オクルージョン領域内の動的物体の予測軌道を生成するための例示のプロセスの図解フロー図である。FIG. 8 is an illustrated flow diagram of an example process for determining an occlusion region associated with an object and generating a predicted trajectory of a dynamic object within the occlusion region, according to an embodiment of the present disclosure. 図9は、本開示の実施形態による、地形的オクルージョングリッドを評価し、車両を制御し地形的障害物を横断させるための例示のプロセスの図解フロー図である。FIG. 9 is an illustrated flow diagram of an example process for evaluating a terrain occlusion grid and controlling a vehicle to traverse a terrain obstacle, according to an embodiment of the present disclosure. 図10は、本開示の実施形態による、LIDARデータを光線放射することに基づいて、及び/又は画像データへのオクルージョンフィールドの投影に基づいて、オクルージョンフィールドの占有率を決定し、車両を制御し環境を横断させるための例示のプロセスを示す。FIG. 10 illustrates determining occlusion field occupancy and controlling a vehicle based on beaming LIDAR data and/or based on projection of the occlusion field onto image data, according to embodiments of the present disclosure. 3 illustrates an example process for traversing an environment. 図11は、本開示の実施形態による、オクルージョングリッドを示すマップデータに基づいて、又は環境内の障害物の識別に基づいて、オクルージョングリッドを決定し、車両を制御し環境を横断させるための例示のプロセスを示す。FIG. 11 is an illustration for determining an occlusion grid and controlling a vehicle to traverse an environment based on map data showing the occlusion grid or based on identification of obstacles in the environment, according to embodiments of the present disclosure. The process is shown below.

この開示は、環境内のオクルージョン領域に基づいて、自律車両などの車両を制御する技術を対象としている。例えば、オクルージョン領域はオクルージョングリッドで表すことができ、これはマップデータに関連して格納し得る、又は環境内の障害物に基づいて動的に生成できる。オクルージョングリッドは複数のオクルージョンフィールドを含むことができ、運転可能路面などの環境の個別の領域を表すことができる。いくつかの例では、オクルージョンフィールドは、オクルージョン状態(例えば、その位置が自律車両の1つ以上のセンサから可視であるかどうかを示す)及び占有状態(例えば、その位置が、車両、歩行者、動物などの物体に占有されているかどうか示す)を示すことができる。少なくともいくつかの例では、占有状態は「未決定」状態(すなわち、利用可能なデータに基づいても、オクルージョンフィールドが占有されているかどうか現在不明であり得る)をさらに含み得る。場合によっては、自律車両上のセンサによって取り込まれたLIDARデータ及び/又は画像データを使用して、オクルージョン状態及び/又は占有状態を決定できる。例えば、LIDARデータを光線放射して、LIDAR光線がオクルージョンフィールドで表される空間の領域を通過したかどうかを決定できる。いくつかの例では、オクルージョンフィールドが占有されている又は占有されていないという信頼レベルは、オクルージョンフィールドに関連付けられた予想のLIDARリターンの第1の数に、及び/又はオクルージョンフィールドに関連付けられた実際のLIDARリターンの第2の数に少なくとも部分的に基づくことができる。いくつかの例では、オクルージョンフィールドが占有されているかどうかの信頼レベルは、オクルージョンフィールドの高さに関するLIDARリターンの列内のLIDARの観測値に少なくとも部分的に基づくことができる。いくつかの例では、オクルージョンフィールドの占有率は画像データに基づくことができる。例えば、画像データを環境内で取り込むことができ、画像データを区分して、運転可能な領域(例えば、物体が占有されていない路面)を示す区分された画像データを生成できる。オクルージョンフィールドを表す位置データを区分された画像データに投影して、オクルージョンフィールドが運転可能路面に関連付けられているかどうかを決定できる。オクルージョン状態及び占有状態はオクルージョングリッドの全てのオクルージョンフィールドに対して決定できる。いくつかの例では、オクルージョンフィールドが全て可視及び非占有である場合、オクルージョングリッドはクリアであると見なすことができ、自律車両を制御し環境を横断させることができる。 This disclosure is directed to techniques for controlling vehicles, such as autonomous vehicles, based on regions of occlusion in an environment. For example, an occlusion region can be represented by an occlusion grid, which can be stored in association with map data or dynamically generated based on obstacles in the environment. An occlusion grid may include multiple occlusion fields and may represent distinct regions of the environment, such as a drivable road surface. In some examples, the occlusion field includes occlusion conditions (e.g., indicating whether the location is visible to one or more sensors of the autonomous vehicle) and occupancy conditions (e.g., indicating whether the location is visible to a vehicle, pedestrian, (indicates whether the object is occupied by an object such as an animal). In at least some examples, the occupancy state may further include an "undetermined" state (i.e., it may not currently be known whether the occlusion field is occupied, even based on the available data). In some cases, LIDAR data and/or image data captured by sensors on the autonomous vehicle can be used to determine occlusion conditions and/or occupancy conditions. For example, LIDAR data can be beamed to determine whether a LIDAR ray passes through a region of space represented by an occlusion field. In some examples, the confidence level that the occlusion field is occupied or unoccupied depends on the first number of expected LIDAR returns associated with the occlusion field and/or on the actual number of LIDAR returns associated with the occlusion field. may be based at least in part on a second number of LIDAR returns. In some examples, the confidence level of whether the occlusion field is occupied may be based, at least in part, on LIDAR observations in the column of LIDAR returns regarding the height of the occlusion field. In some examples, occlusion field occupancy can be based on image data. For example, image data can be captured in an environment and the image data can be segmented to generate segmented image data that shows driveable areas (eg, road surfaces not occupied by objects). Location data representative of the occlusion field may be projected onto the segmented image data to determine whether the occlusion field is associated with a drivable road surface. Occlusion states and occupancy states can be determined for all occlusion fields of the occlusion grid. In some examples, if the occlusion field is all visible and unoccupied, the occlusion grid can be considered clear and the autonomous vehicle can be controlled to traverse the environment.

いくつかの例では、LIDARデータ及び画像データを使用して、オクルージョンフィールドのオクルージョン状態及び占有状態を決定できる。例えば、自律車両に比較的近いオクルージョンフィールドの場合、LIDARセンサの解像度は、閾値以上の信頼レベル(信頼値とも呼ばれる)を含むオクルージョンフィールドのオクルージョン状態及び占有状態を決定するのに十分であり得る。いくつかの例では、信頼レベルが閾値未満の場合(例えば、自律車両から比較的遠いオクルージョンフィールドの場合、又はオクルージョンフィールドに関連付けられたLIDAR光線の数が閾値を下回っている場合)、画像データを使用して、LIDARデータを使用するオクルージョン状態及び/又は占有状態に関する決定を更新又は補足できる。 In some examples, LIDAR data and image data can be used to determine occlusion and occupancy conditions of an occlusion field. For example, for an occlusion field relatively close to an autonomous vehicle, the resolution of the LIDAR sensor may be sufficient to determine the occlusion and occupancy states of the occlusion field with a confidence level (also referred to as a confidence value) greater than or equal to a threshold. In some examples, image data is can be used to update or supplement decisions regarding occlusion and/or occupancy conditions using LIDAR data.

本明細書で論じる手法は様々な状況で使用できる。第1の状況では、無防備な左折、自由な右折、複雑な交差点の通り抜けなどの複雑な操縦を自律車両が実行している交差点を自律車両が走行する際に、オクルージョンベース計画を使用できる。理解できるように、そのような例では対向車は交差点で停止しない場合があり、これは交差点を横断するにあたり安全である場合を決定することにおける課題を提示できる。一例では、自律車両は交差点に近づき、ストップライン(例えば、マップデータに示されている)で停止できる。マップデータからオクルージョングリッドにアクセスでき、自律車両はセンサデータを取り込んでオクルージョンフィールドの状態を決定できる。いくつかの例では、自律車両は、オクルージョングリッドの一部がオクルージョンである(例えば、駐車中の車などの障害物が原因で)、及び/又は進行するための十分な情報に不足していると決定できる。いくつかの例では、自律車両は交差点を緩やかに横断して、環境内のセンサの位置を変更し得る。自律車両はセンサデータを取り込み続けて、オクルージョン領域のいくつか又は全てのオクルージョンフィールドのオクルージョン状態及び占有状態を決定できる。他の車両が交差点を横断している場合、オクルージョンフィールドは占有されていると決定され、自律車両は交差点を横断するために適切な時間待機し続け得る。交差点を横断する他の車両がなく、センサがフィールドの占有状態を決定可能な場合、オクルージョンフィールドは非占有であり、オクルージョングリッドはクリアであり、自律車両は交差点を横断し得る。理解できるように、オクルージョンベース計画は様々な交差点を横断するために使用でき、特定の交差点又は操縦に限定されない。 The techniques discussed herein can be used in a variety of situations. In the first situation, occlusion-based planning can be used when an autonomous vehicle is navigating through an intersection where the autonomous vehicle is performing complex maneuvers such as unprotected left turns, free right turns, and navigating through complex intersections. As can be appreciated, in such instances the oncoming vehicle may not stop at the intersection, which can present challenges in determining when it is safe to cross the intersection. In one example, an autonomous vehicle may approach an intersection and stop at a stop line (e.g., shown in map data). The occlusion grid can be accessed from the map data, and autonomous vehicles can ingest sensor data to determine the state of the occlusion field. In some instances, the autonomous vehicle detects that part of the occlusion grid is occluded (e.g., due to an obstacle such as a parked car) and/or lacks sufficient information to proceed. It can be determined that In some examples, an autonomous vehicle may gently traverse an intersection to change the location of sensors within the environment. The autonomous vehicle may continue to capture sensor data to determine the occlusion status and occupancy status of some or all of the occlusion fields. If other vehicles are crossing the intersection, the occlusion field is determined to be occupied and the autonomous vehicle may continue to wait for an appropriate amount of time to cross the intersection. If there are no other vehicles crossing the intersection and the sensors can determine the occupancy state of the field, the occlusion field is unoccupied, the occlusion grid is clear, and the autonomous vehicle may cross the intersection. As can be appreciated, occlusion-based planning can be used to traverse a variety of intersections and is not limited to particular intersections or maneuvers.

第2の状況では、自律車両は環境のセンサデータを取り込み得、環境内の物体がセンサによる環境の一部の感知を「妨害」していると決定できる。いくつかの例では、オクルージョングリッドを物体に動的に関連付けることができる。いくつかの例では、自律車両は初期時間ではオクルージョングリッドについての情報をほとんど知り得ないが(例えば、特に障害物によって隠されたオクルージョンフィールドの占有率)、いくつかの例では、自律車両は、オクルージョングリッドに物体が進入する前に横断する領域を監視することにより、オクルージョンフィールドのコンテキストを推測できる。例えば、自律車両はオクルージョングリッドのオクルージョン領域を監視するので、自律車両はオクルージョングリッドに進入する任意の物体(例えば、車両、歩行者など)を監視できる。一定期間後、物体がオクルージョングリッドに進入していない場合、及び物体がオクルージョングリッドから出ていない場合、自律車両はオクルージョングリッドが非占有であると推測し得、必要に応じて車両軌道を実行し得る。 In a second situation, the autonomous vehicle may capture sensor data of the environment and determine that an object in the environment is "preventing" the sensor from sensing a portion of the environment. In some examples, occlusion grids can be dynamically associated with objects. In some instances, the autonomous vehicle may have little information about the occlusion grid initially (e.g., the occupancy of the occlusion field, especially if it is obscured by obstacles); By monitoring the area an object traverses before entering the occlusion grid, the context of the occlusion field can be inferred. For example, because the autonomous vehicle monitors the occlusion area of the occlusion grid, the autonomous vehicle can monitor any object (eg, vehicle, pedestrian, etc.) that enters the occlusion grid. After a period of time, if no objects have entered the occlusion grid, and if no objects have left the occlusion grid, the autonomous vehicle may infer that the occlusion grid is unoccupied and execute the vehicle trajectory as necessary. obtain.

第3の状況では、自律車両が環境のセンサデータを取り込み、環境内の物体を識別できる。自律車両は、本明細書で論じるように、オクルージョングリッドを物体に関連付けることができる。いくつかの例では、自律車両はまた、オクルージョン領域を横断した環境内の歩行者などの1つ以上の動的物体を識別できる。自律車両は、物体がオクルージョン領域に移動する前に動的物体の軌跡を監視でき、物体に関連付けられた1つ以上の予測軌道を生成できる。いくつかの例では、1つ以上の予測軌道は、動的物体の測定された軌跡に基づく、並びに/又は環境内の合理的な経路(例えば、横断歩道又は歩道を横切る、最新の軌道の継続など)及び/若しくは目的地に基づくことができる。従って、動的物体が観察されない場合でも、オクルージョン領域にある物体のために、自律車両は、動的物体の予測軌道を自律車両の制御に関する決定に組み込むことができる。そのような予測軌道は、オクルージョン領域に残っている動的物体に基づいて、又はオクルージョン領域を離れる動的物体に基づいて、以降の観測によって後に確認され得る。 In a third situation, an autonomous vehicle can capture sensor data of the environment and identify objects within the environment. An autonomous vehicle may associate an occlusion grid with an object as discussed herein. In some examples, the autonomous vehicle can also identify one or more dynamic objects, such as pedestrians, in the environment that have crossed the occlusion area. The autonomous vehicle can monitor the trajectory of a dynamic object before the object moves into the occlusion region and can generate one or more predicted trajectories associated with the object. In some examples, the one or more predicted trajectories are based on measured trajectories of the moving object and/or based on a reasonable path through the environment (e.g., crossing a crosswalk or sidewalk, a continuation of the most recent trajectory). etc.) and/or destination. Therefore, even if the dynamic object is not observed, for objects in the occlusion region, the autonomous vehicle can incorporate the predicted trajectory of the dynamic object into decisions regarding the control of the autonomous vehicle. Such predicted trajectories may later be confirmed by subsequent observations based on dynamic objects remaining in the occlusion region or based on dynamic objects leaving the occlusion region.

第4の状況では、丘の頂上などの地形的障害物によって引き起こされるオクルージョン領域を対象とする。例えば、車両が丘の頂上(例えば頂点)に近づくと、車両は丘の頂上の反対側の地面を確かめることが不可能になり得る。いくつかの例では、地形的オクルージョングリッドを丘の領域を表すマップデータに関連付けて、丘を横断するのを容易にできる。例えば、地形的オクルージョングリッド(及び本明細書で論じる他のオクルージョングリッド)は、環境内の空間の3次元領域を表すオクルージョンフィールドを含むことができる。理解できるように、オクルージョンフィールドの垂直部分は、車両がオクルージョンフィールドの地面部分を確かめることが可能でなくても、丘の頂上に近づく車両から可視であり得る。車両はLIDARデータなどの環境のセンサデータを取り込み、LIDARデータをオクルージョングリッドのオクルージョンフィールドに光線放射し、オクルージョンフィールドの少なくとも一部の占有率を決定できる。従って、オクルージョンフィールドの一部がクリアであると決定することにより(例えば、地上1、2メートル間のオクルージョンフィールドの領域)、自律車両はオクルージョンフィールドの占有状態(例えば、占有済み、非占有、又は未決定)を決定できる。従って、本明細書で論じる技術を使用して、自律車両は、環境の全ての領域のセンサデータを取り込むこと無く、丘の頂上を「見渡し」て、環境についての情報を取得できる。 The fourth situation targets occlusion areas caused by topographical obstacles such as hill tops. For example, as a vehicle approaches the top of a hill (eg, apex), it may become impossible for the vehicle to see the ground on the other side of the hill top. In some examples, a topographic occlusion grid can be associated with map data representing areas of hills to facilitate traversing hills. For example, a topographic occlusion grid (and other occlusion grids discussed herein) may include an occlusion field that represents a three-dimensional region of space within the environment. As can be appreciated, the vertical portion of the occlusion field may be visible from a vehicle approaching the top of a hill, even if the vehicle is not able to see the ground portion of the occlusion field. The vehicle can capture sensor data of the environment, such as LIDAR data, beam the LIDAR data onto an occlusion field of the occlusion grid, and determine an occupancy of at least a portion of the occlusion field. Therefore, by determining that a portion of the occlusion field is clear (e.g., an area of the occlusion field between a meter or two above the ground), the autonomous vehicle determines the occlusion state of the occlusion field (e.g., occupied, unoccupied, or Undecided) can be determined. Thus, using the techniques discussed herein, autonomous vehicles can "see over" hilltops and obtain information about the environment without having to capture sensor data for all areas of the environment.

いくつかの例では、マップデータに関連して格納されたオクルージョングリッドのサイズは、いくつかの領域特性に少なくとも部分的に基づくことができる。交差点のコンテキストでは、領域特性は、限定しないが、自律車両が走行しなければならない交差点を横切る距離(例えば、対向車を避けるために)、交差点内の車両の制限速度(例えば、対向車の)、制限速度に関連付けられた安全係数(例えば、予想される交通の速度を効果的に上げるための)、交差点距離を横断する自律車両の加速レベル及び/又は平均速度など、を含むことができる。そのような特定の例については以下で詳細に論じる。従って、オクルージョングリッドは、オクルージョングリッドに障害物がない場合、自律車両が安全に領域を横断できるようなサイズとすることができる。 In some examples, the size of the occlusion grid stored in association with the map data can be based at least in part on some area characteristics. In the context of an intersection, area characteristics include, but are not limited to, the distance an autonomous vehicle must travel across an intersection (e.g., to avoid oncoming traffic), the speed limit for vehicles within the intersection (e.g., to avoid oncoming traffic) , a safety factor associated with the speed limit (e.g., to effectively speed up expected traffic), an acceleration level and/or average speed of the autonomous vehicle traversing the intersection distance, and the like. Such specific examples are discussed in detail below. Accordingly, the occlusion grid may be sized such that an autonomous vehicle can safely traverse the area if the occlusion grid is free of obstructions.

いくつかの例では、上記のように、オクルージョングリッドは複数のオクルージョンフィールドを含むことができる。いくつかの例では、オクルージョンフィールドは、自律車両の軌道を評価又は検証するための時相論理式で使用できる時相論理記号を表すことができる。例えば、自律車両は、オクルージョンフィールドの占有状態及び/又はオクルージョン状態がそれぞれ「非占有」及び「非オクルージョン」になるまで、軌道を開始することを止められ得る。いくつかの例では、自律車両のプランナーシステムは、線形時相論理又は信号時相論理などの時相論理を使用して、自律車両の軌道を評価できる。 In some examples, the occlusion grid may include multiple occlusion fields, as described above. In some examples, the occlusion field may represent a temporal logic symbol that can be used in a temporal logic equation to evaluate or verify an autonomous vehicle's trajectory. For example, the autonomous vehicle may be prevented from starting a trajectory until the occlusion state and/or occlusion state of the occlusion field becomes "unoccupied" and "unoccluded," respectively. In some examples, the autonomous vehicle's planner system may use temporal logic, such as linear temporal logic or signal temporal logic, to evaluate the trajectory of the autonomous vehicle.

本明細書で論じる技術は、いくつかの手法でコンピューティングデバイスの機能を改善できる。例えば、オクルージョングリッドを評価するコンテキストにおいて、グリッドの領域は、環境についての不必要な決定に専念する過剰なリソースなしで、自律車両による領域の安全な横断を確実にするようなサイズとすることができる。いくつかの例では、複数のセンサモダリティ(LIDARセンサ、画像センサ、RADARセンサなど)を使用して、オクルージョン状態又はオクルージョンフィールドの占有状態に関連付けられた全体的な信頼レベルを改善できる。改善された軌道生成は安全結果を改善でき、乗り手の体験を改善できる(例えば、軌道を開始する前に交差点がクリアであることを確実にすることによって、緊急ブレーキ、旋回などの発生を減少することによって)。コンピュータの機能及び/又はユーザーの体験に対するこれら及びその他の改善について、本明細書で論じる。 The techniques discussed herein can improve the functionality of computing devices in several ways. For example, in the context of evaluating occlusion grids, the area of the grid may be sized to ensure safe traversal of the area by autonomous vehicles without excessive resources devoted to unnecessary decisions about the environment. can. In some examples, multiple sensor modalities (LIDAR sensors, image sensors, RADAR sensors, etc.) can be used to improve the overall confidence level associated with occlusion conditions or occlusion field occupancy conditions. Improved trajectory generation can improve safety outcomes and improve rider experience (e.g., by ensuring intersections are clear before starting a trajectory, reducing the occurrence of emergency braking, turns, etc.) by). These and other improvements to computer functionality and/or user experience are discussed herein.

本明細書に記載の技術は、いくつかの手法で実施できる。例示の実装について、以下の図面を参照しながら以下に説明する。自律車両のコンテキストで論じられているが、本明細書で説明する方法、装置、及びシステムは、様々なシステム(例えば、ロボットプラットフォーム)に適用でき、自律車両に限定されない。別の例では、この技術は、航空若しくは航海のコンテキストで、又はマシンビジョンを使用する任意のシステムで利用できる。さらに、本明細書で説明する技法は実データ(例えばセンサを使用して取り込まれた)、シミュレートデータ(例えばシミュレータによって生成された)、又はその2つの任意の組合せで使用できる。 The techniques described herein can be implemented in several ways. Example implementations are described below with reference to the following figures. Although discussed in the context of autonomous vehicles, the methods, apparatus, and systems described herein are applicable to a variety of systems (e.g., robotic platforms) and are not limited to autonomous vehicles. In another example, this technique can be utilized in an aviation or navigational context, or in any system that uses machine vision. Additionally, the techniques described herein can be used with real data (eg, captured using sensors), simulated data (eg, generated by a simulator), or any combination of the two.

図1は、環境内の複数のオクルージョンフィールドを含む例示のオクルージョングリッドの斜視図を示す環境100である。図1はまた、本開示の実施形態による、障害物に起因するオクルージョングリッドのオクルージョン領域及び非オクルージョン領域を決定するためのオクルージョン監視コンポーネントを含む車両を示す。 FIG. 1 is an environment 100 illustrating a perspective view of an example occlusion grid that includes multiple occlusion fields within the environment. FIG. 1 also illustrates a vehicle including an occlusion monitoring component for determining occlusion and non-occlusion areas of an occlusion grid due to obstacles, according to embodiments of the present disclosure.

図示のように、環境100は環境100を表すデータを取り込む1つ以上のセンサシステム104を含む車両102を含むことができる。 As shown, environment 100 may include a vehicle 102 that includes one or more sensor systems 104 that capture data representative of environment 100 .

例示の目的で、車両102は、ドライバー(又は乗員)の車両の常時制御を期待せず、全体行程の全ての安全上重要な機能を実行可能な車両について説明する米国国家高速道路交通安全局が発行するレベル5分類に従って操作するように構成された自律車両とすることができる。このような例では、車両102は全ての駐車機能を含む開始から停止までの全ての機能を制御するように構成できるので、無人化できる。これは単なる例であり、本明細書で説明するシステム及び方法は、ドライバーが常に手動で制御する必要がある車両から、部分的又は完全に自律的に制御されているものまでを含む任意の地上、空中、又は水上車両に組み込むことができる。車両102に関連付けられた追加の詳細を以下で説明する。 For purposes of illustration, vehicle 102 is described by the National Highway Traffic Safety Administration as a vehicle that does not expect constant driver (or occupant) control of the vehicle and is capable of performing all safety-critical functions for the entire trip. It may be an autonomous vehicle configured to operate in accordance with an issued Level 5 classification. In such an example, the vehicle 102 can be configured to control all functions from start to stop, including all parking functions, and thus can be unmanned. This is just an example, and the systems and methods described herein can be applied to any ground vehicle, including those that require manual control at all times by the driver, to those that are partially or fully autonomously controlled. can be incorporated into , airborne, or waterborne vehicles. Additional details associated with vehicle 102 are described below.

少なくとも1つの例では、上記のように、車両102を車両102上に配置できるセンサシステム104に関連付けることができる。センサシステム104は、光検出及び測距(LIDAR)センサ、無線検出及び測距(RADAR)センサ、超音波変換器、音響誘導及び測距(SONAR)センサ、位置センサ(例えば、グローバルポジショニングシステム(GPS)、コンパスなど)、慣性センサ(例えば、慣性測定ユニット、加速度計、磁気計、ジャイロスコープなど)、カメラ(例、RGB、IR、強度、深度、飛行時間など)、ホイールエンコーダ、マイク、環境センサ(例えば、温度センサ、湿度センサ、光センサ、圧力センサなど)など、を含むことができる。センサシステム104は車両102に関連付けられた車両コンピューティングデバイス106によって利用できるセンサデータを生成できる。 In at least one example, vehicle 102 can be associated with a sensor system 104 that can be positioned on vehicle 102, as described above. The sensor system 104 may include a light detection and ranging (LIDAR) sensor, a radio detection and ranging (RADAR) sensor, an ultrasound transducer, an acoustic guidance and ranging (SONAR) sensor, a position sensor (e.g., a global positioning system (GPS) ), compasses, etc.), inertial sensors (e.g. inertial measurement units, accelerometers, magnetometers, gyroscopes, etc.), cameras (e.g. RGB, IR, intensity, depth, time of flight, etc.), wheel encoders, microphones, environmental sensors (e.g., temperature sensors, humidity sensors, light sensors, pressure sensors, etc.). Sensor system 104 can generate sensor data that can be utilized by vehicle computing device 106 associated with vehicle 102 .

少なくとも1つの例では、車両コンピューティングデバイス106は、オクルージョン監視コンポーネント108のセンサデータを利用できる。例えば、オクルージョン監視コンポーネント108はオクルージョンデータ及び/又はマップデータにアクセスし、オクルージョングリッド内のオクルージョンフィールドのオクルージョン状態及び占有状態を決定できる。 In at least one example, vehicle computing device 106 may utilize sensor data of occlusion monitoring component 108. For example, occlusion monitoring component 108 can access occlusion data and/or map data to determine occlusion conditions and occupancy conditions of occlusion fields within an occlusion grid.

一例として、限定しないが、環境100内の車両102は交差点110に接近している。いくつかの例では、車両102はマップデータにアクセスでき、オクルージョングリッド112が交差点110に関連付けられていると決定できる。いくつかの例では、交差点110は車両102が交差点110に進入する一方通行車に道を譲る必要のある交差点を表すことができる。 By way of example and without limitation, a vehicle 102 within environment 100 is approaching an intersection 110. In some examples, vehicle 102 can access map data and determine that occlusion grid 112 is associated with intersection 110. In some examples, intersection 110 may represent an intersection where vehicle 102 must yield to a one-way vehicle entering intersection 110.

オクルージョングリッド112は、環境100の一部を個別の領域に分離する複数のオクルージョンフィールドを含むことができる。いくつかの例では、オクルージョンフィールド114はオクルージョン状態を表すことができる(例えば、オクルージョンフィールド114が車両102の1つ以上のセンサに関連付けられた感知領域116内にあるかどうかの表示を)。理解できるように、環境100はオクルージョングリッド112の一部を車両102の感知領域116から欠落させる1つ以上の障害物118、120、及び122を含み得る。従って、オクルージョングリッド112の非オクルージョン領域124は、車両102によって「見る」ことができるオクルージョングリッド112の領域を表すことができる。すなわち、車両102は非オクルージョン領域124を表すセンサデータを取り込むことができる。同様に、オクルージョン領域126は、車両102によって「見る」ことができないオクルージョングリッド112の領域を表すことができる。図1に示すように、オクルージョン領域126内のオクルージョンフィールドは、その領域に対応するセンサデータの欠如を表すために灰色で網掛けされ、一方、非オクルージョン領域124は網掛けされない。 Occlusion grid 112 may include multiple occlusion fields that separate portions of environment 100 into distinct regions. In some examples, occlusion field 114 can represent an occlusion condition (eg, an indication of whether occlusion field 114 is within sensing area 116 associated with one or more sensors of vehicle 102). As can be appreciated, environment 100 may include one or more obstacles 118, 120, and 122 that cause a portion of occlusion grid 112 to be missed from sensing area 116 of vehicle 102. Accordingly, non-occlusion areas 124 of occlusion grid 112 may represent areas of occlusion grid 112 that can be “seen” by vehicle 102. That is, vehicle 102 may capture sensor data representative of non-occlusion area 124 . Similarly, occlusion region 126 may represent an area of occlusion grid 112 that cannot be “seen” by vehicle 102. As shown in FIG. 1, the occlusion field within the occlusion region 126 is shaded gray to represent the lack of sensor data corresponding to that region, while the non-occlusion region 124 is not shaded.

いくつかの例では、オクルージョンフィールドが物体によって占有されている場合、オクルージョンフィールドは、物体のIDを示す追加のメタデータ、及びオクルージョングリッドを通過する物体の経路を示すデータを格納できる。 In some examples, if the occlusion field is occupied by an object, the occlusion field can store additional metadata indicating the object's ID and data indicating the object's path through the occlusion grid.

LIDARデータ及び画像データを使用してオクルージョンフィールドを評価することに対する追加の詳細は、それぞれ図2及び図3に関連して以下で論じる。 Additional details for evaluating occlusion fields using LIDAR data and image data are discussed below in connection with FIGS. 2 and 3, respectively.

図2は、本開示の実施形態による、LIDARデータを光線放射することに基づいて、オクルージョングリッド内のオクルージョンフィールドの占有率を決定するための例示のプロセス200の図解フロー図である。LIDARデータのコンテキストで論じているが、例示のプロセス200は、RADARデータ、SONARデータ、飛行時間画像データなどのコンテキストで使用できる。 FIG. 2 is an illustrated flow diagram of an example process 200 for determining occlusion field occupancy in an occlusion grid based on beaming LIDAR data, according to embodiments of the present disclosure. Although discussed in the context of LIDAR data, example process 200 can be used in the context of RADAR data, SONAR data, time-of-flight image data, and the like.

オペレーション202において、プロセスは、オクルージョングリッドを含むマップデータを受信することを含むことができる。例204はオペレーション202において受信できるマップデータ206を示している。いくつかの例では、マップデータ206は図1に示すように交差点110を表すことができる。例204にさらに示すように、車両102はLIDAR光線208によって図解するように環境のLIDARデータを取り込む。単一の線として示しているが、LIDAR光線208は環境をスキャンする複数の光線を含むことができる。 At operation 202, the process can include receiving map data that includes an occlusion grid. Example 204 illustrates map data 206 that can be received in operation 202. In some examples, map data 206 may represent intersection 110 as shown in FIG. As further shown in example 204, vehicle 102 captures LIDAR data of the environment as illustrated by LIDAR ray 208. Although shown as a single line, LIDAR light beam 208 can include multiple light beams that scan the environment.

いくつかの例では、マップデータ206は複数のオクルージョンフィールド216を含むオクルージョングリッド210を含む。本開示を通して論じるように、オクルージョングリッド210は環境の任意のサイズ又は形状を表すことができる。いくつかの例では、オクルージョングリッド210は複数のオクルージョンフィールド216を含むことができ、それによって個々のオクルージョンフィールドは環境の個別の領域を表す。いくつかの例では、オクルージョンフィールドは、幅1メートル、長さ3メートル、高さ2メートルの領域を表し得るが、任意のサイズをオクルージョンフィールドに使用し得る。いくつかの例では、オクルージョンフィールドはボクセル化された空間の複数のボクセルを表す「メタボクセル」であると見なされ得る。 In some examples, map data 206 includes an occlusion grid 210 that includes multiple occlusion fields 216. As discussed throughout this disclosure, occlusion grid 210 can represent any size or shape of the environment. In some examples, occlusion grid 210 may include multiple occlusion fields 216, such that each occlusion field represents a separate region of the environment. In some examples, the occlusion field may represent an area that is 1 meter wide, 3 meters long, and 2 meters high, although any size may be used for the occlusion field. In some examples, an occlusion field may be considered a "meta-voxel" that represents multiple voxels in a voxelized space.

オペレーション212において、プロセスは、LIDARデータを光線放射することに少なくとも部分的に基づいて、1つ以上のオクルージョンフィールドの占有率を決定することを含むことができる。環境の詳細214において、オクルージョンフィールド216はオクルージョンフィールド216を横断するLIDAR光線で示される。詳細214に示すように、LIDAR光線218及び220はオクルージョンフィールド216を横断するように示されている。例204にさらに示すように、LIDAR光線218はリターンを伴わないLIDAR光線を表すことができる。これは、LIDAR光線218はLIDARセンサによって放出され、オクルージョンフィールド216を横断すると予想されたが、車両102はLIDAR光線218のリターンを受信しなかったことを意味する。そのようなリターンの欠如は、LIDAR光線218が表面に当たらず戻っていない可能性がある、又はLIDARセンサから離れる方向へ反射面で反射した可能性があるため、占有状態が未決定であり得る。さらに、LIDAR光線220はリターンを伴うLIDAR光線を表す。これは、LIDAR光線220が、LIDARセンサによって放出され、その後の時間、車両102によって(例えば、環境内の物体からの反射によって)受信されたことを意味する。 In operation 212, the process can include determining occupancy of one or more occlusion fields based at least in part on beaming the LIDAR data. In environment details 214, occlusion field 216 is shown with LIDAR rays traversing occlusion field 216. As shown in detail 214, LIDAR rays 218 and 220 are shown traversing occlusion field 216. As further shown in example 204, LIDAR ray 218 may represent a LIDAR ray without a return. This means that the LIDAR beam 218 was emitted by the LIDAR sensor and expected to traverse the occlusion field 216, but the vehicle 102 did not receive the return of the LIDAR beam 218. Such a lack of return may indicate that the occupancy state is undetermined because the LIDAR ray 218 may not have hit the surface and returned, or may have been reflected off a reflective surface away from the LIDAR sensor. . Furthermore, LIDAR ray 220 represents a LIDAR ray with a return. This means that LIDAR light 220 was emitted by the LIDAR sensor and received by vehicle 102 at a subsequent time (eg, by reflection from an object in the environment).

いくつかの例では、LIDAR光線208は、オクルージョンフィールド(例えば、オクルージョンフィールド216)が物体によって占有されていることを示し得る。この場合、オペレーション212はオクルージョンフィールド216が占有されていることを決定することを含むことができる。少なくともいくつかの例では、占有率は、特定のオクルージョンフィールド216上の垂直列内のLIDARリターンの数に基づいて決定され得る(例えば、詳細226に示しているように)。非限定的な例として、LIDARリターンは領域が占有されていること、又はLIDAR光線がLIDARセンサによって反射として受信される前に領域を横断したことを示し得る(例えば、リターンは領域が非占有であることを示し得る)。いくつかの例では、LIDAR光線は、以下で論じるように、LIDARセンサによって受信されることなく領域を横断し得る。 In some examples, LIDAR rays 208 may indicate that an occlusion field (eg, occlusion field 216) is occupied by an object. In this case, operation 212 may include determining that occlusion field 216 is occupied. In at least some examples, occupancy may be determined based on the number of LIDAR returns within a vertical column on a particular occlusion field 216 (eg, as shown in detail 226). As a non-limiting example, a LIDAR return may indicate that the area is occupied or that the LIDAR ray traversed the area before being received as a reflection by the LIDAR sensor (e.g., a return indicates that the area is unoccupied). ). In some examples, LIDAR light may traverse an area without being received by a LIDAR sensor, as discussed below.

非限定的な例として、オクルージョンフィールド216に関連付けられた垂直列は5つのボクセル(例えば、詳細226において、ボクセル216(1)、216(2)、216(3)、216(4)、及び216(5)に示されるように)を含み、及びそれらの大部分が、物体がボクセル内に位置することを示す場合、占有状態は占有閾値に達し、オクルージョンフィールド216は占有されていると決定される。言い換えれば、いくつかの例では、オクルージョンフィールド216の占有率は、オクルージョンフィールド216に関連付けられたボクセルに関連付けられた占有スコアに少なくとも部分的に基づくことができる。もちろん、オクルージョンフィールドは任意の数の垂直及び/又は水平ボクセルに関連付けることができる。 As a non-limiting example, the vertical column associated with occlusion field 216 may include five voxels (e.g., in detail 226, voxels 216(1), 216(2), 216(3), 216(4), and 216 (5)) and a majority of them indicate that the object is located within the voxel, the occupancy state reaches the occupancy threshold and the occlusion field 216 is determined to be occupied. Ru. In other words, in some examples, the occupancy of occlusion field 216 may be based at least in part on occupancy scores associated with voxels associated with occlusion field 216. Of course, an occlusion field can be associated with any number of vertical and/or horizontal voxels.

いくつかの例では、LIDAR光線208はオクルージョンフィールド216が物体によって占有されていないことを示し得る。例えば、オクルージョンフィールド216に関連付けられたボクセルの大部分がリターン無しを示す場合(及び/又はボクセルを横断し、予想されるリターンの数と比較されたリターンに関連付けられたLIDAR光線の数に基づいて)、LIDARセンサから離れる方向の表面で反射する全ての光線とは対照的に、オクルージョンフィールド216を占有する物体は存在しない可能性が高い。いくつかの例では、オクルージョンフィールド216の占有率に関する決定は信頼レベルと関連付けることができる。いくつかの例では、オクルージョンフィールドの占有率の信頼レベルは、オクルージョンフィールドに関連付けられた予想のLIDARリターンの第1の数、及びオクルージョンフィールドに関連付けられた実際のLIDARリターンの第2の数(例えば、物体又は非物体を示す)に少なくとも部分的に基づくことができる。一例として、限定しないが、信頼レベルは第2の数と第1の数との比率に少なくとも部分的に基づくことができる。もちろん、任意の手法又はヒューリスティックを使用してオクルージョンフィールドの占有率に関連付けられた信頼レベルを決定できる。信頼レベルを超えない、センサデータが戻らない、又はそうでなければ占有率の決定を行うことが不可能であるいくつかの例では、オクルージョンフィールド216に関連付けられた占有状態は未決定(例えば、占有状態を決定するのに十分な情報がない)であると決定され得る。 In some examples, LIDAR rays 208 may indicate that occlusion field 216 is not occupied by an object. For example, if a majority of the voxels associated with occlusion field 216 exhibit no returns (and/or based on the number of LIDAR rays traversing the voxel and associated with returns compared to the expected number of returns) ), there is likely no object occupying the occlusion field 216, in contrast to all light rays reflecting off surfaces away from the LIDAR sensor. In some examples, decisions regarding occlusion field 216 occupancy may be associated with a confidence level. In some examples, the confidence level of the occlusion field occupancy is determined by a first number of expected LIDAR returns associated with the occlusion field and a second number of actual LIDAR returns associated with the occlusion field (e.g. , indicating an object or a non-object). By way of example and without limitation, the confidence level can be based at least in part on the ratio of the second number and the first number. Of course, any technique or heuristic can be used to determine the confidence level associated with occlusion field occupancy. In some instances where a confidence level is not exceeded, sensor data is not returned, or it is otherwise impossible to make an occupancy determination, the occupancy state associated with occlusion field 216 may be undetermined (e.g., It may be determined that there is insufficient information to determine occupancy status.

オペレーション222において、プロセスは占有率に少なくとも部分的に基づいて自律車両に命令することを含むことができる。例えば、車両102が、オクルージョンフィールド216が非占有である(及びオクルージョングリッド210の全てのオクルージョンフィールド又はオクルージョングリッド210のオクルージョンフィールドの閾値数が非占有である)と決定した場合、車両102を制御し軌道224に従って交差点110を横断させることができる。いくつかの例では、オクルージョンフィールド216が占有されている場合、及び/又はオクルージョングリッド210のオクルージョンフィールドの閾値数が物体によって占有されている場合、オペレーション222は自律車両(例えば、車両102)を制御し交差点110を横断させずに待機させることを含むことができる。いくつかの例では、閾値は、例えば予想される最高制限速度、横断する車線幅などに基づいて設定され得る。そのような決定は、例えば、車両がオクルージョン領域を最高制限速度(若干のバッファを足した)で交差点に向かって進んでいると仮定して、車両102が交差点を安全に横断するのに掛る時間に基づいて行い得る。追加の詳細を図5に関連して論じる。 At operation 222, the process can include commanding the autonomous vehicle based at least in part on the occupancy. For example, if vehicle 102 determines that occlusion field 216 is unoccupied (and all occlusion fields of occlusion grid 210 or a threshold number of occlusion fields of occlusion grid 210 are unoccupied), then control of vehicle 102 Trajectory 224 may be followed to cross intersection 110. In some examples, operation 222 controls the autonomous vehicle (e.g., vehicle 102) if occlusion field 216 is occupied and/or if a threshold number of occlusion fields of occlusion grid 210 are occupied by objects. This may include causing the vehicle to wait without crossing the intersection 110. In some examples, the threshold may be set based on, for example, the expected maximum speed limit, the width of the lane being crossed, and the like. Such a determination may include, for example, the time it would take for the vehicle 102 to cross the intersection safely, assuming that the vehicle is proceeding through the occlusion area at the maximum speed limit (plus some buffer) toward the intersection. This can be done based on. Additional details are discussed in connection with FIG.

いくつかの例では、オペレーション222は車両102の加速レベル及び/又は速度の選択を含むことができる。例えば、オクルージョンフィールドはオクルージョングリッド210のクリア部分のサイズを効果的に減少させる占有されたオクルージョンフィールドを示し得る。いくつかの例では、オペレーション222は、オクルージョングリッド210のクリア部分の減少したサイズ(例えば、車両102及び占有されたオクルージョンフィールドの間の距離として表される)に基づいて車両102をより速く加速させる、より高い加速レベル(例えば、「ブーストモード」)を選択することを含むことができる。いくつかの例では、オペレーション222は、オクルージョングリッドの一部が可視ではない(例えば、オクルージョン領域126と同様に)、又はそうでなければ未決定である占有状態を含むと決定することを含むことができ、オペレーション222は、車両102を制御し交差点まで緩やかに移動させ(例えば、「前方に徐行」)、オクルージョングリッド210の可視領域を増加することを含むことができる。追加の例について本開示を通して論じる。 In some examples, operation 222 may include selecting an acceleration level and/or speed of vehicle 102. For example, the occlusion field may indicate an occupied occlusion field that effectively reduces the size of the clear portion of occlusion grid 210. In some examples, operation 222 accelerates vehicle 102 faster based on the reduced size of the clear portion of occlusion grid 210 (e.g., expressed as a distance between vehicle 102 and the occupied occlusion field). , may include selecting a higher acceleration level (e.g., "boost mode"). In some examples, operation 222 may include determining that a portion of the occlusion grid is not visible (e.g., similar to occlusion region 126) or contains an occupancy state that is otherwise undetermined. , and operation 222 may include controlling vehicle 102 to slowly move to the intersection (eg, "slow forward") to increase the visibility area of occlusion grid 210. Additional examples are discussed throughout this disclosure.

図3は、本開示の実施形態による、画像データへのオクルージョンフィールドの投影に基づいて、オクルージョングリッド内のオクルージョンフィールドの占有率を決定するための例示のプロセス300の図解フロー図である。 FIG. 3 is an illustrated flow diagram of an example process 300 for determining the occupancy of an occlusion field in an occlusion grid based on a projection of the occlusion field onto image data, according to an embodiment of the present disclosure.

オペレーション302において、プロセスは画像データ及びマップデータを受信することを含むことができる。例えば、画像データ304を車両102の1つ以上の画像センサによって取り込むことができる。いくつかの例では、マップデータ306は、車両102がマップデータ306に関連付けられた交差点110に接近していると決定すると、メモリから(例えば、車両コンピューティングデバイス106から)アクセスされ得る。 At operation 302, the process can include receiving image data and map data. For example, image data 304 may be captured by one or more image sensors of vehicle 102. In some examples, map data 306 may be accessed from memory (eg, from vehicle computing device 106) upon determining that vehicle 102 is approaching an intersection 110 associated with map data 306.

一般に、画像データ304は、車両の1つ以上の画像センサによって取り込まれた任意の画像データを含むことができる。場合によっては、画像データ304は、障害物308、310、及び312の表示を含むことができる。図示のように、障害物308、310、及び312は、道路の脇に駐車する車両を表すことができる。 Generally, image data 304 may include any image data captured by one or more image sensors of a vehicle. In some cases, image data 304 may include representations of obstacles 308, 310, and 312. As shown, obstacles 308, 310, and 312 may represent vehicles parked on the side of the road.

一般に、マップデータ306はオクルージョンフィールド316などの複数のオクルージョンフィールドを含むオクルージョングリッド314を含むことができる。いくつかの例では、マップデータ306は、障害物308、310、及び312を含むことができるが、場合によっては、障害物308、310、及び312のデータは、マップデータと見なされないことがある。すなわち、場合によっては、マップデータ306は静的物体のみを含み得る。その場合、障害物308、310、及び312(例えば、動的物体又は潜在動的物体)はマップデータ306として含まれ得ない。さらに車両102はマップデータ306の一部と見なしてもよいし、見なさなくてもよいが、車両102はコンテキストを形成するために及び交差点110に関する車両102の位置を示すためにマップデータ306に示されている。 Generally, map data 306 may include an occlusion grid 314 that includes multiple occlusion fields, such as occlusion field 316. In some examples, map data 306 may include obstacles 308, 310, and 312; however, in some cases, data for obstacles 308, 310, and 312 may not be considered map data. be. That is, in some cases, map data 306 may include only static objects. In that case, obstacles 308, 310, and 312 (eg, moving objects or potential moving objects) may not be included as map data 306. Further, although vehicle 102 may or may not be considered part of map data 306, vehicle 102 is shown in map data 306 to form context and to indicate the location of vehicle 102 with respect to intersection 110. has been done.

図示のように、障害物312は交差点110に向かって道路を走行していることを表している。いくつかの例では、障害物312はオクルージョンフィールド326を占有できる。 As shown, an obstacle 312 represents traveling on the road toward the intersection 110. In some examples, obstruction 312 can occupy occlusion field 326.

オペレーション318において、プロセスは画像データに対して意味区分を実行することを含むことができる。いくつかの例では、画像データ304を、限定しないが、運転可能路面(例えば、物体又は障害物によって占有されていない路面)、地面、車両、歩行者、建物、歩道、植生、街灯柱、郵便受けなどを含む、画像データ304内の領域及び/又は物体を識別するための区分アルゴリズムに入力できる。いくつかの例では、オペレーション318は画像データ304内の物体を区分する及び/又は分類するように訓練された機械学習アルゴリズムを使用して画像データ304を区分することを含むことができる。 At operation 318, the process may include performing semantic segmentation on the image data. In some examples, image data 304 may include, but is not limited to, drivable surfaces (e.g., surfaces not occupied by objects or obstacles), ground, vehicles, pedestrians, buildings, sidewalks, vegetation, light poles, mailboxes, etc. can be input into a segmentation algorithm to identify regions and/or objects within the image data 304, including, for example, regions and/or objects within the image data 304. In some examples, operation 318 may include segmenting image data 304 using a machine learning algorithm trained to segment and/or classify objects within image data 304.

オペレーション320において、プロセスは、1つ以上のオクルージョンフィールドを区分された画像データに投影することに少なくとも部分的に基づいて、1つ以上のオクルージョンフィールドの占有率を決定することを含むことができる。例えば、投影されたマップデータを伴う区分された画像データ322は、オクルージョングリッド314及び画像データ304に投影されたオクルージョンフィールド316及び326を示している。さらに示すように、投影されたマップデータを伴う区分された画像データ322(データ322とも呼ばれる)は、障害物308、310、及び312にそれぞれ対応する区分された障害物308’、310’、及び312’を含む。オクルージョンフィールド326が、車両であると決定できる障害物312’に(例えば、意味区分を介して)投影されるので、オペレーション320は少なくともオクルージョンフィールド326が障害物312’によって占有されていると決定できる。 At operation 320, the process can include determining occupancy of the one or more occlusion fields based at least in part on projecting the one or more occlusion fields onto the segmented image data. For example, segmented image data 322 with projected map data shows occlusion grid 314 and occlusion fields 316 and 326 projected onto image data 304. As further shown, segmented image data 322 (also referred to as data 322) with projected map data includes segmented obstacles 308', 310', and 310' corresponding to obstacles 308, 310, and 312, respectively. 312'. Because the occlusion field 326 is projected onto the obstacle 312' that can be determined to be a vehicle (e.g., via semantic classification), the operation 320 can determine that at least the occlusion field 326 is occupied by the obstacle 312'. .

オペレーション320は、任意のアルゴリズムを使用して、3次元オクルージョングリッド314及び/又はオクルージョンフィールド316を画像データ304に投影できる。一例では、オクルージョンフィールド316を運転可能路面としてラベル付けされた領域に投影する場合、オペレーション320は、オクルージョンフィールド316が非占有のフィールドを表すと決定できる。いくつかの例では、オクルージョンフィールド326が物体312’に投影される場合、オペレーション320はオクルージョンフィールド326が占有されていると決定できる。少なくともいくつかの例では、追加のオクルージョンフィールドは未決定であるオクルージョン状態に対応し得る。言い換えると、物体の画像が一部のオクルージョンフィールドを効果的に妨害するので、オクルージョンフィールドが占有されているかどうかを明示することは不可能であり得る。本明細書に記載の例のいずれかに関わらず、安全性を目的として、未決定状態はオクルージョン状態として扱われ得る。 Operation 320 may project three-dimensional occlusion grid 314 and/or occlusion field 316 onto image data 304 using any algorithm. In one example, when projecting occlusion field 316 onto an area labeled as a drivable surface, operation 320 may determine that occlusion field 316 represents an unoccupied field. In some examples, operation 320 may determine that occlusion field 326 is occupied if occlusion field 326 is projected onto object 312'. In at least some examples, additional occlusion fields may correspond to occlusion states that are pending. In other words, it may be impossible to clearly state whether an occlusion field is occupied or not, since the image of the object effectively obstructs some occlusion fields. Regardless of any of the examples described herein, for safety purposes, an undetermined state may be treated as an occlusion state.

オペレーション324において、プロセスは少なくとも部分的に占有率に基づいて自律車両(例えば、車両102)に命令することを含むことができる。例えば、車両102がオクルージョンフィールド316は非占有である(及びオクルージョングリッド314の全てのオクルージョンフィールドが非占有である)と決定した場合、交差点110を横断する軌道に従うように車両102を制御できる。いくつかの例では、オクルージョンフィールド326が占有されている、未決定である場合、及び/又はオクルージョングリッド314のオクルージョンフィールドの閾値数が物体によって占有されている場合、オペレーション324は自律車両(例えば、車両102)を制御し交差点110を横断させずに待機させることを含むことができる。いくつかの例では、情報の十分性が閾値を下回っている場合(例えば、占有された又は未決定のオクルージョンフィールドの数が閾値以上、並びに/又はオクルージョン及び不可視オクルージョンフィールドの数が領域を走行するための安全な軌道を計画者が決定不可能であるような閾値以上の場合)、オペレーション324は、車両102に前方へ徐行する、又はそうでなければ追加情報を収集するために車両102に位置を変更するように命令することを含むことができる。 At operation 324, the process may include commanding the autonomous vehicle (eg, vehicle 102) based at least in part on the occupancy. For example, if vehicle 102 determines that occlusion field 316 is unoccupied (and all occlusion fields of occlusion grid 314 are unoccupied), vehicle 102 may be controlled to follow a trajectory that traverses intersection 110. In some examples, if occlusion field 326 is occupied, undetermined, and/or if a threshold number of occlusion fields of occlusion grid 314 are occupied by objects, operation 324 may cause the autonomous vehicle (e.g., The vehicle 102) may be controlled to wait without crossing the intersection 110. In some instances, if the sufficiency of information is below a threshold (e.g., the number of occupied or undetermined occlusion fields is greater than or equal to the threshold, and/or the number of occlusion and invisible occlusion fields travels through the region) If the planner is unable to determine a safe trajectory for may include instructing the user to change the .

いくつかの例では、情報の十分性は、非占有であるオクルージョンフィールドの数が閾値数以上、及び/又は可視オクルージョンフィールドの数が特定の数以上である(例えば、領域を横切るための軌道を安全に計画するための特定の閾値を上回るのに十分な)と決定することに対応できる。いくつかの例では、情報の十分性は未決定なオクルージョンフィールドを一定期間観察して、オクルージョンフィールドが非占有であるという信頼レベルを高めることを含むことができる。いくつかの例では、情報の十分性は、自律車両が走行する交差点の距離に関係する、並びに/又は交差点の一部を横断する自律車両の速度、加速度、及び/若しくは時間に関係する、非オクルージョン及び非占有領域の範囲を決定することを含むことができる。 In some examples, information sufficiency is such that the number of occlusion fields that are unoccupied is greater than or equal to a threshold number, and/or the number of visible occlusion fields is greater than or equal to a certain number (e.g., the number of occlusion fields that are unoccupied is greater than or equal to a certain number) be able to respond to a decision (sufficient to exceed a certain threshold for safe planning). In some examples, the sufficiency of information may include observing the undetermined occlusion field for a period of time to increase the level of confidence that the occlusion field is unoccupied. In some examples, the sufficiency of information may be related to the distance of the intersection traveled by the autonomous vehicle and/or related to the speed, acceleration, and/or time of the autonomous vehicle traversing a portion of the intersection. The method may include determining the extent of occlusion and unoccupied areas.

いくつかの例では、プロセス200及び300を並行して(例えば、実質的に同時に)実行でき、各プロセスの出力を比較して、1つ以上のオクルージョンフィールドの状態について、及び/又はオクルージョングリッドの状態についての全体的な信頼レベルを高めることができる。いくつかの例では、LIDARデータを使用して車両102までの距離閾値内にあるオクルージョンフィールドの状態を決定することができるが、画像データを使用して車両102からの距離閾値以上のオクルージョンフィールドの状態を決定することもできる。もちろん、本明細書で説明する例は限定することを意図するものではなく、他の実装は本開示の範囲内であると見なされる。 In some examples, processes 200 and 300 can be executed in parallel (e.g., substantially simultaneously) and the output of each process can be compared to determine the state of one or more occlusion fields and/or the occlusion grid. It can increase the overall level of confidence about the condition. In some examples, LIDAR data may be used to determine the state of an occlusion field that is within a distance threshold to the vehicle 102, while image data may be used to determine the state of an occlusion field that is within a distance threshold from the vehicle 102. It is also possible to determine the state. Of course, the examples described herein are not intended to be limiting, and other implementations are considered within the scope of this disclosure.

図4は、本明細書で記載する技法を実装するための例示のシステム400のブロック図を示す。少なくとも1つの例では、システム400は車両402を含むことができ、これは図1の車両102に対応できる。 FIG. 4 depicts a block diagram of an example system 400 for implementing the techniques described herein. In at least one example, system 400 can include a vehicle 402, which can correspond to vehicle 102 of FIG.

車両402は、車両コンピューティングデバイス404、1つ以上のセンサシステム406、1つ以上のエミッタ408、1つ以上の通信接続部410、少なくとも1つの直接接続部412、及び1つ以上の駆動モジュール414を含むことができる。 Vehicle 402 includes a vehicle computing device 404, one or more sensor systems 406, one or more emitters 408, one or more communication connections 410, at least one direct connection 412, and one or more drive modules 414. can include.

車両コンピューティングデバイス404は、1つ以上のプロセッサ416及び1つ以上のプロセッサ416と通信可能に結合されたメモリ418を含むことができる。図示の例では、車両402は自律車両である。しかしながら、車両402は任意の他のタイプの車両、又は少なくとも画像キャプチャデバイス(例えば、カメラ対応スマートフォン)を有する任意の他のシステムとすることができる。図示の例では、車両コンピューティングデバイス404のメモリ418は、位置測定コンポーネント420、知覚コンポーネント422、計画コンポーネント424、1つ以上のシステムコントローラ426、1つ以上のマップ428、予測コンポーネント430、オクルージョン監視コンポーネント432、オクルージョン領域コンポーネント434、光線放射コンポーネント436、区分コンポーネント438、投影コンポーネント440、オクルージョンコンテキストコンポーネント442、及び速度コンポーネント444を格納している。例示の目的でメモリ418内に存在するものとして図4に示すように、位置測定コンポーネント420、知覚コンポーネント422、計画コンポーネント424、1つ以上のシステムコントローラ426、1つ以上のマップ428、予測コンポーネント430、オクルージョン監視コンポーネント432、オクルージョン領域コンポーネント434、光線放射コンポーネント436、区分コンポーネント438、投影コンポーネント440、オクルージョンコンテキストコンポーネント442、及び速度コンポーネント444は、追加的に又は代替的に車両402にアクセス可能である(例えば、車両402から離れたメモリに格納されている、又はそうでなければアクセス可能である)ことができることを意図されている。いくつかの例では、車両コンピューティングデバイス404は図1の車両コンピューティングデバイス106に対応できる。 Vehicle computing device 404 may include one or more processors 416 and memory 418 communicatively coupled to one or more processors 416 . In the illustrated example, vehicle 402 is an autonomous vehicle. However, vehicle 402 may be any other type of vehicle or any other system having at least an image capture device (eg, a camera-enabled smartphone). In the illustrated example, the memory 418 of the vehicle computing device 404 includes a location component 420, a perception component 422, a planning component 424, one or more system controllers 426, one or more maps 428, a prediction component 430, an occlusion monitoring component 432, an occlusion region component 434, a ray emission component 436, a segmentation component 438, a projection component 440, an occlusion context component 442, and a velocity component 444. As shown in FIG. 4 as residing in memory 418 for illustrative purposes, a location component 420, a perception component 422, a planning component 424, one or more system controllers 426, one or more maps 428, a prediction component 430 , occlusion monitoring component 432, occlusion region component 434, light emission component 436, segmentation component 438, projection component 440, occlusion context component 442, and velocity component 444 are additionally or alternatively accessible to vehicle 402 ( For example, it is contemplated that the information may be stored in or otherwise accessible in memory remote from vehicle 402. In some examples, vehicle computing device 404 can correspond to vehicle computing device 106 of FIG.

少なくとも1つの例では、位置測定コンポーネント420はセンサシステム406からデータを受信し、車両402の位置及び/又は向き(例えば、1つ以上のx、y、z位置、ロール、ピッチ、又はヨー)を決定する機能を含むことができる。例えば、位置測定コンポーネント420は、環境のマップを含み、及び/又は要求/受信でき、マップ内の自律車両の位置及び/又は向きを継続的に決定できる。いくつかの例では、位置測定コンポーネント420は、SLAM(同時位置測定及びマッピング)、CLAMS(同時に較正、位置測定及びマッピング)、相対SLAM、バンドル調整、非線形最小二乗最適化などを利用して、画像データ、LIDARデータ、radarデータ、IMUデータ、GPSデータ、ホイールエンコーダデータなどを受信し、自律車両の位置を正確に決定できる。いくつかの例では、本明細書で論じるように、位置測定コンポーネント420は車両402の様々なコンポーネントにデータを提供して、軌道を生成するための、及び/又はオクルージョングリッドを含むマップデータをメモリから検索することを決定するための自律車両の初期位置を決定できる。 In at least one example, position measurement component 420 receives data from sensor system 406 and determines the position and/or orientation (e.g., one or more x, y, z positions, roll, pitch, or yaw) of vehicle 402. It can include the ability to determine. For example, positioning component 420 can include and/or request/receive a map of the environment and can continually determine the position and/or orientation of the autonomous vehicle within the map. In some examples, the localization component 420 utilizes SLAM (simultaneous localization and mapping), CLAMS (simultaneous calibration, localization and mapping), relative SLAM, bundle adjustment, nonlinear least squares optimization, etc. data, LIDAR data, RADAR data, IMU data, GPS data, wheel encoder data, etc., to accurately determine the position of an autonomous vehicle. In some examples, position measurement component 420 provides data to various components of vehicle 402 to generate trajectories and/or to store map data including occlusion grids in memory, as discussed herein. The initial position of the autonomous vehicle can be determined for deciding to search from.

いくつかの例では、知覚コンポーネント422は、物体検出、区分及び/又は分類を実行する機能を含むことができる。いくつかの例では、知覚コンポーネント422は、車両402に近接するエンティティの存在及び/又はエンティティタイプ(例えば、車、歩行者、自転車、動物、建物、木、路面、縁石、歩道、不明など)としてのエンティティの分類を示す処理済みのセンサデータを提供できる。追加及び/又は代替の例では、知覚コンポーネント422は、検出されたエンティティ(例えば、追跡された物体)及び/又はエンティティが位置する環境に関連付けられた1つ以上の特性を示す処理済みのセンサデータを提供できる。いくつかの例では、エンティティに関連付けられた特性は、限定しないが、x位置(グローバル及び/又はローカルポジション)、y位置(グローバル及び/又はローカルポジション)、z位置(グローバル及び/又はローカルポジション)、方向(例えば、ロール、ピッチ、ヨー)、エンティティタイプ(例えば、分類)、エンティティの速度、エンティティの加速度、エンティティの範囲(サイズ)などを含むことができる。環境に関連付けられた特性は、限定しないが、環境内の別のエンティティの存在、環境内の別のエンティティの状態、時刻、曜日、季節、気象条件、暗闇/光の表示などを含むことができる。いくつかの例では、知覚コンポーネント422は、本明細書で論じるように、区分コンポーネント438と連動して作動し、画像データを区分できる。 In some examples, perception component 422 may include functionality to perform object detection, segmentation, and/or classification. In some examples, the perception component 422 detects the presence and/or entity type of an entity proximate to the vehicle 402 (e.g., car, pedestrian, bicycle, animal, building, tree, road surface, curb, sidewalk, unknown, etc.). can provide processed sensor data that indicates the classification of entities. In additional and/or alternative examples, the perception component 422 transmits processed sensor data indicative of one or more characteristics associated with a detected entity (e.g., a tracked object) and/or the environment in which the entity is located. can be provided. In some examples, characteristics associated with an entity include, but are not limited to, x position (global and/or local position), y position (global and/or local position), z position (global and/or local position). , direction (eg, roll, pitch, yaw), entity type (eg, classification), velocity of the entity, acceleration of the entity, range (size) of the entity, etc. Characteristics associated with the environment may include, but are not limited to, the presence of another entity within the environment, the state of another entity within the environment, time of day, day of the week, season, weather conditions, darkness/light display, etc. . In some examples, perception component 422 can operate in conjunction with segmentation component 438 to segment image data, as discussed herein.

一般に、計画コンポーネント424は環境を横断するために車両402が辿る経路を決定できる。例えば、計画コンポーネント424は様々なルート及び軌道並びに様々なレベルの詳細を決定できる。例えば、計画コンポーネント424は第1の位置(例えば現在の位置)から第2の位置(例えば目標の位置)へ走行するルートを決定できる。この議論の目的に、ルートは2つの位置の間を走行するための一連の経由地点にできる。非限定的な例として、経由地点は、道路、交差点、全地球測位システム(GPS)座標などが含まれる。さらに、計画コンポーネント424は、第1の位置から第2の位置への経路の少なくとも一部に沿って自律車両をガイドするための命令を生成できる。少なくとも1つの例では、計画コンポーネント424は一連の経由地点内の第1の経由地点から一連の経由地点の第2の経由地点まで自律車両をどのようにガイドするかを決定できる。いくつかの例では、命令は軌道又は軌道の一部とすることができる。いくつかの例では、receding horizon技術に従って、複数の軌道を実質的に同時に(例えば、技術的許容範囲内で)生成でき、複数の軌道のうちの1つが車両402の走行のために選択される。 In general, planning component 424 can determine a route that vehicle 402 will take to traverse the environment. For example, planning component 424 can determine various routes and trajectories and various levels of detail. For example, planning component 424 can determine a route to travel from a first location (eg, a current location) to a second location (eg, a target location). For purposes of this discussion, a route can be a series of waypoints for driving between two locations. By way of non-limiting example, way points include roads, intersections, Global Positioning System (GPS) coordinates, and the like. Additionally, planning component 424 can generate instructions for guiding the autonomous vehicle along at least a portion of the path from the first location to the second location. In at least one example, the planning component 424 can determine how to guide the autonomous vehicle from a first waypoint in the series of waypoints to a second waypoint in the series of waypoints. In some examples, an instruction can be a trajectory or a portion of a trajectory. In some examples, multiple trajectories can be generated substantially simultaneously (e.g., within technical tolerances) in accordance with the receding horizon technique, and one of the multiple trajectories is selected for travel of vehicle 402. .

いくつかの例では、計画コンポーネント424は、本明細書で論じるように、オクルージョンフィールド及び/又はオクルージョングリッドの状態に少なくとも部分的に基づいて、車両402の1つ以上の軌道を生成できる。いくつかの例では、計画コンポーネント424は、線形時相論理及び/又は信号時相論理などの時相論理を使用して、車両402の1つ以上の軌道を評価できる。計画コンポーネント424における時相論理の利用の詳細は、参照によりその全体が本明細書に組み込まれる米国特許出願第15/632,147号に論じられている。 In some examples, planning component 424 can generate one or more trajectories for vehicle 402 based at least in part on conditions of the occlusion field and/or occlusion grid, as discussed herein. In some examples, planning component 424 can evaluate one or more trajectories of vehicle 402 using temporal logic, such as linear temporal logic and/or signal temporal logic. Details of the use of temporal logic in planning component 424 are discussed in US patent application Ser. No. 15/632,147, which is incorporated herein by reference in its entirety.

少なくとも1つの例示において、車両コンピューティングデバイス404は、1つ以上のシステムコントローラ426を含むことができ、これは、車両402のステアリング、推進、制動、安全性、エミッタ、通信、及びその他のシステムを制御するよう構成できる。これらのシステムコントローラ426は、車両402の駆動モジュール414及び/又は他のコンポーネントの対応するシステムと通信及び/又は制御できる。 In at least one example, vehicle computing device 404 can include one or more system controllers 426 that control steering, propulsion, braking, safety, emitter, communications, and other systems of vehicle 402. Can be configured to control These system controllers 426 can communicate with and/or control corresponding systems of drive module 414 and/or other components of vehicle 402 .

メモリ418はさらに、環境内を走行する車両402によって使用できる1つ以上のマップ428を含むことができる。この説明の目的上、限定しないが、マップはトポロジ(交差点のような)、通り、山脈、道路、地形、及び一般的な環境などの環境についての情報を提供可能である2次元、3次元、又はN次元でモデル化された任意の数のデータ構造とすることができる。いくつかの例では、マップには、限定しないが、テクスチャ情報(例えば、色情報(例えば、RGB色情報、ラボ色情報、HSV/HSL色情報)など)、強度情報(例えば、LIDAR情報、RADAR情報など)、空間情報(例えば、メッシュに投影された画像データ、個々の「サーフェル」(例えば、個々の色及び/又は強度に関連付けられたポリゴン))、反射率情報(例えば、鏡面反射率情報、再帰反射率情報、BRDF情報、BSSRDF情報など)を含むことができる。一例では、マップは環境の3次元メッシュを含むことができる。いくつかの例では、マップの個々のタイルが環境の個別部分を表すように、マップをタイルフォーマットで格納でき、必要に応じて作業メモリに読み込むことができる。少なくとも1つの例では、1つ以上のマップ428は、少なくとも1つのマップ(例えば、画像及び/又はメッシュ)を含むことができる。いくつかの例では、車両402は、マップ428に少なくとも部分的に基づいて制御できる。すなわち、マップ428を、位置測定コンポーネント420、知覚コンポーネント422、及び/又は計画コンポーネント424に関連して使用して、車両402の位置を決定し、環境内の物体を識別し、並びに/又は環境内を走行するためのルート及び/若しくは軌道を生成できる。 Memory 418 can further include one or more maps 428 that can be used by vehicle 402 as it travels through the environment. For the purposes of this description, maps can provide information about the environment such as, but not limited to, topology (such as intersections), streets, mountain ranges, roads, terrain, and the general environment in two dimensions, three dimensions, or any number of data structures modeled in N dimensions. In some examples, the map includes, but is not limited to, texture information (e.g., color information (e.g., RGB color information, lab color information, HSV/HSL color information), etc.), intensity information (e.g., LIDAR information, RADAR information), etc. information), spatial information (e.g. image data projected onto a mesh, individual "surfels" (e.g. polygons associated with individual colors and/or intensities)), reflectance information (e.g. specular reflectance information) , retroreflectivity information, BRDF information, BSSRDF information, etc.). In one example, the map may include a three-dimensional mesh of the environment. In some examples, maps can be stored in tile format and loaded into working memory as needed, such that individual tiles of the map represent separate parts of the environment. In at least one example, one or more maps 428 can include at least one map (eg, an image and/or a mesh). In some examples, vehicle 402 can be controlled based at least in part on map 428. That is, map 428 is used in conjunction with localization component 420, perception component 422, and/or planning component 424 to determine the location of vehicle 402, identify objects in the environment, and/or identify objects in the environment. A route and/or trajectory for traveling can be generated.

いくつかの例では、1つ以上のマップ428は、ネットワーク446を介してアクセス可能なリモートコンピューティングデバイス(コンピューティングデバイス448など)に格納できる。いくつかの例では、複数のマップ428は、例えば、特性(例えば、エンティティタイプ、時刻、曜日、季節など)に基づいて格納できる。複数のマップ428を格納することは同様のメモリ要件を有するが、マップ内のデータにアクセスできる速度を増加できる。 In some examples, one or more maps 428 can be stored on a remote computing device (such as computing device 448) that is accessible via network 446. In some examples, multiple maps 428 can be stored based on characteristics (eg, entity type, time of day, day of the week, season, etc.), for example. Storing multiple maps 428 has similar memory requirements, but can increase the speed at which data within the maps can be accessed.

いくつかの例では、1つ以上のマップ428は、環境内の個々の位置に関連付けられたオクルージョングリッドを格納できる。例えば、車両402が環境を横断すると、及び車両402に近接する領域を表すマップがメモリに読み込まれると、位置に関連付けられた1つ以上のオクルージョングリッドもメモリに読み込むことができる。 In some examples, one or more maps 428 can store occlusion grids associated with individual locations within the environment. For example, as vehicle 402 traverses the environment and a map representing an area proximate to vehicle 402 is loaded into memory, one or more occlusion grids associated with the location may also be loaded into memory.

いくつかの例では、予測コンポーネント430は、環境内の物体の予測軌道を生成する機能を含むことができる。例えば、予測コンポーネント430は、車両402からの閾値距離内で、車両、歩行者、動物などの1つ以上の予測軌道を生成できる。いくつかの例では、図8に関連して論じるように、予測コンポーネント430は物体の痕跡を測定し、物体が環境内のオクルージョン領域に進入している時の物体の軌道を生成できる。従って、物体が車両402の1つ以上のセンサから可視でない場合でさえ、予測コンポーネント430は、物体がセンサデータに取り込まれなくても、物体についてのデータを維持するようにメモリ内の物体の軌道を延長できる。 In some examples, prediction component 430 may include functionality to generate predicted trajectories of objects within the environment. For example, prediction component 430 can generate one or more predicted trajectories for vehicles, pedestrians, animals, etc. within a threshold distance from vehicle 402. In some examples, as discussed in connection with FIG. 8, the prediction component 430 can measure the footprint of the object and generate a trajectory of the object as it enters an occlusion region in the environment. Thus, even if an object is not visible to one or more sensors of vehicle 402, prediction component 430 maintains the object's trajectory in memory, even if the object is not captured in sensor data. can be extended.

一般に、オクルージョン監視コンポーネント432は、オクルージョングリッドデータを生成及び/又はアクセスし、オクルージョングリッドのオクルージョン領域及び非オクルージョン領域を決定する、並びにオクルージョングリッドのオクルージョンフィールドのオクルージョン状態及び/又は占有状態を決定する機能を含むことができる。いくつかの例では、オクルージョン監視コンポーネント432は、図1のオクルージョン監視コンポーネント108に対応できる。本明細書で論じるように、オクルージョン監視コンポーネント432は、LIDARデータ、画像データ、マップデータなどを受信して、環境内のオクルージョン関連情報を決定できる。いくつかの例では、オクルージョン監視コンポーネント432は計画コンポーネント424にオクルージョン情報を提供して、いつ車両402を制御し環境を横断させるかを決定できる。オクルージョン監視コンポーネント432は予測コンポーネント430にオクルージョン情報を提供して、環境内のオクルージョン領域内の1つ以上の物体の予測軌道を生成できる。オクルージョン監視コンポーネント432の追加の詳細はメモリ418に格納された残りのコンポーネントに関連して論じる。 In general, occlusion monitoring component 432 is capable of generating and/or accessing occlusion grid data, determining occlusion and non-occlusion areas of an occlusion grid, and determining occlusion states and/or occupancy states of occlusion fields of an occlusion grid. can include. In some examples, occlusion monitoring component 432 can correspond to occlusion monitoring component 108 of FIG. 1. As discussed herein, occlusion monitoring component 432 can receive LIDAR data, image data, map data, etc. to determine occlusion-related information in the environment. In some examples, occlusion monitoring component 432 can provide occlusion information to planning component 424 to determine when to control vehicle 402 to traverse the environment. Occlusion monitoring component 432 can provide occlusion information to prediction component 430 to generate predicted trajectories of one or more objects within an occlusion region in the environment. Additional details of occlusion monitoring component 432 are discussed in conjunction with the remaining components stored in memory 418.

オクルージョン領域コンポーネント434はオクルージョンであるオクルージョングリッドの一部(例えば、図1のオクルージョン領域126と同様の)を決定する、及び非オクルージョンであるオクルージョングリッドの一部(例えば、図1の非オクルージョン領域124と同様の)を決定する機能を含むことができる。例えば、オクルージョン領域コンポーネント434は、LIDARデータ、画像データ、RADARデータなどを受信して、領域が車両402の1つ以上のセンサから「可視」であるかどうかを決定できる。いくつかの例では、オクルージョン領域コンポーネント434はセンサデータをマップデータに投影して、データが配置されていないマップの領域を決定する機能を含むことができる。いくつかの例では、マップデータを使用して、観測可能な領域の「外側」に領域があることを決定し、領域をオクルージョン領域と決定できる。いくつかの例では、オクルージョン領域コンポーネント434は環境内の物体に基づいてオクルージョン領域を動的に生成できる。 Occlusion region component 434 determines portions of the occlusion grid that are occluded (e.g., similar to occlusion region 126 of FIG. 1) and portions of the occlusion grid that are non-occlusion (e.g., non-occlusion region 124 of FIG. 1). (similar to). For example, occlusion area component 434 can receive LIDAR data, image data, RADAR data, etc. to determine whether an area is “visible” from one or more sensors of vehicle 402. In some examples, occlusion region component 434 may include functionality to project sensor data onto map data to determine regions of the map where no data is located. In some examples, map data can be used to determine that there is a region "outside" the observable region, and the region can be determined to be an occlusion region. In some examples, occlusion region component 434 can dynamically generate occlusion regions based on objects in the environment.

光線放射コンポーネント436は、LIDARデータを受信し、特定のオクルージョンフィールドのオクルージョン状態及び/又は占有状態を決定するために、オクルージョンフィールドを通るようにLIDARデータを光線放射する機能を含むことができる。いくつかの例では、光線放射コンポーネント436は特定のオクルージョンフィールドに関連付けられたLIDARリターンの予想数を決定でき、特定のフィールドに関連付けられた実際のLIDARリターンの数を決定できる。いくつかの例では、本明細書で論じるように、光線放射コンポーネント436はオクルージョンフィールドのオクルージョン状態及び/又は占有状態に関連付けられた信頼レベルを決定できる。理解できるように、本明細書で論じる機能は、LIDARデータに限定されず、複数のセンサ技術(例えば、RADAR、SONAR、飛行時間型イメージャ、深度カメラなど)を使用してオクルージョン状態及び/又は占有状態を決定するために使用できる。 The beam emitting component 436 may include functionality to receive the LIDAR data and beam the LIDAR data through the occlusion field to determine the occlusion status and/or occupancy status of a particular occlusion field. In some examples, the light emitting component 436 can determine the expected number of LIDAR returns associated with a particular occlusion field and can determine the actual number of LIDAR returns associated with a particular field. In some examples, the light emitting component 436 can determine a confidence level associated with the occlusion state and/or occupancy state of the occlusion field, as discussed herein. As can be appreciated, the functionality discussed herein is not limited to LIDAR data, but uses multiple sensor technologies (e.g., RADAR, SONAR, time-of-flight imagers, depth cameras, etc.) to determine occlusion conditions and/or occupancy. Can be used to determine status.

区分コンポーネント438は、画像データを受信し、画像データを区分して、画像データで表される様々な物体及び/又は領域を識別する機能を含むことができる。例えば、区分コンポーネント438は、限定しないが、運転可能路面、自由空間(例えば、運転可能路面)及び/又は非自由空間、車両、歩行者、建物、植生などを含む画像データを識別及び意味分類内に区分するように訓練された1つ以上の機械学習アルゴリズムを含むことができる。いくつかの例では、区分コンポーネント438は知覚コンポーネント422と連動して作動し、例えば、画像データ及び/又はLIDARデータに対して意味区分を実行できる。 Segmentation component 438 may include functionality to receive image data and segment the image data to identify various objects and/or regions represented in the image data. For example, the segmentation component 438 identifies and categorizes image data including, but not limited to, drivable surfaces, free space (e.g., drivable surfaces), and/or non-free space, vehicles, pedestrians, buildings, vegetation, etc. can include one or more machine learning algorithms trained to segment. In some examples, segmentation component 438 can operate in conjunction with perception component 422 to perform semantic segmentation on image data and/or LIDAR data, for example.

投影コンポーネント440は区分された画像データ並びにオクルージョングリッド及びオクルージョンフィールドを含むマップデータを受信し、オクルージョンフィールドを区分画像データに投影する機能を含むことができる。いくつかの例では、投影コンポーネント440は、オクルージョンフィールドを運転可能路面(例えば、クリアな道路)に、領域を占有する、又はそうでなければ未決定の物体(例えば、車両)に投影するかどうかを決定することによって、1つ以上のオクルージョンフィールドの占有率を決定できる。 Projection component 440 may include functionality to receive segmented image data and map data that includes an occlusion grid and occlusion field, and to project the occlusion field onto the segmented image data. In some examples, projection component 440 determines whether to project the occlusion field onto a drivable surface (e.g., a clear road), occupying area, or otherwise undetermined objects (e.g., a vehicle). By determining , the occupancy of one or more occlusion fields can be determined.

オクルージョンコンテキストコンポーネント442は環境のコンテキストに基づいて、オクルージョングリッド、特にオクルージョン領域の占有率を決定する機能を含むことができる。理解できるように、オクルージョングリッドの一部は車両402がオクルージョン領域のセンサデータを取り込み得ないような物体によってオクルージョンであることができる。いくつかの例では、オクルージョンコンテキストコンポーネント442はオクルージョン領域の物理的に前方の領域を監視し(例えば、トラフィックフローの方向に関して)、物体がオクルージョン領域に進入しているかどうかを決定できる。オクルージョン領域のサイズ、及びその後の時間の経過に基づいて、物体がオクルージョン領域に進入していない場合、オクルージョンコンテキストコンポーネント442はオクルージョン領域が占有されていないことを決定できる。非限定的な例として、そのようなオクルージョンコンテキストコンポーネント442は2車線道路の交差点に接近する車両の存在を決定でき、オクルージョン領域の後方を通過する物体が検出されないという決定に基づいて、オクルージョンコンテキストコンポーネント442はオクルージョン領域が非占有であると決定できる。いくつかの例では、占有状態の決定に関連付けられた信頼レベルは時間の経過とともに増加できる(例えば、追加の観測値を蓄積することによって)。いくつかの例では、動的に生成されたオクルージョングリッドの場合、オクルージョングリッドの存続期間は、オクルージョングリッドがインスタンス化されてからの時間量に対応できる。いくつかの例では、オクルージョングリッドの占有状態の信頼レベルは、オクルージョングリッドの存続期間に少なくとも部分的に基づくことができる。いくつかの例では、オクルージョンコンテキストコンポーネント442は、LIDARデータ、画像データ、RADARデータなどを受信して、オクルージョン領域のコンテキストを決定できる。 The occlusion context component 442 may include functionality to determine the occupancy of an occlusion grid, particularly an occlusion region, based on the context of the environment. As can be appreciated, portions of the occlusion grid may be occluded by objects such that vehicle 402 cannot capture sensor data in the occluded area. In some examples, occlusion context component 442 can monitor an area physically in front of the occlusion area (eg, with respect to the direction of traffic flow) and determine whether an object is entering the occlusion area. Based on the size of the occlusion region and the subsequent passage of time, the occlusion context component 442 can determine that the occlusion region is unoccupied if the object has not entered the occlusion region. As a non-limiting example, such an occlusion context component 442 may determine the presence of a vehicle approaching an intersection on a two-lane road, and based on the determination that no objects passing behind the occlusion area are detected, 442 can determine that the occlusion area is unoccupied. In some examples, the confidence level associated with determining occupancy can increase over time (eg, by accumulating additional observations). In some examples, for dynamically generated occlusion grids, the lifetime of the occlusion grid can correspond to the amount of time since the occlusion grid was instantiated. In some examples, the confidence level of occupancy of the occlusion grid can be based at least in part on the lifetime of the occlusion grid. In some examples, occlusion context component 442 can receive LIDAR data, image data, RADAR data, etc. to determine the context of the occlusion region.

速度コンポーネント444は、環境を横断している間の車両402の速度及び/又は加速度レベルを決定する機能を含むことができる。いくつかの例では、速度及び/又は加速レベルは、限定しないが、低速(例えば、「クリープモード」)、通常の速度(例えば、通常速度)、及び高速(例えば、「ブーストモード」)を含むことができる。例えば、交差点又は領域全体を横断することなく交差点又は領域に進入する車両402のために、低速レベルを選択できる。例えば、そして図6に関連して論じられるように、通常制御に従って進行する前に、車両402を制御し軌道に沿って緩やかに移動させ、より多くの領域を「見」て、オクルージョン領域のサイズを減少させ得る。そのような軌道の場合、速度コンポーネント444は低速を選択できる。別の例として、オクルージョングリッドがクリアである場合、環境を横断する車両402のために通常速度を選択できる。場合によっては、オクルージョングリッドのサイズが障害物に起因し減少する場合、及び/又は環境内の限られた視線に基づき、高速を選択して、車両402が対向車に曝すことのできる時間を減少できる。いくつかの例では、速度コンポーネント444は、計画コンポーネント424及び/又はシステムコントローラ426と連動して作動し、車両402の加速度を制御できる。 Velocity component 444 may include functionality that determines the velocity and/or acceleration level of vehicle 402 while traversing the environment. In some examples, speeds and/or acceleration levels include, but are not limited to, low speeds (e.g., "creep mode"), normal speeds (e.g., normal speeds), and high speeds (e.g., "boost mode"). be able to. For example, a low speed level may be selected for a vehicle 402 entering an intersection or area without traversing the entire intersection or area. For example, and as discussed in connection with FIG. 6, before proceeding according to normal control, the vehicle 402 may be controlled to move slowly along the trajectory to "see" more area and size the occlusion area. can be reduced. For such a trajectory, velocity component 444 may select a low velocity. As another example, if the occlusion grid is clear, a normal speed may be selected for vehicle 402 traversing the environment. In some cases, if the size of the occlusion grid is reduced due to obstacles and/or based on limited line of sight in the environment, a high speed is selected to reduce the amount of time vehicle 402 can be exposed to oncoming traffic. can. In some examples, velocity component 444 can operate in conjunction with planning component 424 and/or system controller 426 to control acceleration of vehicle 402.

理解できるように、本明細書で論じるコンポーネント(例えば、位置測定コンポーネント420、知覚コンポーネント422、計画コンポーネント424、1つ以上のシステムコントローラ426、1つ以上のマップ428、予測コンポーネント430、オクルージョン監視コンポーネント432、オクルージョン領域コンポーネント434、光線放射コンポーネント436、区分コンポーネント438、投影コンポーネント440、オクルージョンコンテキストコンポーネント442、及び速度コンポーネント444)は、例示の目的で分離されたものとして説明する。ただし、様々なコンポーネントによって実行される操作は、他の任意のコンポーネントと組み合わす、又は他の任意のコンポーネントで実行できる。例として、区分機能は知覚コンポーネント422(例えば、区分コンポーネント438ではなく)によって実行され、システムによって転送されるデータの量を減少し得る。 As can be appreciated, the components discussed herein (e.g., localization component 420, perception component 422, planning component 424, one or more system controllers 426, one or more maps 428, prediction component 430, occlusion monitoring component 432) , occlusion region component 434, ray emission component 436, segmentation component 438, projection component 440, occlusion context component 442, and velocity component 444) are described as separate for illustrative purposes. However, the operations performed by the various components can be performed in combination with or on any other components. As an example, segmentation functionality may be performed by perception component 422 (eg, rather than segmentation component 438) to reduce the amount of data transferred by the system.

いくつかの例では、本明細書で論じるコンポーネントの内のいくつか又は全ての態様は、任意のモデル、アルゴリズム及び/又は機械学習アルゴリズムを含むことができる。例えば、いくつかの例では、メモリ418(及び以下で論じるメモリ452)の中のコンポーネントをニューラルネットワークとして実装できる。 In some examples, aspects of some or all of the components discussed herein may include any models, algorithms, and/or machine learning algorithms. For example, in some examples, components within memory 418 (and memory 452, discussed below) can be implemented as a neural network.

本明細書で説明するように、例示のニューラルネットワークは、入力データを一連の接続された層に通して出力を作りだす生物学的に着想を得たアルゴリズムである。ニューラルネットワークの各層はまた別のニューラルネットワークを含むことができ、又は任意の数の層(畳み込みかどうかに関係なく)を含むことができる。本開示のコンテキストで理解できるように、ニューラルネットワークは機械学習を利用でき、これは学習されたパラメータに基づいて出力が生成されるようなアルゴリズムの広範なクラスを指すことができる。 As described herein, an exemplary neural network is a biologically inspired algorithm that passes input data through a series of connected layers to produce an output. Each layer of a neural network can also include another neural network, or can include any number of layers (whether convolutional or not). As can be understood in the context of this disclosure, neural networks can utilize machine learning, which can refer to a broad class of algorithms in which outputs are generated based on learned parameters.

ニューラルネットワークのコンテキストで論じたが、任意のタイプの機械学習をこの開示と一致して使用できる。例えば限定しないが、機械学習アルゴリズムは、回帰アルゴリズム(例えば、通常の最小二乗回帰(OLSR)、線形回帰、ロジスティック回帰、ステップワイズ回帰、多変量適応回帰スプライン(MARS)、局所的に推定されたスカープロット平滑化(LOESS))、インスタンスベースのアルゴリズム(例えば、リッジ回帰、最小絶対収縮および選択演算子(LASSO)、弾性ネット、最小角度回帰(LARS))、決定木アルゴリズム(例えば、分類および回帰木(CART)、反復二分法3(ID3)、カイ二乗自動相互作用検出(CHAID)、決定切り株、条件付き決定木))、ベイジアンアルゴリズム(例えば、単純ベイズ、ガウス単純ベイズ、多項単純ベイズ、平均1依存推定量(AODE)、ベイジアン信念ネットワーク(BNN)、ベイジアンネットワーク)、クラスタリングアルゴリズム(例えば、k平均、k中央値、期待値最大化(EM)、階層的クラスタリング)、相関ルール学習アルゴリズム(例えば、パーセプトロン、バックプロパゲーション、ホップフィールドネットワーク、動径基底関数ネットワーク(RBFN))、ディープラーニングアルゴリズム(例えばディープボルツマンマシーン(DBM)、ディープブリーフネットワーク(DBN)、重畳型ニューラルネットワーク(CNN)、スタック・オートエンコーダ)、次元数削減アルゴリズム(例えば主成分分析(PCA)、主成分回帰(PCR)、部分最小二乗回帰(PLSR)、サモンマッピング、多次元スケーリング(MDS)、射影追跡、線形判別分析(LDA)、混合判別分析(MDA)、二次判別分析(QDA)、柔軟判別分析(FDA))、アンサンブルアルゴリズム(例えば、ブースティング、ブートストラップ集計(バギング)、アダブースト、スタック一般化(ブレンディング)、勾配ブースティングマシン(GBM)、勾配ブースティング回帰ツリー(GBRT)、ランダムフォレスト)、SVM(サポートベクターマシン)、教師あり学習、教師なし学習、半教師あり学習などの方法を含むことができる。 Although discussed in the context of neural networks, any type of machine learning can be used consistent with this disclosure. For example, without limitation, machine learning algorithms may include regression algorithms (e.g., ordinary least squares regression (OLSR), linear regression, logistic regression, stepwise regression, multivariate adaptive regression splines (MARS), locally estimated scarcity plot smoothing (LOESS)), instance-based algorithms (e.g. ridge regression, least absolute shrinkage and selection operator (LASSO), elastic net, least angle regression (LARS)), decision tree algorithms (e.g. classification and regression trees), (CART), Iterative Bisection Method 3 (ID3), Chi-Square Automatic Interaction Detection (CHAID), Decision Stump, Conditional Decision Tree)), Bayesian algorithms (e.g. Naive Bayes, Gaussian Naive Bayes, Multinomial Naive Bayes, Mean 1 dependent estimator (AODE), Bayesian belief network (BNN), Bayesian network), clustering algorithms (e.g. k-means, k-median, expectation maximization (EM), hierarchical clustering), association rule learning algorithms (e.g. perceptron, backpropagation, Hopfield network, radial basis function network (RBFN)), deep learning algorithms (e.g. deep Boltzmann machine (DBM), deep brief network (DBN), convolutional neural network (CNN), stack auto encoder), dimensionality reduction algorithms (e.g. principal component analysis (PCA), principal component regression (PCR), partial least squares regression (PLSR), Summon mapping, multidimensional scaling (MDS), projective pursuit, linear discriminant analysis (LDA) , mixture discriminant analysis (MDA), quadratic discriminant analysis (QDA), flexible discriminant analysis (FDA)), ensemble algorithms (e.g. boosting, bootstrap aggregation (bagging), AdaBoost, stack generalization (blending), gradient boost methods such as gradient boosting regression trees (GBRT), random forests), support vector machines (SVM), supervised learning, unsupervised learning, and semi-supervised learning.

アーキテクチャの追加の例は、ResNet50、ResNet101、VGG、DenseNet、PointNetなどのニューラルネットワークを含む。 Additional examples of architectures include neural networks such as ResNet50, ResNet101, VGG, DenseNet, PointNet, etc.

少なくとも1つの例では、センサシステム406は、LIDARセンサ、radarセンサ、超音波トランスデューサー、sonarセンサ、位置センサ(例えば、GPS、コンパスなど)、慣性センサ(例えば、慣性測定ユニット(IMU)、加速度計、磁力計、ジャイロスコープなど)、カメラ(例えばRGB、IR、強度、深度、飛行時間など)、マイク、ホイールエンコーダ、環境センサ(例えば温度センサ、湿度センサ、光センサ、圧力センサなど)など、を含むことができる。センサシステム406は、センサのこれら又は他のタイプのそれぞれの複数の実例を含むことができる。例えば、LIDARセンサは、車両402のコーナー、フロント、バック、サイド、及び/又はトップに設置された個々のLIDARセンサを含むことができる。別の例として、カメラセンサは車両402の外部及び/又は内部の様々な位置に配置された複数のカメラを含むことができる。センサシステム406は車両コンピューティングデバイス404に入力を提供できる。追加的又は代替的に、センサシステム406は、所定の期間が経過した後、ほぼ実時間で、特定の周波数で1つ以上のコンピューティングデバイスに1つ以上のネットワーク446を介してセンサデータを送信できる。いくつかの例では、センサシステム406は図1のセンサシステム104に対応できる。 In at least one example, sensor system 406 includes a LIDAR sensor, a radar sensor, an ultrasound transducer, a sonar sensor, a position sensor (e.g., GPS, compass, etc.), an inertial sensor (e.g., an inertial measurement unit (IMU), an accelerometer, etc.). , magnetometer, gyroscope, etc.), cameras (e.g. RGB, IR, intensity, depth, time of flight, etc.), microphones, wheel encoders, environmental sensors (e.g. temperature sensor, humidity sensor, light sensor, pressure sensor, etc.), etc. can be included. Sensor system 406 may include multiple instances of each of these or other types of sensors. For example, the LIDAR sensors may include individual LIDAR sensors located at the corners, front, back, sides, and/or top of the vehicle 402. As another example, camera sensors may include multiple cameras located at various locations on the exterior and/or interior of vehicle 402. Sensor system 406 can provide input to vehicle computing device 404 . Additionally or alternatively, sensor system 406 transmits sensor data over one or more networks 446 to one or more computing devices at a particular frequency in substantially real time after a predetermined period of time has elapsed. can. In some examples, sensor system 406 can correspond to sensor system 104 of FIG.

車両402はまた、上記のように、光及び/又は音を発するための1つ以上のエミッタ408を含むことができる。この例示のエミッタ408は車両402の乗客と通信するための内部オーディオ及びビジュアルエミッタを含む。限定ではなく例として、内部エミッタは、スピーカー、ライト、標識、ディスプレイ画面、タッチスクリーン、触覚エミッタ(例えば、振動及び/又はフォースフィードバック)、機械式アクチュエータ(例えば、シートベルトテンショナ、シートポジショナ、ヘッドレストポジショナなど)などを含むことができる。この例のエミッタ408はまた外部エミッタを含む。限定ではなく例として、この例示の外部エミッタは、走行の方向又は車両の作動の他のインジケータ(例えば、インジケータライト、標識、ライトアレイなど)を信号で送るためのライト、及び音響ビームステアリング技術を備える1つ以上の歩行者又は他の近くの車両と音声で通信するための1つ以上のオーディオエミッタ(例えば、スピーカー、スピーカーアレイ、ホーンなど)を含む。 Vehicle 402 may also include one or more emitters 408 for emitting light and/or sound, as described above. This example emitter 408 includes internal audio and visual emitters for communicating with passengers of vehicle 402. By way of example and not limitation, internal emitters include speakers, lights, signs, display screens, touch screens, tactile emitters (e.g., vibration and/or force feedback), mechanical actuators (e.g., seatbelt tensioners, seat positioners, headrest positioners). etc.). Emitter 408 in this example also includes an external emitter. By way of example and not limitation, this exemplary external emitter may include lights for signaling direction of travel or other indicators of vehicle operation (e.g., indicator lights, signs, light arrays, etc.), and acoustic beam steering technology. one or more audio emitters (eg, speakers, speaker arrays, horns, etc.) for audibly communicating with one or more pedestrians or other nearby vehicles;

車両402はまた、車両402と1つ以上の他のローカル又はリモートコンピューティングデバイスとの間の通信を可能にする1つ以上の通信接続部410を含むことができる。例えば、通信接続部410は車両402及び/又は駆動モジュール414上の他のローカルコンピューティングデバイスとの通信を容易にできる。また、通信接続部410は、車両が他の近くのコンピューティングデバイス(例えば、他の近くの車両、交通信号など)と通信することを可能にできる。通信接続部410はまた、車両402が遠隔操作コンピューティングデバイス又は他の遠隔サービスと通信することを可能にする。 Vehicle 402 may also include one or more communication connections 410 that enable communication between vehicle 402 and one or more other local or remote computing devices. For example, communication connection 410 can facilitate communication with other local computing devices on vehicle 402 and/or drive module 414. Communication connections 410 may also enable the vehicle to communicate with other nearby computing devices (eg, other nearby vehicles, traffic lights, etc.). Communications connection 410 also allows vehicle 402 to communicate with remotely operated computing devices or other remote services.

通信接続部410は車両コンピューティングデバイス404を別のコンピューティングデバイス又はネットワーク446などのネットワークに接続するための物理的及び/又は論理的インターフェースを含むことができる。例えば、通信接続部410は、IEEE802.11規格によって定義された周波数を介するようなWi-Fiベースの通信、Bluetoothなどの短距離無線周波数、セルラー通信(例えば、2G、3G、4G、4G LTE、5Gなど)、又はそれぞれのコンピューティングデバイスが他のコンピューティングデバイスとインターフェースで接続することを可能にする任意の適切な有線又は無線通信プロトコルを可能にできる。 Communication connections 410 may include physical and/or logical interfaces for connecting vehicle computing device 404 to another computing device or to a network, such as network 446. For example, the communication connection 410 may support Wi-Fi-based communication such as via frequencies defined by the IEEE 802.11 standard, short-range radio frequencies such as Bluetooth, cellular communication (e.g., 2G, 3G, 4G, 4G LTE, 5G) or any suitable wired or wireless communication protocol that allows each computing device to interface with other computing devices.

少なくとも1つの例では、車両402は1つ以上の駆動モジュール414を含むことができる。いくつかの例では、車両402は単一の駆動モジュール414を有することができる。少なくとも1つの例では、車両402が複数の駆動モジュール414を有する場合、個々の駆動モジュール414は車両402の両端部(例えば前部及び後部など)に位置付けできる。少なくとも1つの例では、駆動モジュール414は駆動モジュール414及び/又は車両402の周囲の状況を検出するための1つ以上のセンサシステムを含むことができる。限定ではなく例として、センサシステムは、駆動モジュールのホイールの回転を感知するための1つ以上のホイールエンコーダ(例えばロータリーエンコーダ)、駆動モジュールの向きと加速度を測定するための慣性センサ(例えば、慣性測定ユニット、加速度計、ジャイロスコープ、磁力計など)、カメラ又はその他の画像センサ、駆動モジュールの周囲の物体を音響的に検出するための超音波センサ、LIDARセンサ、RADARセンサなど、を含むことができる。ホイールエンコーダなどの一部のセンサは駆動モジュール414に固有のものにできる。場合によっては、駆動モジュール414上のセンサシステムは車両402の対応するシステム(例えばセンサシステム406)と重複又は補足できる。 In at least one example, vehicle 402 can include one or more drive modules 414. In some examples, vehicle 402 may have a single drive module 414. In at least one example, when vehicle 402 has multiple drive modules 414, individual drive modules 414 can be located at opposite ends of vehicle 402 (eg, front and rear, etc.). In at least one example, drive module 414 can include one or more sensor systems to detect conditions around drive module 414 and/or vehicle 402. By way of example and not limitation, the sensor system may include one or more wheel encoders (e.g., rotary encoders) for sensing the rotation of wheels of the drive module, inertial sensors (e.g., inertial encoders) for measuring orientation and acceleration of the drive module. measurement units, accelerometers, gyroscopes, magnetometers, etc.), cameras or other image sensors, ultrasonic sensors for acoustically detecting objects around the drive module, LIDAR sensors, RADAR sensors, etc. can. Some sensors, such as wheel encoders, may be specific to drive module 414. In some cases, a sensor system on drive module 414 can overlap or supplement a corresponding system on vehicle 402 (eg, sensor system 406).

駆動モジュール414は、高電圧バッテリー、車両を推進するモーター、バッテリーからの直流を他の車両システムで使用する交流に変換するインバーター、ステアリングモーター及びステアリングラック(電動とすることができる)を含むステアリングシステム、油圧又は電気アクチュエータを含むブレーキシステム、油圧及び/又は空気圧コンポーネントを含むサスペンションシステム、トラクションの損失を軽減し制御を維持するブレーキ力分散用の安定性制御システム、HVACシステム、照明(例えば車両の外部環境を照らすヘッド/テールライトなどの照明)、及び1つ以上の他のシステム(例えば冷却システム、安全システム、車載充電システム、DC/DCコンバーター、高電圧ジャンクション、高電圧ケーブル、充電システム、充電ポートなどのその他の電装コンポーネント)を含む多くの車両システムを含むことができる。さらに、駆動モジュール414は、センサシステムからデータを受信し事前処理し、様々な車両システムの操作を制御できる駆動モジュールコントローラを含むことができる。いくつかの例では、駆動モジュールコントローラは、1つ以上のプロセッサ、及び1つ以上のプロセッサと通信可能に結合されたメモリを含むことができる。メモリは1つ以上のモジュールを格納して、駆動モジュール414の様々な機能を実行できる。さらに、駆動モジュール414はまた、それぞれの駆動モジュールによる1つ以上の他のローカル又はリモートコンピューティングデバイスとの通信を可能にする1つ以上の通信接続部を含む。 The drive module 414 includes a high voltage battery, a motor that propels the vehicle, an inverter that converts direct current from the battery to alternating current for use in other vehicle systems, a steering system that includes a steering motor, and a steering rack (which can be electric). , brake systems including hydraulic or electric actuators, suspension systems including hydraulic and/or pneumatic components, stability control systems for brake force distribution to reduce loss of traction and maintain control, HVAC systems, lighting (e.g. lighting such as head/tail lights that illuminate the environment), and one or more other systems (e.g. cooling systems, safety systems, onboard charging systems, DC/DC converters, high voltage junctions, high voltage cables, charging systems, charging ports) and other electrical components). Additionally, drive module 414 can include a drive module controller that can receive and pre-process data from sensor systems and control operation of various vehicle systems. In some examples, the drive module controller may include one or more processors and memory communicatively coupled to the one or more processors. Memory can store one or more modules to perform various functions of drive module 414. Additionally, drive modules 414 also include one or more communication connections that enable the respective drive module to communicate with one or more other local or remote computing devices.

少なくとも1つの例では、直接接続部412は1つ以上の駆動モジュール414を車両402の本体と結合するための物理的インターフェースを提供できる。例えば、直接接続部412は、駆動モジュール414と車両との間のエネルギー、流体、空気、データなどの転送を可能にできる。いくつかの例では、直接接続部412はさらに駆動モジュール414を車両402の本体に着脱可能に固定できる。 In at least one example, direct connections 412 can provide a physical interface for coupling one or more drive modules 414 to the body of vehicle 402. For example, direct connections 412 can enable the transfer of energy, fluids, air, data, etc. between drive module 414 and a vehicle. In some examples, direct connection 412 can further removably secure drive module 414 to the body of vehicle 402.

少なくとも1つの例では、位置測定コンポーネント420、知覚コンポーネント422、計画コンポーネント424、1つ以上のシステムコントローラ426、1つ以上のマップ428、予測コンポーネント430、オクルージョン監視コンポーネント432、オクルージョン領域コンポーネント434、光線放射コンポーネント436、区分コンポーネント438、投影コンポーネント440、オクルージョンコンテキストコンポーネント442、及び速度コンポーネント444は、上記のようにセンサデータを処理でき、それぞれの出力を1つ以上のネットワーク446を介して、1つ以上のコンピューティングデバイス448へ送信できる。少なくとも1つの例では、位置測定コンポーネント420、知覚コンポーネント422、計画コンポーネント424、1つ以上のシステムコントローラ426、1つ以上のマップ428、予測コンポーネント430、オクルージョン監視コンポーネント432、オクルージョン領域コンポーネント434、光線放射コンポーネント436、区分コンポーネント438、投影コンポーネント440、オクルージョンコンテキストコンポーネント442、及び速度コンポーネント444は、所定の期間が経過した後、ほぼ実時間で、特定の周波数で、それぞれの出力を1つ以上のコンピューティングデバイス448に送信できる。 In at least one example, a localization component 420, a perception component 422, a planning component 424, one or more system controllers 426, one or more maps 428, a prediction component 430, an occlusion monitoring component 432, an occlusion region component 434, and a beam emitting component. Component 436, segmentation component 438, projection component 440, occlusion context component 442, and velocity component 444 can process sensor data as described above and send their respective outputs to one or more networks 446 to can be sent to computing device 448; In at least one example, a localization component 420, a perception component 422, a planning component 424, one or more system controllers 426, one or more maps 428, a prediction component 430, an occlusion monitoring component 432, an occlusion region component 434, and a beam emitting component. Component 436, segmentation component 438, projection component 440, occlusion context component 442, and velocity component 444 perform one or more computing operations on their respective outputs in near real time and at a particular frequency after a predetermined period of time. It can be sent to device 448.

いくつかの例では、車両402はネットワーク446を介してセンサデータを1つ以上のコンピューティングデバイス448に送信できる。いくつかの例では、車両402は未処理のセンサデータをコンピューティングデバイス448に送信できる。他の例では、車両402は処理済みのセンサデータ及び/又はセンサデータの表現をコンピューティングデバイス448に送信できる。いくつかの例では、車両402は、所定の期間の経過後、ほぼ実時間で、特定の周波数にてセンサデータをコンピューティングデバイス448に送信できる。場合によっては、車両402はセンサデータ(未処理又は処理済み)を1つ以上のログファイルとしてコンピューティングデバイス448に送信できる。 In some examples, vehicle 402 can transmit sensor data to one or more computing devices 448 via network 446. In some examples, vehicle 402 can transmit raw sensor data to computing device 448. In other examples, vehicle 402 can transmit processed sensor data and/or representations of the sensor data to computing device 448. In some examples, vehicle 402 may transmit sensor data to computing device 448 at a particular frequency in substantially real time after a predetermined period of time. In some cases, vehicle 402 can send sensor data (raw or processed) to computing device 448 as one or more log files.

コンピューティングデバイス448は、プロセッサ450及びマップコンポーネント454を格納したメモリ452を含むことができる。 Computing device 448 may include a processor 450 and memory 452 that stores a map component 454.

いくつかの例では、マップコンポーネント454は、オクルージョングリッドをマップ位置に関連付ける機能を含むことができる。いくつかの例では、マップコンポーネント454は交差点に接近する車両が通行権を持たない交差点を識別でき、例えばその位置のオクルージョングリッドを生成できる。いくつかの例では、マップコンポーネント454は、例えば、車両402の視界を減少させ得る丘の頂上によって引き起こされる地形的オクルージョン領域を識別できる。いくつかの例では、図5に関連して論じるように、例えば、オクルージョングリッドのサイズは、交差点の距離、制限速度、制限速度安全係数などの領域特性に少なくとも部分的に基づくことができる。 In some examples, map component 454 can include functionality that associates an occlusion grid with a map location. In some examples, map component 454 can identify intersections where vehicles approaching the intersection do not have the right-of-way, and can generate an occlusion grid for the locations, for example. In some examples, map component 454 can identify areas of topographic occlusion caused by, for example, hill crests that may reduce visibility of vehicle 402. In some examples, as discussed in connection with FIG. 5, for example, the size of the occlusion grid can be based at least in part on area characteristics, such as intersection distance, speed limit, speed limit safety factor, and the like.

車両402のプロセッサ416及びコンピューティングデバイス448のプロセッサ450は本明細書で説明するようにデータを処理し操作を実行するための命令を実行可能な任意の適切なプロセッサとすることができる。限定ではなく例として、プロセッサ416及び450は、1つ以上の中央処理装置(CPU)、グラフィック処理装置(GPU)、又は電子データを処理して電子データをレジスタ又はメモリに格納できる他の電子データに変換する他の任意のデバイス又はデバイスの一部、を備えることができる。いくつかの例では、集積回路(例えば、ASICなど)、ゲートアレイ(例えば、FPGAなど)、及び他のハードウェアデバイスはまた、それらが符号化された命令を実装するよう構成される限り、プロセッサと見なすことができる。 Processor 416 of vehicle 402 and processor 450 of computing device 448 may be any suitable processor capable of executing instructions to process data and perform operations as described herein. By way of example and not limitation, processors 416 and 450 may include one or more central processing units (CPUs), graphics processing units (GPUs), or other electronic data processors capable of processing electronic data and storing electronic data in registers or memory. any other device or part of a device that converts to In some examples, integrated circuits (e.g., ASICs, etc.), gate arrays (e.g., FPGAs, etc.), and other hardware devices also work with processors so long as they are configured to implement encoded instructions. It can be considered as

メモリ418及び452は非一時的コンピュータ可読媒体の例である。メモリ418及び452は、オペレーティングシステム及び1つ以上のソフトウェアアプリケーション、命令、プログラム、及び/又はデータを格納して、本明細書に記載の方法及び様々なシステムに起因する機能を実装できる。様々な実装では、メモリを、スタティックランダムアクセスメモリ(SRAM)、シンクロナスダイナミックRAM(SDRAM)、不揮発性/フラッシュタイプメモリ、又は情報を格納可能な任意のその他のタイプのメモリなど、適切なメモリ技術を使用して実装できる。本明細書で説明するアーキテクチャ、システム、及び個々の要素は、他の多くの論理的、プログラム的、及び物理的なコンポーネントを含むことができ、それらの添付図面に示すものは、本明細書の議論に関連する単なる例にすぎない。 Memories 418 and 452 are examples of non-transitory computer readable media. Memories 418 and 452 can store an operating system and one or more software applications, instructions, programs, and/or data to implement the functionality resulting from the methods and various systems described herein. In various implementations, the memory may be any suitable memory technology, such as static random access memory (SRAM), synchronous dynamic RAM (SDRAM), non-volatile/flash type memory, or any other type of memory capable of storing information. It can be implemented using The architectures, systems, and individual elements described herein may include many other logical, programmatic, and physical components, including those illustrated in the accompanying drawings. Just an example relevant to the discussion.

図4は分散システムとして示されているが、代替の例では、車両402のコンポーネントをコンピューティングデバイス448に関連付けることができ、及び/又はコンピューティングデバイス448のコンポーネントは車両402に関連付けることができる、という事に留意すべきである。すなわち、車両402はコンピューティングデバイス448に関連付けられた機能のうちの1つ以上を実行でき、逆もまた同様である。さらに、オクルージョン監視コンポーネント432及び/又は予測コンポーネント430の態様は、本明細書で論じるデバイスのいずれかで実行できる。 Although FIG. 4 is depicted as a distributed system, in alternative examples, components of vehicle 402 may be associated with computing device 448 and/or components of computing device 448 may be associated with vehicle 402. This should be kept in mind. That is, vehicle 402 can perform one or more of the functions associated with computing device 448, and vice versa. Additionally, aspects of occlusion monitoring component 432 and/or prediction component 430 can be performed on any of the devices discussed herein.

図2、図3、及び図5から図11は、本開示の実施形態による例示のプロセスを示す。これらのプロセスはロジカルフローグラフとして図示され、このそれぞれの操作は、ハードウェア、ソフトウェア、又はそれらの組み合わせにおいて実装できる一連の操作を表す。ソフトウェアのコンテキストにおいては、操作は、1つ以上のプロセッサで実行したときに、列挙した操作を実行する1つ以上のコンピュータ可読記録媒体に格納されたコンピュータ実行可能命令を表す。一般に、コンピュータ実行可能命令は特定の機能を実行する、又は特定の抽象的データタイプを実装するルーチン、プログラム、物体、コンポーネント、データ構造などを含む。操作が記載される順序は限定して解釈されることを意図するものではなく、任意の数の記載される操作を任意の順序で及び/又は並行し結合して、プロセスを実装することができる。 2, 3, and 5-11 illustrate example processes according to embodiments of the present disclosure. These processes are illustrated as logical flow graphs, each operation representing a sequence of operations that can be implemented in hardware, software, or a combination thereof. In the context of software, operations refer to computer-executable instructions stored on one or more computer-readable storage media that, when executed by one or more processors, perform the recited operations. Generally, computer-executable instructions include routines, programs, objects, components, data structures, etc. that perform particular functions or implement particular abstract data types. The order in which the operations are listed is not intended to be construed as limiting, and any number of the listed operations may be combined in any order and/or in parallel to implement the process. .

図5は、本開示の実施形態による、領域特性に基づいてオクルージョングリッドを生成するための例示のプロセス500の図解フロー図である。例えば、プロセス500の一部又は全ては、本明細書で説明するように、図4における1つ以上のコンポーネントによって実行できる。 FIG. 5 is an illustrated flow diagram of an example process 500 for generating an occlusion grid based on region characteristics, according to an embodiment of the present disclosure. For example, some or all of process 500 can be performed by one or more components in FIG. 4, as described herein.

オペレーション502において、プロセスは領域特性を評価することを含むことができる。いくつかの例では、領域特性は、これらに限定しないが、交差点(又は領域)距離(例えば、交差する交差点の幅)、制限速度、車両速度、安全係数などを含むことができる。例504は交差点110の領域特性を示している。例えば、交差点110は交差点距離506に関連付けられており、これは交差点110のストップライン508と交差点110の出口に関連付けられた位置との間の距離を表す。いくつかの例では、車両102は交差点を横切ろうとする際に交差点110内で静止を維持し無い場合があり、従って、車両102を制御しチェックライン510まで走行させることがある。いくつかの例では、チェックライン510は、交通の流れを妨げることなく、車両102が走行できる交差点110から最も遠いものを表すことができる。すなわち、チェックライン510を超えると、車両102は対向車を妨げることがある。車両102がチェックライン510まで移動する場合、交差点距離506を更新し、車両102が横断する交差点110の減少した距離を反映できる。いくつかの例では、ストップライン508及び/又はチェックライン510をマップデータとして格納、又は環境内で取り込まれたセンサデータに基づいて動的に生成できる。 At operation 502, the process can include evaluating region characteristics. In some examples, area characteristics may include, but are not limited to, intersection (or area) distances (eg, width of intersections intersected), speed limits, vehicle speeds, safety factors, and the like. Example 504 shows area characteristics of intersection 110. For example, intersection 110 is associated with an intersection distance 506, which represents the distance between a stop line 508 of intersection 110 and a location associated with an exit of intersection 110. In some examples, vehicle 102 may not remain stationary within intersection 110 while attempting to cross the intersection, and therefore vehicle 102 may be controlled to travel to check line 510. In some examples, check line 510 may represent the furthest from intersection 110 that vehicle 102 can travel without impeding traffic flow. That is, once the check line 510 is crossed, the vehicle 102 may block oncoming traffic. If the vehicle 102 moves to the check line 510, the intersection distance 506 may be updated to reflect the reduced distance of the intersection 110 that the vehicle 102 crosses. In some examples, stop line 508 and/or check line 510 can be stored as map data or dynamically generated based on sensor data captured within the environment.

交差点110はまた制限速度512に関連付けられ得る。理解できるように、交差点110を横断する車両が到達すると予想される速度を効果的に上昇させる制限速度512に、安全係数を関連付けることができる。例えば、制限速度512が時速25マイルである交差点では、安全係数は追加時速15マイルであり得る。つまり、交差点110を横断する少なくともいくつかの車両はスピード違反と推定される。このような安全係数を考慮しこの仮定は立てられている。 Intersection 110 may also be associated with a speed limit 512. As can be appreciated, a safety factor may be associated with the speed limit 512 that effectively increases the speed that a vehicle crossing the intersection 110 is expected to reach. For example, at an intersection where the speed limit 512 is 25 miles per hour, the safety factor may be an additional 15 miles per hour. That is, at least some vehicles crossing the intersection 110 are estimated to be speeding. This assumption is made in consideration of such a safety factor.

例504はまた、平均速度、「クリープモード」、及び「ブーストモード」に関連付けられた車両102を示している。理解できるように、平均速度は交差点距離506を横断する車両102の予想される平均速度とすることができる。さらに、交差点110の少なくとも一部を緩やかに又は速やかに横断するための様々な加速レベルに車両102を関連付けることができる。 Example 504 also shows vehicle 102 associated with average speed, "creep mode", and "boost mode". As can be appreciated, the average speed may be the expected average speed of the vehicle 102 traversing the intersection distance 506. Additionally, vehicle 102 may be associated with various acceleration levels for traversing at least a portion of intersection 110 slowly or quickly.

オペレーション514において、プロセスは領域特性に少なくとも部分的に基づいてオクルージョングリッドを生成することを含むことができる。例504では、オクルージョングリッドが生成され、交差点110に関連付けられる。いくつかの例では、オクルージョングリッド516は、オクルージョングリッドの長さ518(又は、より一般的には、オクルージョングリッド516の範囲(例えば、長さ、幅、高さ))に関連付けることができる。一例として、限定しないが、オクルージョングリッドの長さ518は、車両102が軌道を開始する際にオクルージョングリッド516がクリアである場合、車両102の平均速度で交差点距離506に関連付けられた交差点110を横断する車両102が、制限速度512(及び安全係数)で走行する車両と交差できないようなサイズにできる。すなわち、オクルージョングリッドの長さ518は、オクルージョングリッド516がクリアである場合、車両102が交差点110を安全に横断可能なサイズである。理解できるように、領域特性に少なくとも部分的に基づいてオクルージョングリッド516を生成することは、安全な走行を確実にすることを要求されるよりも、追加のリソースを操作に割り当てることなく安全結果を改善する。 At operation 514, the process can include generating an occlusion grid based at least in part on the region characteristics. In example 504, an occlusion grid is generated and associated with intersection 110. In some examples, occlusion grid 516 can be associated with an occlusion grid length 518 (or, more generally, a range (eg, length, width, height) of occlusion grid 516). By way of example and not limitation, occlusion grid length 518 is such that if occlusion grid 516 is clear when vehicle 102 begins its trajectory, it will cross intersection 110 associated with intersection distance 506 at the average speed of vehicle 102. The vehicle 102 can be sized so that it cannot intersect with a vehicle traveling at the speed limit 512 (and safety factor). That is, the length 518 of the occlusion grid is such that the vehicle 102 can safely cross the intersection 110 if the occlusion grid 516 is clear. As can be appreciated, generating the occlusion grid 516 based at least in part on area characteristics provides a safer outcome without allocating additional resources to the operation than is required to ensure safe travel. Improve.

いくつかの例では、交差点に関連付けられた可視領域の長さが、交差点の地形により制限又は限定され得る。例えば、交差点の前の道路は車両102によって感知できる領域のサイズを減少させるヘアピンターン又は他の障害物を含み得る。いくつかの例では、交差点についての地理的及び/又は地形的情報(例えば、最大可視距離)を使用しオクルージョングリッド516のサイズを設定して、車両102が物理的な可能性を超えるクリアな領域を予想する状況を回避できる。従って、車両の速度及び/又は加速度を設定し、車両がそのような交差点を安全に横断できることを確実にできる。同様に、本明細書で論じるように、非オクルージョン領域のサイズに関連付けられた閾値又は未決定の占有状態に関連付けられた閾値を、感知された領域のサイズに基づいて調整できる。 In some examples, the length of the visibility area associated with an intersection may be limited or limited by the topography of the intersection. For example, the road in front of the intersection may include hairpin turns or other obstacles that reduce the size of the area that can be sensed by vehicle 102. In some examples, geographic and/or topographical information about the intersection (e.g., maximum visibility distance) is used to size the occlusion grid 516 so that the vehicle 102 has a clear area beyond what is physically possible. You can avoid situations where you would expect Accordingly, the speed and/or acceleration of the vehicle can be set to ensure that the vehicle can cross such intersections safely. Similarly, as discussed herein, a threshold associated with the size of a non-occlusion region or a threshold associated with undetermined occupancy can be adjusted based on the size of the sensed region.

図6は本開示の実施形態による、交差点でのオクルージョングリッドを評価し、車両を制御し交差点を横断させるための例示のプロセス600の図解フロー図である。例えば、プロセス600の一部又は全ては、本明細書で説明するように、図4における1つ以上のコンポーネントによって実行できる。 FIG. 6 is an illustrated flow diagram of an example process 600 for evaluating an occlusion grid at an intersection and controlling a vehicle to traverse the intersection, according to an embodiment of the present disclosure. For example, some or all of process 600 can be performed by one or more components in FIG. 4, as described herein.

オペレーション602において、プロセスは交差点でのオクルージョングリッドを評価することを含むことができる。例604では、車両102は交差点110のストップライン606に示されている。交差点110に関連付けられたマップデータに少なくとも部分的に基づいて、車両102はオクルージョングリッド608をメモリに読み込むことができる。さらに、車両102は、マップデータに基づいてストップライン606を決定でき、又は環境内のストップライン606を識別することに基づいてストップライン606を生成できる。さらに、チェックライン610はメモリからアクセスされることが、又は交差点110の路肩若しくは保護された領域を識別することに基づいて決定されることができる。 At operation 602, the process may include evaluating an occlusion grid at the intersection. In example 604, vehicle 102 is shown at stop line 606 at intersection 110. Based at least in part on map data associated with intersection 110, vehicle 102 may load occlusion grid 608 into memory. Additionally, vehicle 102 can determine stop lines 606 based on map data or generate stop lines 606 based on identifying stop lines 606 in the environment. Further, the check line 610 can be accessed from memory or determined based on identifying a shoulder or protected area of the intersection 110.

いくつかの例では、1つ以上の障害物612(ここでは駐車中の車の列)及び建物632に関する車両102の位置により、車両102は、非オクルージョン領域614をオクルージョングリッド608の一部に関連付けることができ、及びオクルージョン領域616をオクルージョングリッド608の一部に関連付けることができる。図示のように、オクルージョン領域616に対応するオクルージョングリッドの個々のオクルージョンフィールドは灰色で網掛けされ、一方、非オクルージョン領域614は網掛けされない。理解できるように、物体618は、オクルージョン領域616を占有できるが、車両102はオクルージョン領域616に関連付けられたセンサデータを受信し得ない為、車両102は物体618(例えば、対応する占有状態が未決定であり得る)の存在について知らないこととなる。 In some examples, the position of vehicle 102 with respect to one or more obstacles 612 (here, a line of parked cars) and building 632 causes vehicle 102 to associate non-occlusion region 614 with a portion of occlusion grid 608 occlusion region 616 can be associated with a portion of occlusion grid 608. As shown, the individual occlusion fields of the occlusion grid that correspond to occlusion areas 616 are shaded in gray, while non-occlusion areas 614 are not shaded. As can be appreciated, object 618 may occupy occlusion region 616, but because vehicle 102 cannot receive sensor data associated with occlusion region 616, vehicle 102 may occupy object 618 (e.g., without a corresponding occupancy state). (which could be a decision) does not exist.

いくつかの例では、オペレーション602は、非オクルージョン領域614のオクルージョンフィールドが可視及び非占有である一方で、オクルージョン領域616のオクルージョンフィールドが不可視であり占有状態が未知(例えば、未決定)である、と決定することを含むことができる。いくつかの例では、オクルージョン領域616内のオクルージョンフィールドのデフォルト状態は、占有済み状態(又は占有済み状態として扱われるべき未決定状態)とすることができる。 In some examples, operation 602 determines that the occlusion field of non-occlusion region 614 is visible and unoccupied, while the occlusion field of occlusion region 616 is invisible and the occupancy state is unknown (e.g., undetermined). It may include determining that. In some examples, the default state of the occlusion field within occlusion region 616 may be an occupied state (or an undetermined state to be treated as an occupied state).

オペレーション620において、プロセスはオクルージョングリッドの第1の評価(例えば、交差点を安全に横断するのに十分な情報がないという決定)に少なくとも部分的に基づいて、車両を制御し位置を変更させることを含むことができる。例622では、車両102を制御しストップライン606からチェックライン610に移動させ、オクルージョングリッド608の非オクルージョン領域614のサイズを増加させることができる(例えば、車両102のセンサからの利用可能なデータの量を増加させることによって)。従ってオクルージョングリッド608のオクルージョン領域616のサイズが減少する。例622に示すように、オクルージョングリッド608の大部分は車両102に対して非オクルージョンであるが、この時、車両102はオクルージョングリッド608内の物体618を識別できるようになっている。従って物体618に対応するオクルージョングリッド608のオクルージョンフィールドは占有領域624として識別される(そして例示の目的で、黒で網掛けされている)。同様に、物体618は車両102の感知領域に関する「網掛け」を生成でき、オクルージョン領域634によって示される(及び例622では網掛けの灰色として)。従って交差点110にさらに進入することなく、車両102を制御しチェックライン610で待機させることができる。いくつかの例では、車両102を制御しチェックライン610へ緩やかに(例えば、速度閾値未満で)前進(例えば、「クリープモード」)させることができるが、任意の加速度及び/又は速度を使用できる。 In operation 620, the process controls and causes the vehicle to change position based at least in part on the first evaluation of the occlusion grid (e.g., a determination that there is insufficient information to safely cross the intersection). can be included. In example 622, vehicle 102 may be controlled to move from stop line 606 to check line 610 to increase the size of non-occlusion area 614 of occlusion grid 608 (e.g., increase the size of available data from sensors on vehicle 102). by increasing the amount). Accordingly, the size of occlusion area 616 of occlusion grid 608 is reduced. As shown in example 622, a majority of occlusion grid 608 is non-occluding to vehicle 102, but vehicle 102 is now able to identify object 618 within occlusion grid 608. Accordingly, the occlusion field of occlusion grid 608 corresponding to object 618 is identified as occupied region 624 (and is shaded black for illustrative purposes). Similarly, object 618 can create "shading" with respect to the sensing area of vehicle 102, as indicated by occlusion area 634 (and as a shaded gray in example 622). Therefore, the vehicle 102 can be controlled and made to wait at the check line 610 without further entering the intersection 110. In some examples, the vehicle 102 can be controlled to slowly (e.g., below a speed threshold) advance toward the check line 610 (e.g., in "creep mode"), although any acceleration and/or speed can be used. .

オペレーション626において、プロセスは、オクルージョングリッドの第2の評価に少なくとも部分的に基づいて、車両を制御し交差点を横断させることを含むことができる。例628では、物体618はオクルージョングリッド608を出ており、この時、可視及び非占有である。従って、車両102は、軌道630に少なくとも部分的に基づいて交差点110を横断するものとして示されている。いくつかの例では、車両102を制御し通常又は高加速(例えば、「ブーストモード」)を使用して交差点110を通って加速させることができるが、任意の加速を使用できる。 At operation 626, the process can include controlling the vehicle to traverse the intersection based at least in part on the second evaluation of the occlusion grid. In example 628, object 618 has exited occlusion grid 608 and is now visible and unoccupied. Accordingly, vehicle 102 is shown traversing intersection 110 based at least in part on trajectory 630. In some examples, vehicle 102 may be controlled to accelerate through intersection 110 using normal or high acceleration (eg, "boost mode"), although any acceleration can be used.

いくつかの例では、オペレーション602、620、及び/又は626を車両102によって連続的に実行し、環境の状態を経時的に監視できる。いくつかの例では、プロセス600は、環境を継続的に評価するために、10ヘルツ(Hz)(又は任意の周波数)の周波数でオクルージョングリッドを評価することを含むことができる。 In some examples, operations 602, 620, and/or 626 may be performed continuously by vehicle 102 to monitor environmental conditions over time. In some examples, process 600 may include evaluating the occlusion grid at a frequency of 10 Hertz (Hz) (or any frequency) to continuously evaluate the environment.

図7は、本開示の実施形態による、交差点でのオクルージョングリッドを評価し、車両を制御し交差点を横断させるための別の例示のプロセス700の図解フロー図である。例えば、プロセス700の一部又は全ては、本明細書で説明するように、図4における1つ以上のコンポーネントによって実行できる。 FIG. 7 is an illustrated flow diagram of another example process 700 for evaluating an occlusion grid at an intersection and controlling a vehicle to traverse the intersection, according to an embodiment of the present disclosure. For example, some or all of process 700 can be performed by one or more components in FIG. 4, as described herein.

オペレーション702において、プロセスは交差点でのオクルージョングリッドを評価することを含むことができる。いくつかの例では、オペレーション702は環境内の障害物を識別することに応答してオクルージョングリッドを生成することを含むことができる。例704では、車両102は交差点110にて、無防備な左折(例えば、車両102には緑色の矢印がなく、対向車に道を譲らなければならない)を実行するような、軌道706を辿ろうとしている。いくつかの例では、車両102は環境内の物体708(例えば、車両)を識別でき、オクルージョングリッド710を物体708に関連付けることができる。本明細書で論じるように、車両はLIDARデータ及び/又は画像データを受信して、オクルージョングリッド710内のオクルージョンフィールドのオクルージョン状態及び/又は占有状態を評価できる。 At operation 702, the process may include evaluating an occlusion grid at the intersection. In some examples, operation 702 can include generating an occlusion grid in response to identifying obstacles in the environment. In example 704, vehicle 102 attempts to follow a trajectory 706 at intersection 110 that would result in an unprotected left turn (e.g., vehicle 102 does not have a green arrow and must yield to oncoming traffic). There is. In some examples, vehicle 102 can identify an object 708 (eg, a vehicle) in the environment, and occlusion grid 710 can be associated with object 708. As discussed herein, a vehicle can receive LIDAR data and/or image data to assess occlusion conditions and/or occupancy conditions of occlusion fields within occlusion grid 710.

オペレーション712において、プロセスは車両102を制御し交差点で待機させることを含むことができる。理解できるように、オクルージョンであるオクルージョングリッド710(交差点110を安全に横断するのに十分な量の情報を提供しないオクルージョングリッド710)の一部に少なくとも部分的に基づいて、及び/又は交差点110を横断する物体708に少なくとも部分的に基づいて、車両102を制御し交差点110に待機させることができる。 In operation 712, the process may include controlling vehicle 102 to wait at the intersection. As can be appreciated, the intersection 110 may be modified based at least in part on a portion of the occlusion grid 710 that is an occlusion (an occlusion grid 710 that does not provide a sufficient amount of information to safely traverse the intersection 110). Vehicle 102 may be controlled and parked at intersection 110 based at least in part on crossing object 708 .

オペレーション714において、プロセスは、オクルージョングリッドをクリアであると(又はそうでなければ、軌道706に従って交差点110の安全な横断を可能にするのに十分な情報を提供すると)評価することを含むことができる。例716では、物体708は交差点110を横切ってオクルージョングリッド710の外に進んだものとして示されている。いくつかの例では、オペレーション714は、オクルージョンフィールドが可視であり占有されていない(又はそうでなければ未決定である)と、従ってオクルージョングリッド710がクリアである(又は十分な情報を提供する)と決定するために、LIDARデータ及び/又は画像データを取り込むことを含むことができる。 In operation 714, the process may include evaluating the occlusion grid as clear (or otherwise providing sufficient information to allow safe crossing of intersection 110 according to trajectory 706). can. In example 716, object 708 is shown crossing intersection 110 and proceeding outside of occlusion grid 710. In some examples, operation 714 determines that the occlusion field is visible and unoccupied (or otherwise undetermined) so that occlusion grid 710 is clear (or provides sufficient information). The determination may include capturing LIDAR data and/or image data.

オペレーション718において、プロセスは、オクルージョングリッドがクリアであることに少なくとも部分的に基づいて、車両102を制御して交差点を横断させることを含むことができる。いくつかの例では、オペレーション718は、車両102に環境を横断するように指示する前に、オクルージョングリッド710がクリアになる(又は、軌道706の安全な横断を決定するのに十分な量の情報を提供する)のを所定の時間(例えば、1秒、2秒など)待機することを含むことができる。例716に示すように、車両102は軌道706を介して交差点110を横断している。さらに、オクルージョングリッド710は障害物から可視及びクリアであると示されている。 At operation 718, the process may include controlling the vehicle 102 to cross the intersection based at least in part on the occlusion grid being clear. In some examples, operation 718 determines that occlusion grid 710 is clear (or that there is sufficient information to determine safe traversal of trajectory 706) before instructing vehicle 102 to traverse the environment. may include waiting a predetermined period of time (eg, 1 second, 2 seconds, etc.) for the As shown in example 716, vehicle 102 is crossing intersection 110 via track 706. Additionally, occlusion grid 710 is shown to be visible and clear from obstacles.

図8は、本開示の実施形態による、物体に関連付けられたオクルージョン領域を決定し、オクルージョン領域内の動的物体の予測軌道を生成するための例示のプロセス800の図解フロー図である。例えば、プロセス800の一部又は全ては、本明細書で説明するように、図4における1つ以上のコンポーネントによって実行できる。例えば、プロセス800の一部又は全ては、車両コンピューティングデバイス404によって実行できる。 FIG. 8 is an illustrated flow diagram of an example process 800 for determining an occlusion region associated with an object and generating a predicted trajectory of a dynamic object within the occlusion region, according to an embodiment of the present disclosure. For example, some or all of process 800 can be performed by one or more components in FIG. 4, as described herein. For example, some or all of process 800 may be performed by vehicle computing device 404.

オペレーション802で、プロセスは物体に関連付けられたオクルージョン領域を決定することを含むことができる。例804では、交差点110の車両102は環境のLIDARデータ及び/又は画像データを取り込む。いくつかの例では、オペレーション802は、環境内の物体806及び物体806に関連付けられたオクルージョン領域808を識別することを含むことができる。例804では、物体806は交差点110の近くに駐車された車を表すことができる。いくつかの例では、オペレーション802は物体806に関連付けられたオクルージョングリッド(不図示)を生成することを含むことができる。いくつかの例では、オクルージョン領域808はオクルージョングリッドのオクルージョン部分を表す。いくつかの例では、オペレーション802は、本明細書で論じるように、オクルージョングリッドを含むマップデータへアクセスすることを含むことができる。 At operation 802, the process can include determining an occlusion region associated with the object. In example 804, vehicle 102 at intersection 110 captures LIDAR and/or image data of the environment. In some examples, operation 802 can include identifying an object 806 in the environment and an occlusion region 808 associated with object 806. In example 804, object 806 may represent a car parked near intersection 110. In some examples, operation 802 can include generating an occlusion grid (not shown) associated with object 806. In some examples, occlusion region 808 represents an occluded portion of an occlusion grid. In some examples, operation 802 can include accessing map data that includes an occlusion grid, as discussed herein.

オペレーション810において、プロセスはオクルージョン領域808に近接する動的物体(例えば、歩行者)を識別することを含むことができる。いくつかの例では、オペレーション810は、動的物体812(例えば、歩行者)がオクルージョン領域808の距離閾値内にあることを決定することを含むことができる。いくつかの例では、オペレーション810は、LIDARデータ、画像データ、及び/又は他のセンサデータを受信して、測定された痕跡814として、環境内の動的物体812の軌道(例えば、位置、向き、及び速度)を測定することを含むことができる。 At operation 810, the process may include identifying a moving object (eg, a pedestrian) proximate to the occlusion region 808. In some examples, operation 810 may include determining that moving object 812 (eg, a pedestrian) is within a distance threshold of occlusion region 808. In some examples, operation 810 receives LIDAR data, image data, and/or other sensor data to determine the trajectory (e.g., position, orientation, etc.) of dynamic object 812 in the environment as measured signature 814. , and velocity).

オペレーション816において、プロセスは、動的物体の1つ以上の予測軌道を生成することを含むことができる。例804では、1つ以上の予測軌道818が、歩行者812がオクルージョン領域808にいる間に辿る可能性のある経路として示されている(ただし、予測軌道はオクルージョン領域808に限定されない)。いくつかの例では、予測軌道818は測定された痕跡814及び/又は環境内の記号若しくは領域に少なくとも部分的に基づくことができる。例えば、予測軌道は歩行者がオクルージョン領域808に進入した時の歩行者812の速度及び方向の延長を含み得る。別の例では、予測軌道は交差点の反対側の歩道などの環境の目的地に基づき得る。様々な方法を使用して予測軌道を生成できる。予測軌道を生成することの詳細は、参照によりその全体が本明細書に組み込まれる米国特許出願第15/833,715号に論じられている。 At operation 816, the process may include generating one or more predicted trajectories of the moving object. In example 804, one or more predicted trajectories 818 are shown as possible paths that pedestrian 812 may follow while in occlusion region 808 (although the predicted trajectories are not limited to occlusion region 808). In some examples, predicted trajectory 818 can be based at least in part on measured footprints 814 and/or symbols or regions in the environment. For example, the predicted trajectory may include an extension of the speed and direction of the pedestrian 812 when the pedestrian enters the occlusion area 808. In another example, the predicted trajectory may be based on an environmental destination, such as a sidewalk on the other side of an intersection. A variety of methods can be used to generate predicted trajectories. Details of generating predicted trajectories are discussed in US patent application Ser. No. 15/833,715, which is incorporated herein by reference in its entirety.

いくつかの例では、オペレーション816は、1つ以上の予測軌道818に少なくとも部分的に基づいて、車両102を制御することを含むことができる。いくつかの例では、車両102の軌道が少なくとも1つの予測軌道の距離閾値内にある場合、車両102を制御し動的物体についての追加情報が決定できるまで待機させることができる。いくつかの例では、ある期間が経過するにつれて、車両102は歩行者812の経路が1つ以上の予測軌道818を辿る可能性を示す個々の予測軌道に関連付けられた確率を増加又は減少できる。例えば、時間が経過し、動的物体812に関連付けられた観察が行われる又は行われない時、予測軌道の候補リストから軌道を拒否できる(例えば、取り除くこと)。いくつかの例では、動的物体812が環境内で観察される時、1つ以上の予測軌道がオクルージョン領域808内の動的物体812の動向を描かない又は関連付けられない場合、それらを拒否できる。 In some examples, operation 816 may include controlling vehicle 102 based at least in part on one or more predicted trajectories 818. In some examples, if the trajectory of the vehicle 102 is within a distance threshold of at least one predicted trajectory, the vehicle 102 may be controlled to wait until additional information about the moving object can be determined. In some examples, over a period of time, vehicle 102 may increase or decrease the probability associated with each predicted trajectory indicating the likelihood that pedestrian 812's path will follow one or more predicted trajectories 818. For example, as time passes and observations associated with dynamic object 812 are made or not made, a trajectory can be rejected (eg, removed) from the candidate list of predicted trajectories. In some examples, when a dynamic object 812 is observed in the environment, one or more predicted trajectories may be rejected if they do not describe or are associated with the movement of the dynamic object 812 within the occlusion region 808. .

図9は、本開示の実施形態による、地形的オクルージョングリッドを評価し、車両を制御し地形的障害物を横断させるための例示のプロセス900の図解フロー図である。例えば、プロセス900の一部又は全ては、本明細書で説明するように、図4における1つ以上のコンポーネントによって実行できる。例えばプロセス900の一部又は全ては車両コンピューティングデバイス404によって実行できる。 FIG. 9 is an illustrated flow diagram of an example process 900 for evaluating a terrain occlusion grid and controlling a vehicle to traverse a terrain obstacle, according to an embodiment of the present disclosure. For example, some or all of process 900 can be performed by one or more components in FIG. 4, as described herein. For example, some or all of process 900 can be performed by vehicle computing device 404.

オペレーション902において、プロセスはオクルージョングリッドを評価することを含むことができる。いくつかの例では、オクルージョングリッドは環境内の地形的(例えば、地理的)特徴に応答して生成された地形的オクルージョングリッドとすることができる。例904では、オクルージョングリッド906が丘の頂上に関連して示されている。理解できるように、車両102が丘に近づくと、地面の高低差及び角度に起因して、丘の頂上に車両102から可視ではない領域が自然と生じる。一例では、オクルージョングリッド906は、非オクルージョン領域908及びオクルージョン領域910に関連付けられている。図示のように、車両102はオクルージョングリッド906を横断するLIDAR光線912を放出し、非オクルージョン領域908及びオクルージョン領域910を識別する。 At operation 902, the process can include evaluating an occlusion grid. In some examples, the occlusion grid can be a topographic occlusion grid generated in response to topographic (eg, geographic) features within the environment. In example 904, occlusion grid 906 is shown in conjunction with a hilltop. As can be appreciated, as the vehicle 102 approaches a hill, there will naturally be an area at the top of the hill that is not visible to the vehicle 102 due to the height difference and angle of the ground. In one example, occlusion grid 906 is associated with non-occlusion areas 908 and occlusion areas 910. As shown, vehicle 102 emits a LIDAR beam 912 that traverses occlusion grid 906 to identify non-occlusion areas 908 and occlusion areas 910.

理解できるように、車両102が丘の頂上に近づくと、車両102は丘の頂上の地面のセンサデータを取り込み不可能となり得る。いくつかの実施形態では、これは車両102の視界を減少させ、それに応じて車両102は環境を走行する車両102の速度を低下できる。 As can be appreciated, as the vehicle 102 approaches the top of a hill, the vehicle 102 may be unable to capture sensor data of the ground at the top of the hill. In some embodiments, this reduces the visibility of the vehicle 102 and the vehicle 102 can correspondingly reduce the speed of the vehicle 102 traveling through the environment.

しかしながら、オペレーション914において、プロセスは少なくとも1つのオクルージョンフィールドの占有率を決定することを含むことができる。例えば、オクルージョングリッド906は少なくとも1つのオクルージョンフィールド916を含む。例904に示すように、オクルージョンフィールド916はLIDAR光線912がオクルージョンフィールド916に関連付けられた地面のセンサデータを取り込むことができないような丘の頂上に位置している。いくつかの例では、オクルージョングリッド906は、オクルージョン又は非オクルージョンである特定の領域を示す領域の地形的情報(例えば、高さ情報)を含むマップデータを介してアクセスできる。さらに、そのようなマップ情報は、車両102の位置に基づいて、例えば、表面上にいくつのデータポイント(例えば、LIDARリターン)が予想できるかを示すことができる。しかしながら、オクルージョンフィールド916は3次元の空間ボリュームを含む、又は関連付けられているので、LIDAR光線912はオクルージョンフィールド916の一部を横断できる。いくつかの例では、本明細書で論じるように、LIDAR光線912の光線放射に少なくとも部分的に基づいて、オペレーション914はオクルージョンフィールド916の占有率を決定することを含むことができる。この例では、オクルージョンフィールド916は車両102から可視であり(オクルージョン状態を決定する目的で)、障害物によって占有されていない。 However, in operation 914, the process may include determining occupancy of at least one occlusion field. For example, occlusion grid 906 includes at least one occlusion field 916. As shown in example 904, occlusion field 916 is located at the top of a hill such that LIDAR beam 912 is unable to capture ground sensor data associated with occlusion field 916. In some examples, occlusion grid 906 can be accessed via map data that includes topographical information (eg, height information) of the area indicating particular areas of occlusion or non-occlusion. Further, such map information can indicate, for example, how many data points (eg, LIDAR returns) can be expected on the surface based on the location of the vehicle 102. However, because occlusion field 916 includes or is associated with a three-dimensional spatial volume, LIDAR ray 912 may traverse a portion of occlusion field 916. In some examples, operation 914 can include determining the occupancy of occlusion field 916 based at least in part on the ray emission of LIDAR ray 912, as discussed herein. In this example, occlusion field 916 is visible from vehicle 102 (for purposes of determining occlusion conditions) and is not occupied by obstacles.

オペレーション918において、プロセスは占有率に少なくとも部分的に基づいて車両(例えば、車両102)を制御することを含むことができる。例えば、環境内の丘を表すオクルージョングリッド906を評価することで、センサが山頂の丘を越えて地上データを直接取り込めないにもかかわらず、車両102は丘の頂上を「見渡す」ことができる。従って、車両102は、丘の頂上を越えたオクルージョングリッド906の占有率に基づいて、軌道を計画し及び/又は速度を決定できる。非限定的な例として、車両102は、オクルージョングリッド906によって提供される情報が丘を安全に横断するのに十分であるように、速度、向き、又は位置の内の1つ以上を調整し得る。 At operation 918, the process can include controlling the vehicle (eg, vehicle 102) based at least in part on the occupancy. For example, by evaluating an occlusion grid 906 that represents hills in the environment, the vehicle 102 can "see over" the top of the hill even though the sensors cannot directly capture ground data beyond the top of the hill. Accordingly, the vehicle 102 can plan its trajectory and/or determine its speed based on the occupancy of the occlusion grid 906 over the crest of the hill. As a non-limiting example, vehicle 102 may adjust one or more of speed, orientation, or position such that the information provided by occlusion grid 906 is sufficient to safely traverse a hill. .

図10は、本開示の実施形態による、LIDARデータを光線放射することに基づいて、及び/又は画像データへのオクルージョンフィールドの投影に基づいて、オクルージョンフィールドの占有率を決定し、車両を制御し環境を横断させるための例示のプロセス1000を示す。例えば、プロセス1000の一部又は全ては、本明細書で説明するように、図4における1つ以上のコンポーネントによって実行できる。例えば、プロセス1000の一部又は全ては、車両コンピューティングデバイス404によって実行できる。 FIG. 10 illustrates determining occlusion field occupancy and controlling a vehicle based on beaming LIDAR data and/or based on projection of the occlusion field onto image data, according to embodiments of the present disclosure. 10 illustrates an example process 1000 for traversing an environment. For example, some or all of process 1000 can be performed by one or more components in FIG. 4, as described herein. For example, some or all of process 1000 may be performed by vehicle computing device 404.

オペレーション1002において、プロセスは自律車両に近接する環境を表すマップデータにアクセスすることを含むことができ、マップデータはオクルージョンフィールドを含むオクルージョングリッドを含む。いくつかの例では、オペレーション1002は、環境内の車両の位置を決定すること、及び車両の距離閾値内にあるマップデータにアクセスすること(例えば、receding horizon)を含むことができる。本明細書で論じるように、いくつかの例では、オクルージョングリッドは複数のオクルージョンフィールドを含むことができ、各オクルージョンフィールドは環境の個別部分(例えば、運転可能路面の一部)を表す。いくつかの例では、オクルージョンフィールドは、オクルージョン状態(例えば、オクルージョンフィールドが車両から可視であるかどうか)及び占有状態(例えば、オクルージョンフィールドが環境内の物体によって占有されているか、又はそうでなければ未決定であるかどうか)を表すことができる。 In operation 1002, the process can include accessing map data representing an environment proximate to the autonomous vehicle, where the map data includes an occlusion grid that includes an occlusion field. In some examples, operation 1002 can include determining the location of the vehicle within the environment and accessing map data that is within a distance threshold of the vehicle (eg, receding horizon). As discussed herein, in some examples, the occlusion grid may include multiple occlusion fields, each occlusion field representing a separate portion of the environment (eg, a portion of the drivable road surface). In some examples, the occlusion field is determined by an occlusion state (e.g., whether the occlusion field is visible from the vehicle) and an occlusion state (e.g., whether the occlusion field is occupied by an object in the environment or otherwise). undetermined or not).

オペレーション1004において、プロセスは自律車両上のセンサを使用してセンサデータを取り込むことを含むことができる。いくつかの例では、オペレーション1004は環境のLIDARデータ及び/又は画像データを取り込むこと含むことができる。 At operation 1004, the process may include capturing sensor data using sensors on the autonomous vehicle. In some examples, operation 1004 can include capturing LIDAR data and/or image data of the environment.

オペレーション1006において、プロセスはオクルージョンフィールドの占有率を決定することを含むことができる。いくつかの例では、オペレーション1006はまたオクルージョンフィールドの可視性を決定することを含むことができる。いくつかの例では、オペレーション1006はLIDARデータ(例えば、オペレーション1008)及び/又は画像データ(例えば、オペレーション1010)に少なくとも部分的に基づいて、オクルージョンフィールドの占有率を決定することを含むことができる。 In operation 1006, the process may include determining occlusion field occupancy. In some examples, operation 1006 can also include determining the visibility of the occlusion field. In some examples, operation 1006 can include determining occlusion field occupancy based at least in part on LIDAR data (e.g., operation 1008) and/or image data (e.g., operation 1010). .

オペレーション1008において、プロセスはLIDARデータを光線放射し、オクルージョンフィールドの占有率を決定することを含むことができる。図2に関連して及び本開示を通して論じるように、LIDARデータの光線放射は、オクルージョンフィールドを通過するLIDARリターンの予想数(例えば、オクルージョンフィールド上のボクセル空間の列内のボクセルを通過し得る)を決定すること、及び上記で詳細に論じたそのようなオクルージョンフィールド上を通過するボクセルの総数に関するオクルージョンフィールドを通過するLIDARリターンの実数を決定すること、を含むことができる。もちろん、オペレーション1008はLIDARデータがオクルージョンフィールド内の物体を表すことを決定することを含むことができ、その場合、オクルージョンフィールドが占有されているであろう。リターンの閾値数(又はパーセンテージ)がリターン無しを示す場合、占有状態は非占有であり得る。そうでなければ、占有状態が未決定であり得る。 At operation 1008, the process may include beaming the LIDAR data and determining occlusion field occupancy. As discussed in connection with FIG. 2 and throughout this disclosure, the LIDAR data ray emission may pass through the expected number of LIDAR returns that pass through the occlusion field (e.g., voxels in a column of voxel space above the occlusion field). and determining the actual number of LIDAR returns passing through the occlusion field relative to the total number of voxels passing over such occlusion field discussed in detail above. Of course, operation 1008 can include determining that the LIDAR data represents an object within an occlusion field, in which case the occlusion field will be occupied. The occupancy state may be unoccupied if the threshold number (or percentage) of returns indicates no returns. Otherwise, the occupancy state may be undetermined.

オペレーション1010において、プロセスはオクルージョンフィールドを区分された画像データに投影し、オクルージョンフィールドの占有率を決定することを含むことができる。図3に関連して及び本開示全体を通して論じたように、画像センサによって取り込まれた画像データを区分し、運転可能な領域、車両、歩行者などの位置を決定できる。オクルージョンフィールドの位置を区分された画像データに投影して、オクルージョンフィールドの位置が運転可能路面に対応するかどうかを決定できる。対応する場合、オクルージョンフィールドは占有されていないが、例えばオクルージョンフィールドが車両に投影されている場合、オクルージョンフィールドは占有されている、又はそうでなければ未決定であると決定できる。オクルージョンフィールドが占有されているかどうかの決定をオペレーション1012にて行うことができる。 In operation 1010, the process may include projecting an occlusion field onto the segmented image data and determining occlusion field occupancy. As discussed in connection with FIG. 3 and throughout this disclosure, image data captured by an image sensor can be segmented to determine the location of drivable areas, vehicles, pedestrians, etc. The position of the occlusion field can be projected onto the segmented image data to determine whether the position of the occlusion field corresponds to a drivable road surface. In the corresponding case, the occlusion field is unoccupied, but if, for example, the occlusion field is projected onto a vehicle, it can be determined that the occlusion field is occupied or otherwise undetermined. A determination whether the occlusion field is occupied may be made at operation 1012.

オペレーション1012において、オクルージョンフィールドの閾値数が占有されている(「yes」)、又は未決定である場合、プロセスはオペレーション1014に続く。オペレーション1014において、プロセスは、占有率に少なくとも部分的に基づいて、オクルージョングリッドがクリアでないと決定することを含むことができる。例えば、車両が安全に環境を横断し得ると決定するのに十分な数の非占有のオクルージョンフィールドがない場合、プロセスは戻り得る。いくつかの例では、オペレーション1014はオクルージョンフィールドの閾値数が占有されている、又は未決定であると決定することを含むことができる。いくつかの例では、オペレーション1014は車両を制御しオクルージョングリッドの大部分を観察するための位置に走行させることを含むことができる。プロセスはオペレーション1004に戻って、オクルージョンフィールドの、従ってオクルージョングリッドの状態を決定するための追加のデータを取り込むことができる。 In operation 1012, if the threshold number of occlusion fields is occupied (“yes”) or undetermined, the process continues to operation 1014. In operation 1014, the process may include determining that the occlusion grid is not clear based at least in part on the occupancy. For example, the process may return if there are not a sufficient number of unoccupied occlusion fields to determine that the vehicle can safely traverse the environment. In some examples, operation 1014 may include determining that a threshold number of occlusion fields are occupied or undetermined. In some examples, operation 1014 can include controlling a vehicle to drive into a position to view a large portion of the occlusion grid. The process may return to operation 1004 to capture additional data for determining the state of the occlusion field and thus the occlusion grid.

オクルージョンフィールドが占有されていない場合(オペレーション1012で「no」)、プロセスはオペレーション1016に続く。オペレーション1016において、プロセスは、占有率に少なくとも部分的に基づいて、オクルージョングリッドがクリアである、又はそうでなければ環境を安全に横断するのに十分な情報を提供すると決定することを含むことができる。 If the occlusion field is not occupied (“no” in operation 1012), the process continues to operation 1016. In operation 1016, the process may include determining, based at least in part on the occupancy, that the occlusion grid is clear or otherwise provides sufficient information to safely traverse the environment. can.

オペレーション1018において、プロセスは、オクルージョングリッドがクリアであることに少なくとも部分的に基づいて、自律車両を制御し環境を横断させることを含むことができる。 At operation 1018, the process can include controlling the autonomous vehicle to traverse the environment based at least in part on the occlusion grid being clear.

図11は、本開示の実施形態による、オクルージョングリッドを示すマップデータに基づいて、又は環境内の障害物の識別に基づいて、オクルージョングリッドを決定し、車両を制御し環境を横断させるための例示のプロセス1100を示す。例えば、プロセス1100の一部又は全ては、本明細書で説明するように、図4における1つ以上のコンポーネントによって実行できる。例えば、プロセス1100の一部又は全ては車両コンピューティングデバイス404によって実行できる。 FIG. 11 is an illustration for determining an occlusion grid and controlling a vehicle to traverse an environment based on map data indicative of the occlusion grid or based on identification of obstacles in the environment, according to embodiments of the present disclosure. 1100 is shown. For example, some or all of process 1100 can be performed by one or more components in FIG. 4, as described herein. For example, some or all of process 1100 can be performed by vehicle computing device 404.

オペレーション1102において、プロセスは自律車両を制御し環境内の第1の位置まで横断させることを含むことができる。場合によっては、第1の位置は環境内の交差点のストップラインを表すことができる。 In operation 1102, the process can include controlling the autonomous vehicle to traverse an environment to a first location. In some cases, the first location can represent a stop line of an intersection in the environment.

オペレーション1104において、プロセスは自律車両上のセンサを使用して環境のセンサデータを取り込むことを含むことができる。いくつかの例では、オペレーション1104は、環境内のLIDARデータ、画像データ、RADARデータなどを取り込むことを含むことができる。 At operation 1104, the process may include capturing sensor data of the environment using sensors on the autonomous vehicle. In some examples, operation 1104 can include capturing LIDAR data, image data, RADAR data, etc. in the environment.

オペレーション1106において、プロセスは、1)マップデータがオクルージョングリッドを示しているかどうか、又は2)障害物が環境内で識別されているかどうかを決定することを含むことができる。「no」の場合(例えば、マップデータが、その位置に関連付けられたオクルージョングリッドがある、及び環境内で識別された物体がない、と示さない)、プロセスはオペレーション1102に戻ることができ、それにより自律車両は新しい位置に移動でき(オペレーション1102)、及び/又は自律車両が基準運転行動(例えば、センサデータに基づく軌道生成)に従って環境内のセンサデータを取り込むことができるようになる(オペレーション1104)。オペレーション1106において、「yes」の場合(例えば、マップデータが、その位置に関連付けられたオクルージョングリッドがある、又は環境内に識別された物体があると示す)、プロセスはオペレーション1108に続く。 At operation 1106, the process may include determining 1) whether the map data indicates an occlusion grid, or 2) whether an obstacle has been identified in the environment. If “no” (e.g., the map data does not indicate that there is an occlusion grid associated with the location and that there are no objects identified in the environment), the process can return to operation 1102 and may move the autonomous vehicle to a new location (operation 1102) and/or enable the autonomous vehicle to capture sensor data in the environment according to a baseline driving behavior (e.g., trajectory generation based on sensor data) (operation 1104). ). If yes in operation 1106 (eg, the map data indicates that there is an occlusion grid associated with the location or that there is an identified object in the environment), the process continues to operation 1108.

オペレーション1108において、プロセスは、複数のオクルージョンフィールドを含むオクルージョングリッドを決定することを含むことができ、オクルージョンフィールドは環境内の対応する領域の可視性及び占有率を示す。いくつかの例では、オクルージョングリッドはマップデータからアクセスでき、いくつかの例では、オクルージョングリッドは物体の識別に少なくとも部分的に基づいて動的に生成できる。 At operation 1108, the process may include determining an occlusion grid that includes a plurality of occlusion fields, where the occlusion fields indicate visibility and occupancy of corresponding areas within the environment. In some examples, the occlusion grid can be accessed from the map data, and in some examples, the occlusion grid can be dynamically generated based at least in part on the identification of the object.

オペレーション1110において、プロセスは、オクルージョン領域として及びセンサデータに少なくとも部分的に基づいて、第1の時間において、オクルージョングリッドの少なくとも一部がオクルージョンであると決定することを含むことができる。本明細書で論じるように、第1の時間においてオクルージョン領域は自律車両の1つ以上のセンサから可視ではあり得ない。 In operation 1110, the process can include determining that at least a portion of the occlusion grid is an occlusion at a first time as an occlusion area and based at least in part on the sensor data. As discussed herein, the occlusion region may not be visible to one or more sensors of the autonomous vehicle at the first time.

オペレーション1112において、プロセスは、オクルージョン領域に少なくとも部分的に基づいて、自律車両を制御し第1の位置に留まらせる又は第2の位置を横断させることを含むことができる。第1の位置に留まらせる例は図7に関連して論じ、車両を制御し第2の位置を横断させる例は図6に関連して論じている。例えば、第2の位置をチェックラインにでき、自律車両を第2の位置まで走行させ、より多くのオクルージョングリッドを見ることを可能にする。 In operation 1112, the process can include controlling the autonomous vehicle to remain at the first location or traverse the second location based at least in part on the occlusion area. An example of remaining in a first position is discussed in connection with FIG. 7, and an example of controlling the vehicle to traverse a second position is discussed in connection with FIG. For example, the second position can be a check line, allowing the autonomous vehicle to drive to the second position and see more of the occlusion grid.

オペレーション1114において、プロセスは、センサデータに少なくとも部分的に基づいて、第2の時間において、オクルージョン領域(又はオクルージョン領域に対応する環境の一部)が可視であると決定することを含むことができる。図6に関して、環境内の障害物がオクルージョングリッド全体のデータを取り込むことからセンサを妨害しないように、自律車両は第2の位置に走行し得る。図7に関して、自律車両は移動する障害物のために待機し得、それによりセンサがオクルージョングリッドを表すデータを取り込むことを可能にする。 In operation 1114, the process can include determining that the occlusion region (or a portion of the environment corresponding to the occlusion region) is visible at the second time based at least in part on the sensor data. . With respect to FIG. 6, the autonomous vehicle may travel to the second position so that obstacles in the environment do not prevent the sensor from capturing data for the entire occlusion grid. With respect to FIG. 7, the autonomous vehicle may wait for a moving obstacle, thereby allowing sensors to capture data representative of the occlusion grid.

オペレーション1116において、プロセスは、第2の時間において、可視であるオクルージョン領域に少なくとも部分的に基づいて、自律車両を制御することを含むことができる。いくつかの例では、オペレーション1116はまた、自律車両が環境を安全に横断できることを示すオクルージョングリッドが占有されていないと決定することを含むことができる。 In operation 1116, the process can include controlling the autonomous vehicle based at least in part on the visible occlusion region at the second time. In some examples, operation 1116 may also include determining that the occlusion grid is not occupied, indicating that the autonomous vehicle can safely traverse the environment.

[例示的な発明内容]
A:1つ以上のプロセッサと、前記1つ以上のプロセッサによって実行可能な命令を格納した1つ以上のコンピュータ可読媒体と、を備えたシステムであって、前記命令は、実行されると、前記システムに、自律車両上のLIDARセンサを使用してLIDARデータを取り込むステップと、前記自律車両に近接する環境を表すマップデータであって、複数のオクルージョンフィールドを含むオクルージョングリッドを含むマップデータにアクセスするステップであって、前記複数のオクルージョンフィールドのオクルージョンフィールドが前記環境の一部のオクルージョン状態及び占有状態に関連付けられる、ステップと、前記LIDARデータの一部を光線放射し、前記オクルージョンフィールドの前記占有状態及び前記オクルージョン状態を決定するステップと、前記オクルージョンフィールドに少なくとも部分的に基づいて、前記オクルージョングリッドに関連付けられた情報の十分性を決定し、前記自律車両が前記環境を横断するための安全な軌道を決定するステップと、前記自律車両を制御し前記安全な軌道に従って前記環境を横断させるステップと、を含む操作を実行させる、システム。
[Example invention content]
A: A system comprising one or more processors and one or more computer-readable media storing instructions executable by the one or more processors, the instructions, when executed, capturing LIDAR data into a system using a LIDAR sensor on an autonomous vehicle; and accessing map data representing an environment proximate the autonomous vehicle, the map data including an occlusion grid including a plurality of occlusion fields. an occlusion field of the plurality of occlusion fields is associated with an occlusion state and an occupancy state of a portion of the environment; and emitting a portion of the LIDAR data; and determining the occlusion state, based at least in part on the occlusion field, determining sufficiency of information associated with the occlusion grid to provide a safe trajectory for the autonomous vehicle to traverse the environment. and controlling the autonomous vehicle to traverse the environment according to the safe trajectory.

B:前記操作が、前記自律車両上の画像センサを使用して画像データを取り込むステップと、前記画像データの少なくとも一部に対して意味区分を実行して、前記環境内の少なくとも運転可能路面を識別する区分された画像データを生成するステップと、前記オクルージョンフィールドを前記区分された画像データに投影するステップと、前記オクルージョンフィールドが前記運転可能路面に投影されていることを決定するステップと、前記運転可能路面に投影されている前記オクルージョンフィールドに少なくとも部分的に基づいて、前記自律車両を制御し前記環境を横断させるステップと、をさらに備える段落Aに記載のシステム。 B: The operations include capturing image data using an image sensor on the autonomous vehicle and performing semantic segmentation on at least a portion of the image data to identify at least a drivable road surface in the environment. generating segmented image data that identifies; projecting the occlusion field onto the segmented image data; determining that the occlusion field is projected onto the drivable road surface; The system of paragraph A, further comprising controlling the autonomous vehicle to traverse the environment based at least in part on the occlusion field projected onto a drivable surface.

C:前記複数のオクルージョンフィールドが前記環境内の運転可能路面の一部を個別化し、前記オクルージョンフィールドの前記オクルージョン状態が前記LIDARセンサによる前記オクルージョンフィールドの可視性を示す、段落A又は段落Bに記載のシステム。 C: as described in paragraph A or B, wherein the plurality of occlusion fields individualize portions of a drivable road surface in the environment, and the occlusion state of the occlusion fields indicates visibility of the occlusion field by the LIDAR sensor. system.

D:前記操作が、前記オクルージョンフィールドに関連付けられたLIDARリターンの第1の数と、前記オクルージョンフィールドに関連付けられた個別化された領域の第2の数と、に少なくとも部分的に基づいて、前記オクルージョンフィールドの前記占有状態に関連付けられた信頼値を決定するステップをさらに備える段落Aから段落Cに記載のいずれかのシステム D: the operation is based at least in part on a first number of LIDAR returns associated with the occlusion field and a second number of individualized regions associated with the occlusion field; The system of any of paragraphs A through C, further comprising determining a confidence value associated with the occupancy state of an occlusion field.

E:前記第2の数に対する前記第1の数の第1の比率が閾値未満であることは前記オクルージョンフィールドの非占有状態の高い信頼性を示し、前記第2の数に対する前記第1の数の第2の比率が前記閾値以上であることは前記オクルージョンフィールドの占有済み状態の高い信頼性を示す、段落Dに記載のシステム。 E: a first ratio of the first number to the second number is less than a threshold indicating a high reliability of the unoccupied state of the occlusion field; The system of paragraph D, wherein the second ratio of equal to or greater than the threshold indicates high confidence in the occupied state of the occlusion field.

F:ロボットプラットフォーム上のセンサを使用してセンサデータを取り込むステップと、前記センサデータに少なくとも部分的に基づいて、前記ロボットプラットフォームの位置を決定するステップと、前記位置の前記ロボットプラットフォームに近接する環境を表すマップデータであって、オクルージョングリッドを含むマップデータにアクセスするステップと、前記オクルージョングリッドのオクルージョンフィールドの占有状態を決定するステップと、前記オクルージョンフィールドに少なくとも部分的に基づいて、情報の十分性を決定し、前記オクルージョングリッドに近接する前記環境の領域を横断する軌道を決定するステップと、前記オクルージョングリッドの前記占有状態に少なくとも部分的に基づいて、前記ロボットプラットフォームを制御するステップと、を備える方法。 F: capturing sensor data using a sensor on a robot platform; determining a position of the robot platform based at least in part on the sensor data; and an environment proximate the robot platform at the position. accessing map data representing an occlusion grid, the step of determining an occlusion state of an occlusion field of the occlusion grid; and determining the sufficiency of information based at least in part on the occlusion field. and controlling the robot platform based at least in part on the occupancy of the occlusion grid. Method.

G:前記センサデータとして前記ロボットプラットフォーム上のLIDARセンサを使用してLIDARデータを取り込むステップと、前記LIDARデータの一部を光線放射して、前記オクルージョンフィールドの前記占有状態を決定するステップであって、前記占有状態は、占有済み状態、非占有状態、又は未決定状態の1つを含む、ステップと、前記LIDARデータの一部を光線放射して、前記オクルージョンフィールドのオクルージョン状態を決定するステップであって、前記オクルージョン状態は可視又はオクルージョンであることの1つを含む、ステップと、前記オクルージョングリッドがクリアであることに少なくとも部分的に基づいて、前記ロボットプラットフォームを制御し前記環境を横断させるステップと、をさらに備え、前記情報の十分性は、前記オクルージョングリッドのサイズ又は前記オクルージョングリッドに関連付けられた制限速度の少なくとも1つに関係して、前記LIDARセンサから可視である前記オクルージョングリッドのオクルージョンフィールドの数に少なくとも部分的に基づいて決定される、段落Fに記載の方法。 G: capturing LIDAR data using a LIDAR sensor on the robot platform as the sensor data; and emitting a portion of the LIDAR data to determine the occupancy state of the occlusion field. , the occupancy state includes one of an occupied state, an unoccupied state, or an undetermined state; and emitting a portion of the LIDAR data to determine an occlusion state of the occlusion field. the occlusion state includes one of being visible or occluding; and controlling the robotic platform to traverse the environment based at least in part on the occlusion grid being clear. and, the sufficiency of the information is related to at least one of the size of the occlusion grid or the speed limit associated with the occlusion grid, the occlusion field of the occlusion grid being visible to the LIDAR sensor. The method of paragraph F, wherein the method is determined based at least in part on the number of .

H:前記光線放射が、前記オクルージョンフィールドの上の領域に関連付けられた予想のLIDARリターンの第1の数を決定するステップと、前記オクルージョンフィールドの上の前記領域に関連付けられた実際のLIDARリターンの第2の数を決定するステップと、前記予想のLIDARリターンの第1の数及び前記実際のLIDARリターンの第2の数に少なくとも部分的に基づいて、前記オクルージョンフィールドの前記占有率に関連付けられた信頼値を決定するステップと、前記信頼値が信頼閾値以上であると決定するステップと、を備える段落Gの方法。 H: determining a first number of expected LIDAR returns associated with the area above the occlusion field and a first number of actual LIDAR returns associated with the area above the occlusion field; determining a second number associated with the occupancy of the occlusion field based at least in part on the first number of expected LIDAR returns and the second number of actual LIDAR returns; The method of paragraph G, comprising: determining a confidence value; and determining that the confidence value is greater than or equal to a confidence threshold.

I:前記ロボットプラットフォーム上の画像センサを使用して、画像データを前記センサデータとして取り込むステップと、前記画像データの少なくとも一部に対して区分を実行して、前記環境内の運転可能路面を識別する区分された画像データを生成するステップと、前記オクルージョンフィールドを前記区分された画像データに投影するステップと、前記オクルージョンフィールドを前記運転可能路面に投影すると決定するステップと、前記運転可能路面に投影する前記オクルージョンフィールドに少なくとも部分的に基づいて、前記ロボットプラットフォームを制御し前記環境を横断させるステップと、をさらに備える段落Fから段落Hのいずれかに記載の方法。 I: using an image sensor on the robot platform to capture image data as the sensor data; and performing segmentation on at least a portion of the image data to identify drivable road surfaces in the environment. projecting the occlusion field onto the segmented image data; determining to project the occlusion field onto the drivable road surface; and projecting the occlusion field onto the drivable road surface. 3. The method of any of paragraphs F through H, further comprising controlling the robot platform to traverse the environment based at least in part on the occlusion field.

J:前記ロボットプラットフォームが自律車両を含み、前記自律車両に近接する前記環境が交差点を含み、前記方法が、前記自律車両が横断する前記交差点の距離を決定するステップと、前記交差点に関連付けられた制限速度を決定するステップと、前記交差点の前記距離と、前記制限速度と、安全係数と、に少なくとも部分的に基づいて、前記オクルージョングリッドの範囲を決定するステップと、をさらに備える段落Fから段落Iのいずれかに記載の方法。 J: the robotic platform includes an autonomous vehicle, the environment proximate the autonomous vehicle includes an intersection, and the method is associated with the intersection, including determining a distance of the intersection traversed by the autonomous vehicle. Paragraphs F through F further comprising: determining a speed limit; and determining a range of the occlusion grid based at least in part on the distance of the intersection, the speed limit, and a safety factor. The method according to any one of I.

K:前記自律車両が前記交差点の前記距離を横断する予想される時間に少なくとも部分的に基づいて、前記オクルージョングリッドの前記範囲を決定するステップをさらに備える段落Jに記載の方法。 K: The method of paragraph J, further comprising determining the range of the occlusion grid based at least in part on an expected time for the autonomous vehicle to traverse the distance of the intersection.

L:前記オクルージョンフィールドが時相論理記号を含み、前記方法が、前記時相論理記号を含む時相論理式の評価に少なくとも部分的に基づいて軌道を検証するステップと、前記軌道に少なくとも部分的に基づいて、前記ロボットプラットフォームを制御し前記環境を横断させるステップと、をさらに備える段落Fから段落Kのいずれかに記載の方法。 L: the occlusion field includes a temporal logic symbol, the method includes verifying a trajectory based at least in part on evaluation of a temporal logic expression including the temporal logic symbol; 3. The method of any of paragraphs F through K, further comprising controlling the robotic platform to traverse the environment based on the method.

M:前記オクルージョングリッドが複数のオクルージョンフィールドを含み、前記方法が、前記複数のオクルージョンフィールドの閾値数が前記センサから可視であり、前記ロボットプラットフォームを制御し前記環境を横断させる前に、非占有であると決定するステップ、をさらに備える段落Fから段落Lのいずれかに記載の方法。 M: the occlusion grid includes a plurality of occlusion fields, and the method determines whether a threshold number of the plurality of occlusion fields are visible to the sensor and unoccupied before controlling the robot platform to traverse the environment. The method according to any of paragraphs F to L, further comprising the step of determining that.

N:前記オクルージョングリッドの一部が前記センサから可視ではないと決定するステップと、前記ロボットプラットフォームを制御し前記センサから可視である前記オクルージョングリッドの前記一部を増やす位置に移動させるステップと、をさらに備える段落Fから段落Mのいずれかに記載の方法。 N: determining that a portion of the occlusion grid is not visible from the sensor; and controlling the robot platform to a position that increases the portion of the occlusion grid that is visible from the sensor. The method according to any one of paragraphs F to M, further comprising:

O:実行されると、1つ以上のプロセッサに、ロボットプラットフォーム上のセンサを使用して取り込まれたセンサデータを受信するステップと、前記センサデータに少なくとも部分的に基づいて、前記ロボットプラットフォームの位置を決定するステップと、前記位置の前記ロボットプラットフォームに近接する環境を表すマップデータであって、オクルージョングリッドを含むマップデータにアクセスするステップと、前記オクルージョングリッドのオクルージョンフィールドの占有状態を決定するステップと、前記オクルージョンフィールドに少なくとも部分的に基づいて、情報の十分性を決定し、前記オクルージョングリッドに近接する前記環境の領域を横断する軌道を決定するステップと、前記オクルージョングリッドの前記占有状態に少なくとも部分的に基づいて、前記ロボットプラットフォームを制御するステップと、を含む操作を実行させる命令を格納した非一時的コンピュータ可読媒体。 O: when executed, causing one or more processors to receive sensor data captured using sensors on a robot platform; and determining a position of the robot platform based at least in part on the sensor data. accessing map data representing an environment proximate to the robot platform at the location, the map data including an occlusion grid; and determining the occupancy of an occlusion field of the occlusion grid. , determining sufficiency of information based at least in part on the occlusion field to determine a trajectory that traverses a region of the environment proximate to the occlusion grid; controlling the robot platform based on the robot platform.

P:前記センサデータがLIDARデータであり、前記センサがLIDARセンサであり、前記操作は、前記LIDARデータの一部を光線放射し前記オクルージョンフィールドの前記占有状態及びオクルージョン状態を決定するステップと、前記占有状態及び前記オクルージョン状態に少なくとも部分的に基づいて、前記オクルージョングリッドに関連付けられた前記情報の十分性を決定するステップと、前記情報の十分性に少なくとも部分的に基づいて、前記ロボットプラットフォームを制御し前記環境を横断させるステップと、をさらに備える段落Oに記載の非一時的コンピュータ可読媒体。 P: the sensor data is LIDAR data, the sensor is a LIDAR sensor, and the operation includes beam emitting a portion of the LIDAR data to determine the occupancy state and occlusion state of the occlusion field; determining sufficiency of the information associated with the occlusion grid based at least in part on an occupancy state and the occlusion state; and controlling the robot platform based at least in part on the sufficiency of the information. and traversing the environment.

Q:前記光線放射は、前記オクルージョンフィールド上の領域に関連付けられた予想のLIDARリターンの第1の数を決定するステップと、前記オクルージョンフィールド上の前記領域に関連付けられた実際のLIDARリターンの第2の数を決定するステップと、前記予想のLIDARリターンの第1の数及び前記実際のLIDARリターンの第2の数に少なくとも部分的に基づいて、前記オクルージョンフィールドの前記占有状態に関連付けられた信頼値を決定するステップと、前記信頼値が信頼閾値以上であると決定するステップであって、前記信頼閾値以上である前記信頼レベルは前記オクルージョンフィールドが非占有であることを示す、ステップと、を備える段落Pに記載の非一時的コンピュータ可読媒体。 Q: The beam emission includes determining a first number of expected LIDAR returns associated with the area on the occlusion field and a second number of actual LIDAR returns associated with the area on the occlusion field. and a confidence value associated with the occupancy state of the occlusion field based at least in part on the first number of expected LIDAR returns and the second number of actual LIDAR returns. and determining that the confidence value is greater than or equal to a confidence threshold, wherein the confidence level being greater than or equal to the confidence threshold indicates that the occlusion field is unoccupied. A non-transitory computer-readable medium as described in paragraph P.

R:前記ロボットプラットフォーム上の画像センサを使用して、画像データを前記センサデータとして取り込み、前記画像データの少なくとも一部に対して区分を実行し、前記環境内の運転可能路面を識別する区分された画像データを生成し、前記オクルージョンフィールドを前記区分された画像データに投影し、前記オクルージョンフィールドを前記運転可能路面に投影すると決定する、段落Oから段落Qのいずれかに記載の非一時的コンピュータ可読媒体。 R: using an image sensor on the robot platform to capture image data as the sensor data and performing segmentation on at least a portion of the image data to identify driveable road surfaces in the environment; the non-transitory computer of any of paragraphs O through Q, the non-transitory computer of any of paragraphs O through Q determining to generate image data that has been segmented, project the occlusion field onto the segmented image data, and project the occlusion field onto the drivable road surface; readable medium.

S:前記操作は、前記オクルージョングリッドの一部が前記センサから可視ではないと決定するステップと、前記ロボットプラットフォームを制御し前記オクルージョングリッド全体が前記センサから可視である位置に移動させるステップと、をさらに備え、前記ロボットプラットフォームの速度が速度閾値を下回る、段落Oから段落Rのいずれかに記載の非一時的コンピュータ可読媒体。 S: The operation includes determining that a portion of the occlusion grid is not visible from the sensor, and controlling the robot platform to move the entire occlusion grid to a position where it is visible from the sensor. The non-transitory computer-readable medium of any of paragraphs O through R, further comprising: a speed of the robot platform below a speed threshold.

T:前記センサデータが第1のセンサデータであり、前記操作が、前記ロボットプラットフォーム上の画像センサによって取り込まれた画像データを、前記第1のセンサデータとして受信するステップと、前記ロボットプラットフォーム上のLIDARセンサによって取り込まれたLIDARデータを、第2のセンサデータとして受信するステップと、前記第1のセンサデータ及び前記第2のセンサデータに少なくとも部分的に基づいて、前記オクルージョンフィールドの前記占有状態に関連付けられた信頼値を決定するステップと、をさらに備える段落Oから段落Sのいずれかに記載の非一時的コンピュータ可読媒体。 T: the sensor data is first sensor data, the operation includes receiving image data captured by an image sensor on the robot platform as the first sensor data; receiving LIDAR data captured by a LIDAR sensor as second sensor data; and determining the occupancy state of the occlusion field based at least in part on the first sensor data and the second sensor data. The non-transitory computer-readable medium of any of paragraphs O through S, further comprising the step of determining an associated confidence value.

U:1つ以上のプロセッサと、前記1つ以上のプロセッサによって実行可能な命令を格納した1つ以上のコンピュータ可読媒体と、を備えたシステムであって、前記命令は、実行されると、前記システムに、自律車両を制御し環境内の第1の位置を横断させるステップと、前記自律車両のセンサを使用して、少なくとも前記環境のLIDARデータ又は画像データを、センサデータとして取り込むステップと、マップデータにアクセスすることに又は環境内の障害物を識別することに少なくとも部分的に基づいて、複数のオクルージョンフィールドを含むオクルージョングリッドを決定するステップであって、前記オクルージョングリッドのオクルージョンフィールドが前記環境の対応する領域のオクルージョン状態及び占有状態を示す、ステップと、オクルージョン領域として、及び前記センサデータに少なくとも部分的に基づいて、第1の時間において前記オクルージョングリッドの少なくとも第1の部分がオクルージョンであると決定するステップと、非オクルージョン領域として、及び前記センサデータに少なくとも部分的に基づいて、前記第1の時間において前記オクルージョングリッドの少なくとも第2の部分が非オクルージョンであると決定するステップと、前記第2の部分の範囲及び占有率に少なくとも部分的に基づいて、前記環境を通る軌道を安全に横断することに関連付けられた信頼レベルを決定するステップと、閾値レベル未満の前記信頼レベルに少なくとも部分的に基づいて、前記自律車両を制御し前記第1の位置に留まらせる、又は第2の位置まで横断させるステップと、第2の時間において前記センサデータに少なくとも部分的に基づいて、前記オクルージョングリッドの第3の部分が可視及び非占有であると決定するステップと、前記第2の時間において可視及び非占有である前記オクルージョングリッドの前記第3の部分に少なくとも部分的に基づいて、前記自律車両を制御するステップと、を含む操作を実行させる、システム。 U: A system comprising one or more processors and one or more computer-readable media storing instructions executable by the one or more processors, the instructions, when executed, controlling an autonomous vehicle to traverse a first location in an environment; and capturing at least LIDAR data or image data of the environment as sensor data using sensors of the autonomous vehicle; determining an occlusion grid including a plurality of occlusion fields based at least in part on accessing data or identifying obstacles in the environment, wherein the occlusion field of the occlusion grid is in the environment; indicating an occlusion state and an occupancy state of a corresponding region; as an occlusion region and based at least in part on the sensor data, at least a first portion of the occlusion grid is in occlusion at a first time; determining that at least a second portion of the occlusion grid is non-occluding at the first time as a non-occlusion area and based at least in part on the sensor data; determining a confidence level associated with safely traversing a trajectory through the environment based at least in part on the extent and occupancy of the portions of 2; controlling the autonomous vehicle to remain at the first location or traverse to a second location based on the occlusion grid at a second time based at least in part on the sensor data; determining that a third portion is visible and unoccupied; and at least partially based on the third portion of the occlusion grid being visible and unoccupied at the second time. A system that causes operations to be performed, including steps to control.

V:前記操作が、前記自律車両が他の通行車に道を譲る必要がある交差点に、前記自律車両が接近していると決定するステップ、前記障害物が動的オクルージョングリッドに関連付けられていると決定するステップ、前記オクルージョングリッド内を横断した動的障害物の予測軌道を決定するステップ、又は地形的オクルージョン領域に基づいて前記オクルージョングリッドを決定するステップの1つ以上をさらに備える段落Uのシステム。 V: the operation determines that the autonomous vehicle is approaching an intersection at which the autonomous vehicle is required to yield to other traffic; the obstacle is associated with a dynamic occlusion grid; The system of paragraph U further comprising one or more of the following: determining a predicted trajectory of a dynamic obstacle traversed within the occlusion grid; or determining the occlusion grid based on a topographical occlusion area. .

W:前記センサデータが前記LIDARデータを含み、前記センサがLIDARセンサであり、前記操作は前記LIDARデータの一部を光線放射して、前記オクルージョンフィールドの前記オクルージョン状態及び前記占有状態を決定するステップ、をさらに備える段落U又は段落Vに記載のシステム。 W: the sensor data includes the LIDAR data, the sensor is a LIDAR sensor, and the operation beams a portion of the LIDAR data to determine the occlusion state and the occupancy state of the occlusion field. The system according to paragraph U or paragraph V, further comprising .

X:前記センサデータが画像データであり、前記センサが画像センサであり、前記操作が、前記画像データの少なくとも一部に対して区分を実行して、前記環境内の運転可能路面を識別する区分された画像データを生成するステップと、前記オクルージョンフィールドを前記区分された画像データに投影するステップと、前記オクルージョンフィールドが前記運転可能路面に投影されていると決定するステップと、前記運転可能路面に投影されている前記オクルージョンフィールドに少なくとも部分的に基づいて、前記自律車両を制御し前記環境を横断させるステップと、をさらに備える段落Uから段落Wのいずれかに記載のシステム。 X: the sensor data is image data, the sensor is an image sensor, and the operation performs a classification on at least a portion of the image data to identify a drivable road surface in the environment; projecting the occlusion field onto the segmented image data; determining that the occlusion field is projected onto the drivable road surface; The system of any of paragraphs U through W, further comprising controlling the autonomous vehicle to traverse the environment based at least in part on the projected occlusion field.

Y:前記操作が、前記複数のオクルージョンフィールドの非オクルージョン及び非占有のオクルージョンフィールドの第1の数を決定するステップと、前記第1の数が前記環境の安全な横断に関連付けられたオクルージョンフィールドの閾値数未満であると決定するステップと、前記第1の数が前記閾値数未満であるということに少なくとも部分的に基づいて、前記自律車両を制御し前記第1の位置に留まらせる又は前記第2の位置まで横断させるステップと、をさらに備える段落Uから段落Xのいずれかに記載のシステム。 Y: said operation determines a first number of non-occlusion and non-occupied occlusion fields of said plurality of occlusion fields, and said first number of occlusion fields associated with safe traversal of said environment. determining that the first number is less than a threshold number; and controlling the autonomous vehicle to remain in the first position or to cause the autonomous vehicle to remain in the first position based at least in part on the first number being less than the threshold number. 2. The system according to any of paragraphs U through X, further comprising the step of traversing to position 2.

Z:自律車両を制御し環境内の第1の位置まで横断させるステップと、マップデータへのアクセス又は環境内の障害物の識別に少なくとも部分的に基づいて、オクルージョングリッドを決定するステップと、オクルージョン領域として、第1の時間において前記オクルージョングリッドの少なくとも第1の部分がオクルージョンであると決定するステップと、非オクルージョン領域として、前記第1の時間において前記オクルージョングリッドの少なくとも第2の部分が可視であると決定するステップと、前記非オクルージョン領域の占有状態を決定するステップと、前記非オクルージョン領域の範囲及び前記非オクルージョン領域の前記占有状態に少なくとも部分的に基づいて、前記自律車両を制御し前記第1の位置に留まらせる又は第2の位置まで横断させるステップと、第2の時間において前記オクルージョングリッドの第3の部分が非オクルージョンである及び非占有であると決定するステップと、前記第2の時間において前記オクルージョングリッドの前記第3の部分が非オクルージョン及び非占有であることに少なくとも部分的に基づいて、前記自律車両を制御するステップと、を含む方法。 Z: controlling an autonomous vehicle to traverse an environment to a first location; determining an occlusion grid based at least in part on accessing map data or identifying obstacles in the environment; determining that at least a first portion of the occlusion grid is occluded at a first time as a region; and at least a second portion of the occlusion grid is visible at the first time as a non-occlusion region; determining an occupancy state of the non-occlusion region; and controlling the autonomous vehicle based at least in part on the extent of the non-occlusion region and the occupancy state of the non-occlusion region. remaining at a first position or traversing to a second position; determining that a third portion of the occlusion grid is non-occluding and unoccupied at a second time; controlling the autonomous vehicle based at least in part on the third portion of the occlusion grid being unoccluded and unoccupied at a time of .

AA:前記自律車両が環境内の交差点に接近していることを決定するステップであって、前記自律車両が前記交差点での通行権を欠いている、ステップをさらに備え、前記第1の位置が前記交差点に関連付けられたストップラインであり、前記第2の位置が前記ストップラインを少なくとも部分的に超える前記交差点内にあるチェックラインである、段落Zに記載の方法。 AA: determining that the autonomous vehicle is approaching an intersection in an environment, the autonomous vehicle lacking right-of-way at the intersection; The method of paragraph Z, wherein the stop line is associated with the intersection, and the second location is a check line within the intersection at least partially beyond the stop line.

AB:前記自律車両を制御し閾値速度未満の第1の速度で前記第1の位置から前記第2の位置まで横断させるステップと、前記第2の位置でのセンサデータを取り込むことを決定するステップと、前記センサデータに少なくとも部分的に基づいて、前記第2の時間において前記第3の部分が非オクルージョン及び非占有であると決定するステップと、前記第3の部分の範囲が閾値以上であると決定するステップと、前記自律車両を制御し前記速度閾値以上の第2の速度で前記第2の位置から前記交差点を横断させるステップと、をさらに備える段落AAの方法。 AB: controlling the autonomous vehicle to traverse from the first location to the second location at a first speed less than a threshold speed; and determining to capture sensor data at the second location. and determining, based at least in part on the sensor data, that the third portion is non-occluding and unoccupied at the second time, and a range of the third portion is greater than or equal to a threshold. and controlling the autonomous vehicle to cross the intersection from the second location at a second speed that is greater than or equal to the speed threshold.

AC:前記障害物が動的障害物であり、前記方法が、前記環境内の前記動的障害物を識別するステップと、前記オクルージョングリッドを前記動的障害物に関連付けるステップと、前記非オクルージョン領域の前記範囲及び前記非オクルージョン領域の前記占有状態に少なくとも部分的に基づいて、前記第1の時間において前記自律車両を制御し前記第1の位置に留まらせるステップと、前記第2の時間において前記オクルージョングリッドの前記第3の部分が非オクルージョン及び非占有であることに少なくとも部分的に基づいて、前記自律車両を制御するステップと、をさらに備える段落Zから段落ABのいずれかに記載の方法。 AC: the obstacle is a dynamic obstacle, the method comprises: identifying the dynamic obstacle in the environment; associating the occlusion grid with the dynamic obstacle; and the non-occlusion area. controlling the autonomous vehicle to remain in the first position at the first time based at least in part on the extent of the area and the occupancy of the non-occlusion region; The method of any of paragraphs Z through AB, further comprising controlling the autonomous vehicle based at least in part on the third portion of an occlusion grid being non-occluding and non-occupying.

AD:前記環境内の前記障害物を識別するステップと、前記オクルージョングリッドを前記障害物に関連付けるステップと、前記環境内の動的物体を識別するステップと、前記環境内の前記動的物体のモーションデータを取り込むステップと、前記動的物体が前記オクルージョン領域内を横断したと決定するステップと、前記オクルージョン領域内の前記動的物体の予測軌道を決定するステップと、前記動的物体の前記予測軌道に少なくとも部分的に基づいて、前記自律車両を制御するステップと、をさらに備える段落Zから段落ACのいずれかに記載の方法。 AD: identifying the obstacle in the environment; associating the occlusion grid with the obstacle; identifying a dynamic object in the environment; and motion of the dynamic object in the environment. capturing data; determining that the dynamic object has traversed the occlusion region; determining a predicted trajectory of the dynamic object within the occlusion region; and determining the predicted trajectory of the dynamic object within the occlusion region. controlling the autonomous vehicle based at least in part on the method of any of paragraphs Z through AC.

AE:前記自律車両が地形的オクルージョン領域までの距離閾値内にあると決定するステップと、地形的オクルージョングリッドとして、前記地形的オクルージョン領域に関連付けられた前記マップデータに少なくとも部分的に基づいて前記オクルージョングリッドを決定するステップと、をさらに備える段落Zから段落ADのいずれかの方法。 AE: determining that the autonomous vehicle is within a distance threshold to a terrain occlusion area; and determining the occlusion based at least in part on the map data associated with the terrain occlusion area as a terrain occlusion grid. The method of any of paragraphs Z to AD, further comprising the step of determining a grid.

AF:前記自律車両上のLIDARセンサを使用してLIDARデータを取り込むステップと、前記LIDARデータの一部を光線放射して、オクルージョンフィールドのオクルージョン状態及び占有状態を決定し、前記オクルージョンフィールドが前記オクルージョングリッドの一部を表す、ステップと、をさらに備える段落Zから段落AEのいずれかに記載の方法。 AF: capturing LIDAR data using a LIDAR sensor on the autonomous vehicle and emitting a portion of the LIDAR data to determine an occlusion state and an occupancy state of an occlusion field; The method of any of paragraphs Z to AE, further comprising the step of representing a portion of a grid.

AG:前記自律車両上の画像センサを使用して、画像データを取り込むステップと、前記画像データの少なくとも一部に対して区分を実行して、前記環境内の運転可能路面を識別する区分された画像データを生成するステップと、オクルージョンフィールドを前記区分された画像データに投影するステップであって、前記オクルージョンフィールドが前記オクルージョングリッドの一部を表す、ステップと、前記オクルージョンフィールドが前記運転可能路面に投影されていると決定するステップと、前記運転可能路面に投影されている前記オクルージョンフィールドに少なくとも部分的に基づいて、前記自律車両を制御し前記環境を横断させるステップと、をさらに備える段落Zから段落AFのいずれかに記載の方法。 AG: capturing image data using an image sensor on the autonomous vehicle; and performing segmentation on at least a portion of the image data to identify drivable surfaces in the environment. generating image data; projecting an occlusion field onto the segmented image data, the occlusion field representing a portion of the occlusion grid; and the step of projecting an occlusion field onto the segmented image data; and controlling the autonomous vehicle to traverse the environment based at least in part on the occlusion field being projected onto the drivable surface. The method described in any of paragraphs AF.

AH:前記環境内を横断するための前記一部の第1の範囲、並びに非オクルージョン及び非占有である前記オクルージョングリッドの前記第3の部分の第2の範囲に少なくとも部分的に基づいて選択された速度に基づいて、前記自律車両を制御し前記環境の一部を横断させるステップをさらに備える段落Zから段落AGのいずれかに記載の方法。 AH: selected based at least in part on a first range of the portion for traversing within the environment and a second range of the third portion of the occlusion grid that is non-occluding and non-occupying. The method of any of paragraphs Z through AG, further comprising controlling the autonomous vehicle to traverse the portion of the environment based on the speed determined.

AI:前記オクルージョン領域に関連付けられた期間を決定するステップと、前記期間中に前記オクルージョン領域に進入した物体がないと決定するステップと、前記オクルージョン領域に関連付けられた制限速度に少なくとも部分的に基づいて、前記期間に少なくとも部分的に基づいて前記オクルージョン領域の占有率に関連付けられた信頼レベルを決定するステップと、をさらに備える段落Zから段落AHのいずれかに記載の方法。 AI: determining a time period associated with the occlusion region; determining that no objects entered the occlusion region during the time period; and based at least in part on a speed limit associated with the occlusion region. determining a confidence level associated with the occlusion region occupancy based at least in part on the time period.

AJ:実行されると、1つ以上のプロセッサに、ロボットプラットフォームを制御し環境内の第1の位置まで横断させるステップと、マップに関する前記ロボットプラットフォームの位置を決定するステップであって、前記マップはマップデータを含む、ステップと、前記位置に関連付けられた前記マップデータへアクセスすること、又は前記ロボットプラットフォームに近接する環境内の障害物の特定することに少なくとも部分的に基づいて、オクルージョングリッドを決定するステップと、オクルージョン領域として、第1の時間において前記オクルージョングリッドの少なくとも第1の部分がオクルージョンであると決定するステップと、非オクルージョン領域として、前記第1の時間において前記オクルージョングリッドの少なくとも第2の部分が可視であると決定するステップと、前記非オクルージョン領域の占有状態を決定するステップと、前記非オクルージョン領域の範囲及び前記非オクルージョン領域の前記占有状態に少なくとも部分的に基づいて、前記ロボットプラットフォームを制御し前記第1の位置に留まらせる、又は第2の位置まで横断させるステップと、第2の時間において前記オクルージョングリッドの第3の部分が非オクルージョン及び非占有であると決定するステップと、前記第2の時間において前記第3の部分が非オクルージョン及び非占有であることに少なくとも部分的に基づいて、前記ロボットプラットフォームを制御するステップと、を含む操作を実行させる命令を格納した非一時的コンピュータ可読媒体。 AJ: When executed, causing one or more processors to control a robot platform to traverse to a first location in an environment, and determining a position of the robot platform with respect to a map, the map comprising: determining an occlusion grid based at least in part on: including map data; and accessing the map data associated with the location; or identifying obstacles in an environment proximate the robot platform; determining that at least a first portion of the occlusion grid is occluded at a first time as an occlusion region; and at least a second portion of the occlusion grid at the first time as a non-occlusion region; determining an occupancy state of the non-occlusion region, based at least in part on the extent of the non-occlusion region and the occupancy state of the non-occlusion region; controlling a platform to remain at the first location or traverse to a second location; and determining at a second time that a third portion of the occlusion grid is non-occluding and non-occupying. , controlling the robotic platform based at least in part on the third portion being non-occluding and non-occupying at the second time. computer-readable medium.

AK:前記操作が、前記ロボットプラットフォームが他の車両に譲る必要がある環境内の交差点に前記ロボットプラットフォームが接近していると決定するステップをさらに備え、前記第1の位置が前記交差点に関連付けられたストップラインであり、前記第2の位置が前記ストップラインを少なくとも部分的に超えた前記交差点内にあるチェックラインである、段落AJに記載の非一時的コンピュータ可読媒体。 AK: the operation further comprises determining that the robotic platform is approaching an intersection in an environment at which the robotic platform needs to yield to another vehicle, and the first location is associated with the intersection. the non-transitory computer-readable medium of paragraph AJ, wherein the second location is a check line within the intersection at least partially beyond the stop line.

AL:前記操作が、前記ロボットプラットフォーム上のLIDARセンサを使用してLIDARデータを取り込むステップと、前記LIDARデータの一部を光線放射して、オクルージョンフィールドの占有率を決定するステップであって、前記オクルージョンフィールドが前記オクルージョングリッドの一部を表す、ステップと、前記占有率に少なくとも部分的に基づいて、前記オクルージョングリッドが可視及び非占有であると決定するステップと、をさらに備える段落AJ又は段落AKに記載の非一時的コンピュータ可読媒体。 AL: the operations include capturing LIDAR data using a LIDAR sensor on the robot platform and beaming a portion of the LIDAR data to determine occlusion field occupancy; an occlusion field representing a portion of the occlusion grid; and determining that the occlusion grid is visible and unoccupied based at least in part on the occupancy percentage. non-transitory computer-readable medium as described in .

AM:前記操作が、前記ロボットプラットフォーム上の画像センサを使用して画像データを取り込むステップと、前記画像データの少なくとも一部に対して区分を実行して、前記環境内の運転可能路面を識別する区分された画像データを生成するステップと、オクルージョンフィールドを前記区分された画像データに投影するステップであって、前記オクルージョンフィールドは前記オクルージョングリッドの一部を表す、ステップと、前記オクルージョンフィールドが前記運転可能路面に投影されていると決定するステップと、前記運転可能路面に投影されている前記オクルージョンフィールドに少なくとも部分的に基づいて、前記ロボットプラットフォームを制御し前記環境を横断させるステップと、をさらに備える段落AJから段落ALのいずれかに記載の非一時的コンピュータ可読媒体。 AM: the operation includes capturing image data using an image sensor on the robot platform and performing segmentation on at least a portion of the image data to identify drivable surfaces in the environment. generating segmented image data; projecting an occlusion field onto the segmented image data, the occlusion field representing a portion of the occlusion grid; and and controlling the robotic platform to traverse the environment based at least in part on the occlusion field projected onto the drivable road surface. A non-transitory computer-readable medium according to any of paragraphs AJ to AL.

AN:前記操作が、前記オクルージョン領域に関連付けられた期間を決定するステップと、前記期間中に前記オクルージョン領域に進入した物体がないと決定するステップと、安全な軌道に関連付けられた信頼レベルを決定するステップと、をさらに備える段落AJから段落AMのいずれかに記載の非一時的コンピュータ可読媒体。 AN: the operation determines a period of time associated with the occlusion region; determines that no objects entered the occlusion region during the period; and determines a confidence level associated with a safe trajectory. The non-transitory computer-readable medium of any of paragraphs AJ to AM, further comprising the step of:

上述の例示の発明内容は1つの特定の実装に関して説明しているが、この文書のコンテキストでは、例示の発明内容はまた、方法、デバイス、システム及び/又はコンピュータ可読媒体、及び/又はその他の実装を介して実装できることを理解されたい。 Although the example invention subject matter described above is described with respect to one particular implementation, in the context of this document, the example invention subject matter also relates to methods, devices, systems and/or computer readable media, and/or other implementations. It should be understood that it can be implemented via

[結論] 本明細書で説明する技術の1つ以上の例について説明したが、様々な変更、追加、置換、及びそれらの同等物が、本明細書で説明する技術の範囲内に含まれる。 Conclusion Having described one or more examples of the technology described herein, various modifications, additions, substitutions, and equivalents thereof fall within the scope of the technology described herein.

例示の説明では、本明細書の一部を形成する添付の図面を参照するが、これは例示として請求される主題の具体的な例を示す。他の例を使用でき、構造的変更などの変更又は代替を行うことできることを理解されたい。そのような例示、変更又は代替は、意図して請求される主題に関する範囲から必ずしも逸脱するものではない。本明細書のステップは特定の順序で提示できるが、場合によっては、説明したシステム及び方法の機能を変更することなく、特定の入力を異なる時間又は異なる順序で提供するように、順序を変更できる。開示された手順はまた異なる順序で実行できる。さらに、本明細書にある様々な計算は開示された順序で実行される必要はなく、計算の代替順序を使用する他の例を容易に実装できる。並べ替えに加えて、計算はまた、同じ結果となるサブ計算に分解できる。 The illustrative description refers to the accompanying drawings, which form a part of the specification, and which illustrate by way of example specific examples of the claimed subject matter. It is to be understood that other examples may be used and modifications or substitutions may be made, such as structural changes. Such illustrations, modifications, or substitutions do not necessarily depart from the scope of the intended claimed subject matter. Although the steps herein may be presented in a particular order, the order may be changed in some cases to provide certain inputs at different times or in a different order without changing the functionality of the systems and methods described. . The disclosed procedures can also be performed in different orders. Furthermore, the various calculations herein need not be performed in the order disclosed, and other examples using alternative orders of calculations can be easily implemented. In addition to reordering, calculations can also be decomposed into sub-calculations with the same result.

Claims (15)

1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行可能な命令を格納した1つ以上のコンピュータ可読媒体と、
を備えたシステムであって、前記命令は、実行されると、前記システムに
車両上のセンサからセンサデータを受信するステップと、
前記車両に近接する環境を表すマップデータであって、複数のオクルージョンフィールドを含むオクルージョングリッドを含むマップデータを受信するステップであって、前記複数のオクルージョンフィールドのオクルージョンフィールドが、オクルージョンである前記オクルージョンフィールドに関連付けられた前記環境の一部を示すオクルージョン状態、及び占有されている前記環境の前記一部を示す占有状態に関連付けられる、ステップと、
前記センサデータの一部に少なくとも部分的に基づいて、前記オクルージョンフィールドの前記占有状態及び前記オクルージョン状態を決定するステップと、
前記オクルージョンフィールドに少なくとも部分的に基づいて、前記オクルージョングリッドに関連付けられた情報の
非占有であるオクルージョンフィールドの数が第1の閾値数以上であること、
可視オクルージョンフィールドの数が第2の閾値数以上であること、
未決定なオクルージョンフィールドを閾値期間観察すること、または
交差点の距離に対する非オクルージョン及び非占有領域の範囲を決定すること、
のうちの1つまたは複数に少なくとも部分的に基づいて、決定するステップと
前記情報の量に少なくとも部分的に基づいて、前記環境を横断する前記車両のための安全な軌道を決定するステップと、
前記車両を制御し前記安全な軌道に従って前記環境を横断させるステップと、
を含む操作を実行させる、システム。
one or more processors;
one or more computer-readable media storing instructions executable by the one or more processors;
A system comprising: the instructions, when executed, causing the system to receive sensor data from a sensor on a vehicle;
receiving map data representing an environment proximate to the vehicle, the map data including an occlusion grid including a plurality of occlusion fields, the occlusion field of the plurality of occlusion fields being an occlusion; an occlusion state indicative of the part of the environment associated with the environment; and an occlusion state indicative of the part of the environment being occupied;
determining the occupancy state and the occlusion state of the occlusion field based at least in part on a portion of the sensor data;
an amount of information associated with the occlusion grid based at least in part on the occlusion field ;
the number of unoccupied occlusion fields is greater than or equal to a first threshold number;
the number of visible occlusion fields is greater than or equal to a second threshold number;
observing an undetermined occlusion field for a threshold period, or
determining the extent of non-occlusion and unoccupied areas relative to the distance of the intersection;
determining based at least in part on one or more of the
determining a safe trajectory for the vehicle traversing the environment based at least in part on the amount of information ;
controlling the vehicle to traverse the environment according to the safe trajectory;
A system that performs operations involving.
前記センサがLIDARセンサであり、前記センサデータがLIDARデータを含み、前記操作が、
前記車両上の画像センサから画像データを受信するステップと、
前記画像データの少なくとも一部に対して意味区分を実行して、前記環境内の少なくとも運転可能路面を識別する区分された画像データを生成するステップと、
前記オクルージョンフィールドを前記区分された画像データに関連付けるステップと、
前記オクルージョンフィールドが前記運転可能路面に関連付けられていると決定するステップと、
前記運転可能路面に関連付けられている前記オクルージョンフィールドに少なくとも部分的に基づいて、前記車両を制御し前記環境を横断させるステップと、
をさらに備える請求項1に記載のシステム。
the sensor is a LIDAR sensor, the sensor data includes LIDAR data, and the operation includes:
receiving image data from an image sensor on the vehicle;
performing semantic segmentation on at least a portion of the image data to produce segmented image data that identifies at least a drivable road surface within the environment;
associating the occlusion field with the segmented image data;
determining that the occlusion field is associated with the drivable road surface;
controlling the vehicle to traverse the environment based at least in part on the occlusion field associated with the drivable surface;
The system of claim 1, further comprising:
前記複数のオクルージョンフィールドが前記環境内の運転可能路面の一部を個別化し、前記オクルージョンフィールドの前記オクルージョン状態が前記センサによる前記オクルージョンフィールドの可視性を示す、請求項1又は2に記載のシステム。 3. The system of claim 1 or 2, wherein the plurality of occlusion fields individualize portions of a driveable road surface in the environment, and wherein the occlusion state of the occlusion fields is indicative of the visibility of the occlusion field by the sensor. 前記操作が、
前記オクルージョンフィールドに関連付けられたLIDARリターンの第1の数と、
前記オクルージョンフィールドに関連付けられた個別化された領域の第2の数と、
に少なくとも部分的に基づいて、前記オクルージョンフィールドの前記占有状態に関連付けられた信頼値を決定するステップをさらに備える請求項1又は2に記載のシステム。
The operation is
a first number of LIDAR returns associated with the occlusion field;
a second number of individualized regions associated with the occlusion field;
3. The system of claim 1 or 2, further comprising determining a confidence value associated with the occupancy of the occlusion field based at least in part on the occlusion field.
前記第2の数に対する前記第1の数の第1の比率が閾値未満であることは前記オクルージョンフィールドの非占有状態の高い信頼性を示し、前記第2の数に対する前記第1の数の第2の比率が前記閾値以上であることは前記オクルージョンフィールドの占有済み状態の高い信頼性を示す、請求項4に記載のシステム。 A first ratio of the first number to the second number is less than a threshold, indicating a high reliability of the unoccupied state of the occlusion field; 5. The system of claim 4, wherein a ratio of 2 equal to or greater than the threshold indicates a high reliability of the occupied state of the occlusion field. 1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行可能な命令を格納した1つ以上のコンピュータ可読媒体と、を備えるシステムによって実行される方法であって、
ロボットプラットフォーム上のセンサを使用して取り込まれたセンサデータを受信するステップと、
前記センサデータに少なくとも部分的に基づいて、前記ロボットプラットフォームの位置を決定するステップと、
前記位置の前記ロボットプラットフォームに近接する環境を表すマップデータであって、オクルージョングリッドを含むマップデータを受信するステップと、
前記オクルージョングリッドのオクルージョンフィールドの占有状態を決定するステップであって、
前記オクルージョンフィールドに少なくとも部分的に基づいて、前記オクルージョンフィールドに関連付けられた情報の
非占有であるオクルージョンフィールドの数が第1の閾値数以上であること、
可視オクルージョンフィールドの数が第2の閾値数以上であること、
未決定なオクルージョンフィールドを閾値期間観察すること、または
交差点の距離に対する非オクルージョン及び非占有領域の範囲を決定すること、
のうちの1つまたは複数に少なくとも部分的に基づいて、決定するステップと、
前記情報の量に少なくとも部分的に基づいて、前記オクルージョングリッドに近接する前記環境の領域を横断する軌道を決定するステップと
前記オクルージョングリッドの前記占有状態に少なくとも部分的に基づいて、前記ロボットプラットフォームを制御するステップと、
を備える方法。
one or more processors;
one or more computer-readable media storing instructions executable by the one or more processors, the method comprising:
receiving sensor data captured using sensors on the robot platform;
determining a position of the robotic platform based at least in part on the sensor data;
receiving map data representing an environment proximate the robot platform at the location, the map data including an occlusion grid;
determining an occupancy state of an occlusion field of the occlusion grid, the step of:
an amount of information associated with the occlusion field based at least in part on the occlusion field ;
the number of unoccupied occlusion fields is greater than or equal to a first threshold number;
the number of visible occlusion fields is greater than or equal to a second threshold number;
observing an undetermined occlusion field for a threshold period, or
determining the extent of non-occlusion and unoccupied areas relative to the distance of the intersection;
determining based at least in part on one or more of the
determining a trajectory that traverses a region of the environment proximate to the occlusion grid based at least in part on the amount of information ;
controlling the robotic platform based at least in part on the occupancy of the occlusion grid;
How to prepare.
前記ロボットプラットフォーム上のLIDARセンサを使用して取り込まれたLIDARデータを、前記センサデータとして受信するステップと、
前記LIDARデータの一部を占有フィールドに関連付けることに少なくとも部分的に基づいて、前記オクルージョンフィールドの前記占有状態を決定するステップであって、前記占有状態は、占有済み状態、非占有状態、又は未決定状態の内の1つを含む、ステップと、
前記LIDARデータの前記一部に少なくとも部分的に基づいて、前記オクルージョンフィールドのオクルージョン状態を決定するステップであって、前記オクルージョン状態は可視又はオクルージョンであることの1つを含む、ステップと、
前記オクルージョン状態及び前記占有状態に少なくとも部分的に基づいて、前記ロボットプラットフォームを制御し前記環境を横断させるステップと、
をさらに備え、
前記情報のは、前記オクルージョングリッドのサイズ又は前記オクルージョングリッドに関連付けられた制限速度の少なくとも1つに関係して、前記LIDARセンサから可視である前記オクルージョングリッドのオクルージョンフィールドの数に少なくとも部分的にさらに基づいて決定される、
請求項6に記載の方法。
receiving LIDAR data captured using a LIDAR sensor on the robot platform as the sensor data;
determining the occupancy state of the occlusion field based at least in part on associating a portion of the LIDAR data with an occupancy field, the occupancy state being an occupied state, an unoccupied state, or an unoccupied state; a step including one of the decision states;
determining an occlusion state of the occlusion field based at least in part on the portion of the LIDAR data, the occlusion state comprising one of being visible or occluded;
controlling the robotic platform to traverse the environment based at least in part on the occlusion state and the occupancy state;
Furthermore,
The amount of information is related at least in part to the number of occlusion fields of the occlusion grid that are visible to the LIDAR sensor, in relation to at least one of the size of the occlusion grid or a speed limit associated with the occlusion grid. further determined based on,
The method according to claim 6.
前記占有状態または前記オクルージョン状態のうちの少なくとも1つを決定するステップが、
前記オクルージョンフィールドの上の領域に関連付けられた予想のLIDARリターンの第1の数を決定するステップと、
前記オクルージョンフィールドの上の前記領域に関連付けられた実際のLIDARリターンの第2の数を決定するステップと、
前記予想のLIDARリターンの第1の数及び前記実際のLIDARリターンの第2の数に少なくとも部分的に基づいて、前記オクルージョンフィールドの前記占有状態に関連付けられた信頼値を決定するステップと、
前記信頼値が信頼閾値以上であると決定するステップと、
を備える請求項7に記載の方法。
determining at least one of the occupancy state or the occlusion state ,
determining a first number of expected LIDAR returns associated with a region above the occlusion field;
determining a second number of actual LIDAR returns associated with the area above the occlusion field;
determining a confidence value associated with the occupancy state of the occlusion field based at least in part on the first number of expected LIDAR returns and the second number of actual LIDAR returns;
determining that the confidence value is greater than or equal to a confidence threshold;
8. The method according to claim 7, comprising:
前記ロボットプラットフォーム上の画像センサを使用して取り込まれた画像データを、前記センサデータとして受信するステップと、
前記画像データの少なくとも一部を区分して、前記環境内の運転可能路面を識別する区分された画像データを生成するステップと、
前記オクルージョンフィールドを前記区分された画像データに関連付けるステップと、
前記オクルージョンフィールドが前記運転可能路面に関連付けられていると決定するステップと、
前記運転可能路面に関連付けられている前記オクルージョンフィールドに少なくとも部分的に基づいて、前記ロボットプラットフォームを制御し前記環境を横断させるステップと、
をさらに備える請求項6に記載の方法。
receiving image data captured using an image sensor on the robot platform as the sensor data;
segmenting at least a portion of the image data to produce segmented image data that identifies drivable road surfaces within the environment;
associating the occlusion field with the segmented image data;
determining that the occlusion field is associated with the drivable surface;
controlling the robotic platform to traverse the environment based at least in part on the occlusion field associated with the drivable surface;
7. The method of claim 6, further comprising:
前記ロボットプラットフォームは自律車両を含み、前記自律車両に近接する前記環境は交差点を含み、前記方法が、
前記自律車両が横断する前記交差点に関連付けられた距離を決定するステップと、
前記交差点に関連付けられた制限速度を決定するステップと、
前記交差点に関連付けられた前記距離と、
前記制限速度と、
安全係数と、
に少なくとも部分的に基づいて前記オクルージョングリッドの範囲を決定するステップと、
をさらに備える請求項6に記載の方法。
the robotic platform includes an autonomous vehicle, the environment proximate the autonomous vehicle includes an intersection, and the method includes:
determining a distance associated with the intersection traversed by the autonomous vehicle;
determining a speed limit associated with the intersection;
the distance associated with the intersection;
the speed limit;
safety factor and
determining a range of the occlusion grid based at least in part on
7. The method of claim 6, further comprising:
前記自律車両が前記交差点に関連付けられた前記距離を横断するための予想される時間に少なくとも部分的に基づいて、前記オクルージョングリッドの前記範囲を決定するステップをさらに備える請求項10に記載の方法。 11. The method of claim 10, further comprising determining the extent of the occlusion grid based at least in part on an expected time for the autonomous vehicle to traverse the distance associated with the intersection. 前記オクルージョンフィールドが時相論理記号を含み、前記方法が
前記時相論理記号を含む時相論理式を評価することに少なくとも部分的に基づいて、軌道を検証するステップと、
少なくとも部分的に前記軌道に基づいて、前記ロボットプラットフォームを制御し前記環境を横断させるステップと、
をさらに備える請求項6に記載の方法。
the occlusion field includes a temporal logic symbol, and the method is based at least in part on evaluating a temporal logic expression including the temporal logic symbol;
controlling the robotic platform to traverse the environment based at least in part on the trajectory;
7. The method of claim 6, further comprising:
前記オクルージョングリッドが複数のオクルージョンフィールドを含み、前記方法が
前記ロボットプラットフォームを制御し前記環境を横断させる前に、前記複数のオクルージョンフィールドの閾値数が前記センサから可視及び非占有であると決定するステップ、
をさらに備える請求項6に記載の方法。
the occlusion grid includes a plurality of occlusion fields, and the method determines that a threshold number of the plurality of occlusion fields are visible and unoccupied from the sensor before the method controls the robotic platform to traverse the environment. ,
7. The method of claim 6, further comprising:
前記オクルージョングリッドの一部が前記センサから可視ではないと決定するステップと、
前記ロボットプラットフォームを制御し、前記センサから可視である前記オクルージョングリッドの前記一部を増やす位置に移動させるステップと、
をさらに備える請求項6に記載の方法。
determining that a portion of the occlusion grid is not visible to the sensor;
controlling the robot platform to move the portion of the occlusion grid visible from the sensor into a position;
7. The method of claim 6, further comprising:
コンピュータ上で実行すると、請求項6から請求項14のいずれか一項に記載の方法を実行する、コード化された命令を備えたコンピュータプログラム。 15. A computer program comprising coded instructions which, when executed on a computer, performs a method according to any one of claims 6 to 14.
JP2020570423A 2018-06-18 2019-06-17 Occlusion awareness planning Active JP7422687B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US16/011,468 US10642275B2 (en) 2018-06-18 2018-06-18 Occulsion aware planning and control
US16/011,436 US11048265B2 (en) 2018-06-18 2018-06-18 Occlusion aware planning
US16/011,468 2018-06-18
US16/011,436 2018-06-18
PCT/US2019/037514 WO2019245982A1 (en) 2018-06-18 2019-06-17 Occlusion aware planning

Publications (3)

Publication Number Publication Date
JP2021527591A JP2021527591A (en) 2021-10-14
JPWO2019245982A5 JPWO2019245982A5 (en) 2022-06-27
JP7422687B2 true JP7422687B2 (en) 2024-01-26

Family

ID=67138131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020570423A Active JP7422687B2 (en) 2018-06-18 2019-06-17 Occlusion awareness planning

Country Status (4)

Country Link
EP (1) EP3807807A1 (en)
JP (1) JP7422687B2 (en)
CN (1) CN112313663A (en)
WO (1) WO2019245982A1 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
WO2020077117A1 (en) 2018-10-11 2020-04-16 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN114435392A (en) * 2020-11-06 2022-05-06 伟摩有限责任公司 Detecting occluded objects using the presence of road and surrounding area illumination
CN113479191B (en) * 2021-06-30 2023-04-07 重庆长安汽车股份有限公司 Lane-line-free lane boundary detection system and method for parking and vehicle
CN113607239B (en) * 2021-07-12 2024-01-12 中控技术股份有限公司 Man-machine interaction method and system for realizing hybrid contact type radar level gauge
CN114596541B (en) * 2022-02-08 2022-11-08 星河智联汽车科技有限公司 Method, device and equipment for acquiring front vehicle vision and storage medium
CN117689907A (en) * 2024-02-04 2024-03-12 福瑞泰克智能系统有限公司 Vehicle tracking method, device, computer equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215939A (en) 2016-05-27 2017-12-07 株式会社東芝 Information processor, vehicle, information processing method and program

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9760092B2 (en) * 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
US9253728B2 (en) * 2012-04-30 2016-02-02 Apple Inc. Operating geographic location systems
US9367065B2 (en) * 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
US8798841B1 (en) * 2013-03-14 2014-08-05 GM Global Technology Operations LLC System and method for improving sensor visibility of vehicle in autonomous driving mode
US9315192B1 (en) * 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
US9354070B2 (en) * 2013-10-31 2016-05-31 Crown Equipment Corporation Systems, methods, and industrial vehicles for determining the visibility of features
CN103646254B (en) * 2013-12-19 2017-01-25 北方工业大学 High-density pedestrian detection method
KR101640053B1 (en) * 2015-01-02 2016-07-18 현대자동차주식회사 Display device for vehicle and vehicle comprising the same
JP6359986B2 (en) * 2015-02-13 2018-07-18 トヨタ自動車株式会社 Vehicle driving support system
US9630619B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
JP2017111554A (en) * 2015-12-15 2017-06-22 株式会社リコー Automatic travel device, server and program
US10145951B2 (en) * 2016-03-30 2018-12-04 Aptiv Technologies Limited Object detection using radar and vision defined image detection zone
US10712746B2 (en) * 2016-08-29 2020-07-14 Baidu Usa Llc Method and system to construct surrounding environment for autonomous vehicles to make driving decisions
CN106364526B (en) * 2016-09-22 2018-01-16 深圳市虹鹏能源科技有限责任公司 A kind of tunnel construction new energy rail electric locomotive real-time high-precision automatic station-keeping system
CN106843279A (en) * 2017-01-17 2017-06-13 斑马信息科技有限公司 Unmanned plane Vehicular system and its management method
CN106828264A (en) * 2017-01-17 2017-06-13 斑马信息科技有限公司 Unmanned plane Vehicular system and its management method
CN106740584A (en) * 2017-01-20 2017-05-31 驭势科技(北京)有限公司 Suspension detection system, intelligent driving system and the vehicles of the system are installed
CN206551980U (en) * 2017-01-20 2017-10-13 驭势科技(北京)有限公司 Suspension detection system, intelligent driving system and the vehicles for installing the system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215939A (en) 2016-05-27 2017-12-07 株式会社東芝 Information processor, vehicle, information processing method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Young-Woo Seo and Chris Urmson,A perceptin mechanism for supporting autonomous intersection handling in urban driving,In Proceedings of the International Conference on Intelligent Robots and Systems,米国,IEEE,2008年09月22日,p. 1830-1835

Also Published As

Publication number Publication date
WO2019245982A1 (en) 2019-12-26
CN112313663A (en) 2021-02-02
JP2021527591A (en) 2021-10-14
EP3807807A1 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
JP7422687B2 (en) Occlusion awareness planning
US11802969B2 (en) Occlusion aware planning and control
US11048265B2 (en) Occlusion aware planning
US11740633B2 (en) Determining occupancy of occluded regions
EP3908493B1 (en) Occlusion prediction and trajectory evaluation
CN112752988B (en) Radar space estimation
US11126180B1 (en) Predicting an occupancy associated with occluded region
US11631200B2 (en) Prediction on top-down scenes based on action data
US11215997B2 (en) Probabilistic risk assessment for trajectory evaluation
EP4049106A1 (en) Trajectory modifications based on a collision zone
US11513519B1 (en) Sharing occlusion data
US20210157321A1 (en) Height estimation using sensor data
CN116261540A (en) Collision avoidance planning system
US20230058731A1 (en) Determining occupancy using unobstructed sensor emissions
US20220379889A1 (en) Vehicle deceleration planning
US20230059808A1 (en) Determining object characteristics using unobstructed sensor emissions
US20240092357A1 (en) Trajectory optimization in multi-agent environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240116

R150 Certificate of patent or registration of utility model

Ref document number: 7422687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150