JP7464616B2 - Recognizing radar returns using speed and position information. - Google Patents

Recognizing radar returns using speed and position information. Download PDF

Info

Publication number
JP7464616B2
JP7464616B2 JP2021550204A JP2021550204A JP7464616B2 JP 7464616 B2 JP7464616 B2 JP 7464616B2 JP 2021550204 A JP2021550204 A JP 2021550204A JP 2021550204 A JP2021550204 A JP 2021550204A JP 7464616 B2 JP7464616 B2 JP 7464616B2
Authority
JP
Japan
Prior art keywords
radar
return
reflected
velocity
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550204A
Other languages
Japanese (ja)
Other versions
JPWO2020176483A5 (en
JP2022522298A (en
Inventor
ワン チャン
クリサー コーヘン ジョシュア
Original Assignee
ズークス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/288,990 external-priority patent/US11255958B2/en
Priority claimed from US16/289,068 external-priority patent/US11353578B2/en
Application filed by ズークス インコーポレイテッド filed Critical ズークス インコーポレイテッド
Publication of JP2022522298A publication Critical patent/JP2022522298A/en
Publication of JPWO2020176483A5 publication Critical patent/JPWO2020176483A5/ja
Application granted granted Critical
Publication of JP7464616B2 publication Critical patent/JP7464616B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/581Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/582Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/584Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本発明のさまざまな例示的な実施形態は、速度および位置情報を使用するレーダ反射の認識に関する。 Various exemplary embodiments of the present invention relate to recognizing radar returns using velocity and position information.

本PCT国際特許出願明細書は、参照により開示のそれぞれが本明細書に組み込まれている、2019年2月28日に出願した米国特許出願第16/288,990号明細書、および2019年2月28日に出願した米国特許出願第16/289,068号明細書の出願日の利益および優先権を主張する。 This PCT International Patent Application claims the benefit of and priority to the filing date of U.S. Patent Application No. 16/288,990, filed February 28, 2019, and U.S. Patent Application No. 16/289,068, filed February 28, 2019, the disclosures of each of which are incorporated herein by reference.

自律車両は、障害物を含む環境を通り抜けるべく様々な方法、装置、およびシステムを利用する。例えば、自律車両は、他の車両、建造物、歩行者などを含むことが可能な区域を通って移動すべくルートプランニング方法、ルートプランニング装置、およびルートプランニングシステムを利用してよい。これらのプランニングシステムは、レーダデータ、LiDARデータ、画像データなどを含むセンサデータに依拠してよい。しかし、ある例において、環境における車両、建造物、および/またはオブジェクトの存在は、例えば、誤検出を含む、不正確な、もしくは誤ったセンサデータをもたらす反射を生じさせる可能性がある。不正確な、かつ/または誤ったセンサデータは、環境を安全に、かつ快適に通り抜けることに難題をもたらす可能性がある。 Autonomous vehicles utilize various methods, devices, and systems to navigate environments that include obstacles. For example, autonomous vehicles may utilize route planning methods, devices, and systems to travel through areas that may include other vehicles, structures, pedestrians, and the like. These planning systems may rely on sensor data, including radar data, LiDAR data, image data, and the like. However, in certain instances, the presence of vehicles, structures, and/or objects in the environment may cause reflections that result in inaccurate or erroneous sensor data, including, for example, false positives. Inaccurate and/or erroneous sensor data may pose challenges to safely and comfortably navigating an environment.

詳細な説明は、添付の図を参照して説明される。図において、参照番号の左端の数字は、その参照番号が最初に出現する図を識別する。異なる図における同一の参照番号の使用は、類似した、もしくは同一の構成要素または特徴を示す。 The detailed description will be described with reference to the accompanying drawings. In the drawings, the leftmost digit(s) of a reference number identifies the figure in which the reference number first appears. Use of the same reference number in different drawings indicates similar or identical components or features.

本開示の実施形態による、環境におけるオブジェクトを感知するレーダセンサを含む例示的な車両、および車両が動作する環境を示す概略図である。FIG. 1 is a schematic diagram illustrating an exemplary vehicle including a radar sensor for sensing objects in an environment, and the environment in which the vehicle operates, according to an embodiment of the present disclosure. 本開示の実施形態による、環境におけるオブジェクトに関連付けられたレーダ反射波を、介在するオブジェクトから反射される反射された反射波と区別すべく速度情報を使用するための例示的な技法を示す、図1の環境を示す概略図である。2 is a schematic diagram of the environment of FIG. 1 illustrating an example technique for using velocity information to distinguish radar returns associated with objects in the environment from reflected returns reflected from intervening objects, according to an embodiment of the present disclosure. 本開示の実施形態による、環境におけるオブジェクトに関連付けられたレーダ反射波を、介在するオブジェクトから反射される反射された反射波と区別すべく位置情報を使用するための例示的な技法を示す、図1の環境を示す別の概略図である。FIG. 2 is another schematic diagram of the environment of FIG. 1 illustrating an example technique for using position information to distinguish radar returns associated with objects in the environment from reflected returns reflected from intervening objects, according to an embodiment of the present disclosure. 本開示の実施形態による、本明細書において説明されるレーダ反射認識技法を実施するのに使用可能な、車両と、コンピューティングデバイスとを含む例示的なシステムを示す概略ブロック図である。FIG. 1 is a schematic block diagram illustrating an example system including a vehicle and a computing device that can be used to implement the radar reflection recognition techniques described herein, in accordance with embodiments of the present disclosure. 本開示の実施形態による、速度情報を使用するレーダ反射認識技法を実施するための例示的なプロセスを示すフローチャートである。4 is a flowchart illustrating an example process for implementing a radar reflection recognition technique that uses velocity information, in accordance with an embodiment of the present disclosure. 本開示の実施形態による、位置情報を使用するレーダ反射認識技法を実施するための例示的なプロセスを示すフローチャートである。4 is a flowchart illustrating an example process for implementing a radar reflection recognition technique using location information, according to an embodiment of the present disclosure.

前段で説明されるとおり、いくつかのタイプのセンサデータ、例えば、レーダデータは、例えば、環境における車両、建造物、および他のオブジェクトからの反射に影響されやすいことがある。そのような反射された反射波は、自律車両が環境を安全に、かつ/または快適に通り抜けることに難題をもたらす可能性がある。これらの存在しない、もしくは幻影の「オブジェクト」に応答してプランニングすることが、車両が不必要なアクション、例えば、制動、ステアリングなどを行うことをもたらすことがある。 As described above, some types of sensor data, e.g., radar data, may be susceptible to reflections, for example, from vehicles, structures, and other objects in the environment. Such reflected clutter can pose challenges to an autonomous vehicle's safe and/or comfortable traversal of the environment. Planning in response to these nonexistent or phantom "objects" can cause the vehicle to take unnecessary actions, e.g., braking, steering, etc.

本出願は、レーダシステムによってキャプチャされるレーダセンサデータにおける反射された反射波を識別するための技法について説明する。一般に、レーダセンサは、センサに戻るのに先立って環境におけるオブジェクトから反射する(もしくははね返る)無線エネルギーを放射してよい。放射されたエネルギーがオブジェクトからレーダセンサに直接に戻るとき、レーダセンサは、オブジェクトについての正確なデータ(例えば、距離、位置、速度、その他)を含むオブジェクト反射波をキャプチャすることが可能である。しかし、ある例において、無線エネルギーは、レーダセンサに戻るのに先立って、環境における多様なオブジェクトから反射することができる。これらの例において、レーダセンサは、反射された反射波をキャプチャすることができる。反射された反射波は、環境におけるオブジェクトを正確には表さない。少なくともある例において、これらの反射波が実際のオブジェクトからであるか、または反射であるかを知ることなしには、自律車両のための安全がクリティカルな経路プランニングは、影響を受けることがある。 This application describes techniques for identifying reflected echoes in radar sensor data captured by a radar system. In general, a radar sensor may emit wireless energy that reflects (or bounces) off objects in the environment before returning to the sensor. When the emitted energy returns directly from the object to the radar sensor, the radar sensor can capture object echoes that contain accurate data about the object (e.g., distance, position, velocity, etc.). However, in some examples, the wireless energy can reflect off a variety of objects in the environment before returning to the radar sensor. In these examples, the radar sensor can capture reflected echoes that do not accurately represent objects in the environment. In at least some examples, without knowing whether these echoes are from actual objects or are reflections, safety-critical path planning for autonomous vehicles can be affected.

ある例において、本明細書において説明される技法は、オブジェクト反射波を知るべく、反射波の、例えば、考慮されている反射波の一対比較を使用して、レーダ反射波が反射された反射波であると決定してよい。より具体的には、知られているオブジェクトに関連付けられていないレーダ反射波は、レーダ反射波が、何らかの仮定的なオブジェクトからのオブジェクト反射波の理論上の反射に全体的に対応するかどうかを決定すべく、オブジェクト反射波(例えば、知られているオブジェクトに関連付けられた反射波)と比較されてよい。ある例において、オブジェクト反射波は、反射波をトラックに関連付ける情報、または他の以前に獲得された情報に基づいて、すべてのレーダ反射波のなかから決定されることが可能である。非限定的な例として、理論上の反射は、オブジェクト速度(レーダ反射波によってもたらされてよいオブジェクト反射波からの大きさおよび方向)を、車両から、考慮されている反射波までに延びる半径方向上に投影することによって決定されることが可能である。例えば、半径方向に沿って延びる、投影された速度の半径成分は、この半径方向に沿ったオブジェクト反射波の反射の予期される速度を表す。したがって、投影された速度の半径成分の大きさが、問題の反射波に関連付けられた速度に対応するとき、反射波は、反射された反射波として識別されてよい。 In one example, the techniques described herein may determine that a radar return is a reflected return using a pairwise comparison of the return, e.g., the return being considered, to know the object return. More specifically, a radar return not associated with a known object may be compared to an object return (e.g., a return associated with a known object) to determine whether the radar return corresponds generally to a theoretical return of the object return from some hypothetical object. In one example, the object return can be determined from among all radar returns based on information relating the return to a track or other previously acquired information. As a non-limiting example, the theoretical return can be determined by projecting the object velocity (magnitude and direction from the object return that may be caused by the radar return) onto a radial direction extending from the vehicle to the return being considered. For example, the radial component of the projected velocity extending along the radial direction represents the expected velocity of the reflection of the object return along this radial direction. Thus, when the magnitude of the radial component of the projected velocity corresponds to the velocity associated with the return in question, the return may be identified as a reflected return.

ある例において、本明細書において説明される技法は、利用可能であるそれまでの知識が存在しないレーダ反射波の一対比較を使用して、反射波が反射されていると決定することができる。例えば、任意の2つの反射波が、それらの反射波のうちの一方が、例えば、それらの反射波のうちのより遠く離れている方が、それらの反射波のうちの他方の反射波であることが理論上、可能であるかどうかを決定すべく、比較されてよい。ある例において、そのような比較は、それらの反射波のうちのより遠い方の位置上に、より近い方の反射波の速度を投影することに基づいてよい。他の例において、それらの反射波の位置が、センサと、それらの反射波のうちのより遠い方との間の線上で理論上の反射点を決定すべく使用されることが可能である。 In one example, the techniques described herein can use pairwise comparisons of radar returns where there is no previous knowledge available to determine that a return is reflected. For example, any two returns can be compared to determine whether it is theoretically possible for one of the returns, e.g., the more distant one of the returns, to be a return of the other of the returns. In one example, such a comparison can be based on projecting the velocity of the closer return onto the location of the more distant one of the returns. In another example, the location of the returns can be used to determine a theoretical reflection point on a line between the sensor and the more distant one of the returns.

ある例において、本明細書において説明される技法は、識別された反射された反射波が、実際に反射であることを確認すべく機能することも可能である。例えば、本明細書において説明される技法は、考慮される反射波が反射された反射波である場合に無線エネルギーが反射されることになる、仮説的な反射点、例えば、考慮されている反射波の半径方向に沿った点を決定することができる。本開示の態様において、環境についてのさらなるセンサ情報、例えば、LiDARデータ、さらなるレーダデータ、飛行時間データ、SONARデータ、画像データなどが、反射点に近接したオブジェクトの存在を確認すべく使用されてよい。別の言い方をすると、仮説的な、または計算された反射点におけるオブジェクトの存在は、反射波が別の反射波の反射された反射波であることをさらに示唆する(かつ/または確認する)ことがある。 In some examples, the techniques described herein may function to verify that an identified reflected echo is in fact a reflection. For example, the techniques described herein may determine a hypothetical reflection point, e.g., a point along the radial direction of the considered echo, from which wireless energy would be reflected if the considered echo were a reflected echo. In aspects of the present disclosure, further sensor information about the environment, e.g., LiDAR data, further radar data, time-of-flight data, SONAR data, image data, etc., may be used to verify the presence of an object proximate to the reflection point. In other words, the presence of an object at the hypothetical or calculated reflection point may further suggest (and/or confirm) that the echo is a reflected echo of another echo.

また、ある実装形態において、本明細書において説明される技法は、探索のためのすべてのレーダ反射波のサブセットを、潜在的な反射された反射波として決定することができる。例えば、レーダ反射波は、反射された反射波である可能性があるレーダ反射波、および/または車両の動作に無視できないほどの影響を有する可能性があるレーダ反射波だけを含むべくフィルタリングされてよい。ある例において、トラック、または他の以前に獲得された情報に関連付けられた反射波は、オブジェクト反射波として、故に、潜在的な反射された反射波ではないものと指定されてよい。さらに、オブジェクト反射波と比べて、車両に比較的より近い、例えば、半径方向でより近い反射波は、反射された反射波であることは可能でなく、故に、本明細書において説明される技法を使用した考慮から除外されてよい。さらに、しきい値速度以下の速度を有するレーダ反射波は、例えば、それらが車両のプランニングシステムによって考慮されないため、無視されてよい。ある例において、しきい値速度は車両からの距離に伴って変動し得る。少なくともある例において、そのようなレーダ反射波をフィルタリングすることが、反射波が実際のオブジェクトの反射であるかどうかを決定するのに要求される時間、処理、および/または要求されるメモリの量を低減することがある。 Also, in some implementations, the techniques described herein may determine a subset of all radar clutters for the search as potential reflected clutters. For example, the radar clutters may be filtered to include only radar clutters that may be reflected clutters and/or that may have a non-negligible effect on the operation of the vehicle. In some examples, clutters associated with tracks or other previously acquired information may be designated as object clutters and thus not potential reflected clutters. Furthermore, clutters that are relatively closer to the vehicle, e.g., radially closer, than the object clutters may not be possible reflected clutters and thus may be excluded from consideration using the techniques described herein. Furthermore, radar clutters having a speed below a threshold speed may be ignored, e.g., because they are not considered by the vehicle's planning system. In some examples, the threshold speed may vary with distance from the vehicle. In at least some instances, filtering such radar returns may reduce the amount of time, processing, and/or memory required to determine whether a return is a reflection of an actual object.

ある例において、反射されたレーダ反射波についての情報が、環境を安全に通り抜けるように自律車両を制御すべく自律車両の車両コンピューティングデバイスによって使用されるように出力されてよい。例えば、車両コンピューティングデバイスは、反射された反射波を、ルートプランニングおよび/または軌道プランニングから除外することができる。このようにして、自律車両は、幻影の「オブジェクト」に応答して制動することも、ステアリングすることも、それ以外でアクションを行うこともない。さらに、車両コンピューティングデバイスは、反射された反射波であると決定された反射波を追跡することも、それ以外で追うこともしなくてよく、このことが、例えば、処理負荷を低減することがある。 In one example, information about the reflected radar returns may be output to be used by a vehicle computing device of the autonomous vehicle to control the autonomous vehicle safely through the environment. For example, the vehicle computing device may exclude the reflected returns from route planning and/or trajectory planning. In this manner, the autonomous vehicle does not brake, steer, or otherwise take action in response to the phantom "object." Additionally, the vehicle computing device may not track or otherwise follow returns that are determined to be reflected returns, which may, for example, reduce processing load.

本明細書において説明される技法は、複数の方法でコンピューティングデバイスの機能を向上させることができる。例えば、車両に関する制御を決定する脈絡において、考慮されるべきデータの量が、例えば、反射された反射波を除外して、その結果、環境についての不必要な決定につぎ込まれる過度のリソースを低減することによって、減らされることが可能である。向上させられた軌道生成が、安全結果を向上させることができ、乗り手体験を向上させること(例えば、幻影のオブジェクトに応答する不必要な制動、幻影のオブジェクトを回避する急な進路変更、およびそれに類することの発生を低減することによって)ができる。コンピュータの機能、および/またはユーザ体験のこれら、およびその他の向上について、本明細書において説明される。 The techniques described herein can improve the functionality of a computing device in multiple ways. For example, in the context of determining control for a vehicle, the amount of data to be considered can be reduced, for example, by filtering out reflected bounces, thereby reducing excessive resources devoted to unnecessary decisions about the environment. Improved trajectory generation can improve safety outcomes and can improve the rider experience (e.g., by reducing the occurrence of unnecessary braking in response to phantom objects, sudden turns to avoid phantom objects, and the like). These and other improvements in computer functionality and/or user experience are described herein.

本明細書において説明される技法は、複数の方法で実施されることが可能である。例示的な実装形態が、添付の図を参照して後段で与えられる。自律車両の脈絡において説明されるものの、本明細書において説明される方法、装置、およびシステムは、様々なシステム(例えば、ロボットプラットフォーム)に適用されることが可能であり、自律車両に限定されない。別の例において、技法は、航空もしくは航海の脈絡で、またはマシンビジョンを使用する任意のシステムにおいて利用されることが可能である。 The techniques described herein can be implemented in multiple ways. Exemplary implementations are provided below with reference to the accompanying figures. Although described in the context of an autonomous vehicle, the methods, apparatus, and systems described herein can be applied to a variety of systems (e.g., robotic platforms) and are not limited to autonomous vehicles. In another example, the techniques can be utilized in an aviation or nautical context, or in any system that uses machine vision.

図1は、車両102が動作している環境100の概略図である。例示される例において、車両102は、その環境において走行しているものの、他の例において、車両102は、環境100において静止していてよく、かつ/または駐車していてよい。車両102は、環境100を表すデータをキャプチャする1つまたは複数のレーダセンサシステム104を含む。例として、限定としてではなく、車両102は、運転者(または搭乗者)がいずれの時点でも車両を制御することが予期されることなく、移動全体にわたってすべての安全がクリティカルな機能を実行することができる車両について説明する、米国運輸省道路交通安全局によって発行されたレベル5分類により動作するように構成された自律車両であることが可能である。そのような例において、車両102は、すべての駐車機能を含め、開始から停止まですべての機能を制御するように構成されることが可能であるので、搭乗者なしであることが可能である。これは、例に過ぎず、本明細書において説明されるシステムおよび方法は、運転者によって常時、手動で制御される必要がある車両から、部分的に、または完全に自律的に制御される車両までに及ぶ車両を含め、任意の陸路車両、空路車両、または水路車両に組み込まれることが可能である。車両102に関連付けられたさらなる詳細について、後段で説明される。 1 is a schematic diagram of an environment 100 in which a vehicle 102 is operating. In the illustrated example, the vehicle 102 is moving in the environment, while in other examples, the vehicle 102 may be stationary and/or parked in the environment 100. The vehicle 102 includes one or more radar sensor systems 104 that capture data representative of the environment 100. By way of example, and not by way of limitation, the vehicle 102 may be an autonomous vehicle configured to operate according to a Level 5 classification issued by the National Highway Traffic Safety Administration, which describes a vehicle that can perform all safety-critical functions throughout the entire journey without a driver (or passenger) being expected to control the vehicle at any point. In such an example, the vehicle 102 may be passenger-less, as it may be configured to control all functions from start to stop, including all parking functions. This is by way of example only, and the systems and methods described herein may be incorporated into any land, air, or water vehicle, including vehicles ranging from those that must be manually controlled at all times by a driver to those that are partially or fully autonomously controlled. Further details associated with vehicle 102 are described below.

車両102は、例えば、概ね、1つまたは複数の他のオブジェクトに対して矢印106によって示される方向で、環境100を通って移動してよい。例えば、環境100は、さらなる車両108(概ね矢印110によって示される方向で移動する)などの動的オブジェクトと、第1の駐車された車両112(1)、第2の駐車された車両112(2)、第3の駐車された車両112(3)(ひとまとめにして、「駐車された車両112」)、第1の建造物114(1)、第2の車両114(2)、および第3の車両114(3)(ひとまとめにして、「建造物114」)などの静止オブジェクトとを含んでよい。さらなる車両106、駐車された車両112、および建造物114は、環境100にあってよいオブジェクトの例に過ぎず、車両、歩行者、自転車に乗った人、樹木、道路標識、設備などを含むが、これらには限定されないさらなるオブジェクト、および/または異なるオブジェクトが、さらに、または代替として環境100にあってもよい。 The vehicle 102 may move through the environment 100, for example, generally in a direction indicated by arrow 106 relative to one or more other objects. For example, the environment 100 may include dynamic objects, such as an additional vehicle 108 (moving generally in a direction indicated by arrow 110), and stationary objects, such as a first parked vehicle 112(1), a second parked vehicle 112(2), a third parked vehicle 112(3) (collectively, "parked vehicles 112"), a first structure 114(1), a second vehicle 114(2), and a third vehicle 114(3) (collectively, "structure 114"). The additional vehicle 106, the parked vehicle 112, and the structure 114 are merely examples of objects that may be in the environment 100, and additional and/or different objects may also or alternatively be in the environment 100, including, but not limited to, vehicles, pedestrians, bicyclists, trees, road signs, fixtures, and the like.

少なくとも1つの例において、前段で述べられるとおり、車両102は、レーダセンサ104に関連付けられることが可能であり、レーダセンサ104は、車両102の上に配置されることが可能である。レーダセンサ104は、オブジェクトまでの範囲、および/またはオブジェクトの速度を測定するように構成されてよい。ある例示的なシステムにおいて、レーダセンサ104は、ドップラセンサ、パルス型センサ、連続波周波数変調(CFWM)センサなどを含んでよい。レーダセンサ104は、所定の間隔で無線エネルギーのパルスを発してよい。ある実装形態において、間隔は、例えば、比較的遠い距離、または比較的近い距離におけるオブジェクトの強化された検出を促進すべく、構成可能であってよい。一般に、レーダセンサ104によって発せられる無線エネルギーのパルスは、環境100におけるオブジェクトから反射し、例えば、レーダデータまたはレーダ反射波として、レーダセンサ104によって受信されることが可能である。 In at least one example, as described above, the vehicle 102 can be associated with a radar sensor 104, which can be disposed on the vehicle 102. The radar sensor 104 can be configured to measure the range to an object and/or the speed of the object. In an example system, the radar sensor 104 can include a Doppler sensor, a pulsed sensor, a continuous wave frequency modulated (CFWM) sensor, or the like. The radar sensor 104 can emit pulses of wireless energy at predetermined intervals. In an implementation, the intervals can be configurable, for example, to facilitate enhanced detection of objects at relatively long or relatively close distances. In general, the pulses of wireless energy emitted by the radar sensor 104 can reflect off objects in the environment 100 and be received by the radar sensor 104, for example, as radar data or radar returns.

図1の例において、レーダセンサ104によって、概ね矢印116の方向に沿って発せられる無線エネルギーが、さらなる車両108と接触して、例えば、概ね矢印118の方向に沿って、レーダセンサ104に向かって戻るように反射されることがある。この例において、無線エネルギーは、オブジェクト反射波経路120であることが可能な、概ね同一の経路に沿って発せられ、戻る。オブジェクト反射波経路120は、例示される例において実質的に直線である。オブジェクト反射波経路120に沿って反射された無線エネルギーは、例えば、オブジェクト反射波122として、レーダセンサ104によってキャプチャされる。オブジェクト反射波122は、キャプチャされたデータに基づいて決定された位置におけるブロックとして例示される。例えば、オブジェクト反射波122に関連付けられた情報は、環境における位置、例えば、さらなる車両108の位置を示す情報を含んでよい。位置情報は、車両102に対する範囲および方位角、または局所座標系もしくは全体座標系における位置を含んでよい。また、実装形態において、オブジェクト反射波122は、信号強度情報を含んでよい。例えば、信号強度情報は、オブジェクトのタイプを示すことが可能である。より具体的には、無線波が、或る形状および/または或る成分を有するオブジェクトによってより強く反射されることがある。例えば、広い、平坦な表面、および/または鋭い端部が、丸い表面と比べて、より反射性が高く、金属が、人と比べて、より反射性が高い。ある例において、信号強度は、レーダ断面積(RCS)測定を含んでよい。また、オブジェクト反射波122は、速度情報を含んでもよい。例えば、さらなる車両108の速度が、さらなる車両108によって反射された無線エネルギーの周波数、および/または反射された無線エネルギーが検出された時刻に基づいてよい。 In the example of FIG. 1, wireless energy emitted by the radar sensor 104 generally along the direction of the arrow 116 may come into contact with the further vehicle 108 and be reflected back toward the radar sensor 104, for example, generally along the direction of the arrow 118. In this example, the wireless energy is emitted and returned along generally the same path, which may be the object return path 120. The object return path 120 is substantially a straight line in the illustrated example. The wireless energy reflected along the object return path 120 is captured by the radar sensor 104, for example, as the object return 122. The object return 122 is illustrated as a block at a location determined based on the captured data. For example, information associated with the object return 122 may include information indicating a location in the environment, for example, the location of the further vehicle 108. The location information may include range and azimuth relative to the vehicle 102, or a location in a local or global coordinate system. Also, in an implementation, the object return 122 may include signal strength information. For example, the signal strength information can indicate the type of object. More specifically, radio waves may be reflected more strongly by objects having certain shapes and/or components. For example, broad, flat surfaces and/or sharp edges are more reflective than rounded surfaces, and metal is more reflective than people. In one example, the signal strength may include a radar cross section (RCS) measurement. The object reflection 122 may also include speed information. For example, the speed of the further vehicle 108 may be based on the frequency of the radio energy reflected by the further vehicle 108 and/or the time the reflected radio energy was detected.

オブジェクト反射波122は、例えば、さらなる車両108に対応する、レーダセンサ104によってキャプチャされた正確なデータの例であってよい。しかし、レーダセンサ104は、信頼性のより低いことがある反射波をキャプチャすることも可能である。例えば、図1は、概ね矢印124の方向に沿ってレーダセンサ104によって発せられた無線エネルギーが、概ね矢印126の方向に沿って進むように、第1の建造物114(1)から反射することがあることも例示する。例示される例において、第1の建造物114(1)から反射された無線エネルギーは、次に、概ね矢印128の方向に沿って、すなわち、矢印126の方向とは反対に、第1の建造物114(1)に向かって戻るようにさらなる車両108によって反射されることがある。最後に、無線エネルギーは、次に、第1の建造物114(1)から再び反射して、概ね矢印130の方向に沿ってレーダセンサ104に戻ることがある。したがって、さらなる車両108から反射された無線エネルギーは、さらなる車両108と第1の建造物114(1)の間の第1の区間134と、第1の建造物114(1)と車両102(例えば、レーダセンサ104)の間の第2の区間136とを含む第1の反射の反射波経路132に沿ってレーダセンサ104に戻ることがある。そのような反射されたエネルギーは、第1の反射された反射波138としてレーダセンサ104によってキャプチャされてよい。図1に例示されるとおり、第1の反射された反射波138は、第2の区間136の方向に沿って、例えば、矢印124、130に沿って受信されるが、第1の反射された反射波経路132の距離、例えば、第1の区間134の距離と第2の区間136の距離の合計である距離と等しい範囲を有する。図1および前述の説明から理解されるとおり、第1の反射された反射波138は、第1の反射された反射波138に対応する位置における、すなわち、第2の区間136の方向に沿ったオブジェクトの存在を示唆する。しかし、本明細書において説明されるとおり、そのような「オブジェクト」は、存在しない、幻影の「オブジェクト」である。 The object reflection 122 may be an example of accurate data captured by the radar sensor 104, for example, corresponding to the further vehicle 108. However, it is also possible for the radar sensor 104 to capture reflections that may be less reliable. For example, FIG. 1 also illustrates that wireless energy emitted by the radar sensor 104 generally along the direction of arrow 124 may reflect off the first structure 114(1) traveling generally along the direction of arrow 126. In the illustrated example, the wireless energy reflected off the first structure 114(1) may then be reflected by the further vehicle 108 generally along the direction of arrow 128, i.e., opposite to the direction of arrow 126, back toward the first structure 114(1). Finally, the wireless energy may then reflect again from the first structure 114(1) back to the radar sensor 104 generally along the direction of arrow 130. Thus, the wireless energy reflected from the further vehicle 108 may return to the radar sensor 104 along a first reflected wave path 132 that includes a first leg 134 between the further vehicle 108 and the first structure 114(1) and a second leg 136 between the first structure 114(1) and the vehicle 102 (e.g., radar sensor 104). Such reflected energy may be captured by the radar sensor 104 as a first reflected wave 138. As illustrated in FIG. 1 , the first reflected wave 138 is received along the direction of the second leg 136, e.g., along arrows 124, 130, but has a range equal to the distance of the first reflected wave path 132, e.g., a distance that is the sum of the distance of the first leg 134 and the distance of the second leg 136. As can be seen from FIG. 1 and the above description, the first reflected wave 138 suggests the presence of an object at a location corresponding to the first reflected wave 138, i.e., along the direction of the second section 136. However, as described herein, such an "object" is a non-existent, phantom "object."

図1は、レーダセンサ104が、第1の駐車された車両112(1)およびさらなる車両108から反射された無線エネルギーに対応する第2の反射された反射波140をキャプチャすることもできることを例示する。より具体的には、概ね矢印142の方向に沿ってレーダセンサ104によって発せられた無線エネルギーが、概ね矢印144の方向に沿って進むように第1の駐車された自動車112(1)から反射することがある。無線エネルギーは、次に、さらなる車両108と接触して、概ね矢印146の方向に沿って、すなわち、矢印144の方向とは反対に、第1の駐車された自動車112(1)に向かって戻るように反射することがある。最後に、無線エネルギーは、次に、概ね矢印148の方向に沿って、第1の駐車された車両116(1)から再び反射することがある。したがって、第2の反射された反射波140に対応する無線エネルギーは、さらなる車両108と第1の駐車された車両112(1)の間の第1の区間156と、第1の駐車された車両112(1)と車両102(例えば、レーダセンサ104)の間の第2の区間158とを含む第2の反射された反射波経路154に沿って移動することがある。図1に例示されるとおり、第2の反射された反射波は、第2の区間158に沿って、例えば、矢印142、148の方向に沿って受信された無線エネルギーについての情報を含むが、第2の反射された反射波経路154の距離、例えば、第1の区間156の距離と第2の区間158の第2の距離の合計である距離と等しい範囲を有する。図1、および前述の説明から理解されるとおり、第2の反射された反射波140は、第2の反射された反射波140に対応する位置における、すなわち、第2の区間158の方向に沿ったオブジェクトの存在を示唆する。しかし、本明細書において説明されるとおり、そのような「オブジェクト」は、存在しない、幻影の「オブジェクト」である。 1 illustrates that the radar sensor 104 can also capture a second reflected echo 140 corresponding to wireless energy reflected from the first parked vehicle 112(1) and the further vehicle 108. More specifically, wireless energy emitted by the radar sensor 104 generally along the direction of arrow 142 may reflect from the first parked vehicle 112(1) traveling generally along the direction of arrow 144. The wireless energy may then contact the further vehicle 108 and reflect back toward the first parked vehicle 112(1) generally along the direction of arrow 146, i.e., opposite the direction of arrow 144. Finally, the wireless energy may then reflect again from the first parked vehicle 116(1) generally along the direction of arrow 148. Thus, the wireless energy corresponding to the second reflected wave 140 may travel along a second reflected wave path 154 that includes a first section 156 between the further vehicle 108 and the first parked vehicle 112(1) and a second section 158 between the first parked vehicle 112(1) and the vehicle 102 (e.g., radar sensor 104). As illustrated in FIG. 1, the second reflected wave includes information about wireless energy received along the second section 158, e.g., along the direction of the arrows 142, 148, but has a range equal to a distance of the second reflected wave path 154, e.g., a distance that is the sum of the distance of the first section 156 and the second distance of the second section 158. As can be understood from FIG. 1 and the above description, the second reflected wave 140 indicates the presence of an object at a location corresponding to the second reflected wave 140, i.e., along the direction of the second section 158. However, as explained in this specification, such "objects" are non-existent, phantom "objects."

図1によって例示される位置情報(例えば、範囲および方位角からの)を含めることに加えて、オブジェクト反射波122、第1の反射された反射波138、および第2の反射された反射波140(本明細書において、第1の反射された反射波138と第2の反射された反射波140は、「反射された反射波138、140」と呼ばれてよい)は、速度情報も含んでよい。より具体的には、オブジェクト反射波122は、例えば、矢印118の方向に沿った(さらなる車両108の)速度に対応する、オブジェクト速度160についての情報を含んでよい。同様に、第1の反射された反射波138は、第1の反射された反射波速度162、例えば、第1の反射された反射波経路132の第2の区間136の方向に沿った速度についての情報を含んでよく、第2の反射された反射波140は、第2の反射された反射波速度164、例えば、第2の反射された反射波経路154の第2の区間158の方向に沿った速度についての情報を含んでよい。したがって、オブジェクト反射波122は、さらなる車両108についての情報(例えば、位置、速度)をもたらす一方で、第1の反射された反射波138は、オブジェクト(幻影のオブジェクト)が、第1の反射された反射波速度162でその反射波に関連付けられた位置から接近していることを示唆し、第2の反射された反射波140は、オブジェクト(幻影のオブジェクト)が、第2の反射された反射波速度164でその反射波に関連付けられた位置から接近していることを示唆する。本明細書において説明されるとおり、車両102は、他にも機能のあるなかで、とりわけ、受信されたセンサデータに基づいて環境100におけるオブジェクトに対するルート、軌道、および/または制御を決定するプランニングシステムを含んでよい。しかし、反射された反射波138、140を使用するプランニングシステムは、実際には存在しないオブジェクトに反応するようにプランニングすることがある。 In addition to including position information (e.g., from range and azimuth) as illustrated by FIG. 1, the object return 122, the first reflected return 138, and the second reflected return 140 (herein the first reflected return 138 and the second reflected return 140 may be referred to as "reflected returns 138, 140") may also include speed information. More specifically, the object return 122 may include information about the object velocity 160, which corresponds to, for example, the velocity (of the further vehicle 108) along the direction of the arrow 118. Similarly, the first reflected wave reflection 138 may include information about a first reflected wave velocity 162, e.g., a velocity along the direction of the second section 136 of the first reflected wave path 132, and the second reflected wave reflection 140 may include information about a second reflected wave velocity 164, e.g., a velocity along the direction of the second section 158 of the second reflected wave path 154. Thus, while the object reflection 122 provides information (e.g., position, velocity) about the additional vehicle 108, the first reflected wave reflection 138 suggests that an object (phantom object) is approaching from a position associated with that reflection at the first reflected wave velocity 162, and the second reflected wave reflection 140 suggests that an object (phantom object) is approaching from a position associated with that reflection at the second reflected wave velocity 164. As described herein, the vehicle 102 may include a planning system that, among other functions, determines a route, trajectory, and/or control for objects in the environment 100 based on received sensor data. However, a planning system that uses reflected echoes 138, 140 may plan to react to objects that are not actually present.

本明細書において説明される技法は、反射波138、140などの反射波を反射された反射波として認識することによって、プランニングシステム精度およびプランニングシステムパフォーマンスを向上させることがある。例えば、図1にさらに例示されるとおり、レーダセンサ104は、車両102に関連付けられた複数のセンサシステム164のうちの1つであってよい。ある例において、センサシステム164は、さらなるレーダセンサ、光検出および測距(LiDAR)センサ、超音波トランスデューサ、音響航法および測距(ソナー)センサ、位置センサ(例えば、全地球測位システム(GPS)、COMPASS、その他)、慣性センサ(例えば、慣性測定ユニット、加速度計、磁力計、ジャイロスコープ、その他)、カメラ(例えば、RGB、IR、強度、深度、飛行時間、その他)、ホイールエンコーダ、マイクロホン、環境センサ(例えば、温度センサ、湿度センサ、光センサ、圧力センサ、その他)、その他を含んでよい、1つまたは複数のさらなるセンサ166をさらに含んでよい。 The techniques described herein may improve planning system accuracy and planning system performance by recognizing reflected waves such as reflected waves 138, 140 as reflected reflected waves. For example, as further illustrated in FIG. 1, the radar sensor 104 may be one of a plurality of sensor systems 164 associated with the vehicle 102. In an example, the sensor system 164 may further include one or more additional sensors 166, which may include additional radar sensors, light detection and ranging (LiDAR) sensors, ultrasonic transducers, acoustic navigation and ranging (sonar) sensors, position sensors (e.g., Global Positioning System (GPS), COMPASS, etc.), inertial sensors (e.g., inertial measurement units, accelerometers, magnetometers, gyroscopes, etc.), cameras (e.g., RGB, IR, intensity, depth, time of flight, etc.), wheel encoders, microphones, environmental sensors (e.g., temperature sensors, humidity sensors, light sensors, pressure sensors, etc.), etc.

図1にやはり例示されるとおり、レーダセンサ104は、レーダデータ168を生成することができ、さらなるセンサ166は、センサデータ170を生成することができる。レーダデータ168は、オブジェクト反射波122、第1の反射された反射波138、および第2の反射された反射波140についての、これらの反射波に関連付けられた位置、速度、および/またはその他の情報を含むが、これらには限定されない情報を含んでよい。また、ある例において、レーダデータ168は、RCS測定を含んでよい、信号強度情報を含んでもよい。また、レーダデータは、センサの向き、例えば、車両に対するセンサの体勢、センサに関するパルス繰り返し周波数(PRF)もしくはパルス繰り返し間隔(PRI)、視野もしくは検出アークなどを含むが、これらには限定されない、センサについての特定の情報を含むことも可能である。ある実装形態において、レーダデータ168の一部の態様、例えば、視野、向き、PRFもしくはPRIなどは、事前構成されてよく、その場合、そのデータは、例えば、ストレージにおいて利用可能であってよく、例えば、レーダ反射波と一緒に転送されなくてもよい。センサデータ170は、環境100および/またはさらなるセンサ166についての任意の情報を含むことが可能である。非限定的な例として、さらなるセンサ166がLiDARセンサを含むとき、センサデータ170は、点群データを含んでよく、さらなるセンサ166がカメラを含むとき、センサデータ170は、画像データを含んでよい。レーダセンサ104およびさらなるセンサ166は、異なるセンサシステム164に関して同一であっても、異なってもよい、それぞれ、所定の間隔でレーダデータ168およびセンサデータ170を生成してよい。例えば、レーダセンサ104は、反射波がキャプチャされ、かつレーダデータ168が生成されるスキャンニング周波数を有してよい。 1, the radar sensor 104 can generate radar data 168 and the additional sensor 166 can generate sensor data 170. The radar data 168 can include information about the object return 122, the first reflected return 138, and the second reflected return 140, including, but not limited to, position, velocity, and/or other information associated with these returns. In some examples, the radar data 168 can also include signal strength information, which may include RCS measurements. The radar data can also include specific information about the sensor, including, but not limited to, the orientation of the sensor, e.g., the orientation of the sensor relative to the vehicle, the pulse repetition frequency (PRF) or pulse repetition interval (PRI) for the sensor, the field of view or detection arc, etc. In some implementations, some aspects of the radar data 168, e.g., the field of view, the orientation, the PRF or PRI, etc., can be pre-configured, in which case the data can be available, e.g., in storage, and not transferred along with the radar return, for example. The sensor data 170 can include any information about the environment 100 and/or the further sensor 166. As a non-limiting example, when the further sensor 166 includes a LiDAR sensor, the sensor data 170 can include point cloud data, and when the further sensor 166 includes a camera, the sensor data 170 can include image data. The radar sensor 104 and the further sensor 166 can generate the radar data 168 and the sensor data 170, respectively, at predetermined intervals that may be the same or different for the different sensor systems 164. For example, the radar sensor 104 can have a scanning frequency at which reflected waves are captured and the radar data 168 is generated.

レーダデータ168およびセンサデータ170は、1つまたは複数の車両コンピューティングデバイス172において受信されることが可能であり、かつ車両コンピューティングデバイス172によって、例えば、プランニングシステム(図示されない)を使用してプランニングを実行すべく利用されることが可能である。例示される例において、センサシステム164および車両コンピューティングデバイス172は、例えば、車両102上に配置されて、車両102の一部である。しかし、他の例において、センサシステム164および/または車両コンピューティングデバイス172のうちのいくつか、またはすべては、車両102とは別個であってよく、かつ/または車両102から遠隔に配置されてよい。そのような構成において、データキャプチャ、処理、コマンド、および/または制御は、有線ネットワークおよび/または無線ネットワークを経由して1つまたは複数の遠隔コンピューティングデバイスによって車両102に/車両102から通信されてよい。 The radar data 168 and the sensor data 170 can be received at one or more vehicle computing devices 172 and utilized by the vehicle computing devices 172 to perform planning, for example, using a planning system (not shown). In the illustrated example, the sensor system 164 and the vehicle computing devices 172 are located on the vehicle 102, for example, and are part of the vehicle 102. However, in other examples, some or all of the sensor system 164 and/or the vehicle computing devices 172 may be separate from the vehicle 102 and/or may be located remotely from the vehicle 102. In such configurations, data capture, processing, command, and/or control may be communicated to/from the vehicle 102 by one or more remote computing devices via wired and/or wireless networks.

少なくとも1つの例において、車両コンピューティングデバイス172は、反射認識の構成要素174におけるセンサシステム164によってキャプチャされたレーダデータ168およびセンサデータ170を利用することができる。例えば、反射認識の構成要素174は、オブジェクト反射波122と、第1の反射された反射波138と、第2の反射された反射波140とを含むレーダデータ168を受信すること、および反射された反射波138、140が、環境における実際のオブジェクトに関連付けられた反射波ではなく、反射された反射波であると決定することができる。この区別をすることによって、反射認識の構成要素174は、プランニングシステムにオブジェクト反射波122だけを送ること(反射された反射波138、140は送ることなく)、ならびに/またはオブジェクトの推定される位置および/または推定される速度をさらに改良すべくさらなる反射波を使用することができる。したがって、制御プランニングが、反射された反射波138、140を除外して実施されることが可能である。図2を参照して後段でより詳細に説明されるとおり、反射認識の構成要素174は、オブジェクト反射波122と、反射波138および/または反射波140などのさらなる反射波などの2つの反射波を比較することによって、反射波(例えば、候補反射波または未確認反射波)が反射された反射波であるかどうかを決定することができる。例えば、反射認識の構成要素174は、オブジェクト反射波122などの知られているオブジェクト反射波を、未確認反射波に関連付けられた方向、例えば、レーダセンサ104から半径方向に延び、かつその未確認反射波を通過する方向に沿って延びる線上に「投影する」ことができる。オブジェクト反射波122を投影するための技法は、図2を参照して後段でより詳細に説明されるが、反射波の投影は、未確認反射波(例えば、レーダセンサ104に対する半径方向)に関連付けられた速度の方向と同一の方向を有する速度成分を有する。また、反射認識の構成要素174は、オブジェクト反射波122の投影に関連付けられた速度の大きさを決定することもできる。ある実装形態において、この大きさが、未確認反射波の速度の大きさと合致する場合、反射認識の構成要素174は、未確認反射波が反射された反射波である(またはそうである尤度が高い)と決定することができる。本明細書において使用されるとおりの大きさは、それらが実質的に等しい場合、例えば、何らかのしきい値範囲内または誤差の範囲内である場合、合致することがある。 In at least one example, the vehicle computing device 172 can utilize the radar data 168 and the sensor data 170 captured by the sensor system 164 in a reflection recognition component 174. For example, the reflection recognition component 174 can receive the radar data 168 including the object return 122, the first reflected return 138, and the second reflected return 140, and determine that the reflected return 138, 140 are reflected returns rather than returns associated with actual objects in the environment. By making this distinction, the reflection recognition component 174 can send only the object return 122 (without sending the reflected return 138, 140) to the planning system and/or use additional returns to further refine the estimated position and/or estimated velocity of the object. Thus, control planning can be performed excluding the reflected return 138, 140. As described in more detail below with reference to FIG. 2, the reflection recognition component 174 can determine whether a reflection (e.g., a candidate reflection or an unidentified reflection) is a reflected reflection by comparing two reflections, such as the object reflection 122 and an additional reflection, such as reflection 138 and/or reflection 140. For example, the reflection recognition component 174 can "project" a known object reflection, such as the object reflection 122, onto a line that extends along a direction associated with the unidentified reflection, e.g., a direction extending radially from the radar sensor 104 and passing through the unidentified reflection. Techniques for projecting the object reflection 122 are described in more detail below with reference to FIG. 2, but the projection of the reflection has a velocity component that has the same direction as the direction of the velocity associated with the unidentified reflection (e.g., radially relative to the radar sensor 104). The reflection recognition component 174 can also determine a magnitude of velocity associated with the projection of the object reflection 122. In some implementations, if this magnitude matches the magnitude of the velocity of the unidentified return, the reflection recognition component 174 can determine that the unidentified return is (or is likely to be) a reflected return. Magnitudes as used herein may match if they are substantially equal, e.g., within some threshold range or within some error range.

反射認識の構成要素174は、環境におけるオブジェクトおよび/または環境自体のいくらかの演繹的知識を利用してよい。例えば、反射認識の構成要素174は、知られているオブジェクト反射波である反射波だけを投影してよい。ある例において、この知識は、さらなる車両108などのオブジェクトを追跡すること、および/または前もって識別することによるものであってよい。例えば、そのような追跡および/または識別は、オブジェクトを感知して以前にキャプチャされたレーダデータ168および/または以前にキャプチャされたセンサデータ170に基づいてよい。例えば、さらなる車両108などのオブジェクトは、数秒間にわたって、かつ/または拡大された距離で追跡されてよい。他方、反射された反射波は、それらが、車両102、さらなる車両108、および介在する、反射するオブジェクト/表面(例えば、第1の駐車された車両112(1)および第1の建造物114(1))の整列を要求するので、より一過性であることがある。それらのオブジェクトのうちの1つまたは複数が動くと、反射された反射波を可能にする条件(例えば、相対的な整列および/または向き)が消えて、反射された反射波を、レーダセンサ104の後続のスキャンから消失させることがある。さらに、または代替として、車両102に利用可能なマップデータ(車両102の位置に基づいて、ときどき、ダウンロードされてよいような、またはそれ以外で車両がアクセス可能であるような)が、例えば、局所3次元環境のメッシュなどの、環境の3次元表現を備えてよい。そのような例において、反射認識の構成要素174は、対応する建造物114(1)の知識に基づいて、第1の反射された反射波138が非物質的な反射波であると決定してよい。 The reflection recognition component 174 may utilize some a priori knowledge of the objects in the environment and/or the environment itself. For example, the reflection recognition component 174 may only project reflections that are known object reflections. In some examples, this knowledge may be by tracking and/or previously identifying an object, such as the further vehicle 108. For example, such tracking and/or identification may be based on previously captured radar data 168 sensing the object and/or previously captured sensor data 170. For example, an object, such as the further vehicle 108, may be tracked over a period of several seconds and/or at an extended distance. On the other hand, reflected reflections may be more ephemeral as they require alignment of the vehicle 102, the further vehicle 108, and intervening reflective objects/surfaces (e.g., the first parked vehicle 112(1) and the first structure 114(1)). If one or more of those objects move, the conditions (e.g., relative alignment and/or orientation) that allow for a reflected echo may disappear, causing the reflected echo to disappear from a subsequent scan of the radar sensor 104. Additionally or alternatively, map data available to the vehicle 102 (which may be downloaded from time to time based on the location of the vehicle 102 or otherwise accessible to the vehicle) may comprise a three-dimensional representation of the environment, such as, for example, a mesh of the local three-dimensional environment. In such an example, the reflection recognition component 174 may determine that the first reflected echo 138 is a non-material echo based on knowledge of the corresponding structure 114(1).

また、反射認識の構成要素174は、候補反射波が反射された反射波であるという構成要素174の決定を確認する機能を含むこともできる。ある例において、反射認識の構成要素174は、反射波を、例えば、レーダデータ168として受信される後続のスキャンにわたって、追跡しようと試みることができる。前段で述べられるとおり、さらなる車両108に対する車両102の相対的な動きが、反射条件が弱まることをもたらして、それ故、反射された反射波に関連付けられた「オブジェクト」に対応する後続の反射波を受信できないことをもたらすことがある。しかし、潜在的な(接近中の)オブジェクトを、そのオブジェクトのトラックが連続的に収集されたレーダスキャンにわたって検証され得るまで無視することは、反応時間を遅くすることがあり、このことは、安全でないことがあり得る。したがって、他の実装形態において、反射認識の構成要素174は、例えば、センサデータ170および/またはレーダデータ168を使用して、反射性のオブジェクトが反射された反射波に向かう方向に沿って配置されているかどうかを決定することができる。図1を参照すると、ある例において、LiDARデータ、画像データ、またはこれらの類するものが、第1の駐車された車両112(1)および/または第1の建造物114(1)の存在を確認してよい。したがって、反射認識の構成要素174は、第1の駐車された車両112(1)および/または第1の建造物114(1)を識別すること、および、例えば、それぞれの反射された反射波経路132、154の区間の間のジャンクションにおける、それらのオブジェクトの位置に基づいて、反射波が反射された反射波138であるという以前の決定を確認することができる。マップデータが、静的な、固定されたオブジェクト、例えば、建造物114、地形、道路標識、ユーティリティ設備などを識別するのに役立つことがある。しかし、リアルタイムの、またはほぼリアルタイムのセンサデータが、静的であるか、動的であるかにかかわらず、可動のオブジェクトを識別するのに要求されることがある。例えば、駐車された車両112、歩行者、自転車に乗った人、他の動いている車両などが、マップデータを介しては利用可能でないことがある。 The reflection recognition component 174 may also include functionality to confirm the determination of the component 174 that the candidate return is a reflected return. In one example, the reflection recognition component 174 may attempt to track the return, for example, over subsequent scans received as radar data 168. As discussed above, relative motion of the vehicle 102 relative to the further vehicle 108 may result in weaker reflection conditions and therefore failure to receive subsequent returns corresponding to the "object" associated with the reflected return. However, ignoring a potential (approaching) object until the object's track can be verified over successively collected radar scans may slow reaction times, which may be unsafe. Thus, in other implementations, the reflection recognition component 174 may use, for example, the sensor data 170 and/or the radar data 168 to determine whether a reflective object is located along a direction toward the reflected return. Referring to FIG. 1, in one example, LiDAR data, image data, or the like may confirm the presence of the first parked vehicle 112(1) and/or the first structure 114(1). Thus, the reflection recognition component 174 may identify the first parked vehicle 112(1) and/or the first structure 114(1) and confirm a previous determination that the reflection is a reflected reflection 138 based on the location of those objects, e.g., at the junction between the segments of the respective reflected reflection paths 132, 154. Map data may be useful for identifying static, fixed objects, e.g., structures 114, terrain, road signs, utility equipment, etc. However, real-time or near real-time sensor data may be required to identify movable objects, whether static or dynamic. For example, parked vehicles 112, pedestrians, bicyclists, other moving vehicles, etc. may not be available via map data.

ある実装形態において、反射認識の構成要素174は、レーダ反射波が反射された反射波であるかどうかを、リアルタイムで、またはほぼリアルタイムで決定すべくレーダ反射波を処理することができる。例えば、反射認識の構成要素174は、複数の反射波を、例えば、並行して、オブジェクト反射波122などの知られているオブジェクト反射波と比較することができる。1つの例において、レーダスキャンにおける知られていないオブジェクト反射波であるすべての反射波が、そのような反射波が反射であるかどうかを決定すべく、知られているオブジェクト反射波と比較されてよい。他のある実装形態において、反射認識の構成要素174は、例えば、反射である尤度が低い、または反射であることが物理的にあり得ない点を除外すべく、反射波をフィルタリングすることができる。非限定的な例として、知られているオブジェクト反射波と比べて、比較的より近い反射波は、オブジェクト反射波の反射ではあり得ない。他の例において、反射認識の構成要素174は、或るしきい値を下回る速度、または0の速度を示す反射波を除外してよい。また、他のフィルタリング技法が、使用されてもよい。 In some implementations, the reflection recognition component 174 can process radar returns to determine whether the radar returns are reflected returns in real time or near real time. For example, the reflection recognition component 174 can compare multiple returns to known object returns, such as object returns 122, for example, in parallel. In one example, all returns that are unknown object returns in a radar scan can be compared to known object returns to determine whether such returns are reflections. In other implementations, the reflection recognition component 174 can filter the returns, for example, to eliminate points that are unlikely to be reflections or that are physically impossible to be reflections. As a non-limiting example, a relatively closer return compared to a known object return cannot be a reflection of an object return. In other examples, the reflection recognition component 174 can eliminate returns that exhibit a speed below a certain threshold or a speed of zero. Other filtering techniques may also be used.

本明細書において説明される例は、点または反射波を知られているオブジェクト反射波122と比較してよいものの、他の例において、反射認識の構成要素174は、さらに、または代替として、反射波の対を、例えば、それらの反射波のうちの一方が知られているオブジェクト反射波であるという知識なしに、比較することができる。より具体的には、本明細書において説明される技法は、2つの反射波が互いの反射である可能性があると決定することを、それらの反射波のうちの一方がオブジェクト反射波であるかどうかにかかわらず、行うことができる。例えば、反射波の対が考慮されるとき、より遠く離れた方の反射波に、潜在的な反射としてタグが付けられること、またはそれ以外でそうであるものとして指定されることが可能である。さらなる処理が、より近い方の反射波が環境におけるオブジェクトに関連付けられる(または、それ以外で、より遠く離れた方の反射波が反射に関連付けられる)かどうかを決定するための基礎として使用されることが可能である。反射認識の構成要素174は、一対比較のための点のサブセットを識別すべく、本明細書において説明される高レベルのフィルタリングを実行することができる。非限定的な例として、しきい値速度を下回る反射波は、省かれてよく、位置および/または速度にあまりにも大きな違い(例えば、しきい値差以上である)を有する対は、比較などされなくてもよい。少なくともある例において、様々な技法が、反射波が反射であるかどうかについての確かさのレベルを向上させるべく組み合わされてよい。 While the examples described herein may compare points or reflections to known object reflections 122, in other examples, the reflection recognition component 174 may also or alternatively compare pairs of reflections, e.g., without knowledge that one of the reflections is a known object reflection. More specifically, the techniques described herein may determine that two reflections are likely reflections of each other, regardless of whether one of the reflections is an object reflection. For example, when a pair of reflections is considered, the more distant reflection may be tagged as a potential reflection or otherwise designated as such. Further processing may be used as a basis for determining whether the closer reflection is associated with an object in the environment (or the more distant reflection is otherwise associated with a reflection). The reflection recognition component 174 may perform high-level filtering as described herein to identify a subset of points for pairwise comparison. As non-limiting examples, returns below a threshold velocity may be omitted, pairs with too large a difference in position and/or velocity (e.g., greater than or equal to a threshold difference) may not be compared, etc. In at least some examples, various techniques may be combined to improve the level of certainty about whether a return is a reflection.

図2は、本開示のさらなる態様を示す環境100の別の概略図である。混乱を回避すべく、環境100のような、図2を参照して具体的に説明される図1からの要素は、図1と図2において同一の参照番号を含む。さらに、明確にするため、環境100のある要素は、図2においてグレー表示される。 FIG. 2 is another schematic diagram of environment 100 illustrating further aspects of the present disclosure. To avoid confusion, elements from FIG. 1 that are specifically described with reference to FIG. 2, such as environment 100, include the same reference numbers in FIG. 1 and FIG. 2. Additionally, for clarity, certain elements of environment 100 are grayed out in FIG. 2.

より具体的には、図2は、車両102、さらなる車両108、第1の駐車された車両112(1)、および第1の建造物114(1)を示す。また、図2は、オブジェクト反射波122、第1の反射された反射波138、および第2の反射された反射波140も示す。図1に関連して前段で述べられるとおり、オブジェクト反射波122、および反射された反射波138、140は、レーダセンサ104において受信された無線エネルギーの属性に基づく位置情報および速度情報を含んでよい。例えば、車両102とさらなる車両108の両方を通過する線202に沿って車両102から或る距離の間隔が空けられたオブジェクト反射波122が、オブジェクト反射波の位置(それ故、さらなる車両108の位置も)とオブジェクト反射波速度160の両方を示してよい。述べられるとおり、オブジェクト反射波122は、例えば、線202に沿った、さらなる車両108からの知られている(例えば、トラックなどの、環境100および/またはさらなる車両108についての以前に獲得されたデータから)直接の反射であるため、オブジェクト反射波は、さらなる車両108の一部分の正確な表現であると考えられてよい。前段で述べられるとおり、オブジェクト、例えば、さらなる車両108の存在、または反射波がオブジェクト反射波、例えば、オブジェクト反射波122であるという知識は、すべての例において要求されなくてよい。本明細書において説明される技法は、反射波が互いの反射である尤度を決定すべく反射波の一対比較に適用してよい。 More specifically, FIG. 2 shows the vehicle 102, the further vehicle 108, the first parked vehicle 112(1), and the first structure 114(1). FIG. 2 also shows the object return 122, the first reflected return 138, and the second reflected return 140. As described above in connection with FIG. 1, the object return 122 and the reflected return 138, 140 may include position and speed information based on attributes of the wireless energy received at the radar sensor 104. For example, the object return 122 spaced a distance from the vehicle 102 along a line 202 passing through both the vehicle 102 and the further vehicle 108 may indicate both the position of the object return (and therefore the position of the further vehicle 108) and the object return speed 160. As will be described, since the object return 122 is a known (e.g., from previously acquired data about the environment 100 and/or the further vehicle 108, such as a truck) direct reflection from the further vehicle 108, e.g., along the line 202, the object return may be considered to be an accurate representation of a portion of the further vehicle 108. As stated above, the presence of an object, e.g., the further vehicle 108, or knowledge that the return is an object return, e.g., the object return 122, may not be required in all instances. Techniques described herein may be applied to pairwise comparisons of the returns to determine the likelihood that the returns are reflections of one another.

また、反射された反射波138、140は、レーダセンサ104において受信された無線エネルギーに関連付けられた少なくとも位置情報および速度情報も含む。前段で述べられるとおり、第1の反射された反射波138は、線204に沿った例示される位置における第1の反射された反射波速度についての情報を含む。線204に沿った第1の反射された反射波138の距離は、レーダセンサ104によって決定された距離または範囲であり、かつ受信された無線エネルギーによってたどられた距離、例えば、図1に示される第1の反射された反射波経路132に対応する距離に対応する。同様に、第2の反射された反射波140は、線206に沿った例示される位置における第2の反射された反射波速度についての情報を含む。線206に沿った第2の反射された反射波140の距離は、レーダセンサ104によって決定された距離または範囲であり、かつ受信された無線エネルギーによってたどられた距離、例えば、図1に示される第2の反射された反射波経路154に対応する距離に対応する。 The reflected echoes 138, 140 also include at least position and velocity information associated with the wireless energy received at the radar sensor 104. As described above, the first reflected echo 138 includes information about the first reflected echo velocity at an illustrated position along the line 204. The distance of the first reflected echo 138 along the line 204 is a distance or range determined by the radar sensor 104 and corresponds to a distance traveled by the received wireless energy, e.g., a distance corresponding to the first reflected echo path 132 shown in FIG. 1. Similarly, the second reflected echo 140 includes information about the second reflected echo velocity at an illustrated position along the line 206. The distance of the second reflected echo 140 along the line 206 is a distance or range determined by the radar sensor 104 and corresponds to a distance traveled by the received wireless energy, e.g., a distance corresponding to the second reflected echo path 154 shown in FIG. 1.

本明細書において説明される技法は、レーダ反射波が反射された反射波であるかどうかを決定すべく環境100における幾何を利用してよい。例えば、レーダセンサ104におけるキャプチャ時点で、オブジェクト反射波122および反射された反射波138、140は、反射波であるに過ぎない。環境100および/または環境100におけるオブジェクトについてのいくらかの以前に獲得された知識を介して初めて、オブジェクト反射波122にさらなる車両108が確かさをもって割り当てられることが可能である。ある例において、車両102に関連付けられたトラッカまたは他の構成要素が、さらなる車両108を追跡していてよく、反射波は、それが、トラックに関連付けられた予期と合致する場合、オブジェクト反射波122として識別される。他の例において、本明細書において説明されるとおり、オブジェクト反射波122は、オブジェクト反射波122にさらなる車両108が割り当てられるかどうかにかかわらず、例えば、反射波対における一方の反射波として考えられることが可能である。オブジェクト反射波122は、さらなる車両108の前部で中央に位置付けられた位置において、単一の点として例示される一方で、オブジェクト反射波122は、他の1つまたは複数の反射波、および/またはさらなる車両108上の他の1つまたは複数の位置に対応してよい。非限定的な例として、オブジェクト反射波の属性、例えば、オブジェクト反射波速度160は、さらなる車両108に関連付けられた複数の反射波に基づいて決定されてよい。例えば、オブジェクト反射波122は、さらなる車両108からの複数の反射波の平均であってよい。 The techniques described herein may utilize geometry in the environment 100 to determine whether a radar return is a reflected return. For example, at the time of capture at the radar sensor 104, the object return 122 and the reflected returns 138, 140 are merely returns. Only through some previously acquired knowledge of the environment 100 and/or the objects in the environment 100 can the object return 122 be assigned with certainty to an additional vehicle 108. In one example, a tracker or other component associated with the vehicle 102 may be tracking the additional vehicle 108, and the return is identified as an object return 122 if it matches an expectation associated with the track. In another example, as described herein, the object return 122 can be considered, for example, as one return in a return pair, regardless of whether the object return 122 is assigned to an additional vehicle 108. While the object return 122 is illustrated as a single point at a centrally located location in front of the further vehicle 108, the object return 122 may correspond to one or more other returns and/or one or more other locations on the further vehicle 108. As a non-limiting example, attributes of the object return, such as the object return velocity 160, may be determined based on multiple returns associated with the further vehicle 108. For example, the object return 122 may be an average of multiple returns from the further vehicle 108.

前段で述べられるとおり、オブジェクト反射波122とは異なり、反射された反射波は、いくつかの条件、例えば、幾何的条件(反射された反射波が不規則に動くこと、または存在するようになったり、存在しなくなったりすることをもたらすことがある)が存在する場合にだけ生じて、一過性であることがある。それ故、反射された反射波についてのトラックも、その他の演繹的の知識もまったく存在しない。しかし、本明細書において説明される技法は、反射波が反射であるか、または環境100における実際のオブジェクトに直接に対応することがあるかを決定する。 As mentioned in the previous paragraph, unlike object reflections 122, reflected reflections may be transient, occurring only when some conditions, e.g., geometric conditions, exist that may cause the reflected reflections to move erratically or to come in and out of existence. Therefore, there is no track or other a priori knowledge of the reflected reflections. However, the techniques described herein determine whether a reflection is a reflection or may directly correspond to an actual object in the environment 100.

前段で述べられるとおり、第1の反射された反射波138は、線204に沿って位置付けられた反射波に対応する。第1の反射された反射波138を反射された反射波として特性化すべく、本明細書における技法は、その反射波を、オブジェクト反射波122と一緒に対として考えてよい。例えば、線204の方向が知られており、かつ線204上のレーダセンサに対しての第1の反射された反射波138の位置が知られているため、オブジェクト反射波122が、第1の反射された反射波の位置上に投影されることが可能である。概念的に、オブジェクト反射波122を投影することは、オブジェクト反射波122に関連付けられた位置(例えば、半径方向の線202に沿った)を、第1の反射された反射波138に関連付けられた位置(例えば、半径方向の線204に沿った)と結び付ける線208を決定することを含むことが可能である。やはり例示されるとおり、線208に垂直であり、かつ線208を二分する線210が、反射点212で線204と交差し、その結果、反射点212とオブジェクト反射波122の間の線分214の距離は、反射点212と第1の反射された反射波138の間の線分216の距離と等しい。さらに、オブジェクト反射波速度160は、線210を軸にして、第1の反射された速度218として反射されることが可能である。ひとたび決定されると、第1の反射された速度218は、2つの速度成分、すなわち、概ね線204に沿った半径方向速度成分220と、半径方向速度成分220に垂直である接線速度成分222とに解析されることが可能である。半径方向速度成分220は、第1の方向204に沿ったオブジェクト反射波122の投影された速度である。別の言い方をすると、第1の投影された速度は、第1の反射された速度218の半径方向速度成分220であり、第1の反射された速度218は、オブジェクト反射波速度160を表すベクトルの、線210を軸にした鏡像である。 As described above, the first reflected echo 138 corresponds to a echo located along the line 204. To characterize the first reflected echo 138 as a reflected echo, the techniques herein may pair it with the object echo 122. For example, since the direction of the line 204 is known and the position of the first reflected echo 138 relative to the radar sensor on the line 204 is known, the object echo 122 can be projected onto the position of the first reflected echo. Conceptually, projecting the object echo 122 can include determining a line 208 that connects a position associated with the object echo 122 (e.g., along the radial line 202) with a position associated with the first reflected echo 138 (e.g., along the radial line 204). As also illustrated, a line 210 perpendicular to and bisecting the line 208 intersects the line 204 at a reflection point 212, such that the distance of a line segment 214 between the reflection point 212 and the object reflected wave 122 is equal to the distance of a line segment 216 between the reflection point 212 and the first reflected reflected wave 138. Furthermore, the object reflected wave velocity 160 can be reflected about the line 210 as a first reflected velocity 218. Once determined, the first reflected velocity 218 can be resolved into two velocity components: a radial velocity component 220 generally along the line 204, and a tangential velocity component 222 perpendicular to the radial velocity component 220. The radial velocity component 220 is the projected velocity of the object reflected wave 122 along the first direction 204. In other words, the first projected velocity is the radial velocity component 220 of the first reflected velocity 218, which is the mirror image of the vector representing the object reflected wave velocity 160 about the line 210.

図2の例において、半径方向速度成分220(投影された速度)は、さらなる車両108からはね返る無線エネルギーが反射点212においても反射されたとした場合にレーダセンサ104によって感知されることになる速度(すなわち、大きさおよび方向)である。理解されるとおり、第1の反射された速度218の半径方向速度成分220は、第1の反射された反射波速度162(図1に示され、図2には示されない)と同一の方向に沿っている(すなわち、線204に沿っている)。それ故、半径方向速度成分220(第1の投影された速度)の大きさと第1の反射された反射波速度162の大きさが、例えば、互いの所定のしきい値内もしくは所定の範囲内で、実質的に似通っている場合、第1の反射された反射波138には、反射である尤度が高いものとしてフラグ設定される、タグが付けられる、またはそれ以外で識別されることが可能である。 In the example of FIG. 2, the radial velocity component 220 (projected velocity) is the velocity (i.e., magnitude and direction) that would be sensed by the radar sensor 104 if the wireless energy bouncing off the further vehicle 108 were also reflected at the reflection point 212. As can be seen, the radial velocity component 220 of the first reflected velocity 218 is along the same direction (i.e., along the line 204) as the first reflected reflected wave velocity 162 (shown in FIG. 1 and not shown in FIG. 2). Thus, if the magnitude of the radial velocity component 220 (first projected velocity) and the magnitude of the first reflected reflected wave velocity 162 are substantially similar, e.g., within a predetermined threshold or range of each other, the first reflected echo 138 can be flagged, tagged, or otherwise identified as having a high likelihood of being a reflection.

図2は、第2の反射された反射波140が反射された反射波であるかどうかを決定することの類似した概念化を示す。例えば、第2の反射された反射波140の位置における第2の反射された速度224は、線226を軸にしたオブジェクト反射波速度160の鏡像であってよい。線226は、オブジェクト反射波122の位置と第2の反射された反射波140の位置の間に延びる線228に垂直であり、線228を二分する。第2の反射された速度224は、半径方向速度成分230、すなわち、半径方向の線206に沿った成分と、接線速度成分232、すなわち、半径方向の線206に垂直である成分とを含む。 2 shows a similar conceptualization of determining whether the second reflected wave 140 is a reflected wave. For example, the second reflected velocity 224 at the location of the second reflected wave 140 may be a mirror image of the object reflected wave velocity 160 about a line 226. The line 226 is perpendicular to and bisects a line 228 that extends between the location of the object reflected wave 122 and the location of the second reflected wave 140. The second reflected velocity 224 includes a radial velocity component 230, i.e., a component along the radial line 206, and a tangential velocity component 232, i.e., a component that is perpendicular to the radial line 206.

やはり図2に示されるとおり、線226は、反射点234において半径方向の線206と接触する。前段で述べられるとおり、第2の投影された速度224の半径方向速度成分230は、さらなる車両108からはね返されて、反射点234においてレーダセンサ104に戻るように反射する無線エネルギーに関連付けられた反射波の投影された、例えば、予期される、速度(すなわち、方向および大きさ)である。別の言い方をすると、半径方向速度成分230は、投影された速度であり、かつ反射点234における反射に関連付けられた予期される反射波に対応する。第1の投影された反射波の場合と同様に、半径方向速度成分230の方向は、第2の反射された反射波速度164の方向と実質的に同一である。それ故、これらの方向はともに、線206に沿っている。したがって、半径方向速度成分230(第2の投影された反射波)の大きさと第2の反射された反射波速度164の大きさが実質的に同一である場合、第2の反射された反射波140には、反射である尤度が高いものとしてタグが付けられる、フラグ設定される、またはそれ以外で識別されることが可能である。 2, the line 226 meets the radial line 206 at a reflection point 234. As described above, the radial velocity component 230 of the second projected velocity 224 is the projected, e.g., expected, velocity (i.e., direction and magnitude) of the reflected wave associated with the wireless energy bouncing off the further vehicle 108 and reflecting back to the radar sensor 104 at the reflection point 234. In other words, the radial velocity component 230 is the projected velocity and corresponds to the expected reflected wave associated with the reflection at the reflection point 234. As with the first projected reflected wave, the direction of the radial velocity component 230 is substantially the same as the direction of the second reflected reflected wave velocity 164. Thus, both directions are along the line 206. Thus, if the magnitude of the radial velocity component 230 (second projected return) and the magnitude of the second reflected return wave velocity 164 are substantially identical, the second reflected return wave 140 can be tagged, flagged, or otherwise identified as having a high likelihood of being a return.

本開示の実装形態において、本明細書においてさらに説明されるとおり、反射された反射波138、140が、例えば、それぞれの半径方向速度成分220、230が、第1の反射された反射波速度162、および第2の反射された反射波速度164と実質的に同一であるために、反射された反射波であると決定した後、車両102は、プランニングから、反射された反射波138、140を無視する、例えば、除外することができる。また、車両102は、例えば、オブジェクトが反射点212、234のそれぞれに存在すると決定することによって、反射を確認してもよい。例えば、車両102は、本明細書において説明されるとおり、センサデータ、マップデータなどを使用してオブジェクトの存在を確認することができる。少なくともある例において、反射波は、他の構成要素が、それらの反射波に関連付けられた、対応するオブジェクトがまったく存在しないことがあることを意識していてよいようにフラグ設定されてよい。 In an implementation of the present disclosure, as described further herein, after determining that the reflected reflections 138, 140 are reflected reflections, e.g., because the respective radial velocity components 220, 230 are substantially identical to the first reflected reflection wave velocity 162 and the second reflected reflection wave velocity 164, the vehicle 102 may ignore, e.g., exclude, the reflected reflections 138, 140 from planning. The vehicle 102 may also confirm the reflections, e.g., by determining that an object is present at each of the reflection points 212, 234. For example, the vehicle 102 may confirm the presence of the object using sensor data, map data, etc., as described herein. In at least some examples, the reflections may be flagged such that other components may be aware that there may not be any corresponding objects associated with those reflections.

また、図2は、歩行者236が建造物238を出て、環境100に入る別の例示的な実装形態も示す。例示されるとおり、歩行者236は、第2の反射された反射波140に関連付けられた位置に近い位置で環境に入ってよい。レーダセンサ104が、新たに存在する歩行者についての情報を含むレーダデータを生成してよい。歩行者236は、以前から追跡されてきたわけではないため、すなわち、歩行者236は、出現したばかりであるため、本明細書において説明される実装形態は、本明細書において説明される技法を使用して、歩行者236に関連付けられた反射波を、知られているオブジェクト反射波、例えば、オブジェクト反射波122と比較してよい。例えば、オブジェクト反射波速度160が、歩行者236に関連付けられた位置上に投影されてよい。歩行者236は、さらなる車両108と比べて、レーダセンサ104からより遠く離れているため、反射点も識別されることが可能である。例示される例において、反射点は、反射点234に近い。また、歩行者反射波の位置における投影されたオブジェクト反射波速度の半径方向成分が、他の例における場合と同様に決定されることも可能である。しかし、歩行者反射波は、反射された反射波ではないため、投影されたオブジェクト反射波速度の半径方向速度成分の速度の大きさは、似ていない尤度が高い。例えば、歩行者が、レーダセンサ104に向かう歩行者の速度の成分が、反射された反射波の速度と合致する様態で歩行しているのでない限り、歩行者反射波は、反射として(正しく)識別されない。歩行者反射波が反射ではないと決定すると、歩行者の動きが、追跡されてよく、かつ/または歩行者236についての情報が、車両に関する制御を生成すべく使用されてよい。 2 also illustrates another exemplary implementation in which a pedestrian 236 exits a structure 238 and enters the environment 100. As illustrated, the pedestrian 236 may enter the environment at a location close to the location associated with the second reflected echo 140. The radar sensor 104 may generate radar data including information about the newly present pedestrian. Because the pedestrian 236 has not been tracked previously, i.e., the pedestrian 236 has just appeared, the implementation described herein may use techniques described herein to compare the echo associated with the pedestrian 236 to known object echoes, e.g., the object echo 122. For example, the object echo velocity 160 may be projected onto the location associated with the pedestrian 236. Because the pedestrian 236 is farther away from the radar sensor 104 than the further vehicle 108, a reflection point may also be identified. In the illustrated example, the reflection point is close to the reflection point 234. The radial component of the projected object clutter velocity at the location of the pedestrian clutter can also be determined as in the other examples. However, because the pedestrian clutter is not a reflected clutter, the velocity magnitude of the radial velocity component of the projected object clutter velocity is likely not similar. For example, the pedestrian clutter will not be (correctly) identified as a clutter unless the pedestrian is walking in a manner in which the component of the pedestrian's velocity toward the radar sensor 104 matches the velocity of the reflected clutter. Upon determining that the pedestrian clutter is not a clutter, the pedestrian's movement may be tracked and/or information about the pedestrian 236 may be used to generate control for the vehicle.

本開示の態様は、図2に示される例示的な実装形態に限定されない。例えば、本明細書において説明される技法は、車両102からの反射を含め、環境における他のオブジェクトの反射を識別するのに使用されることが可能である。ある例において、さらなる車両108によって反射された無線エネルギーは、レーダセンサ104によってキャプチャされる前に、車両102から反射する(またははね返る)こと、さらなる車両108(または他のオブジェクト)に戻るように伝わること、およびさらなる車両から再び反射することが可能である。別の言い方をすると、検出された無線エネルギーは、レーダセンサにおいてキャプチャされる前に、線202に沿った経路を4回(各方向で2回)通ることが可能である。この「二重はね返り」は、方向202に沿って、ただし、車両102から2倍の距離で反射波をもたらすことがある。ある例において、速度の大きさは、オブジェクト反射波速度の大きさとは異なり(例えば、半分の速度)、このことが、反射された反射波の識別をもたらすことができる。 Aspects of the present disclosure are not limited to the exemplary implementation shown in FIG. 2. For example, the techniques described herein can be used to identify reflections of other objects in the environment, including reflections from the vehicle 102. In one example, wireless energy reflected by the further vehicle 108 can reflect (or bounce) off the vehicle 102, travel back to the further vehicle 108 (or other object), and reflect again from the further vehicle before being captured by the radar sensor 104. In other words, the detected wireless energy can traverse a path along the line 202 four times (twice in each direction) before being captured at the radar sensor. This "double bounce" can result in a reflected wave along the direction 202 but twice as far from the vehicle 102. In one example, the magnitude of the velocity is different from the magnitude of the object reflected wave velocity (e.g., half the speed), which can result in identification of the reflected reflected wave.

さらに、図2は、介在する、反射するオブジェクトを、静止したオブジェクトとして例示する一方で、他の実装形態において、本明細書において説明される技法は、反射波が、動くオブジェクトから反射されるかどうかを決定することも可能である。例えば、介在するオブジェクトの速度が、知られ(例えば、他のレーダ反射波から)、その速度が、投影された速度の半径方向成分を変えるべく使用されることが可能である。また、他の変更も企図される。 Furthermore, while FIG. 2 illustrates the intervening, reflecting objects as stationary objects, in other implementations, the techniques described herein can also determine whether a return is reflected from a moving object. For example, the velocity of the intervening object can be known (e.g., from other radar returns) and that velocity can be used to vary the radial component of the projected velocity. Other modifications are also contemplated.

図3は、環境100の別の概略図を示し、反射波が他の反射波の反射である(またはそうである尤度が高い)かどうかを決定するための代替の方法を例示すべく使用される。より具体的には、図3は、反射点を決定すべく幾何を使用する技法を例示してよく、この反射点が、次に、例えば、反射点が環境におけるオブジェクトに対応するかどうかを決定すべく、環境情報と比較されてよい。 Figure 3 shows another schematic diagram of the environment 100 and is used to illustrate an alternative method for determining whether a reflected wave is (or is likely to be) a reflection of another reflected wave. More specifically, Figure 3 may illustrate a technique that uses geometry to determine a reflection point, which may then be compared to environmental information, for example, to determine whether the reflection point corresponds to an object in the environment.

より具体的には、図3は、オブジェクト反射波122(さらなる車両108からの)および第1の反射された反射波138を例示する。明確にするため、第2の反射された反射波140は、例示されないものの、第1の反射された反射波138と、オブジェクト反射波122とを含む反射波の対を参照して説明される技法は、例えば、オブジェクト反射波122と、第2の反射された反射波138とを含む、第1の反射された反射波138と、第2の反射された反射波140とを含む、かつ/または反射波の他の任意の対を含む、レーダ反射波の任意の対に適用されることが可能である。本明細書において説明されるとおり、環境100の演繹的の知識が、オブジェクト反射波122をさらなる車両108に関連付けることを可能にしてよいものの、本開示の実装形態は、知られているオブジェクトの関連付けにかかわらず、さらに/または環境100の演繹的の知識の利用可能性にかかわらず、レーダ反射波の任意の対に同様に適用してもよい。それ故、反射波には、「オブジェクト」反射波および「反射された」反射波としてラベルが付けられる一方で、それらのラベルの一方または両方は、さらなる処理の後まで知られなくてよい。少なくともある例において、そのようなラベルは、自律車両を誘導することを支援すべく使用されてよい。例えば、「反射された」反射波は、プランニングの際にその反射波の重要度の重み付けが軽くされる、またはそれ以外で考慮に入れられるものの、依然としてナビゲーションのために考慮されてよい。 3 illustrates an object return 122 (from the further vehicle 108) and a first reflected return 138. For clarity, the second reflected return 140 is not illustrated, but the techniques described with reference to the return pair including the first reflected return 138 and the object return 122 can be applied to any pair of radar returns, including, for example, the first reflected return 138 and the second reflected return 140, including the object return 122 and the second reflected return 138, and/or any other pair of returns. As described herein, although a priori knowledge of the environment 100 may enable the object return 122 to be associated with the further vehicle 108, implementations of the present disclosure may be similarly applied to any pair of radar returns, regardless of known object associations and/or regardless of the availability of a priori knowledge of the environment 100. Thus, while the returns may be labeled as "object" returns and "reflected" returns, one or both of the labels may not be known until after further processing. In at least some examples, such labels may be used to help guide an autonomous vehicle. For example, a "reflected" return may still be considered for navigation, although its importance may be downweighted or otherwise taken into account during planning.

本明細書において説明されるとおり、レーダセンサ104は、反射波についての範囲情報、位置情報、および/または速度(スピード)情報だけを受信してよい。それ故、例えば、レーダセンサ104は、オブジェクト反射波122の位置と第1の反射された反射波138の位置を示すセンサデータを生成してよい。例えば、図3において、図3における線302は、オブジェクト反射波122の位置とレーダセンサ104の位置の間の線であり、線304は、第1の反射された反射波138の位置とレーダセンサ104の位置の間の線である。反射波122、138、すなわち、反射波122、138の位置に基づいて、線302、304の長さ、および線302と線304の間の角314が知られる(または容易に決定されることが可能である)。本明細書において説明される技法は、線302、304、および角314を使用して、オブジェクト反射波122に関連付けられたオブジェクト(例えば、さらなる車両108)に最初に反射された無線エネルギーが、レーダセンサ104において受信されるのに先立って反射する、線304に沿った潜在的な、または理論上の反射点308を決定することができる。ひとたび、理論上の反射点308の位置が決定されると、本明細書において説明される技法は、オブジェクトが理論上の反射点308に存在するかどうかを決定して、その結果、第1の反射された反射波138がオブジェクト反射波の反射であることを確認する(または少なくとも示唆する)ことができる。 As described herein, the radar sensor 104 may receive only range, position, and/or speed information about the reflected waves. Thus, for example, the radar sensor 104 may generate sensor data indicative of the position of the object reflected wave 122 and the position of the first reflected reflected wave 138. For example, in FIG. 3, the line 302 in FIG. 3 is a line between the position of the object reflected wave 122 and the position of the radar sensor 104, and the line 304 is a line between the position of the first reflected reflected wave 138 and the position of the radar sensor 104. Based on the reflected waves 122, 138, i.e., the positions of the reflected waves 122, 138, the lengths of the lines 302, 304 and the angle 314 between the lines 302 and 304 are known (or can be easily determined). Techniques described herein can use the lines 302, 304, and the angle 314 to determine a potential, or theoretical, reflection point 308 along the line 304 from which wireless energy initially reflected by an object (e.g., a further vehicle 108) associated with the object return 122 will be reflected prior to being received at the radar sensor 104. Once the location of the theoretical reflection point 308 is determined, techniques described herein can determine whether an object is present at the theoretical reflection point 308, thereby confirming (or at least suggesting) that the first reflected return 138 is a reflection of an object return.

より具体的には、第1の反射された反射波138とオブジェクト反射波122の間の距離、例えば、図3に示される線310の距離が、線302、304の距離、および角306を使用して決定されることが可能である。例えば、余弦定理が、要求されるわけではないものの、線310の長さを決定するのに使用されることが可能である。理論上の反射点308が、その後、線304と、反射波122と反射波138の間に延びる線310を二分し、かつ線310に垂直である線312の交差点として決定されてよい。例えば、センサ304と第1の反射された反射波138の間に延びる線304と、第1の反射された反射波138とオブジェクト反射波122の間に延びる線310との間の角314を決定すべく単純な幾何が使用されることが可能である。その後、線312によって二分される第1の反射された反射波138と反射角316の間の線分316の長さが、線304に沿った反射された反射波308の位置をもたらすべく、容易に決定されることも可能である。さらに、第1の反射された反射波138が真の反射である場合、線分316の距離は、オブジェクト反射波122から反射点308までの距離と等しい。このさらなる情報が、反射点308の位置を計算すべく(さらに、または代替として)使用されることが可能である。 More specifically, the distance between the first reflected wave 138 and the object reflected wave 122, e.g., the distance of the line 310 shown in FIG. 3, can be determined using the distances of the lines 302, 304, and the angle 306. For example, the law of cosines can be used to determine the length of the line 310, although this is not required. A theoretical reflection point 308 may then be determined as the intersection of the line 304 and a line 312 that bisects the line 310 extending between the reflected wave 122 and the reflected wave 138 and is perpendicular to the line 310. For example, simple geometry can be used to determine the angle 314 between the line 304 extending between the sensor 304 and the first reflected wave 138, and the line 310 extending between the first reflected wave 138 and the object reflected wave 122. The length of the line segment 316 between the first reflected wave 138 and the reflection angle 316, which is bisected by the line 312, can then be easily determined to yield the position of the reflected wave 308 along the line 304. Furthermore, if the first reflected wave 138 is a true reflection, the distance of the line segment 316 is equal to the distance from the object wave 122 to the reflection point 308. This further information can be used (in addition or alternatively) to calculate the position of the reflection point 308.

前段で説明されたばかりの実装形態において、潜在的な反射点308は、幾何だけを使用して決定されることが可能である。例えば、反射波についての速度情報は、必要ない。しかし、潜在的な反射点は、異なる距離における反射波の任意の対に関して決定されることが可能である。したがって、本明細書において説明される技法は、反射波のうちの一方、例えば、より遠く離れている方の反射波が、反射であるかどうかを決定すべく、オブジェクトが潜在的な反射点に存在するかどうかを決定することもできる。例えば、LiDARデータ、画像データ、さらなるレーダデータなどを含むが、これらには限定されないセンサデータが、オブジェクトが理論上の反射点308の位置近くに存在するかどうかを決定すべく使用されることが可能である。例示される例において、建造物114(1)が、車両102によってキャプチャされた画像データ、LiDARデータ、および/または他のセンサデータを使用して識別されてよい。他の実施形態において、マップデータが、反射点308におけるオブジェクトの存在を確認してよい。ある例において、速度情報が、反射波からの速度を、他方の反射波に関連付けられた単位ベクトル上に投影することに少なくとも部分的に基づいて、潜在的な反射を決定すべく使用されることが可能である。そのような投影された速度は、その後、他方の反射波の速度と直接に比較されてよい。 In the implementation just described, the potential reflection point 308 can be determined using geometry alone. For example, speed information for the reflected wave is not required. However, potential reflection points can be determined for any pair of reflected waves at different distances. Thus, the techniques described herein can also determine whether an object is present at the potential reflection point to determine whether one of the reflected waves, e.g., the more distant reflected wave, is a reflection. For example, sensor data including, but not limited to, LiDAR data, image data, further radar data, etc. can be used to determine whether an object is present near the location of the theoretical reflection point 308. In the illustrated example, the structure 114(1) may be identified using image data, LiDAR data, and/or other sensor data captured by the vehicle 102. In other embodiments, map data may confirm the presence of an object at the reflection point 308. In one example, speed information can be used to determine the potential reflection based at least in part on projecting the speed from the reflected wave onto a unit vector associated with the other reflected wave. Such projected velocities can then be directly compared to the velocities of the other reflected waves.

図2および図3(ならびに後段の図5および図6)の態様について、例として図1の環境100における、図1に例示される構成要素を参照して説明される。しかし、図2、図3、図5、および図6を参照して例示され、説明される例は、環境100において実行されることにも、図1の構成要素を使用することにも限定されない。例えば、図2、図3、図5、および図6を参照して説明される例のうちのいくつか、またはすべては、本明細書において説明される、図4の1つまたは複数の構成要素によって、または他の1つまたは複数のシステムもしくは構成要素によって実行されることが可能である。 2 and 3 (as well as FIGS. 5 and 6 below) are described with reference to the components illustrated in FIG. 1 in the environment 100 of FIG. 1, by way of example. However, the examples illustrated and described with reference to FIGS. 2, 3, 5, and 6 are not limited to being performed in the environment 100 or using the components of FIG. 1. For example, some or all of the examples described with reference to FIGS. 2, 3, 5, and 6 can be performed by one or more components of FIG. 4 or by one or more other systems or components described herein.

図4は、本明細書において説明される技法を実施するための例示的なシステム400のブロック図を示す。少なくとも1つの例において、システム400は、図1に示される車両102と同一であっても、異なってもよい、車両402を含むことが可能である。 FIG. 4 illustrates a block diagram of an example system 400 for implementing the techniques described herein. In at least one example, the system 400 can include a vehicle 402, which may be the same as or different from the vehicle 102 shown in FIG. 1.

車両402は、車両コンピューティングデバイス404と、1つまたは複数のセンサシステム406と、1つまたは複数のエミッタ408と、1つまたは複数の通信接続410と、1つまたは複数の駆動モジュール412と、少なくとも1つの直接接続414とを含むことが可能である。 The vehicle 402 may include a vehicle computing device 404, one or more sensor systems 406, one or more emitters 408, one or more communication connections 410, one or more drive modules 412, and at least one direct connection 414.

車両コンピューティングデバイス404は、1つまたは複数のプロセッサ416と、1つまたは複数のプロセッサ416に通信可能に結合されたメモリ418とを含むことが可能である。例示される例において、車両402は、自律車両である。しかし、車両402は、少なくとも1つのセンサ(例えば、カメラ対応のスマートフォン)を有する他の任意のタイプの車両、または他の任意のシステムであることが可能である。例示される例において、車両コンピューティングデバイス404のメモリ418は、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、1つまたは複数のシステムコントローラ430、1つまたは複数のマップ432、およびトラッカ構成要素434を記憶する。例示の目的でメモリ418内に存在するものとして図4に示されるものの、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、システムコントローラ430、マップ432、および/またはトラッカ構成要素434は、さらに、または代替として、車両402がアクセス可能であり得る(例えば、車両402から遠隔のメモリ上に記憶される、またはそれ以外でそのようなメモリによってアクセス可能である)ことが企図される。ある例において、車両コンピューティングデバイス404は、図1の車両コンピューティングデバイス172の例に対応する、またはその例であることが可能である。 The vehicle computing device 404 may include one or more processors 416 and a memory 418 communicatively coupled to the one or more processors 416. In the illustrated example, the vehicle 402 is an autonomous vehicle. However, the vehicle 402 may be any other type of vehicle having at least one sensor (e.g., a camera-enabled smartphone), or any other system. In the illustrated example, the memory 418 of the vehicle computing device 404 stores a localization component 420, a perception component 422, a prediction component 424, a planning component 426, a reflex recognition component 428, one or more system controllers 430, one or more maps 432, and a tracker component 434. Although shown in FIG. 4 as residing in memory 418 for illustrative purposes, it is contemplated that localization component 420, perception component 422, prediction component 424, planning component 426, reflex recognition component 428, system controller 430, map 432, and/or tracker component 434 may also or alternatively be accessible to vehicle 402 (e.g., stored on a memory remote from vehicle 402 or otherwise accessible by such memory). In one example, vehicle computing device 404 may correspond to or be an example of vehicle computing device 172 of FIG. 1.

少なくとも1つの例において、位置特定の構成要素420は、車両402の位置および/または向き(例えば、x、y、z位置、ロール、ピッチ、またはヨーのうちの1つまたは複数)を決定すべくセンサシステム406からデータを受信する機能を含むことが可能である。例えば、位置特定の構成要素420は、環境のマップを含むこと、および/または要求すること/受信することができ、マップ内で自律車両の位置および/または向きを継続的に決定することができる。ある例において、位置特定の構成要素420は、自律車両の位置を正確に決定すべく画像データ、LiDARデータ、レーダデータ、IMUデータ、GPSデータ、ホイールエンコーダデータ、および以上に類するものを受信するようにSLAM(同時の位置特定とマッピング)、CLAMS(同時の較正と位置特定とマッピング)、相対SLAM、バンドル調整、非線形最小二乗最適化などを利用することができる。ある例において、位置特定の構成要素420は、軌道を生成するために自律車両402の初期位置を決定すべく車両402の様々な構成要素にデータを提供することができる。 In at least one example, the localization component 420 can include functionality for receiving data from the sensor system 406 to determine the position and/or orientation (e.g., one or more of x, y, z position, roll, pitch, or yaw) of the vehicle 402. For example, the localization component 420 can include and/or request/receive a map of the environment and can continually determine the position and/or orientation of the autonomous vehicle within the map. In one example, the localization component 420 can utilize SLAM (simultaneous localization and mapping), CLAMS (simultaneous calibration, localization, and mapping), relative SLAM, bundle adjustment, nonlinear least squares optimization, etc. to receive image data, LiDAR data, radar data, IMU data, GPS data, wheel encoder data, and the like to accurately determine the position of the autonomous vehicle. In one example, the localization component 420 can provide data to various components of the vehicle 402 to determine an initial position of the autonomous vehicle 402 to generate a trajectory.

ある例において、知覚構成要素422は、オブジェクト検出、セグメンテーション、および/または分類を実行する機能を含むことが可能である。ある例において、知覚構成要素422は、車両402に近接したオブジェクトの存在、および/またはオブジェクトタイプ(例えば、自動車、歩行者、サイクリスト、動物、建造物、樹木、道路表面、縁石、歩道、未知、その他)としてのオブジェクトの分類を示す処理されたセンサデータを提供することができる。さらなる例および/または代替の例において、知覚構成要素422は、検出されたオブジェクト(例えば、追跡されるオブジェクト)および/またはオブジェクトが位置付けられる環境に関連付けられた1つまたは複数の特性を示す処理されたセンサデータを提供することができる。ある例において、オブジェクトに関連付けられた特性は、x位置(全体的位置および/または局所的位置)、y位置(全体的位置および/または局所的位置)、z位置(全体的位置および/または局所的位置)、向き(例えば、ロール、ピッチ、ヨー)、オブジェクトタイプ(例えば、分類)、オブジェクトの速度、オブジェクトの加速度、オブジェクトの広がり(サイズ)、その他を含むことが可能であるが、これらには限定されない。環境に関連付けられた特性は、環境における別のオブジェクトの存在、環境における別のオブジェクトの状態、時間帯、曜日、季節、気象条件、暗さ/明るさの指標、その他を含むことが可能であるが、これらには限定されない。ある例において、知覚構成要素422は、オブジェクトを決定すべくレーダデータを使用することができ、例えば、本明細書において説明されるとおり、センサデータを含める/除外するべく、反射された反射波についての情報を受信してよい。 In one example, the perception component 422 may include functionality to perform object detection, segmentation, and/or classification. In one example, the perception component 422 may provide processed sensor data indicative of the presence of an object proximate to the vehicle 402 and/or the classification of the object as an object type (e.g., automobile, pedestrian, cyclist, animal, structure, tree, road surface, curb, sidewalk, unknown, etc.). In further and/or alternative examples, the perception component 422 may provide processed sensor data indicative of one or more characteristics associated with the detected object (e.g., tracked object) and/or the environment in which the object is located. In one example, the characteristics associated with the object may include, but are not limited to, x-position (global and/or local position), y-position (global and/or local position), z-position (global and/or local position), orientation (e.g., roll, pitch, yaw), object type (e.g., classification), object velocity, object acceleration, object extent (size), etc. Characteristics associated with the environment can include, but are not limited to, the presence of other objects in the environment, the state of other objects in the environment, the time of day, the day of the week, the season, weather conditions, darkness/light indicators, etc. In one example, the perception component 422 can use radar data to determine the object, and may receive information about reflected echoes to include/exclude sensor data, for example, as described herein.

ある例において、予測構成要素424は、環境におけるオブジェクトの予測される軌道を生成する機能を含むことが可能である。例えば、予測構成要素424は、車両402からのしきい値距離内の車両、歩行者、動物、および以上に類するものに関して1つまたは複数の予測される軌道を生成することができる。ある例において、予測構成要素424は、オブジェクトのトレースを測定すること、およびオブジェクトに関する軌道を生成することができる。ある例において、予測構成要素424は、オブジェクトが環境を通って進むにつれ、オブジェクトを追跡すべくトラッカ434と協働してよい。ある例において、予測構成要素424からの情報は、レーダ反射波が、知られているオブジェクトからであるかどうかを決定する際に使用されてよい。 In one example, the prediction component 424 may include functionality for generating predicted trajectories of objects in the environment. For example, the prediction component 424 may generate one or more predicted trajectories for vehicles, pedestrians, animals, and the like within a threshold distance from the vehicle 402. In one example, the prediction component 424 may measure a trace of an object and generate a trajectory for the object. In one example, the prediction component 424 may cooperate with a tracker 434 to track an object as it progresses through the environment. In one example, information from the prediction component 424 may be used in determining whether a radar return is from a known object.

一般に、プランニング構成要素426は、環境を通り抜けるべく車両402が従う経路を決定することができる。例えば、プランニング構成要素426は、様々なルートおよび軌道、ならびに様々な詳細レベルを決定することができる。例えば、プランニング構成要素426は、第1の位置(例えば、現在位置)から第2の位置(例えば、目標位置)まで移動するルートを決定することができる。この説明の目的で、ルートは、2つの位置の間で移動するためのウェイポイントのシーケンスであることが可能である。非限定的な例として、ウェイポイントは、通り、交差点、全地球測位システム(GPS)座標、その他を含む。さらに、プランニング構成要素426は、第1の位置から第2の位置までルートの少なくとも1部分に沿って自律車両を誘導するための命令を生成することができる。少なくとも1つの例において、プランニング構成要素426は、ウェイポイントのシーケンスにおける第1のウェイポイントからウェイポイントのシーケンスにおける第2のウェイポイントまで自律車両をどのように誘導すべきかを決定することができる。ある例において、命令は、軌道、または軌道の一部分であることが可能である。さらに、ある実装形態において、多様な軌道が、多様な軌道のうちの1つが、車両402がナビゲートするように選択されて、後退ホライズン技法により実質的に同時に生成される(例えば、技術的許容差内で)ことが可能である。ある例において、プランニング構成要素426は、センサデータ、例えば、レーダ反射波に少なくとも部分的に基づいて、車両402のための1つまたは複数の軌道を生成することができる。例えば、プランニング構成要素426は、反射された反射波であると決定された反射波を除外してよい。 In general, the planning component 426 can determine a path for the vehicle 402 to follow to move through an environment. For example, the planning component 426 can determine various routes and trajectories, as well as various levels of detail. For example, the planning component 426 can determine a route to travel from a first location (e.g., a current location) to a second location (e.g., a target location). For purposes of this description, the route can be a sequence of waypoints for traveling between the two locations. As non-limiting examples, the waypoints include streets, intersections, Global Positioning System (GPS) coordinates, and the like. Additionally, the planning component 426 can generate instructions for guiding the autonomous vehicle along at least a portion of the route from the first location to the second location. In at least one example, the planning component 426 can determine how to guide the autonomous vehicle from a first waypoint in the sequence of waypoints to a second waypoint in the sequence of waypoints. In one example, the instructions can be a trajectory, or a portion of a trajectory. Further, in some implementations, multiple trajectories can be generated substantially simultaneously (e.g., within engineering tolerances) via receding horizon techniques, with one of the multiple trajectories being selected for the vehicle 402 to navigate. In some examples, the planning component 426 can generate one or more trajectories for the vehicle 402 based at least in part on sensor data, e.g., radar returns. For example, the planning component 426 can filter out returns that are determined to be reflected returns.

一般に、反射認識の構成要素428は、センサデータ、例えば、レーダ反射波が、実際のオブジェクトに対応するか、または何らかの介在するオブジェクトからのオブジェクトの反射であるかを識別する機能を含むことが可能である。ある例において、反射認識の構成要素428は、図1の反射認識の構成要素174に対応することが可能である。本明細書において説明されるとおり、反射認識の構成要素428は、感知されたオブジェクトが、実際のオブジェクトであるか、または実際のオブジェクトの反射に過ぎないかを決定すべくレーダデータ、LiDARデータ、画像データ、マップデータ、および以上に類するものを受信することができる。ある例において、反射認識の構成要素428は、いつ、環境を通るように車両402を制御するかを決定すべく、反射に対応するのではないと決定されたセンサ情報をプランニング構成要素426に提供することができる。ある例において、反射認識の構成要素428は、例えば、プランニング構成要素426が、介在するオブジェクトからの反射に関連付けられたものと決定したセンサデータ、例えば、レーダデータを除外して、制御を決定するように、反射に対応すると決定されたセンサデータを、プランニング構成要素426に対して除外してよい。また、反射認識の構成要素428は、例えば、トラッカが環境における動的オブジェクトを追跡するように、センサ情報をトラッカ434に提供することもできる。 In general, the reflection recognition component 428 may include functionality to identify whether sensor data, e.g., radar returns, correspond to an actual object or are a return of an object from some intervening object. In one example, the reflection recognition component 428 may correspond to the reflection recognition component 174 of FIG. 1. As described herein, the reflection recognition component 428 may receive radar data, LiDAR data, image data, map data, and the like to determine whether a sensed object is an actual object or merely a return of an actual object. In one example, the reflection recognition component 428 may provide sensor information determined not to correspond to a return to the planning component 426 to determine when to control the vehicle 402 through the environment. In one example, the reflection recognition component 428 may filter out sensor data determined to correspond to a return to the planning component 426, e.g., filter out sensor data, e.g., radar data, that the planning component 426 has determined to be associated with a return from an intervening object to determine control. The reflection recognition component 428 can also provide sensor information to the tracker 434, for example, so that the tracker tracks dynamic objects in the environment.

システムコントローラ430は、例えば、プランニング構成要素426によって生成された制御、および/またはプランニング構成要素426からの情報に基づいて、車両402のステアリングシステム、推進システム、制動システム、安全システム、エミッタシステム、通信システム、およびその他のシステムを制御すべく構成されることが可能である。システムコントローラ430は、車両402の駆動モジュール414および/または他の構成要素の対応するシステムと通信すること、および/またはそれらのシステムを制御することができる。 The system controller 430 can be configured to control the steering system, propulsion system, braking system, safety system, emitter system, communication system, and other systems of the vehicle 402, for example, based on the control generated by and/or information from the planning component 426. The system controller 430 can communicate with and/or control corresponding systems of the drive module 414 and/or other components of the vehicle 402.

マップ432は、車両402によって環境内でナビゲートすべく使用されることが可能である。この説明の目的で、マップは、トポロジ(交差点などの)、通り、山脈、道路、地勢、および環境全般などの、ただし、これらには限定されない環境についての情報を提供することができる、2次元、3次元、またはN次元にモデル化された任意の数のデータ構造であることが可能である。ある例において、マップは、テクスチャ情報(例えば、色情報(例えば、RGB色情報、Lab色情報、HSV/HSL色情報)、および以上に類するもの)、強度情報(例えば、LiDAR情報、レーダ情報、および以上に類するもの)、空間情報(例えば、メッシュ上に投影された画像データ、個々の「サーフェル」(例えば、個別の色および/または強度に関連付けられたポリゴン))、反射性情報(例えば、鏡面性情報、再帰反射性情報、BRDF情報、BSSRDF情報、および以上に類するもの)を含むことが可能であるが、これらには限定されない。1つの例において、マップは、環境の3次元メッシュを含むことが可能である。ある例において、マップは、マップの個々のタイルが環境の別個の部分を表すようにタイル化されたフォーマットで記憶されることが可能であり、必要に応じて作業メモリにロードされることが可能である。ある例において、マップ432は、少なくとも1つのマップ(例えば、画像および/またはメッシュ)を含むことが可能である。車両402は、マップ432に少なくとも部分的に基づいて制御されることが可能である。すなわち、マップ432は、車両402の位置を決定すること、環境におけるオブジェクトを識別すること、ならびに/または環境内でナビゲートするルートおよび/または軌道を生成することを行うべく位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、および/または反射認識の構成要素432に関連して使用されることが可能である。さらに、本明細書において説明されるとおり、マップ432は、オブジェクト、例えば、レーダセンサにおいて受信される前に無線エネルギーが反射することがある、介在するオブジェクトの存在を検証すべく使用されることが可能である。 Map 432 can be used by vehicle 402 to navigate within the environment. For purposes of this description, a map can be any number of data structures modeled in two, three, or N dimensions that can provide information about the environment, such as, but not limited to, topology (such as intersections), streets, mountain ranges, roads, terrain, and the environment in general. In one example, the map can include, but is not limited to, texture information (e.g., color information (e.g., RGB color information, Lab color information, HSV/HSL color information), and the like), intensity information (e.g., LiDAR information, radar information, and the like), spatial information (e.g., image data projected onto a mesh, individual "surfels" (e.g., polygons associated with individual colors and/or intensities), reflectivity information (e.g., specularity information, retroreflectivity information, BRDF information, BSSRDF information, and the like). In one example, the map can include a three-dimensional mesh of the environment. In one example, the map can be stored in a tiled format, with each tile of the map representing a separate portion of the environment, and can be loaded into the working memory as needed. In one example, the map 432 can include at least one map (e.g., an image and/or a mesh). The vehicle 402 can be controlled at least in part based on the map 432. That is, the map 432 can be used in conjunction with the localization component 420, the perception component 422, the prediction component 424, the planning component 426, and/or the reflection recognition component 432 to determine the position of the vehicle 402, identify objects in the environment, and/or generate a route and/or trajectory for navigating within the environment. Additionally, as described herein, the map 432 can be used to verify the presence of objects, e.g., intervening objects from which wireless energy may be reflected before being received at a radar sensor.

ある例において、マップ432は、1つまたは複数のネットワーク436を介してアクセス可能な1つまたは複数の遠隔コンピューティングデバイス(1つまたは複数のコンピューティングデバイス438などの)上に記憶されることが可能である。ある例において、マップ432は、例えば、特性(例えば、エンティティのタイプ、時間帯、曜日、または年間の季節、その他)に基づいて記憶された多様な類似したマップを含むことが可能である。このように多様なマップ432を記憶することは、類似したメモリ要件を有し得るが、マップにおけるデータにアクセスされ得るスピードを高める。 In one example, map 432 may be stored on one or more remote computing devices (such as one or more computing devices 438) accessible via one or more networks 436. In one example, map 432 may include a variety of similar maps stored, for example, based on characteristics (e.g., type of entity, time of day, day of the week, or season of the year, etc.). Storing a variety of maps 432 in this manner may have similar memory requirements but increases the speed with which data in the maps may be accessed.

トラッカ434は、オブジェクトの動きを追跡する、例えば、追う機能を含むことが可能である。例えば、トラッカ434は、車両の環境における動的オブジェクトを表すセンサシステム406のうちの1つまたは複数からセンサデータを受信してよい。例えば、車両402上の画像センサが、画像センサデータをキャプチャしてよく、LiDARセンサが、点群データをキャプチャしてよく、レーダセンサが、多様な時点で環境におけるオブジェクトの位置、体勢などを示す反射波を獲得してよい。このデータに基づいて、トラッカ434は、オブジェクトのトラック情報を決定することができる。例えば、トラック情報は、関連付けられたオブジェクトに関する履歴上の位置、速度、加速度、および以上に類するものを提供してよい。さらに、ある例において、トラッカ434は、環境の閉塞された領域内のオブジェクトを追跡してよい。参照により本明細書に開示の全体が組み込まれている、「レーダ空間推定(Radar Spatial Estimation)」に関する、2018年9月28日に出願された米国特許出願第16/147,177号が、閉塞された領域内のオブジェクトを追跡するための技法について説明する。本明細書において説明されるとおり、トラッカ434からの情報は、レーダ反射波が追跡されるオブジェクトに対応することを検証すべく使用されてよい。少なくともある例において、トラッカ434は、知覚構成要素422が、新たに識別されたオブジェクトが以前に識別されたオブジェクトに関連付けられるべきかどうかを決定すべくデータ関連付けを実行するように、知覚構成要素422に関連付けられることが可能である。 The tracker 434 may include functionality for tracking, e.g., following, the movement of an object. For example, the tracker 434 may receive sensor data from one or more of the sensor systems 406 that represent dynamic objects in the vehicle's environment. For example, an image sensor on the vehicle 402 may capture image sensor data, a LiDAR sensor may capture point cloud data, and a radar sensor may acquire echoes that indicate the object's position, orientation, etc. in the environment at various times. Based on this data, the tracker 434 may determine track information for the object. For example, the track information may provide historical position, velocity, acceleration, and the like for the associated object. Additionally, in one example, the tracker 434 may track an object within an occluded region of the environment. U.S. Patent Application No. 16/147,177, filed Sep. 28, 2018, for "Radar Spatial Estimation," the entire disclosure of which is incorporated herein by reference, describes techniques for tracking objects in occluded regions. As described herein, information from tracker 434 may be used to verify that radar returns correspond to tracked objects. In at least some examples, tracker 434 may be associated with perception component 422 such that perception component 422 performs data association to determine whether a newly identified object should be associated with a previously identified object.

理解されるとおり、本明細書において説明される構成要素(例えば、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、システムコントローラ430、マップ432、およびトラッカ構成要素434)は、例示の目的で分割されたものとして説明される。しかし、様々な構成要素によって実行される動作は、他の任意の構成要素において組み合わされること、または実行されることが可能である。例として、反射認識機能が、システムによって転送されるデータの量を低減すべく、知覚構成要素422および/またはプランニングシステム426によって(例えば、反射認識の構成要素428によってではなく)実行されてよい。 As will be appreciated, the components described herein (e.g., localization component 420, perception component 422, prediction component 424, planning component 426, reflex recognition component 428, system controller 430, map 432, and tracker component 434) are described as separated for illustrative purposes. However, the operations performed by the various components can be combined or performed in any other component. As an example, reflex recognition functions may be performed by the perception component 422 and/or the planning system 426 (e.g., rather than by the reflex recognition component 428) to reduce the amount of data transferred by the system.

ある例において、本明細書において説明される構成要素のうちのいくつか、またはすべての構成要素の態様が、モジュール、アルゴリズム、および/または機械学習アルゴリズムを含むことが可能である。例えば、ある例において、メモリ418(および/または、後段で説明されるメモリ442)における構成要素は、ニューラルネットワークとして実装されることが可能である。 In some examples, aspects of some or all of the components described herein may include modules, algorithms, and/or machine learning algorithms. For example, in some examples, the components in memory 418 (and/or memory 442, described below) may be implemented as neural networks.

本明細書において説明される、例示的なニューラルネットワークは、入力デーが一連の接続された層を通るようにして出力をもたらす生物学に着想を得たアルゴリズムである。ニューラルネットワークの各層が、別のニューラルネットワークを備えることも可能であり、または任意の数の層(畳み込み層であるか否かにかかわらず)を備えることが可能である。本開示の脈絡で理解されることが可能であるとおり、ニューラルネットワークは、機械学習を利用することができ、機械学習は、出力が学習されたパラメータに基づいて生成されるそのような幅広いクラスのアルゴリズムを指すことが可能である。 As described herein, an exemplary neural network is a biologically inspired algorithm that passes input data through a series of connected layers to produce an output. Each layer of a neural network may comprise another neural network, or may comprise any number of layers (whether convolutional or not). As can be understood in the context of this disclosure, a neural network may utilize machine learning, which may refer to such a broad class of algorithms in which an output is generated based on learned parameters.

ニューラルネットワークの脈絡で説明されるものの、任意のタイプの機械学習が、本開示と整合するように使用され得る。例えば、機械学習アルゴリズムは、回帰アルゴリズム(例えば、通常の最小二乗回帰(OLSR)、線形回帰、ロジスティック回帰、段階的回帰、多変量適応回帰スプライン(MARS)、局所的に推定されたスキャッタプロット平滑化(LOESS))、例ベースのアルゴリズム(例えば、リッジ回帰、最小絶対収縮および選択演算子(LASSO)、弾力ネット、最小角度回帰(LARS))、決定木アルゴリズム(例えば、分類および回帰木(CART)、反復ダイコトマイザ4(ID3)、カイ二乗自動相互作用検出(CHAID)、決定切り株、条件付き決定木)、ベイジアンアルゴリズム(例えば、ナイーブベイズ、ガウスナイーブベイズ、多項ナイーブベイズ、平均1依存エスティメータ(AODE)、ベイジアンビリーフネットワーク(BNN)、ベイジアンネットワーク)、クラスタリングアルゴリズム(例えば、k平均、kメジアン、期待値最大化(EM)、階層的クラスタリング)、相関規則学習アルゴリズム(例えば、パーセプトロン、逆伝搬、ホップフィールドネットワーク、動径基底関数ネットワーク(RBFN))、深層学習アルゴリズム(例えば、深層ボルツマンマシン(DBM)、深層ビリーフネットワーク(DBN)、畳み込みニューラルネットワーク(CNN)、積層自動エンコーダ)、次元縮小アルゴリズム(例えば、主成分分析(PCA)、主成分回帰(PCR)、部分最小二乗回帰(PLSR)、サモンマッピング、多次元尺度構成法(MDS)、射影追跡、線形判別分析(LDA)、混合判別分析(MDA)、二次判別分析(QDA)、柔軟判別分析(FDA))、アンサンブルアルゴリズム(例えば、ブースティング、ブートストラップアグリゲーション(バギング)、アダブースト)、積層ジェネラリゼーション(ブレンディング)、勾配ブースティングマシン(GBM)、勾配ブースト回帰木(GBRT)、ランダムフォレスト)、SVM(サポートベクタマシン)、教師あり学習、教師なし学習、半教師あり学習、その他を含むことが可能であるが、これらには限定されない。 Although described in the context of neural networks, any type of machine learning may be used consistent with this disclosure. For example, machine learning algorithms include regression algorithms (e.g., ordinary least squares regression (OLSR), linear regression, logistic regression, stepwise regression, multivariate adaptive regression splines (MARS), locally estimated scatterplot smoothing (LOESS)), example-based algorithms (e.g., ridge regression, least absolute shrinkage and selection operator (LASSO), elastic net, least angle regression (LARS)), decision tree algorithms (e.g., classification and regression trees (CART), iterative dichotomizer 4 (ID3), chi-squared automated interaction detection (CHAID), decision stump, conditional decision tree), Bayesian algorithms (e.g., naive Bayes, Gaussian naive Bayes, multinomial naive Bayes, average-one dependent estimator (AODE), Bayesian belief network (BNN), Bayesian network), clustering algorithms (e.g., k-means, k-median, expectation maximization (EM), hierarchical clustering), association rule learning algorithms (e.g., perceptron, backpropagation, etc.). , Hopfield Networks, Radial Basis Function Networks (RBFN)), deep learning algorithms (e.g., Deep Boltzmann Machines (DBM), Deep Belief Networks (DBN), Convolutional Neural Networks (CNN), Stacked Autoencoders), dimensionality reduction algorithms (e.g., Principal Component Analysis (PCA), Principal Component Regression (PCR), Partial Least Squares Regression (PLSR), Sammon Mapping, Multidimensional Scaling (MDS), Projection Pursuit, Linear Discriminant Analysis (LDA), Mixed Discriminant Analysis (MDA), Quadratic Discriminant Analysis (QDA), Flexible Discriminant Analysis (FDA)), ensemble algorithms (e.g., Boosting, Bootstrap Aggregation (Bagging), AdaBoost), Stacked Generalization (Blending), Gradient Boosting Machines (GBM), Gradient Boosted Regression Trees (GBRT), Random Forests), SVM (Support Vector Machines), supervised learning, unsupervised learning, semi-supervised learning, and others, but are not limited to these.

アーキテクチャのさらなる例は、ResNet70、ResNet101、VGG、DenseNet、PointNet、およびこれらの類するものなどのニューラルネットワークを含む。 Further examples of architectures include neural networks such as ResNet70, ResNet101, VGG, DenseNet, PointNet, and the like.

少なくとも1つの例において、センサシステム406は、LiDARセンサ、レーダセンサ、超音波トランスデューサ、ソナーセンサ、位置センサ(例えば、GPS、COMPASS、その他)、慣性センサ(例えば、慣性測定ユニット(IMU)、加速度計、磁力計、ジャイロスコープ、その他)、カメラ(例えば、RGB、IR、強度、深度、飛行時間、その他)、マイクロホン、ホイールエンコーダ、環境センサ(例えば、温度センサ、湿度センサ、光センサ、圧力センサ、その他)、その他を含むことが可能である。センサシステム406は、これら、または他のタイプのセンサのそれぞれの多様な例を含むことが可能である。例えば、LiDARセンサは、車両402のコーナ、前部、後部、側部、および/または頂部に配置された個々のLiDARセンサを含むことが可能である。別の例として、カメラセンサは、車両402の外側および/または内側のまわりの様々な位置に配置された多様なカメラを含むことが可能である。別の例として、レーダシステムは、車両402のまわりの様々な位置に配置された同一の、または異なるレーダセンサの多様な例を含むことが可能である。センサシステム406は、車両コンピューティングデバイス404に入力を提供することができる。さらに、または代替として、センサシステム406は、所定の期間の経過後、ほぼリアルタイムでなど、特定の頻度で、1つまたは複数のネットワーク436を介して、コンピューティングデバイス438にセンサデータを送ることができる。ある例において、センサシステム406は、レーダセンサ104および/またはさらなるセンサ166を含む、図1のセンサシステム164に対応することが可能である。 In at least one example, the sensor system 406 can include LiDAR sensors, radar sensors, ultrasonic transducers, sonar sensors, position sensors (e.g., GPS, COMPASS, etc.), inertial sensors (e.g., inertial measurement units (IMUs), accelerometers, magnetometers, gyroscopes, etc.), cameras (e.g., RGB, IR, intensity, depth, time of flight, etc.), microphones, wheel encoders, environmental sensors (e.g., temperature sensors, humidity sensors, light sensors, pressure sensors, etc.), etc. The sensor system 406 can include various instances of each of these or other types of sensors. For example, the LiDAR sensors can include individual LiDAR sensors located at the corners, front, rear, sides, and/or top of the vehicle 402. As another example, the camera sensors can include various cameras located at various locations around the exterior and/or interior of the vehicle 402. As another example, the radar system can include various instances of the same or different radar sensors located at various locations around the vehicle 402. The sensor system 406 can provide input to the vehicle computing device 404. Additionally or alternatively, the sensor system 406 can send sensor data to the computing device 438 over one or more networks 436 at a particular frequency, such as after a predetermined period of time, in near real time, etc. In one example, the sensor system 406 can correspond to the sensor system 164 of FIG. 1, including the radar sensor 104 and/or additional sensors 166.

エミッタ408は、光および/またはサウンドを発するように構成されることが可能である。この例におけるエミッタ408は、車両402の搭乗者と通信すべく内部オーディオエミッタおよび内部視覚エミッタを含むことが可能である。例として、限定としてではなく、内部エミッタは、スピーカ、照明、標識、ディスプレイスクリーン、タッチスクリーン、触覚エミッタ(例えば、振動フィードバックおよび/または力フィードバック)、機械的アクチュエータ(例えば、シートベルトテンショナ、座席ポジショナ、ヘッドレストポジショナ、その他)、およびこれらに類するものを含むことが可能である。また、この例におけるエミッタ408は、外部エミッタを含むことも可能である。例として、限定としてではなく、この例における外部エミッタは、移動の方向を合図する照明、もしくは車両のアクションの他のインジケータ(例えば、インジケータ照明、標識、照明アレイ、その他)、ならびに歩行者、または音響ビームステアリング技術を1つまたは複数が含む近辺の他の車両と音響で通信する1つまたは複数のオーディオエミッタ(例えば、スピーカ、スピーカアレイ、ホーン、その他)を含む。 Emitters 408 can be configured to emit light and/or sound. Emitters 408 in this example can include internal audio emitters and internal visual emitters to communicate with occupants of vehicle 402. By way of example, and not by way of limitation, internal emitters can include speakers, lights, signs, display screens, touch screens, haptic emitters (e.g., vibration feedback and/or force feedback), mechanical actuators (e.g., seat belt tensioners, seat positioners, head rest positioners, etc.), and the like. Emitters 408 in this example can also include external emitters. By way of example, and not by way of limitation, external emitters in this example can include lights to signal the direction of movement or other indicators of the vehicle's actions (e.g., indicator lights, signs, light arrays, etc.), as well as one or more audio emitters (e.g., speakers, speaker arrays, horns, etc.) to acoustically communicate with pedestrians or other nearby vehicles, one or more of which include acoustic beam steering technology.

通信接続410が、車両402と他の1つまたは複数のローカルコンピューティングデバイスまたは遠隔コンピューティングデバイスの間で通信を可能にすることができる。例えば、通信接続410は、車両402上の他のローカルコンピューティングデバイス、および/または駆動モジュール414との通信を容易化することができる。また、通信接続410は、車両が、他の近辺のコンピューティングデバイス(例えば、他の近辺の車両、交通信号、その他)と通信することを可能にすることもできる。また、通信接続410は、車両402が、遠隔テレオペレーションコンピューティングデバイスまたは他の遠隔サービスと通信することも可能にする。 The communication connection 410 may enable communication between the vehicle 402 and one or more other local or remote computing devices. For example, the communication connection 410 may facilitate communication with other local computing devices on the vehicle 402 and/or the drive module 414. The communication connection 410 may also enable the vehicle to communicate with other nearby computing devices (e.g., other nearby vehicles, traffic signals, etc.). The communication connection 410 may also enable the vehicle 402 to communicate with remote teleoperation computing devices or other remote services.

通信接続410は、車両コンピューティングデバイス404を、別のコンピューティングデバイス、またはネットワーク436などのネットワークに接続するための物理インタフェースおよび/または論理インタフェースを含むことが可能である。例えば、通信接続410は、IEEE802.11標準によって定義された周波数、Bluetooth(登録商標)などの短距離無線周波数、セルラ通信(例えば、2G、3G、4G、4G LTE、5G、その他)、またはそれぞれのコンピューティングデバイスがその他のコンピューティングデバイスとインタフェースをとることを可能にする任意の適切な有線通信プロトコルもしくは無線通信プロトコルを介するなどして、Wi-Fiベースの通信を可能にすることができる。 The communication connection 410 may include physical and/or logical interfaces for connecting the vehicle computing device 404 to another computing device or network, such as the network 436. For example, the communication connection 410 may enable Wi-Fi based communications, such as via frequencies defined by the IEEE 802.11 standard, short-range wireless frequencies such as Bluetooth, cellular communications (e.g., 2G, 3G, 4G, 4G LTE, 5G, etc.), or any suitable wired or wireless communications protocol that enables each computing device to interface with other computing devices.

少なくとも1つの例において、車両402は、駆動モジュール412を含むことが可能である。ある例において、車両402は、単一の駆動モジュール412を含むことが可能である。少なくとも1つの例において、車両402は、駆動モジュール412の個々が、車両402の反対の終端部(例えば、前部と後部、その他)上に配置された、多様な駆動モジュール412を有してよい。少なくとも1つの例において、駆動モジュール412は、駆動モジュール412および/または車両402の周囲の条件を検出すべく1つまたは複数のセンサシステムを含むことが可能である。例として、限定としてではなく、駆動モジュール412に関連付けられたセンサシステムは、駆動モジュールのホイールの回転を感知する1つまたは複数のホイールエンコーダ(例えば、回転エンコーダ)、駆動モジュールの向きおよび加速度を測定する慣性センサ(例えば、慣性測定ユニット、加速度計、ジャイロスコープ、磁力計、その他)、カメラもしくは他の画像センサ、駆動モジュールの周囲におけるオブジェクトを音響的に検出する超音波センサ、LiDARセンサ、レーダセンサ、その他を含むことが可能である。そのようなホイールエンコーダのあるセンサは、駆動モジュール412に固有であることが可能である。ある事例において、駆動モジュール412上のセンサシステムは、車両402の対応するシステム(例えば、センサシステム406)を重なり合うこと、またはそのシステムを補完することが可能である。 In at least one example, the vehicle 402 can include a drive module 412. In one example, the vehicle 402 can include a single drive module 412. In at least one example, the vehicle 402 can have multiple drive modules 412, each of which is located on opposite ends of the vehicle 402 (e.g., front and rear, etc.). In at least one example, the drive module 412 can include one or more sensor systems to detect conditions around the drive module 412 and/or the vehicle 402. By way of example, and not by way of limitation, the sensor systems associated with the drive module 412 can include one or more wheel encoders (e.g., rotational encoders) that sense the rotation of the wheels of the drive module, inertial sensors (e.g., inertial measurement units, accelerometers, gyroscopes, magnetometers, etc.) that measure the orientation and acceleration of the drive module, cameras or other imaging sensors, ultrasonic sensors that acoustically detect objects in the vicinity of the drive module, LiDAR sensors, radar sensors, etc. Some sensors of such wheel encoders may be specific to the drive module 412. In some cases, a sensor system on the drive module 412 may overlap or complement a corresponding system (e.g., sensor system 406) of the vehicle 402.

駆動モジュール412は、高電圧バッテリ、車両を推進するモータ、バッテリからの直流を、他の車両システムによって使用されるように交流に変換するインバータ、ステアリングモータと、ステアリングラック(電動であり得る)とを含むステアリングシステム、油圧アクチュエータもしくは電動アクチュエータを含む制動システム、油圧構成要素および/または空気圧構成要素を含むサスペンションシステム、摩擦が失われることを緩和して、制御を維持すべく制動力を分散させるための安定性制御システム、HVACシステム、照明(例えば、車両の外側周囲を照射するヘッドライト/テールライトなどの照明)、ならびに他の1つまたは複数のシステム(例えば、冷却システム、安全システム、搭載充電システム、DC/DCコンバータなどの他の電気構成要素、高電圧ジャンクション、高電圧ケーブル、充電システム、充電ポート、その他)を含め、車両システムの多くを含むことが可能である。さらに、駆動モジュール412は、センサシステムからのデータを受信して、前処理することができ、様々な車両システムの動作を制御する駆動モジュールコントローラを含むことが可能である。ある例において、駆動モジュールコントローラは、1つまたは複数のプロセッサと、その1つまたは複数のプロセッサと通信可能に結合されたメモリとを含むことが可能である。メモリは、駆動モジュール412の様々な機能を実行する1つまたは複数のモジュールを記憶することができる。さらに、駆動モジュール412は、それぞれの駆動モジュールによる、他の1つまたは複数のローカルコンピューティングデバイスまたは遠隔コンピューティングデバイスとの通信を可能にする1つまたは複数の通信接続を含んでもよい。 The drive module 412 may include many of the vehicle systems, including a high voltage battery, a motor to propel the vehicle, an inverter to convert direct current from the battery to alternating current for use by other vehicle systems, a steering system including a steering motor and a steering rack (which may be electric), a braking system including hydraulic or electric actuators, a suspension system including hydraulic and/or pneumatic components, a stability control system to distribute braking forces to mitigate loss of friction and maintain control, an HVAC system, lighting (e.g., lighting such as headlights/taillights that illuminate the exterior surroundings of the vehicle), and one or more other systems (e.g., cooling systems, safety systems, on-board charging systems, other electrical components such as DC/DC converters, high voltage junctions, high voltage cables, charging systems, charging ports, etc.). Additionally, the drive module 412 may include a drive module controller that may receive and preprocess data from the sensor systems and control the operation of the various vehicle systems. In one example, the drive module controller may include one or more processors and a memory communicatively coupled to the one or more processors. The memory may store one or more modules that perform various functions of the drive module 412. Additionally, the drive modules 412 may include one or more communication connections that enable each drive module to communicate with one or more other local or remote computing devices.

少なくとも1つの例において、直接接続414は、駆動モジュール412を車両402の本体に結合する物理インタフェースを提供することができる。例えば、方向接続414は、駆動モジュール412と車両の間でエネルギー、液体、空気、データ、その他の転送を可能にすることができる。ある例において、直接接続414は、駆動モジュール412を車両402の本体に解放可能に固定することがさらにできる。 In at least one example, the direct connection 414 can provide a physical interface that couples the drive module 412 to the body of the vehicle 402. For example, the directional connection 414 can enable the transfer of energy, fluids, air, data, etc. between the drive module 412 and the vehicle. In one example, the direct connection 414 can further releasably secure the drive module 412 to the body of the vehicle 402.

少なくとも1つの例において、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、システムコントローラ430、マップ432、および/またはトラッカ434が、前段で説明されるとおり、センサデータを処理することができ、1つまたは複数のネットワーク436を介して、1つまたは複数のコンピューティングデバイス438にそれぞれの出力を送ることができる。少なくとも1つの例において、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、システムコントローラ430、マップ432、および/またはトラッカ434は、所定の期間の経過後、ほぼリアルタイムでなど、特定の頻度で、1つまたは複数のコンピューティングデバイス438にそれぞれの出力を送ることができる。 In at least one example, the localization component 420, the perception component 422, the prediction component 424, the planning component 426, the reflex recognition component 428, the system controller 430, the map 432, and/or the tracker 434 can process the sensor data as described above and send their respective outputs to one or more computing devices 438 via one or more networks 436. In at least one example, the localization component 420, the perception component 422, the prediction component 424, the planning component 426, the reflex recognition component 428, the system controller 430, the map 432, and/or the tracker 434 can send their respective outputs to one or more computing devices 438 at a particular frequency, such as after a predetermined period of time, in near real time, or the like.

ある例において、車両402は、例えば、ネットワーク436を介して、コンピューティングデバイス438にセンサデータを送ることができる。ある例において、車両402は、コンピューティングデバイス438に生のセンサデータを送ることができる。他の例において、車両402は、処理されたセンサデータ、および/またはセンサデータの表現(例えば、空間グリッドデータ)をコンピューティングデバイス438に送ることができる。ある例において、車両402は、所定の期間の経過後、ほぼリアルタイムでなど、特定の頻度で、コンピューティングデバイス48にセンサデータを送ることができる。ある事例において、車両402は、1つまたは複数のログファイルとしてコンピューティングデバイス438にセンサデータ(生のまたは処理された)を送ることができる。 In some examples, the vehicle 402 can send sensor data to the computing device 438, for example, via the network 436. In some examples, the vehicle 402 can send raw sensor data to the computing device 438. In other examples, the vehicle 402 can send processed sensor data and/or a representation of the sensor data (e.g., spatial grid data) to the computing device 438. In some examples, the vehicle 402 can send sensor data to the computing device 438 at a particular frequency, such as after a predetermined period of time, in near real-time, etc. In some instances, the vehicle 402 can send sensor data (raw or processed) to the computing device 438 as one or more log files.

コンピューティングデバイス438は、プロセッサ440と、1つまたは複数のマップ444および/または反射認識の構成要素446を記憶するメモリ442とを含むことが可能である。 The computing device 438 may include a processor 440 and a memory 442 that stores one or more maps 444 and/or reflex recognition components 446.

ある例において、マップ444は、マップ432と同様であることが可能である。反射認識の構成要素448は、車両コンピューティングデバイス404における機能を実行することに加えて、またはその代わりに、反射認識の構成要素428に関して説明された機能と実質的に同一の機能を実行してよい。 In one example, map 444 can be similar to map 432. Reflex recognition component 448 may perform substantially the same functions as those described with respect to reflex recognition component 428, in addition to or instead of performing functions in vehicle computing device 404.

車両402のプロセッサ416、およびコンピューティングデバイス438のプロセッサ440は、データを処理し、本明細書において説明される動作を実行すべく命令を実行することができる任意の適切なプロセッサであることが可能である。例として、限定としてではなく、プロセッサ416および440は、電子データを処理して、レジスタおよび/またはメモリに記憶され得る他の電子データにその電子データを変換する、1つまたは複数の中央処理装置(CPU)、グラフィクスプロセシングユニット(GPU)、または他の任意のデバイス、もしくはデバイスの他の任意の部分を備えることが可能である。ある例において、集積回路(例えば、ASIC、その他)ゲートアレイ(例えば、FPGA、その他)、および他のハードウェアデバイスが、それらがエンコードされた命令を実装するように構成される限り、プロセッサと考えられることも可能である。 The processor 416 of the vehicle 402 and the processor 440 of the computing device 438 can be any suitable processor capable of processing data and executing instructions to perform the operations described herein. By way of example, and not by way of limitation, the processors 416 and 440 can comprise one or more central processing units (CPUs), graphics processing units (GPUs), or any other device or portion of a device that processes electronic data and converts it to other electronic data that may be stored in registers and/or memory. In some examples, integrated circuits (e.g., ASICs, etc.), gate arrays (e.g., FPGAs, etc.), and other hardware devices can also be considered processors so long as they are configured to implement the encoded instructions.

メモリ418および442は、非一過性のコンピュータ可読媒体の例である。メモリ418および442は、オペレーティングシステム、ならびに本明細書において説明される方法、および様々なシステムに割り当てられた機能を実装する1つまたは複数のソフトウェアアプリケーション、命令、プログラム、および/またはデータを記憶することができる。様々な実装形態において、メモリは、スタティックランダムアクセスメモリ(SRAM)、シンクロナスダイナミックRAM(SDRAM)、不揮発性/フラッシュタイプのメモリ、または情報を記憶することができる他の任意のタイプのメモリなどの任意の適切なメモリ技術を使用して実装されることが可能である。本明細書において説明されるアーキテクチャ、システム、および個々の要素は、添付の図に示される構成要素が、本明細書の説明に関係付けられる例に過ぎない、他の多くの論理構成要素、プログラマティック構成要素、および物理構成要素を含むことが可能である。 Memories 418 and 442 are examples of non-transitory computer-readable media. Memories 418 and 442 may store an operating system, as well as one or more software applications, instructions, programs, and/or data that implement the methods described herein and the functions assigned to the various systems. In various implementations, the memory may be implemented using any suitable memory technology, such as static random access memory (SRAM), synchronous dynamic RAM (SDRAM), non-volatile/flash type memory, or any other type of memory capable of storing information. The architecture, systems, and individual elements described herein may include many other logical, programmatic, and physical components, of which the components shown in the accompanying figures are merely examples relevant to the description herein.

図4は、分散されたシステムとして例示される一方で、代替の例において、車両402の構成要素は、コンピューティングデバイス438に関連付けられることが可能であり、かつ/またはコンピューティングデバイス438の構成要素は、車両402に関連付けられることが可能であることに留意されたい。すなわち、車両402は、コンピューティングデバイス438に関連付けられた機能のうちの1つまたは複数を実行することができ、コンピューティングデバイス438は、車両402に関連付けられた機能のうちの1つまたは複数を実行することができる。さらに、反射認識の構成要素428、446、および/またはトラッカ434の態様は、本明細書において説明されるデバイスのうちの任意のデバイス上で実行されることも可能である。 Note that while FIG. 4 is illustrated as a distributed system, in alternative examples, components of the vehicle 402 can be associated with the computing device 438 and/or components of the computing device 438 can be associated with the vehicle 402. That is, the vehicle 402 can perform one or more of the functions associated with the computing device 438, and the computing device 438 can perform one or more of the functions associated with the vehicle 402. Furthermore, aspects of the reflex recognition components 428, 446, and/or the tracker 434 can also be executed on any of the devices described herein.

図5は、本開示の実施形態による、レーダ反射波が反射された反射波であるかどうかを決定するための例示的なプロセス500のフロー図である。レーダデータの脈絡において説明されるものの、例示的なプロセス500は、LiDARデータ、ソナーデータ、飛行時間画像データ、および/または他のタイプのデータの脈絡で、かつ/またはこれらのデータとの組み合わせで使用されてよい。 FIG. 5 is a flow diagram of an example process 500 for determining whether a radar return is a reflected return, according to an embodiment of the present disclosure. Although described in the context of radar data, the example process 500 may be used in the context of and/or in combination with LiDAR data, sonar data, time-of-flight image data, and/or other types of data.

動作502において、プロセス500が、環境に関するレーダデータを受信することを含むことが可能である。例えば、レーダデータは、位置情報、速度情報、および/または強度情報を含むレーダ反射波を含んでよい。ある例において、レーダシステムは、1つまたは複数のレーダセンサを含んでよく、前述される車両102などの自律車両のセンサシステムであってよい。レーダデータは、位置と、0の速度とを有するオブジェクトに対応する静的反射波、および位置と、0ではない速度とを有する動くオブジェクトに対応する動的反射波もしくはレーダトラックを含む、多様な反射波を含んでよい。 At operation 502, process 500 may include receiving radar data about the environment. For example, the radar data may include radar returns including position information, speed information, and/or intensity information. In one example, the radar system may include one or more radar sensors and may be a sensor system of an autonomous vehicle, such as vehicle 102 described above. The radar data may include a variety of returns, including static returns corresponding to objects having a position and zero speed, and dynamic returns or radar tracks corresponding to moving objects having a position and non-zero speed.

動作504において、プロセス500が、レーダデータにおける第1のレーダ反射波に基づいて、第1の半径方向に沿った第1の位置における第1の速度を決定することを含むことが可能である。第1のレーダ反射波は、オブジェクトと車両の間の第1の方向に沿った、例えば、車両(上のレーダセンサ)からオブジェクトを通って延びる半径方向に沿った方向を有する速度を含んでよい。ある例において、第1のレーダ反射波は、例えば、環境における知られているオブジェクトに対応する、オブジェクト反射波であってよい。ある例において、第1のレーダ反射波は、レーダデータを受信することに先立って生成された追跡情報に基づいて、オブジェクト反射波に対応すると決定されてよい。しかし、他の例において、本明細書において説明される技法は、まったく反射波の演繹的の知識なしに働くことが可能である。別の言い方をすると、第1の反射波(および、後段で説明される第2の反射波を含む、さらなる反射波)は、環境におけるオブジェクトに関連付けられていなくてよく、そのような関連付けは、ある例において不必要であることがある。第1のレーダ反射波の位置は、第1のレーダ方向に沿った距離であってよい。 At operation 504, the process 500 may include determining a first velocity at a first location along a first radial direction based on a first radar return in the radar data. The first radar return may include a velocity having a direction along a first direction between the object and the vehicle, e.g., along a radial direction extending from the vehicle (radar sensor on the vehicle) through the object. In one example, the first radar return may be an object return, e.g., corresponding to a known object in the environment. In one example, the first radar return may be determined to correspond to an object return based on tracking information generated prior to receiving the radar data. However, in other examples, the techniques described herein may work without a priori knowledge of the return at all. In other words, the first return (and further returns, including a second return described below) may not be associated with an object in the environment, and such association may be unnecessary in some examples. The position of the first radar return may be a distance along the first radar direction.

動作506において、プロセス500が、レーダデータにおける第2のレーダ反射波に基づいて、第2の半径方向に沿った第2の位置における第2の速度を決定することを含むことが可能である。例えば、第1のレーダ反射波と同様に、第2のレーダ反射波(および他のレーダ反射波)は、環境における知られているオブジェクトに関連付けられていなくてよい。第2のレーダ反射波は、環境における別のオブジェクト、例えば、新たに検出可能なオブジェクトから、および/または環境における何らかの介在するオブジェクトからの反射からの反射波であってよい。後者の事例において、第2のレーダ反射波は、第2の半径方向に沿った位置で幻影の「オブジェクト」を識別してよい。 At operation 506, process 500 may include determining a second velocity at a second location along the second radial direction based on a second radar return in the radar data. For example, like the first radar return, the second radar return (and other radar returns) may not be associated with a known object in the environment. The second radar return may be a return from another object in the environment, e.g., a newly detectable object, and/or a return from some intervening object in the environment. In the latter case, the second radar return may identify a phantom "object" at a location along the second radial direction.

動作508において、プロセス500が、投影された速度を、第2の半径方向上の第1の速度の投影として決定することが可能である。例えば、動作508は、反射波の対における反射波のうちの一方、例えば、第1の反射波を、対における反射波の他方に関連付けられた方向、例えば、第2の反射波に関連付けられた単位ベクトル上に投影することができる。理解されるとおり、反射された反射波は、オブジェクト(例えば、直接の)反射波と比べて、より近いことはあり得ないので、動作508は、第1の反射波および第2の反射波のより近い方に関連付けられた速度を、それらの反射波のより遠く離れた方に関連付けられた方向上に投影してよい。例えば、図2の例を参照して、第1の反射波は、オブジェクト反射波122であってよく、第2の反射波は、第1の反射された反射波138であってよい。動作508によって決定される投影された速度は、オブジェクト反射波122と第1の反射された反射波138を接続する線208を二分し、かつ線208に垂直である線210上に反射されたオブジェクト反射波速度160の半径方向成分であってよい。したがって、投影された速度は、最初にオブジェクトからの、続いて第2の方向に沿って配置された介在するオブジェクトからの無線エネルギーの反射からもたらされる速度であってよい。 In operation 508, the process 500 can determine a projected velocity as a projection of the first velocity on the second radial direction. For example, operation 508 can project one of the reflected waves in the pair of reflected waves, e.g., the first reflected wave, onto a unit vector associated with the other reflected wave in the pair, e.g., the second reflected wave. As can be appreciated, the reflected reflected wave cannot be closer than the object (e.g., direct) reflected wave, so operation 508 can project the velocity associated with the closer of the first and second reflected waves onto a direction associated with the farther of the reflected waves. For example, with reference to the example of FIG. 2, the first reflected wave can be the object reflected wave 122 and the second reflected wave can be the first reflected reflected wave 138. The projected velocity determined by operation 508 may be the radial component of the object reflected wave velocity 160 reflected on a line 210 that bisects and is perpendicular to the line 208 connecting the object reflected wave 122 and the first reflected reflected wave 138. Thus, the projected velocity may be the velocity resulting from reflection of wireless energy first from the object and then from an intervening object located along a second direction.

動作510において、プロセス500が、投影された速度が第2の速度に対応するかどうかを決定することができる。例えば、動作510において、投影された速度の半径方向成分、例えば、第2の半径方向に沿った成分の大きさが、第2の速度の大きさ(レーダセンサによって第2の半径方向に沿って測定される)と比較されてよい。例えば、比較は、半径方向成分の大きさが、第2の速度の大きさと実質的に等しいかどうかを決定してよい。本明細書において使用される、実質的に等しいという用語、および類似した用語は、2つの値が等しいこと、または互いの何らかのしきい値格差内であることを表してよい。例えば、格差は、絶対値(例えば、毎秒0.1メートル、毎秒0.5メートル、毎秒2メートル、またはこれらに類するもの)、パーセンテージ(例えば、0.5%、1%、10%)、または他の何らかの測定値であってよい。ある例において、格差は、レーダセンサの忠実度、オブジェクトの距離、反射波に関連付けられた距離、オブジェクトの速度、反射波に関連付けられた速度、ならびに/またはその他の特徴および/または要因に基づいてよい。 At operation 510, the process 500 may determine whether the projected velocity corresponds to a second velocity. For example, at operation 510, a radial component of the projected velocity, e.g., a magnitude of the component along the second radial direction, may be compared to a magnitude of the second velocity (measured along the second radial direction by the radar sensor). For example, the comparison may determine whether the magnitude of the radial component is substantially equal to the magnitude of the second velocity. As used herein, the term substantially equal, and similar terms, may refer to two values being equal or within some threshold disparity of each other. For example, the disparity may be an absolute value (e.g., 0.1 meters per second, 0.5 meters per second, 2 meters per second, or the like), a percentage (e.g., 0.5%, 1%, 10%), or some other measurement. In some examples, the disparity may be based on the fidelity of the radar sensor, the distance of the object, the distance associated with the return, the velocity of the object, the velocity associated with the return, and/or other features and/or factors.

動作510において、投影される速度が第2の速度に対応すると決定された場合、動作512において、プロセス500が、第2のレーダ反射波を、反射されたレーダ反射波として(またはそうである尤度が高いものとして)識別することができる。例えば、反射波が、第1の反射波の(理論上の)反射に緊密に対応するため、車両コンピューティングデバイスが、反射波は反射された反射波である(そうである尤度が高い)と決定してよい。 If, at operation 510, it is determined that the projected velocity corresponds to a second velocity, then, at operation 512, process 500 may identify the second radar return as (or as likely to be) a reflected radar return. For example, the vehicle computing device may determine that the return is (or is likely to be) a reflected return because the return closely corresponds to a (theoretical) reflection of the first return.

動作514において、プロセス500が、オプションとして、さらなるセンサデータを受信してよく、動作516において、プロセス500が、オプションとして、さらなるセンサデータに基づいて、介在するオブジェクトの存在を確認してよい。例えば、動作514、516は、反射を生じさせる介在するオブジェクト(反射された無線エネルギーを有する)の存在を確認することによって、第2のレーダ反射波が反射された反射波であることを確認してよい。本明細書において説明されるとおり、さらなるセンサデータは、車両上に配置された、またはそれ以外で車両に関連付けられた1つまたは複数のセンサモダリティからの任意のタイプのセンサデータであってよい。ある例において、介在するオブジェクトの存在は、(例えば、介在するオブジェクトが、設備、地形的特徴、またはこれらに類するものであるとき)マップデータから確認されてもよい。他の実装形態において、動作514において受信されるさらなるセンサデータは、後に続くレーダデータを含むが、これには限定されない、後に続いて受信されるデータであり得る。非限定的な例として、後に続いて受信されるデータは、時とともに第2の反射波を追跡すべく使用されることが可能である。本明細書において述べられるとおり、反射された反射波は、一過性であることがあり、以前のさらなるセンサデータ、および/または後に続くさらなるセンサデータを用いて第2の反射波を追跡しようとする試みは、無駄であることがある。 At operation 514, process 500 may optionally receive further sensor data, and at operation 516, process 500 may optionally confirm the presence of an intervening object based on the further sensor data. For example, operations 514, 516 may confirm that the second radar return is a reflected return by confirming the presence of an intervening object (having reflected radio energy) that causes the reflection. As described herein, the further sensor data may be any type of sensor data from one or more sensor modalities disposed on or otherwise associated with the vehicle. In one example, the presence of the intervening object may be confirmed from map data (e.g., when the intervening object is a facility, a topographical feature, or the like). In other implementations, the further sensor data received at operation 514 may be subsequently received data, including, but not limited to, subsequent radar data. As a non-limiting example, the subsequently received data may be used to track the second return over time. As described herein, the reflected echo may be transient, and attempts to track a second echo using prior and/or subsequent additional sensor data may be futile.

動作518において、プロセス500が、レーダ反射波を除外して車両を制御してよい。例えば、レーダ反射波が、反射された反射波であり、環境における実際のオブジェクトを表すものではないと決定されているため、車両の制御は、レーダ反射波に依存しなくてよい。本明細書において説明されるとおり、従来のプランニングシステムは、レーダ反射波によって表される幻影の「オブジェクト」に対して反応するように(例えば、制動すること、ステアリングすること、またはこれらに類することによって)車両を制御してきたことがある。しかし、反射された反射波を識別すること、および除外することによって、本明細書において説明される技法は、向上させられた制御を提供すること、例えば、環境における実際のオブジェクトだけに応答することが可能である。 At operation 518, process 500 may control the vehicle with the radar clutter removed. For example, control of the vehicle may not rely on the radar clutter because it has been determined that the radar clutter is a reflected clutter and does not represent an actual object in the environment. As described herein, conventional planning systems have controlled the vehicle to react (e.g., by braking, steering, or the like) to phantom "objects" represented by the radar clutter. However, by identifying and removing the reflected clutter, the techniques described herein can provide improved control, e.g., respond only to actual objects in the environment.

対照的に、動作512において、投影された速度が第2の速度に対応しないと決定された場合、動作520において、プロセス500が、レーダ反射波を、環境における潜在的なさらなるオブジェクトとして識別することができる。例えば、第2の速度の大きさが、投影された速度の半径方向成分に対応しないとき、第2のレーダ反射波は、反射された反射波ではない尤度が高い。代わりに、第2の反射波は、環境における実際のオブジェクトに対応してよい。例えば、第2の反射波は、新たに検出されたオブジェクト、例えば、図2の例における建造物から現れる歩行者からであってよい。 In contrast, if in operation 512 it is determined that the projected velocity does not correspond to the second velocity, then in operation 520 process 500 may identify the radar return as a potential additional object in the environment. For example, when the magnitude of the second velocity does not correspond to the radial component of the projected velocity, the second radar return is likely not a reflected return. Instead, the second return may correspond to an actual object in the environment. For example, the second return may be from a newly detected object, such as a pedestrian emerging from a building in the example of FIG. 2.

動作522において、プロセス500が、オプションとして、さらなるオブジェクトの存在を確認してよい。例えば、動作522は、さらなるセンサ情報を受信すること、および、そのさらなるセンサ情報に少なくとも部分的に基づいて、第2のレーダ反射波に関連付けられた位置でオブジェクトの存在を決定することを含んでよい。さらなるセンサ情報は、LiDARデータ、画像データ、さらなるレーダデータ、飛行時間データ、またはこれらに類するもののうちの1つまたは複数を含んでよい。ある例において、動作522は、動作516と実質的に同一であり得るが、何らかの介在する点における代わりに、第2の位置においてオブジェクトの存在を確認する。 At operation 522, process 500 may optionally confirm the presence of an additional object. For example, operation 522 may include receiving additional sensor information and determining the presence of an object at a location associated with the second radar return based at least in part on the additional sensor information. The additional sensor information may include one or more of LiDAR data, image data, additional radar data, time-of-flight data, or the like. In one example, operation 522 may be substantially identical to operation 516, but confirms the presence of an object at the second location instead at some intervening point.

動作524において、プロセス500が、第2のレーダ反射波に少なくとも部分的に基づいて、車両を制御することを含むことが可能である。例えば、第2のレーダ反射波は、実際の動的オブジェクトに関連付けられることがあるため、本明細書において説明される技法は、そのオブジェクトとの関係で車両を制御してよい。ある例において、車両の軌道が、第2のレーダ反射波に少なくとも部分的に基づいて決定されることが可能である。非限定的な例として、予測システムが、予測構成要素324と同様に、さらなるオブジェクトの予測される軌道を決定することができ、プランニングシステム、例えば、プランニング構成要素326が、さらなるオブジェクトの予測される軌道との関係で車両に関する軌道を生成することができる。ある実装形態において、動作524は、さらに、または代替として、例えば、さらなるオブジェクトからの後に続く反射波がオブジェクト反射波として扱われ得るように、さらなるオブジェクトを追跡することを含むことも可能である。そのようなオブジェクト反射波は、さらなるオブジェクトによって生じさせられる反射された反射波を決定すべく使用されてよい。 At operation 524, the process 500 may include controlling the vehicle based at least in part on the second radar return. For example, the second radar return may be associated with an actual dynamic object, so that the techniques described herein may control the vehicle in relation to the object. In an example, a trajectory of the vehicle may be determined based at least in part on the second radar return. As a non-limiting example, a prediction system may determine a predicted trajectory of the further object, similar to the prediction component 324, and a planning system, such as the planning component 326, may generate a trajectory for the vehicle in relation to the predicted trajectory of the further object. In an implementation, operation 524 may also or alternatively include tracking the further object, such that, for example, subsequent returns from the further object may be treated as object returns. Such object returns may be used to determine reflected returns caused by the further object.

図6は、本開示の実施形態による、レーダ反射波が反射された反射波であるかどうかを決定するための別の例示的なプロセス600のフロー図である。プロセス600は、前段で説明されるプロセス500の代わりに、またはそれに加えて使用されてよい。プロセス600は、図3に示される環境に限定されないものの、プロセス600の態様は、図3を参照して前段で説明される技法に対応してよい。さらに、レーダデータの脈絡において説明されるものの、例示的なプロセス600は、LiDARデータ、ソナーデータ、飛行時間画像データ、および/または他のタイプのデータの脈絡で、かつ/またはこれらのデータとの組み合わせで使用されてよい。 FIG. 6 is a flow diagram of another example process 600 for determining whether a radar return is a reflected return, according to an embodiment of the present disclosure. Process 600 may be used in place of or in addition to process 500 described above. Process 600 is not limited to the environment shown in FIG. 3, although aspects of process 600 may correspond to the techniques described above with reference to FIG. 3. Additionally, although described in the context of radar data, example process 600 may be used in the context of and/or in combination with LiDAR data, sonar data, time-of-flight image data, and/or other types of data.

動作602において、プロセス600は、環境に関するレーダデータを受信することを含むことが可能である。例えば、レーダデータは、位置情報、速度情報、および/または強度情報を含むレーダ反射波を含んでよい。ある例において、レーダシステムは、1つまたは複数のレーダセンサを含んでよく、前段で説明される車両102、402などの自律車両のセンサシステムであってよい。レーダデータは、位置と、0の速度とを有するオブジェクトに対応する静的反射波、および位置と、0ではない速度とを有する動くオブジェクトに対応する動的反射波もしくはレーダトラックを含む、多様な反射波を含んでよい。 At operation 602, the process 600 may include receiving radar data about the environment. For example, the radar data may include radar returns including position, speed, and/or intensity information. In one example, the radar system may include one or more radar sensors and may be a sensor system of an autonomous vehicle, such as the vehicles 102, 402 described above. The radar data may include a variety of returns, including static returns corresponding to objects having a position and zero speed, and dynamic returns or radar tracks corresponding to moving objects having a position and non-zero speed.

動作604において、プロセス600は、レーダデータの第1の反射波の第1の位置を識別することを含むことが可能である。第1のレーダ反射波は、反射波の深度もしくは範囲、位置、例えば、センサとの関係における反射波の角位置、および/または速度を識別してよい。ある例において、第1のレーダ反射波は、例えば、環境における知られているオブジェクトに対応する、オブジェクト反射波であってよい。ある例において、第1のレーダ反射波は、レーダデータを受信することに先立って生成された追跡情報に基づいて、オブジェクト反射波に対応すると決定されてよい。しかし、他の例において、本明細書において説明される技法は、まったく反射波の演繹的の知識なしに働くことが可能である。別の言い方をすると、第1の反射波(および、後段で説明される第2の反射波を含む、さらなる反射波)は、環境におけるオブジェクトに関連付けられていなくてよく、そのような関連付けは、ある例において不必要であることがある。第1のレーダ反射波の位置は、第1の半径方向に沿った位置、座標系におけるx-y座標、または他の何らかの位置情報であってよい。 At operation 604, process 600 may include identifying a first location of a first return of the radar data. The first radar return may identify the depth or range of the return, the location, e.g., the angular location of the return relative to the sensor, and/or the velocity. In some examples, the first radar return may be an object return, e.g., corresponding to a known object in the environment. In some examples, the first radar return may be determined to correspond to an object return based on tracking information generated prior to receiving the radar data. However, in other examples, the techniques described herein may work without any a priori knowledge of the return. In other words, the first return (and further returns, including a second return described below) may not be associated with an object in the environment, and such association may be unnecessary in some examples. The location of the first radar return may be a location along a first radial direction, an x-y coordinate in a coordinate system, or some other location information.

動作606において、プロセス600は、レーダデータの第2の反射波の第2の位置を識別することを含むことが可能である。第2のレーダ反射波は、反射波の深度もしくは範囲、位置、例えば、センサとの関係における反射波の角位置、および/または速度を識別してよい。他の実装形態において、第2のレーダ反射波の位置は、座標系におけるx-y座標、または他の何らかの位置情報であってよい。第2のレーダ反射波は、環境における別のオブジェクト、例えば、新たに検出可能なオブジェクトからの、および/または環境における何らかの介在するオブジェクトからの反射からの反射波であってよい。後者の事例において、レーダ反射波は、半径方向に沿った位置で幻影の「オブジェクト」を識別してよい。本明細書において説明される技法は、反射波が反射された反射波であるかどうかを決定すべく使用されてよい。 At operation 606, process 600 may include identifying a second location of a second return of the radar data. The second radar return may identify the depth or range of the return, the location, e.g., the angular location of the return relative to the sensor, and/or the velocity. In other implementations, the location of the second radar return may be an x-y coordinate in a coordinate system, or some other location information. The second radar return may be a return from another object in the environment, e.g., a newly detectable object, and/or a return from some intervening object in the environment. In the latter case, the radar return may identify a phantom "object" at a location along a radial direction. Techniques described herein may be used to determine if the return is a reflected return.

動作608において、プロセス600が、第1の位置、および第2の位置に基づいて、反射点の位置を決定することができる。例えば、本明細書において説明される技法は、反射点を、無線エネルギーが、センサが第2の反射波を生成するように反射した第1の反射波に関連付けられたオブジェクトから反射した、第2の半径方向に沿った、空間における点として決定することができる。ある例において、動作610は、第1の反射波および第2の反射波の位置に関連付けられた幾何を使用して反射点を決定することができる。図3は、反射点が、センサと第2の反射波の間に延びる第1の線と、第1の反射波と第2の反射波の間に延びる線に垂直であり、かつこの線を二分する第2の線の交差点として決定されることが可能である。さらに、または代替として、反射点からその2つの点までの線分が等しいという想定が、その線に沿ってどこに反射点があるかを決定すべく使用されることが可能である。理解されるとおり、点の任意の所与の対に関して、反射点は、必然的に、センサとセンサから半径方向でより遠く離れた反射波の間の線上にあり、それ故、図6の例において、第2の反射波は、第1の反射波と比べて、より遠く離れている。 In operation 608, the process 600 can determine a location of the reflection point based on the first location and the second location. For example, the techniques described herein can determine the reflection point as a point in space along the second radial direction where the wireless energy reflected from the object associated with the first reflected wave that was reflected by the sensor to generate the second reflected wave. In one example, operation 610 can determine the reflection point using geometry associated with the location of the first reflected wave and the second reflected wave. FIG. 3 shows that the reflection point can be determined as the intersection of a first line extending between the sensor and the second reflected wave and a second line that is perpendicular to and bisects the line extending between the first reflected wave and the second reflected wave. Additionally or alternatively, an assumption that the line segments from the reflection point to the two points are equal can be used to determine where along the line the reflection point is. As can be seen, for any given pair of points, the reflection point will necessarily be on a line between the sensor and the reflected wave that is radially farther away from the sensor, and thus in the example of FIG. 6, the second reflected wave is farther away than the first reflected wave.

動作610において、プロセス600が、環境におけるオブジェクトについてのデータを受信することができる。例えば、動作610は、環境についてのさらなるセンサデータを受信することを含んでよい。そのようなさらなるセンサデータは、車両上に配置された、またはそれ以外で車両に関連付けられた1つまたは複数のセンサモダリティからの任意のタイプのセンサデータであってよい。ある例において、動作610は、環境のマップデータを受信することを含むことが可能である。本明細書において説明される例において、オブジェクトについてのデータは、環境内における静的であるか、動的であるかにかかわらず、オブジェクトについての情報を提供することが可能である任意のソースからであってよい。 At operation 610, process 600 may receive data about objects in the environment. For example, operation 610 may include receiving additional sensor data about the environment. Such additional sensor data may be any type of sensor data from one or more sensor modalities disposed on or otherwise associated with the vehicle. In an example, operation 610 may include receiving map data of the environment. In the examples described herein, the data about the objects may be from any source capable of providing information about the objects, whether static or dynamic, in the environment.

動作612において、プロセス600が、オブジェクトが反射点の位置にあるかどうかを決定する。前段で説明されるとおり、反射波の幾何が、理論上の反射点、すなわち、最初に第1の反射波に関連付けられたオブジェクトから反射された無線エネルギーが、第2の反射波の位置で反射波を与えるべく、後に続いて反射する点を決定することを可能にする。そのような反射は、環境におけるオブジェクトからの(直接の)反射と対比される、ゴーストの、または幻影の反射である。それ故、そのような理論上の点が、反射波の任意の対に関して決定され得る一方で、610で受信されたオブジェクトについてのデータが、その理論上の反射点に実際にオブジェクトが存在するかどうかを決定すべく使用されることが可能である。 In operation 612, the process 600 determines whether an object is at the location of the reflection point. As explained above, the geometry of the reflected waves allows for the determination of a theoretical reflection point, i.e., a point where the radio energy initially reflected from the object associated with the first reflected wave subsequently reflects to give a reflected wave at the location of the second reflected wave. Such reflections are ghost or phantom reflections in contrast to (direct) reflections from objects in the environment. Thus, while such theoretical points can be determined for any pair of reflected waves, the data about the object received in 610 can be used to determine whether an object is actually present at the theoretical reflection point.

動作612において、反射点にオブジェクトが存在すると決定された場合、動作614において、プロセス600が、第2のレーダ反射波を、反射されたレーダ反射波として識別することができる。例えば、第2の反射波の位置が、反射点における第1の反射波の(理論上の)反射の位置に緊密に対応し、かつその理論上の反射点にオブジェクトが存在するため、車両コンピューティングデバイスが、反射波は反射された反射波であると決定してよい。例えば、車両コンピューティングデバイスは、第2の反射波に、潜在的な反射された反射波としてフラグ設定すること、および/または車両の他の構成要素に情報を送ることができる。 If, in operation 612, it is determined that an object is present at the reflection point, then, in operation 614, the process 600 may identify the second radar return as a reflected radar return. For example, because the location of the second return closely corresponds to the location of the (theoretical) reflection of the first return at the reflection point, and an object is present at the theoretical reflection point, the vehicle computing device may determine that the return is a reflected return. For example, the vehicle computing device may flag the second return as a potential reflected return and/or send information to other components of the vehicle.

動作616において、プロセス600が、第2のレーダ反射波を除外して車両を制御してよく、またはそれ以外でそれを考慮に入れてよい。例えば、第2のレーダ反射波は、反射された反射波であり、環境における実際のオブジェクトを表すものではないと決定されているため、車両の制御は、第2のレーダ反射波に依存しなくてよい。本明細書において説明されるとおり、従来のプランニングシステムは、第2のレーダ反射波によって表される幻影の「オブジェクト」に対して反応するように(例えば、制動すること、ステアリングすること、またはこれらに類することによって)車両を制御してきたことがある。しかし、反射された反射波を識別すること、および除外することによって、本明細書において説明される技法は、向上させられた制御を提供すること、例えば、環境における実際のオブジェクトだけに応答することが可能である。ある実装形態において、本明細書において説明される技法は、第2の反射波を、それが反射点であることを確認すべく追跡することもできる。前段で述べられるとおり、環境の幾何が、反射された反射波を可能にする条件を生じさせるが、その幾何は、不断に変化している。それ故、反射された反射波が1つのレーダスキャンに存在することがある一方で、後に続く(または先行する)スキャンに存在する尤度は低く、それ故、一過性の反射波を追跡しようと試みることは、可能でないことがある。 At operation 616, the process 600 may control the vehicle to exclude or otherwise take into account the second radar return. For example, the control of the vehicle may not depend on the second radar return because it has been determined that the second radar return is a reflected return and does not represent an actual object in the environment. As described herein, conventional planning systems have controlled the vehicle to react (e.g., by braking, steering, or the like) to the phantom "object" represented by the second radar return. However, by identifying and excluding the reflected return, the techniques described herein can provide improved control, e.g., respond only to actual objects in the environment. In some implementations, the techniques described herein can also track the second return to confirm that it is a reflection point. As described above, the geometry of the environment creates conditions that allow for reflected returns, but the geometry is constantly changing. Therefore, while a reflected clutter may be present in one radar scan, the likelihood that it will be present in a subsequent (or preceding) scan is low, and therefore attempting to track a transient clutter may not be possible.

対照的に、動作612において、反射点の位置にオブジェクトが存在しないと決定された場合、動作518において、プロセス600が、第2のレーダ反射波を、環境におけるさらなる潜在的なオブジェクトとして識別することができる。例えば、反射点にオブジェクトが存在しないとき、レーダ反射波は、反射された反射波でない尤度が高い。代わりに、第2の反射波は、環境における実際のオブジェクトに対応してよい。例えば、反射波は、新たに検出されたオブジェクト、例えば、図3の例における建造物から出現する歩行者であってよい。 In contrast, if it is determined in operation 612 that no object is present at the reflection point, then in operation 518, process 600 may identify the second radar return as a further potential object in the environment. For example, when no object is present at the reflection point, the radar return is likely not a reflected return. Instead, the second return may correspond to an actual object in the environment. For example, the return may be a newly detected object, such as a pedestrian emerging from the building in the example of FIG. 3.

動作620において、プロセス600が、オプションとして、さらなるオブジェクトの存在を確認してよい。例えば、動作624は、さらなるセンサ情報を受信すること、および、さらなるセンサ情報に少なくとも部分的に基づいて、第2のレーダ反射波に関連付けられた位置におけるオブジェクトの存在を決定することを含んでよい。さらなるセンサ情報は、LiDARデータ、画像データ、さらなるレーダデータ、飛行時間データ、またはこれらに類するもののうちの1つまたは複数を含んでよい。ある実装形態において、動作620は、動作610、612と実質的に同一であってよいが、反射点におけるオブジェクトの存在を決定する代わりに、プロセス600は、第2の位置におけるオブジェクトの、すなわち、第2の反射波の存在を決定してよい。 At operation 620, process 600 may optionally confirm the presence of an additional object. For example, operation 624 may include receiving additional sensor information and determining the presence of an object at a location associated with the second radar return based at least in part on the additional sensor information. The additional sensor information may include one or more of LiDAR data, image data, additional radar data, time-of-flight data, or the like. In one implementation, operation 620 may be substantially identical to operations 610, 612, but instead of determining the presence of an object at the reflection point, process 600 may determine the presence of an object at a second location, i.e., the second return.

動作622において、プロセス600が、第2の反射波に少なくとも部分的に基づいて車両を制御することを含むことが可能である。例えば、第2の反射波は、実際の動的オブジェクトに関連付けられることがあるため、本明細書において説明される技法は、そのオブジェクトとの関係において車両を制御してよい。ある例において、車両の軌道は、第2の反射波に少なくとも部分的に基づいて決定されることが可能である。非限定的な例として、予測システムが、予測構成要素424と同様に、さらなるオブジェクトの予測される軌道を決定することができ、プランニングシステム、例えば、プランニング構成要素426が、さらなるオブジェクトの予測される軌道との関係で車両の軌道を生成することができる。ある実装形態において、動作622は、さらに、または代替として、例えば、さらなるオブジェクトからの後に続く反射波がオブジェクト反射波として扱われ得るように、さらなるオブジェクトを追跡することを含むことも可能である。そのようなオブジェクト反射波は、さらなるオブジェクトによって生じさせられる反射された反射波を決定すべく使用されてよい。 At operation 622, the process 600 may include controlling the vehicle based at least in part on the second reflected wave. For example, the second reflected wave may be associated with an actual dynamic object, so that the techniques described herein may control the vehicle in relation to that object. In an example, the trajectory of the vehicle may be determined based at least in part on the second reflected wave. As a non-limiting example, a prediction system may determine a predicted trajectory of the further object, similar to the prediction component 424, and a planning system, such as the planning component 426, may generate a trajectory of the vehicle in relation to the predicted trajectory of the further object. In an implementation, operation 622 may also or alternatively include tracking the further object, such that, for example, subsequent reflected waves from the further object may be treated as object reflected waves. Such object reflected waves may be used to determine reflected reflected waves caused by the further object.

プロセス500、600の動作は、順次に実行されること、および/または並行に実行されることがある。非限定的な例として、動作502、504、602において受信されるレーダデータは、複数のレーダ反射波を含んでよい。ある実装形態において、動作506、508、510、512、608、610、612、およびその他は、レーダ反射波のそれぞれに関して、例えば、並行に実行されてよい。それ故、レーダデータからのすべての反射された反射波が、本明細書において説明されるとおり、比較的迅速に識別され、考慮から除外されてよい。さらに、反射波の単一の対だけが図5および図6において参照される一方で、反射波の多様な対が、本明細書において説明される技法を使用して比較されてよい。非限定的な例として、同一の反射波が、他の多様な反射波(環境におけるオブジェクトに関連付けられていることが知られていても、知られていなくてもよい)と比較されてよい。ある例において、知られている各オブジェクトに関する複数のレーダ反射波が受信されることが可能であり、それらの反射波が、例えば、プロセス400またはプロセス500を使用して、オブジェクトに関連付けられていない他の反射波と比較されることが可能である。さらに、反射波の対が、例えば、反射波が反射であることのさらなる信頼度を得るべく、プロセス400とプロセス500の両方により処理されてよい。さらに別の実装形態において、複数のレーダ反射波は、例えば、複数のレーダ反射波のうちの何らかのサブセットだけが処理されるように、フィルタリングされてよい。例えば、知られているオブジェクトと比べて、車両102に相対的により近いレーダ反射波は、反射された反射波ではあり得ず、それ故、プロセス500の態様により探索されなくてよい。さらに、例えば、0ではない、最低限の速度を下回る速度を有するレーダ反射波は、例えば、それらの反射波が、反射された反射波である場合でも、車両に極めてわずかな影響しか与えないことがあるため、探索から除外されてもよい。さらに、しきい値角度、例えば、45度、60度、90度、またはこれらに類するもの以上の角度(レーダセンサ104/車両102との関係で)を有する反射波、また、他のフィルタリング技法および基準が使用されてもよい。 The operations of processes 500, 600 may be performed sequentially and/or in parallel. As a non-limiting example, the radar data received in operations 502, 504, 602 may include multiple radar returns. In some implementations, operations 506, 508, 510, 512, 608, 610, 612, and others may be performed, for example, in parallel, for each of the radar returns. Thus, all reflected returns from the radar data may be relatively quickly identified and removed from consideration as described herein. Furthermore, while only a single pair of returns is referenced in FIG. 5 and FIG. 6, multiple pairs of returns may be compared using the techniques described herein. As a non-limiting example, the same return may be compared to multiple other returns (which may or may not be known to be associated with objects in the environment). In one example, multiple radar returns for each known object may be received and those returns may be compared to other returns not associated with the object, e.g., using process 400 or process 500. Further, pairs of returns may be processed, e.g., by both process 400 and process 500, to obtain further confidence that the return is a return. In yet another implementation, the multiple radar returns may be filtered, e.g., such that only some subset of the multiple radar returns is processed. For example, radar returns that are relatively closer to the vehicle 102 than the known object may not be reflected returns and therefore may not be searched for by aspects of process 500. Furthermore, radar returns that have a speed below a minimum speed, e.g., non-zero, may be excluded from the search, e.g., because those returns may have very little effect on the vehicle even if they are reflected returns. Additionally, returns having a threshold angle, e.g., an angle (relative to the radar sensor 104/vehicle 102) of greater than or equal to 45 degrees, 60 degrees, 90 degrees, or the like, as well as other filtering techniques and criteria may be used.

図5および図6は、本開示の実施形態による例示的なプロセスを示す。図5および図6に示されるプロセスは、複数のサブプロセスとして、例えば、車両102、402の様々な構成要素によって実行されてよいが、必ずしもそのように実行される必要はない。プロセス500、600は、各動作が、ハードウェアで、ソフトウェアで、またはその組み合わせで実施され得る動作のシーケンスを表す論理フローチャートとして例示される。ソフトウェアの脈絡において、動作は、1つまたは複数のプロセッサによって実行されたとき、記載される動作をコンピュータまたは自律車両に実行させる1つまたは複数の非一過性のコンピュータ可読記憶媒体上に記憶されたコンピュータ実行可能命令を表す。一般に、コンピュータ実行可能命令は、特定の機能を実行する、または特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、構成要素、データ構造、およびこれらに類するものを含む。動作が説明される順序は、限定として解釈されることが意図されるわけではなく、任意の数の説明される動作が、プロセスを実施すべく任意の順序で、かつ/または並行に組み合わされることが可能である。 5 and 6 illustrate an exemplary process according to an embodiment of the present disclosure. The processes illustrated in FIGS. 5 and 6 may, but need not, be performed as multiple sub-processes, for example, by various components of the vehicle 102, 402. The processes 500, 600 are illustrated as logical flow charts that represent a sequence of operations, each of which may be implemented in hardware, software, or a combination thereof. In the context of software, the operations represent computer-executable instructions stored on one or more non-transitory computer-readable storage media that, when executed by one or more processors, cause a computer or autonomous vehicle to perform the described operations. In general, computer-executable instructions include routines, programs, objects, components, data structures, and the like that perform a particular function or implement a particular abstract data type. The order in which the operations are described is not intended to be construed as a limitation, and any number of the described operations can be combined in any order and/or in parallel to perform the process.

(例条項)
A 例示的な自律車両は、自律車両上のレーダセンサと、1つまたは複数のプロセッサと、その1つまたは複数のプロセッサによって実行されたとき、レーダセンサから、レーダセンサからの第1の半径方向に沿った第1の速度と、第1の範囲とを備える第1のレーダ反射波と、レーダセンサからの第2の半径方向に沿った第2の速度と、第2の範囲とを備える第2のレーダ反射波とを備える、環境のレーダデータを受信すること、投影された速度として、第2のレーダ反射波に対応する点上に第1の速度を投影すること、第2の速度および投影された速度に少なくとも部分的に基づいて、第2のレーダ反射波が、介在する表面から反射した反射されたレーダ反射波に対応すると決定すること、および第2のレーダ反射波を除外して環境内で自律車両を制御することを備える動作を自律車両に実行させるプロセッサ実行可能命令を記憶するメモリとを含む。
(Example clause)
An example autonomous vehicle includes a radar sensor on the autonomous vehicle, one or more processors, and a memory storing processor-executable instructions that, when executed by the one or more processors, cause the autonomous vehicle to perform operations comprising receiving radar data of an environment from the radar sensor, the radar data comprising a first radar return having a first velocity and a first range along a first radial direction from the radar sensor, and a second radar return having a second velocity and a second range from the radar sensor, projecting the first velocity onto a point corresponding to the second radar return as a projected velocity, determining that the second radar return corresponds to a reflected radar return that reflected off an intervening surface based at least in part on the second velocity and the projected velocity, and controlling the autonomous vehicle within the environment to exclude the second radar return.

B 例Aの自律車両であって、第1の速度を投影することが、第1の半径方向上の第1の範囲、および第2の半径方向上の第2の範囲に少なくとも部分的に基づいて、反射線を決定すること、反射線を軸にして第1の位置から第2の位置に第1の速度を反射すること、および投影された速度を、第2の半径方向に沿った反射された速度の成分として決定することを備える、自律車両。 B The autonomous vehicle of example A, wherein projecting the first velocity comprises determining a reflection line based at least in part on a first range on a first radial direction and a second range on a second radial direction, reflecting the first velocity from the first location to the second location about the reflection line, and determining the projected velocity as a component of the reflected velocity along the second radial direction.

C 例Aまたは例Bの自律車両であって、第2のレーダ反射波が反射されたレーダ反射波に対応すると決定することが、投影された速度の第1の大きさを第2の速度の第2の大きさと比較すること、および第1の大きさが第2の大きさと実質的に等しいと決定することを備える、自律車両。 C. The autonomous vehicle of example A or example B, wherein determining that the second radar return corresponds to the reflected radar return comprises comparing a first magnitude of the projected velocity to a second magnitude of the second velocity, and determining that the first magnitude is substantially equal to the second magnitude.

D 例A乃至例Cのいずれか1つの例の自律車両であって、動作が、レーダデータを受信することに先立って、オブジェクトに関連付けられた以前のレーダ反射波を受信すること、および、以前のレーダ反射波に少なくとも部分的に基づいて、第1の反射波を、オブジェクトに関連付けられたオブジェクト反射波として識別することをさらに備える、自律車両。 D. The autonomous vehicle of any one of Examples A to C, wherein the operation further comprises, prior to receiving the radar data, receiving a previous radar return associated with the object, and identifying the first return as an object return associated with the object based at least in part on the previous radar return.

E 車両上に少なくとも1つのさらなるセンサをさらに備える、例A乃至例Dのいずれか1つの例の自律車両であって、動作が、少なくとも1つのさらなるセンサから、さらなるセンサデータを受信すること、および、さらなるセンサデータに少なくとも部分的に基づいて、介在するオブジェクトの存在を検証することをさらに備える、自律車両。 E. The autonomous vehicle of any one of examples A to D, further comprising at least one additional sensor on the vehicle, wherein the operation further comprises receiving additional sensor data from the at least one additional sensor, and verifying the presence of an intervening object based at least in part on the additional sensor data.

F 例A乃至例Eのいずれか1つの例の自律車両であって、動作が、第1の反射波および第2の反射波に関連付けられた距離、第1の反射波および第2の反射波に関連付けられた位置、または第1の反射波および第2の反射波に関連付けられた速度のうちの1つまたは複数に少なくとも部分的に基づいて、複数の候補レーダ反射波から第1の反射波および第2の反射波を選択することをさらに備える、自律車両。 F. The autonomous vehicle of any one of Examples A to E, wherein the operation further comprises selecting the first and second reflections from the plurality of candidate radar reflections based at least in part on one or more of a distance associated with the first and second reflections, a position associated with the first and second reflections, or a speed associated with the first and second reflections.

G 例示的な方法は、車両上のレーダセンサによって、複数のレーダ反射波を含む、環境のレーダデータをキャプチャすること、複数のレーダ反射波の第1のレーダ反射波に少なくとも基づいて、車両から延びる第1の半径方向に沿った第1の速度を決定すること、複数のレーダ反射波の第2のレーダ反射波に少なくとも部分的に基づいて、車両から延びる第2の半径方向に沿った第2の速度を決定すること、第2の方向に沿って第1の速度の投影された速度を決定すること、投影された速度と第2の速度の比較に少なくとも部分的に基づいて、第2のレーダ反射波が、オブジェクト、およびオブジェクトとレーダセンサの間の介在するオブジェクトから反射された反射されたレーダ反射波に対応すると決定することを含む。 G An exemplary method includes capturing radar data of an environment, including a plurality of radar returns, with a radar sensor on the vehicle; determining a first velocity along a first radial direction extending from the vehicle based at least on a first radar return of the plurality of radar returns; determining a second velocity along a second radial direction extending from the vehicle based at least in part on a second radar return of the plurality of radar returns; determining a projected velocity of the first velocity along the second direction; and determining, based at least in part on a comparison of the projected velocity and the second velocity, that the second radar return corresponds to a reflected radar return reflected from the object and an intervening object between the object and the radar sensor.

H レーダセンサまたはさらなるセンサのうちの少なくとも1つからセンサデータを受信すること、および、センサデータに少なくとも部分的に基づいて、第1の反射波が環境におけるオブジェクトに関連付けられていると識別することをさらに備える例Gの方法。 H The method of example G, further comprising receiving sensor data from at least one of the radar sensor or the additional sensor, and identifying, based at least in part on the sensor data, the first reflected wave as being associated with an object in the environment.

I センサデータに少なくとも部分的に基づいて、かつ第1のレーダ反射波および第2のレーダ反射波をキャプチャすることに先立って、環境におけるオブジェクトを追跡することをさらに備え、第2の反射波が反射された反射波であると決定することが、追跡することに少なくとも部分的にさらに基づく、例Gまたは例Hの方法。 I The method of Example G or Example H, further comprising tracking an object in the environment based at least in part on the sensor data and prior to capturing the first radar return and the second radar return, and determining that the second return is a reflected return is further based at least in part on the tracking.

J 投影される速度が、第2の方向に沿って第2の反射波に対応する位置上に投影された速度を備える、例G乃至例Iのいずれか1つの例の方法。 J The method of any one of Examples G to I, wherein the projected velocity comprises a velocity projected along the second direction onto a location corresponding to the second reflected wave.

K 投影された速度を決定することが、第1の反射波に関連付けられた第1の範囲、および第2の反射波に関連付けられた第2の範囲に少なくとも部分的に基づいて、反射線を決定すること、反射された速度を決定すべく反射線を軸にして第1の速度を反射すること、および投影された速度を、第2の半径方向に沿った反射された速度の成分として決定することを備える、例G乃至例Jのいずれか1つの例の方法。 K The method of any one of Examples G through J, wherein determining the projected velocity comprises determining a reflection line based at least in part on a first range associated with the first reflected wave and a second range associated with the second reflected wave, reflecting the first velocity about the reflection line to determine the reflected velocity, and determining the projected velocity as a component of the reflected velocity along a second radial direction.

L 反射点を、反射線と、レーダセンサと第2の位置の間に延びる線の交差点として決定することをさらに備え、反射点が、介在するオブジェクトに関連付けられた位置である、例G乃至例Kのいずれか1つの例の方法。 L The method of any one of Examples G to K, further comprising determining a reflection point as an intersection of the reflection line with a line extending between the radar sensor and the second location, the reflection point being a location associated with an intervening object.

M さらなるセンサデータまたはマップデータのうちの少なくとも1つを受信すること、および、さらなるセンサデータまたはマップデータに少なくとも部分的に基づいて、反射点における介在するオブジェクトを識別することをさらに備える例G乃至例Lのいずれか1つの例の方法。 M The method of any one of Examples G to L, further comprising receiving at least one of additional sensor data or map data, and identifying an intervening object at the reflection point based at least in part on the additional sensor data or map data.

N 第1の反射波および第2の反射波が、第1の反射波および第2の反射波に関連付けられた距離、第1の反射波および第2の反射波に関連付けられた位置、または第1の反射波および第2の反射波に関連付けられた速度のうちの少なくとも1つに少なくとも部分的に基づいて、選択される、例G乃至例Mのいずれか1つの例の方法。 N The method of any one of Examples G to M, in which the first reflected wave and the second reflected wave are selected based at least in part on at least one of a distance associated with the first reflected wave and the second reflected wave, a position associated with the first reflected wave and the second reflected wave, or a velocity associated with the first reflected wave and the second reflected wave.

O 第1の反射波が、環境におけるオブジェクトに関連付けられ、第2の反射波が、第1のレーダ反射波に関連付けられた第1の距離と比べて、より大きい第2の距離を有する第2のレーダ反射波、またはしきい値速度以上である第2の速度のうちの少なくとも1つに少なくとも部分的に基づいて、決定される、例G乃至例Nのいずれか1つの例の方法 O The method of any one of Examples G to N, in which the first reflection is associated with an object in the environment and the second reflection is determined based at least in part on at least one of a second radar reflection having a second distance greater than a first distance associated with the first radar reflection, or a second speed greater than or equal to a threshold speed.

P 実行されたとき、レーダセンサによって、第1の速度と、第1の方向と、第1の範囲とを備える第1のレーダ反射波と、第2の速度と、第2の方向と、第2の範囲とを備える第2のレーダ反射波と含む、環境のレーダデータをキャプチャすること、第2の方向に関して第1の速度の投影された速度を決定すること、および、投影された速度と第2の速度の比較に少なくとも部分的に基づいて、第2のレーダ反射波が反射されたレーダ反射波に対応すると決定することを含む動作を1つまたは複数のプロセッサに実行させる命令を記憶する1つまたは複数の例示的な非一過性のコンピュータ可読媒体。 P One or more exemplary non-transitory computer-readable media storing instructions that, when executed, cause one or more processors to perform operations including capturing, with a radar sensor, radar data of an environment including a first radar return having a first speed, a first direction, and a first range, and a second radar return having a second speed, a second direction, and a second range, determining a projected velocity of the first speed with respect to the second direction, and determining that the second radar return corresponds to a reflected radar return based at least in part on a comparison of the projected velocity and the second speed.

Q 例Pの1つまたは複数の非一過性のコンピュータ可読媒体であって、投影された速度を決定することが、第1の反射波および第2の反射波に少なくとも部分的に基づいて、反射線を決定すること、反射された速度を決定すべく反射線を軸にして第1の位置から第2の位置に第1の速度を反射すること、および投影された速度を、第2の方向に沿った反射された速度の成分として決定することを備える、コンピュータ可読媒体。 Q One or more non-transitory computer-readable media of Example P, wherein determining the projected velocity comprises determining a reflection line based at least in part on the first reflected wave and the second reflected wave, reflecting the first velocity from the first location to the second location about the reflection line to determine the reflected velocity, and determining the projected velocity as a component of the reflected velocity along the second direction.

R 反射点を、反射点からの線が第1の点から第2の点までの接続線を二分するように第2の方向に沿った点として決定すること、さらなるセンサデータを受信すること、さらなるセンサデータに少なくとも部分的に基づいて、反射点における表面の存在を決定すること、および第2のレーダ反射波が反射されたレーダ反射波に対応することを検証することをさらに備える例Pまたは例Qの方法。 R The method of Example P or Example Q further comprising determining the reflection point as a point along the second direction such that a line from the reflection point bisects a connecting line from the first point to the second point, receiving additional sensor data, determining the presence of a surface at the reflection point based at least in part on the additional sensor data, and verifying that the second radar return corresponds to a reflected radar return.

S 動作は、レーダセンサまたはさらなるセンサのうちの少なくとも1つからセンサデータを受信すること、および、センサデータに少なくとも部分的に基づいて、第1の反射された反射波が、環境におけるオブジェクトに関連付けられていると決定することをさらに備える、例P乃至例Rのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 S. One or more non-transitory computer-readable media of any one of Examples P through R, wherein the operations further comprise receiving sensor data from at least one of the radar sensor or the additional sensor, and determining, based at least in part on the sensor data, that the first reflected echo is associated with an object in the environment.

T 動作が、複数の反射の反射波から1つまたは複数の候補反射の反射波を識別することをさらに備え、1つまたは複数の候補反射の反射波が、第2のレーダ反射波を含み、識別することが、1つまたは複数の候補反射の反射波の個々に関連付けられた範囲、または1つまたは複数の候補反射の反射波の個々に関連付けられた速度のうちの少なくとも1つに少なくとも部分的に基づく、例P乃至例Sのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 T one or more non-transitory computer-readable media of any one of Examples P to S, wherein the operation further comprises identifying one or more candidate reflections from the plurality of reflections, the one or more candidate reflections including a second radar reflection, and the identifying is based at least in part on at least one of a range associated with each of the one or more candidate reflections or a speed associated with each of the one or more candidate reflections.

U 例示的な自律車両は、少なくともレーダセンサを含む自律車両上の1つまたは複数のセンサと、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行されたとき、レーダセンサから、レーダセンサからの第1の半径方向に沿った第1の範囲を備える関連付けられた第1の位置を有する第1のレーダ反射波と、レーダセンサからの第2の半径方向に沿った第2の範囲を備える関連付けられた第2の位置を有する第2のレーダ反射波とを備える、環境のレーダデータを受信すること、第1の位置および第2の位置に少なくとも部分的に基づいて、第2の半径方向に沿って反射点を決定すること、1つまたは複数のセンサから、さらなるセンサデータを受信すること、さらなるセンサデータに少なくとも部分的に基づいて、環境におけるオブジェクトを識別すること、反射点に配置されているオブジェクトに少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であると決定すること、および第2のレーダ反射波を除外して環境内で自律車両を制御することを備える動作を自律車両に実行させるプロセッサ実行可能命令を記憶するメモリとを含む。 U An exemplary autonomous vehicle includes one or more sensors on the autonomous vehicle including at least a radar sensor, one or more processors, and a memory storing processor-executable instructions that, when executed by the one or more processors, cause the autonomous vehicle to perform operations including receiving radar data of an environment from the radar sensor, the radar data including a first radar return having an associated first position with a first range along a first radial direction from the radar sensor, and a second radar return having an associated second position with a second range along a second radial direction from the radar sensor, determining a reflection point along the second radial direction based at least in part on the first position and the second position, receiving further sensor data from the one or more sensors, identifying an object in the environment based at least in part on the further sensor data, determining that the second radar return is a reflected return based at least in part on the object located at the reflection point, and excluding the second radar return to control the autonomous vehicle in the environment.

V 反射点を決定することが、第1の位置および第2の位置に少なくとも部分的に基づいて、反射線を決定すること、および反射点を、反射線と第2の方向に沿って延びる線の交差点として決定することを備える、例Uの自律車両。 V The autonomous vehicle of example U, wherein determining the reflection point comprises determining a reflection line based at least in part on the first position and the second position, and determining the reflection point as an intersection of the reflection line and a line extending along the second direction.

W 動作が、レーダセンサから、かつレーダデータを受信することに先立って、第2のオブジェクトに関連付けられた以前のセンサデータを受信すること、および、以前のセンサデータに少なくとも部分的に基づいて、第1の反射波を、第2のオブジェクトに関連付けられたオブジェクト反射波として識別することをさらに備える、例Uまたは例Vの自律車両。 W The autonomous vehicle of Example U or Example V, wherein the operation further comprises receiving previous sensor data associated with the second object from the radar sensor and prior to receiving the radar data, and identifying the first return wave as an object return wave associated with the second object based at least in part on the previous sensor data.

X 動作が、第2の範囲が第1の範囲と比べてより大きいことに少なくとも部分的に基づいて、複数の反射波から第2の反射波を選択することをさらに備える、例U乃至例Wのいずれか1つの例の自律車両。 X The autonomous vehicle of any one of Examples U to W, wherein the operation further comprises selecting a second reflected wave from the plurality of reflected waves based at least in part on the second range being greater than the first range.

Y 動作が、レーダセンサから、かつレーダデータを受信した後、環境に関連付けられたさらなるレーダ反射波を受信すること、およびさらなるレーダ反射波に少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であると識別することをさらに備える、例U乃至例Xのいずれか1つの例の自律車両。 Y The autonomous vehicle of any one of Examples U through X, wherein the operations further comprise receiving a further radar return associated with the environment after receiving the radar data from the radar sensor, and identifying the second radar return as a reflected return based at least in part on the further radar return.

Z 車両上のレーダセンサから、複数のレーダ反射波を含む、環境のレーダデータを受信すること、複数のレーダ反射波のうちの第1のレーダ反射波に少なくとも基づいて、レーダセンサから延びる第1の半径方向上の第1の位置を決定すること、複数のレーダ反射波のうちの第2のレーダ反射波に少なくとも部分的に基づいて、レーダセンサから延びる第2の半径方向上の第2の位置を決定すること、第2の半径方向に沿って、かつレーダセンサと第2の位置の間で反射点を決定すること、および環境についてのさらなるデータに少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であると決定することを備える例示的な方法。 Z An exemplary method comprising receiving radar data of an environment from a radar sensor on a vehicle, the radar data including a plurality of radar returns; determining a first location on a first radial direction extending from the radar sensor based at least on a first radar return of the plurality of radar returns; determining a second location on a second radial direction extending from the radar sensor based at least in part on a second radar return of the plurality of radar returns; determining a reflection point along the second radial direction and between the radar sensor and the second location; and determining that the second radar return is a reflected return based at least in part on further data about the environment.

AA 第2のレーダ反射波を除外して環境内で車両を制御することをさらに備える例Zの方法。 The method of example Z further comprising controlling the vehicle within the environment by excluding the second radar return AA.

BB 反射点を決定することが、第1の位置および第2の位置に少なくとも部分的に基づいて、反射線を決定することを備える、例Zまたは例AAの方法。 BB The method of Example Z or Example AA, wherein determining the reflection point comprises determining a reflection line based at least in part on the first location and the second location.

CC さらなるデータが、センサデータまたはマップデータのうちの少なくとも1つを備え、センサデータが、LiDARデータ、さらなるレーダデータ、もしくは画像データのうちの1つまたは複数を備える、例Z乃至例BBのいずれか1つの例の方法。 CC The method of any one of Examples Z to BB, wherein the further data comprises at least one of sensor data or map data, and the sensor data comprises one or more of LiDAR data, further radar data, or image data.

DD レーダセンサから、環境に関連付けられたさらなるレーダ反射波を受信すること、およびさらなるレーダ反射波に少なくとも基づいて、第2のレーダ反射波が反射された反射波であることを識別することをさらに備える例Z乃至例CCのいずれか1つの例の方法。 The method of any one of Examples Z to CC further comprising receiving from the DD radar sensor a further radar return associated with the environment, and identifying the second radar return as a reflected return based at least on the further radar return.

EE レーダセンサから、かつレーダデータを受信することに先立って、環境における追跡されるオブジェクトに関連付けられた以前のレーダ反射波を受信すること、以前のレーダ反射波に少なくとも部分的に基づいて、第1の反射波を、追跡されるオブジェクトに関連付けられたオブジェクト反射波として識別することさらに備える例Z乃至例DDのいずれか1つの例の方法。 EE The method of any one of Examples Z through DD, further comprising receiving a previous radar return associated with a tracked object in the environment from the radar sensor and prior to receiving the radar data, and identifying the first return as an object return associated with the tracked object based at least in part on the previous radar return.

FF 第1の反射波および第2の反射波が、第1の反射波および第2の反射波に関連付けられた範囲、第1の反射波および第2の反射波に関連付けられた第1の位置および第2の位置、または速度のうちの少なくとも1つに少なくとも部分的に基づいて、選択される、例Z乃至例EEのいずれか1つの例の方法。 FF The method of any one of Examples Z to EE, in which the first and second reflected waves are selected based at least in part on at least one of a range associated with the first and second reflected waves, a first and second position associated with the first and second reflected waves, or a velocity.

GG 第1の反射波が、環境におけるオブジェクトに関連付けられ、第2の反射波が、第2のレーダ反射波が、第1のレーダ反射波に関連付けられた第1の範囲と比べてより大きい第2の範囲を有すること、または第2のレーダ反射波の第2の速度が、しきい値速度以上であることのうちの少なくとも1つに少なくとも部分的に基づいて、決定される、例Z乃至例FFのいずれか1つの例の方法。 GG The method of any one of Examples Z through FF, in which the first radar reflection is associated with an object in the environment and the second radar reflection is determined based at least in part on at least one of the second radar reflection having a second range that is greater than the first range associated with the first radar reflection, or the second velocity of the second radar reflection being equal to or greater than a threshold velocity.

HH 車両上のさらなるセンサから、さらなるセンサデータを受信すること、およびさらなるセンサデータに少なくとも部分的に基づいて、第1の反射波に関連付けられたオブジェクトを識別することをさらに備える、例Z乃至例GGのいずれか1つの例の方法。 HH The method of any one of Examples Z to GG, further comprising receiving additional sensor data from an additional sensor on the vehicle and identifying an object associated with the first reflected wave based at least in part on the additional sensor data.

II 実行されたとき、車両上のレーダセンサから、複数のレーダ反射波を含む、環境のレーダデータを受信すること、複数のレーダ反射波のうちの第1のレーダ反射波に少なくとも基づいて、レーダセンサから延びる第1の半径方向上の第1の位置を決定すること、複数のレーダ反射波のうちの第2のレーダ反射波に少なくとも部分的に基づいて、レーダセンサから延びる第2の半径方向上の第2の位置を決定すること、第2の半径方向に沿って、かつレーダセンサと第2の位置の間で反射点を決定すること、環境についてのさらなるデータに少なくとも部分的に基づいて、反射点に対応する位置におけるオブジェクトの存在を決定すること、およびその位置におけるオブジェクトの存在に少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であると決定することを含む動作を1つまたは複数のプロセッサに実行させる命令を記憶する1つまたは複数の例示的な非一過性のコンピュータ可読媒体。 II One or more exemplary non-transitory computer-readable media storing instructions that, when executed, cause one or more processors to perform operations including receiving radar data of an environment from a radar sensor on a vehicle, the radar data including a plurality of radar returns; determining a first location on a first radial direction extending from the radar sensor based at least in part on a first radar return of the plurality of radar returns; determining a second location on a second radial direction extending from the radar sensor based at least in part on a second radar return of the plurality of radar returns; determining a reflection point along the second radial direction and between the radar sensor and the second location; determining a presence of an object at a location corresponding to the reflection point based at least in part on further data about the environment; and determining that the second radar return is a reflected return based at least in part on the presence of an object at the location.

JJ 反射点を決定することが、第1の位置および第2の位置に少なくとも部分的に基づいて、反射線を決定することを備える、例IIの1つまたは複数の非一過性のコンピュータ可読媒体。 JJ One or more non-transitory computer-readable media of Example II, wherein determining the reflection point comprises determining a reflection line based at least in part on the first location and the second location.

KK さらなるデータが、センサデータまたはマップデータのうちの少なくとも1つを備え、センサデータが、LiDARデータまたは画像データのうちの1つまたは複数を備える、例IIまたは例JJの1つまたは複数の非一過性のコンピュータ可読媒体。 KK One or more non-transitory computer-readable media of Example II or Example JJ, wherein the further data comprises at least one of sensor data or map data, and the sensor data comprises one or more of LiDAR data or image data.

LL 動作が、レーダセンサから、環境に関連付けられたさらなるレーダ反射波を受信すること、およびさらなるレーダ反射波に少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であることを検証することをさらに備える、例II乃至例KKのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 LL One or more non-transitory computer-readable media of any one of Examples II through KK, wherein the operations further comprise receiving, from the radar sensor, a further radar return associated with the environment, and verifying that the second radar return is a reflected return based at least in part on the further radar return.

MM 動作が、レーダセンサから、かつレーダデータを受信することに先立って、環境における追跡されるオブジェクトに関連付けられた以前のレーダ反射波を受信すること、以前のレーダ反射波に少なくとも部分的に基づいて、第1の反射波を、追跡されるオブジェクトに関連付けられたオブジェクト反射波として識別することをさらに備える、例II乃至例LLのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 One or more non-transitory computer-readable media of any one of Examples II through LL, wherein the MM operation further comprises receiving, from the radar sensor and prior to receiving the radar data, a previous radar return associated with a tracked object in the environment, and identifying the first return as an object return associated with the tracked object based at least in part on the previous radar return.

NN 第1の反射波および第2の反射波が、第1の反射波および第2の反射波に関連付けられた範囲、第1の反射波および第2の反射波に関連付けられた第1の位置および第2の位置、または速度のうちの少なくとも1つに少なくとも部分的に基づいて、選択される、例II乃至例MMのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 NN One or more non-transitory computer readable media of any one of Examples II through MM, in which the first reflected wave and the second reflected wave are selected based at least in part on at least one of a range associated with the first reflected wave and the second reflected wave, a first position and a second position associated with the first reflected wave and the second reflected wave, or a velocity.

前段で説明される例条項は、1つの特定の実装形態に関して説明される一方で、本明細書の脈絡において、例条項の内容は、方法、デバイス、システム、コンピュータ可読媒体、および/または別の実装形態を介して実施されることも可能であることを理解されたい。 While the example clauses described above are described with respect to one particular implementation, it should be understood that in the context of this specification, the contents of the example clauses may also be implemented via methods, devices, systems, computer-readable media, and/or other implementations.

前段で説明される例条項は、1つの特定の実装形態に関して説明される一方で、本明細書の脈絡において、例条項の内容は、方法、デバイス、システム、コンピュータ可読媒体、および/または別の実装形態を介して実施されることも可能であることを理解されたい。 While the example clauses described above are described with respect to one particular implementation, it should be understood that in the context of this specification, the contents of the example clauses may also be implemented via methods, devices, systems, computer-readable media, and/or other implementations.

(結論)
本明細書において説明される技法の1つまたは複数の例が説明されてきた一方で、それらの例の様々な変更形態、追加形態、置換形態、および均等形態が、本明細書において説明される技法の範囲内に含められる。
(Conclusion)
While one or more examples of the techniques described herein have been described, various modifications, additions, permutations, and equivalents of those examples are included within the scope of the techniques described herein.

例の説明において、例示として、主張される主題の特定の例を示す、説明の一部を形成する添付の図面に対する参照が行われる。他の例が使用されることが可能であること、および構造上の変更などの変更または変形が行われることが可能であることを理解されたい。そのような例、変更、または変形は、必ずしも、意図される主張される主題の範囲からの逸脱ではない。本明細書において説明されるステップは、或る順序で提示され得る一方で、ある事例において、順序は、説明されるシステムおよび方法の機能を変更することなしに、いくつかの入力が異なる時点で、または異なる順序で提供されるように変更されることが可能である。また、開示される手続きは、異なる順序で実行されることも可能である。さらに、本明細書における様々な計算は、開示される順序で実行される必要はなく、計算の代替の順序を使用する他の例が、容易に実施されることが可能である。順序変更されることに加えて、計算は、同一の結果を伴って部分計算に分解されることも可能である。 In describing the examples, reference is made to the accompanying drawings, which form a part of the description, showing, by way of illustration, specific examples of the claimed subject matter. It is understood that other examples can be used and that modifications or variations, such as structural changes, can be made. Such examples, modifications, or variations do not necessarily depart from the intended scope of the claimed subject matter. While the steps described herein may be presented in a certain order, in some cases the order can be changed such that some inputs are provided at different times or in a different order without changing the functionality of the systems and methods described. The procedures disclosed can also be performed in a different order. Furthermore, the various calculations herein need not be performed in the order disclosed, and other examples using alternative orders of calculations can be readily implemented. In addition to being reordered, the calculations can also be decomposed into sub-calculations with the same results.

Claims (13)

自律車両であって、
前記自律車両のレーダセンサと、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによって実行された場合に、前記自律車両に、
前記レーダセンサから環境のレーダデータを受信し、前記レーダデータは、
前記レーダセンサから第1の半径方向に沿った第1の速度および前記第1の半径方向に沿った第1の範囲での第1の位置を含む第1のレーダ反射波と、
前記レーダセンサから第2の半径方向に沿った第2の速度および第2の範囲を含む第2のレーダ反射波とを含み、
前記第1の位置および第2の位置または前記第1の速度および前記第2の速度のうちの少なくとも1つに少なくとも部分的に基づいて、前記第2のレーダ反射波が中間表面で反射された反射されたレーダ反射波に対応することを決定し、
前記第2のレーダ反射波を除いた前記環境内の前記自律車両を制御する動作を実行させるプロセッサ実行可能命令を格納するメモリと、を備え、
前記第2のレーダ反射波が前記反射されたレーダ反射波に対応することを前記決定することは、
投影された速度として、前記第1の速度を前記第2のレーダ反射波に対応する点に投影することと、
前記投影された速度の第1の大きさが前記第2の速度の第2の大きさに等しいことを決定することと
を含む、自律車両。
1. An autonomous vehicle, comprising:
a radar sensor of the autonomous vehicle;
one or more processors;
When executed by the one or more processors, causes the autonomous vehicle to:
receiving radar data of an environment from the radar sensor, the radar data comprising:
a first radar return including a first velocity along a first radial direction from the radar sensor and a first position at a first range along the first radial direction;
a second radar return having a second velocity and a second range along a second radial direction from the radar sensor;
determining, based at least in part on at least one of the first and second positions or the first and second velocities, that the second radar return corresponds to a reflected radar return reflected off an intermediate surface;
and a memory storing processor-executable instructions for performing operations to control the autonomous vehicle in the environment excluding the second radar return,
Determining that the second radar return corresponds to the reflected radar return includes:
projecting the first velocity to a point corresponding to the second radar return as a projected velocity;
determining that a first magnitude of the projected velocity is equal to a second magnitude of the second velocity;
Including, autonomous vehicles.
前記第1の速度を投影することは、
前記第1の半径方向の前記第1の範囲および前記第2の半径方向の前記第2の範囲に少なくとも部分的に基づいて反射線を決定することと、
前記第1の速度を前記反射線について前記第1の位置から前記第2の位置まで反射することと、
前記投影速度を前記第2の半径方向に沿った前記反射された速度の成分として決定することと
を含む請求項に記載の自律車両。
Projecting the first velocity includes:
determining a reflected line based at least in part on the first range in the first radial direction and the second range in the second radial direction;
reflecting the first velocity about the reflection line from the first location to the second location;
and determining the projected velocity as a component of the reflected velocity along the second radial direction.
前記第2のレーダ反射波が前記反射されたレーダ反射波に対応することを決定することは、
前記第1の位置および前記第2の位置に少なくとも部分的に基づいて、前記第2の半径方向に沿った反射点を決定することと、
1つまたは複数のさらなるセンサから、さらなるセンサデータを受信することと、
前記さらなるセンサデータに少なくとも部分的に基づいて、前記環境におけるオブジェクトを識別することと、
前記オブジェクトが前記反射点に配置されていることを決定することと
を含む請求項1または2に記載の自律車両。
Determining that the second radar return corresponds to the reflected radar return comprises:
determining a reflection point along the second radial direction based at least in part on the first location and the second location;
receiving further sensor data from one or more further sensors;
identifying objects in the environment based at least in part on the further sensor data; and
and determining that the object is located at the reflection point .
前記反射点を決定することは、
前記第1の位置および前記第2の位置に少なくとも部分的に基づいて、反射線を決定することと、
前記反射点を前記反射線と前記第2の半径方向に沿って延びる線との交点として決定することと
を含む請求項に記載の自律車両。
Determining the reflection point comprises:
determining a reflected line based at least in part on the first location and the second location;
and determining the reflection point as an intersection of the reflection line and a line extending along the second radial direction .
前記動作は、
前記レーダデータを受信する前に、オブジェクトに関連付けられた以前のレーダ反射波を受信することと、
少なくとも部分的に前記以前のレーダ反射波に基づいて、前記第1のレーダ反射波を前記オブジェクトに関連付けられたオブジェクト反射波として識別することと
をさらに含む請求項1ないしのいずれか一項に記載の自律車両。
The operation includes:
receiving a previous radar return associated with an object prior to receiving the radar data;
5. The autonomous vehicle of claim 1 , further comprising: identifying the first radar return as an object return associated with the object based at least in part on the previous radar return.
前記自律車両に少なくとも1つのさらなるセンサをさらに含み、前記動作は、
前記少なくとも1つのさらなるセンサから、さらなるセンサデータを受信することと、
前記さらなるセンサデータに少なくとも部分的に基づいて、前記中間表面の存在を検証することとをさらに含む請求項1ないしのいずれか一項に記載の自律車両。
and further comprising at least one additional sensor in the autonomous vehicle, the operation comprising:
receiving further sensor data from the at least one further sensor;
6. The autonomous vehicle of claim 1, further comprising : verifying a presence of the intermediate surface based at least in part on the further sensor data.
車両のレーダセンサによって、環境のレーダデータをキャプチャするステップであって、前記レーダデータは、複数のレーダ反射波を含むステップと、
前記複数のレーダ反射波のうちの第1のレーダ反射波に少なくとも基づいて、前記車両から延びる第1の半径方向に沿った第1の速度または前記第1の半径方向に沿った第1の範囲での第1の位置の少なくとも1つを決定するステップと、
前記複数のレーダ反射波のうちの第2のレーダ反射波に少なくとも部分的に基づいて、前記車両から延びる第2の半径方向に沿った第2の速度または前記第2の半径方向に沿った第2の範囲での第2の位置の少なくとも1つを決定するステップと、
前記第1の位置および前記第2の位置または前記第1の速度および前記第2の速度のうちの少なくとも1つに少なくとも部分的に基づいて、前記第2のレーダ反射波がオブジェクトおよび前記オブジェクトと前記レーダセンサとの間の中間オブジェクトから反射されたレーダ反射波に対応することを決定するステップと
投影された速度として、前記第1の速度を前記第2のレーダ反射波に対応する点に投影するステップと、
前記投影された速度の第1の大きさが前記第2の速度の第2の大きさに等しいことを決定するステップと、
を備える方法。
Capturing radar data of an environment with a radar sensor of the vehicle, the radar data including a plurality of radar returns;
determining at least one of a first velocity along a first radial direction extending from the vehicle or a first position at a first range along the first radial direction based at least on a first radar return of the plurality of radar returns;
determining at least one of a second velocity along a second radial direction extending from the vehicle or a second position at a second range along the second radial direction based at least in part on a second radar return of the plurality of radar returns;
determining, based at least in part on at least one of the first and second positions or the first and second velocities, that the second radar return corresponds to a radar return reflected from an object and an intermediate object between the object and the radar sensor ;
projecting the first velocity to a point corresponding to the second radar return as a projected velocity;
determining that a first magnitude of the projected velocity is equal to a second magnitude of the second velocity;
A method for providing the above.
前記第1の速度を前記投影することは、
前記第1の半径方向の前記第1の範囲および前記第2の半径方向の前記第2の範囲に少なくとも部分的に基づいて反射線を決定するステップと、
前記第1の速度を前記反射線について前記第1の位置から前記第2の位置まで反射するステップと、
前記投影速度を前記第2の半径方向に沿った前記反射された速度の成分として決定するステップと
を含む請求項に記載の方法。
The projecting of the first velocity includes:
determining a reflected line based at least in part on the first range in the first radial direction and the second range in the second radial direction;
reflecting the first velocity about the reflection line from the first location to the second location;
and determining the projected velocity as a component of the reflected velocity along the second radial direction.
反射点を、前記反射線と前記レーダセンサと前記第2の位置との間に延びる線との交点として決定するステップであって、前記反射点は、前記中間オブジェクトに関連付けられた位置であるステップをさらに備える請求項に記載の方法。 9. The method of claim 8, further comprising determining a reflection point as an intersection of the reflection line with a line extending between the radar sensor and the second location, the reflection point being a location associated with the intermediate object. 前記第1の位置および前記第2の位置に少なくとも部分的に基づいて、前記第2の半径方向に沿った反射点を決定するステップと、
1つまたは複数のさらなるセンサから、さらなるセンサデータを受信するステップと、
前記さらなるセンサデータに少なくとも部分的に基づいて、前記環境におけるさらなるオブジェクトを識別するステップとをさらに備え、
前記第2のレーダ反射波が反射された反射波であるという前記決定は、少なくとも部分的に、前記反射点に配置されている前記さらなるオブジェクトに基づいている、
請求項ないしのいずれか一項に記載の方法。
determining a reflection point along the second radial direction based at least in part on the first location and the second location;
receiving further sensor data from one or more further sensors;
and identifying a further object in the environment based at least in part on the further sensor data.
the determination that the second radar return is a reflected return is based, at least in part, on the further object being located at the reflection point.
10. The method according to any one of claims 7 to 9 .
前記反射点を前記決定するステップは、
前記第1の位置および前記第2の位置に少なくとも部分的に基づいて、反射線を決定するステップと、
前記反射点を前記反射線と前記第2の半径方向に沿って延びる線との交点として決定するステップと、
前記反射点を前記反射線と前記第2の半径方向に沿って延びる線との交点として決定するステップと
を含む請求項10に記載の方法。
The step of determining the reflection points comprises:
determining a reflection line based at least in part on the first location and the second location;
determining the reflection point as an intersection of the reflection line and a line extending along the second radial direction;
and determining the reflection point as an intersection of the reflection line with a line extending along the second radial direction .
前記第1の範囲および前記第2の範囲、前記第1の位置および前記第2の位置、または前記第1の速度および前記第2の速度のうちの少なくとも1つに少なくとも部分的に基づいて、前記第1のレーダ反射波および前記第2のレーダ反射波を選択するステップをさらに備える請求項ないし11のいずれか一項に記載の方法。 12. The method of claim 7, further comprising selecting the first radar return and the second radar return based at least in part on at least one of the first range and the second range, the first position and the second position, or the first velocity and the second velocity . 実行された場合に、1つまたは複数のプロセッサに、請求項ないし12のいずれか一項に記載の方法を実行させる命令を格納する1つまたは複数の非一時的なコンピュータ可読媒体。 One or more non-transitory computer readable media storing instructions that, when executed, cause one or more processors to perform the method of any one of claims 7 to 12 .
JP2021550204A 2019-02-28 2020-02-25 Recognizing radar returns using speed and position information. Active JP7464616B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US16/289,068 2019-02-28
US16/288,990 2019-02-28
US16/288,990 US11255958B2 (en) 2019-02-28 2019-02-28 Recognizing radar reflections using velocity information
US16/289,068 US11353578B2 (en) 2019-02-28 2019-02-28 Recognizing radar reflections using position information
PCT/US2020/019674 WO2020176483A1 (en) 2019-02-28 2020-02-25 Recognizing radar reflections using velocity and position information

Publications (3)

Publication Number Publication Date
JP2022522298A JP2022522298A (en) 2022-04-15
JPWO2020176483A5 JPWO2020176483A5 (en) 2023-03-03
JP7464616B2 true JP7464616B2 (en) 2024-04-09

Family

ID=69941497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550204A Active JP7464616B2 (en) 2019-02-28 2020-02-25 Recognizing radar returns using speed and position information.

Country Status (4)

Country Link
EP (1) EP3931593A1 (en)
JP (1) JP7464616B2 (en)
CN (1) CN113544538A (en)
WO (1) WO2020176483A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11693110B2 (en) 2020-11-04 2023-07-04 Ford Global Technologies, Llc Systems and methods for radar false track mitigation with camera
DE102022211987A1 (en) 2021-11-12 2023-05-17 Zf Friedrichshafen Ag Method, computer program, machine-readable storage medium and system for classifying ghost objects in an environment of a road vehicle, a transportation system and/or a component of a traffic infrastructure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116839A (en) 1999-10-22 2001-04-27 Fujitsu Ten Ltd Sensor for intervehicular distance
JP2003270342A (en) 2002-03-19 2003-09-25 Denso Corp Object recognizing device, object recognizing method, and radar device
JP2009079917A (en) 2007-09-25 2009-04-16 Denso Corp Method and apparatus for detecting vehicle width, and device for controlling vehicle
US20170261602A1 (en) 2014-07-03 2017-09-14 GM Global Technology Operations LLC Vehicle radar methods and systems

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9810782B2 (en) * 2015-03-20 2017-11-07 Delphi Technologies, Inc. Vehicle radar system with image reflection detection
US10296001B2 (en) * 2016-10-27 2019-05-21 Uber Technologies, Inc. Radar multipath processing
JP7053982B2 (en) * 2017-05-25 2022-04-13 ミツミ電機株式会社 Ghost removal method and radar device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116839A (en) 1999-10-22 2001-04-27 Fujitsu Ten Ltd Sensor for intervehicular distance
JP2003270342A (en) 2002-03-19 2003-09-25 Denso Corp Object recognizing device, object recognizing method, and radar device
JP2009079917A (en) 2007-09-25 2009-04-16 Denso Corp Method and apparatus for detecting vehicle width, and device for controlling vehicle
US20170261602A1 (en) 2014-07-03 2017-09-14 GM Global Technology Operations LLC Vehicle radar methods and systems

Also Published As

Publication number Publication date
WO2020176483A1 (en) 2020-09-03
JP2022522298A (en) 2022-04-15
EP3931593A1 (en) 2022-01-05
CN113544538A (en) 2021-10-22

Similar Documents

Publication Publication Date Title
US11776135B2 (en) Object velocity from images
US20220363256A1 (en) Trajectory modifications based on a collision zone
US11351991B2 (en) Prediction based on attributes
US11021148B2 (en) Pedestrian prediction based on attributes
US11126873B2 (en) Vehicle lighting state determination
US11255958B2 (en) Recognizing radar reflections using velocity information
EP3927588A1 (en) Motion prediction based on appearance
US11965956B2 (en) Recognizing radar reflections using position information
JP2022527072A (en) Pedestrian prediction based on attributes
JP2022538535A (en) Depth refinement from images
CN113853533A (en) Yaw rate from radar data
US20210157321A1 (en) Height estimation using sensor data
JP2023547988A (en) Collision avoidance planning system
WO2022125308A1 (en) Determining inputs for perception system
JP7464616B2 (en) Recognizing radar returns using speed and position information.
US20220179089A1 (en) Determining depth using multiple modulation frequencies
US11761780B1 (en) Determining data for semantic localization
US11954877B2 (en) Depth dependent pixel filtering
US11861857B2 (en) Determining pixels beyond nominal maximum sensor depth
US20230003872A1 (en) Tracking objects with radar data
US20230003871A1 (en) Associating radar data with tracked objects
US11953590B1 (en) Radar multipath detection based on changing virtual arrays
US11906967B1 (en) Determining yaw with learned motion model
WO2023219893A1 (en) Sensor calibration validation
WO2023278771A1 (en) Associating radar data with tracked objects

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240328

R150 Certificate of patent or registration of utility model

Ref document number: 7464616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150