JP7464616B2 - Recognizing radar returns using speed and position information. - Google Patents
Recognizing radar returns using speed and position information. Download PDFInfo
- Publication number
- JP7464616B2 JP7464616B2 JP2021550204A JP2021550204A JP7464616B2 JP 7464616 B2 JP7464616 B2 JP 7464616B2 JP 2021550204 A JP2021550204 A JP 2021550204A JP 2021550204 A JP2021550204 A JP 2021550204A JP 7464616 B2 JP7464616 B2 JP 7464616B2
- Authority
- JP
- Japan
- Prior art keywords
- radar
- return
- reflected
- velocity
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 131
- 230000015654 memory Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 description 47
- 238000004422 calculation algorithm Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 230000008447 perception Effects 0.000 description 13
- 230000004807 localization Effects 0.000 description 12
- 230000011514 reflex Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000002592 echocardiography Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010238 partial least squares regression Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000012628 principal component regression Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013488 ordinary least square regression Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/581—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets
- G01S13/582—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/583—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
- G01S13/584—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
Description
本発明のさまざまな例示的な実施形態は、速度および位置情報を使用するレーダ反射の認識に関する。 Various exemplary embodiments of the present invention relate to recognizing radar returns using velocity and position information.
本PCT国際特許出願明細書は、参照により開示のそれぞれが本明細書に組み込まれている、2019年2月28日に出願した米国特許出願第16/288,990号明細書、および2019年2月28日に出願した米国特許出願第16/289,068号明細書の出願日の利益および優先権を主張する。 This PCT International Patent Application claims the benefit of and priority to the filing date of U.S. Patent Application No. 16/288,990, filed February 28, 2019, and U.S. Patent Application No. 16/289,068, filed February 28, 2019, the disclosures of each of which are incorporated herein by reference.
自律車両は、障害物を含む環境を通り抜けるべく様々な方法、装置、およびシステムを利用する。例えば、自律車両は、他の車両、建造物、歩行者などを含むことが可能な区域を通って移動すべくルートプランニング方法、ルートプランニング装置、およびルートプランニングシステムを利用してよい。これらのプランニングシステムは、レーダデータ、LiDARデータ、画像データなどを含むセンサデータに依拠してよい。しかし、ある例において、環境における車両、建造物、および/またはオブジェクトの存在は、例えば、誤検出を含む、不正確な、もしくは誤ったセンサデータをもたらす反射を生じさせる可能性がある。不正確な、かつ/または誤ったセンサデータは、環境を安全に、かつ快適に通り抜けることに難題をもたらす可能性がある。 Autonomous vehicles utilize various methods, devices, and systems to navigate environments that include obstacles. For example, autonomous vehicles may utilize route planning methods, devices, and systems to travel through areas that may include other vehicles, structures, pedestrians, and the like. These planning systems may rely on sensor data, including radar data, LiDAR data, image data, and the like. However, in certain instances, the presence of vehicles, structures, and/or objects in the environment may cause reflections that result in inaccurate or erroneous sensor data, including, for example, false positives. Inaccurate and/or erroneous sensor data may pose challenges to safely and comfortably navigating an environment.
詳細な説明は、添付の図を参照して説明される。図において、参照番号の左端の数字は、その参照番号が最初に出現する図を識別する。異なる図における同一の参照番号の使用は、類似した、もしくは同一の構成要素または特徴を示す。 The detailed description will be described with reference to the accompanying drawings. In the drawings, the leftmost digit(s) of a reference number identifies the figure in which the reference number first appears. Use of the same reference number in different drawings indicates similar or identical components or features.
前段で説明されるとおり、いくつかのタイプのセンサデータ、例えば、レーダデータは、例えば、環境における車両、建造物、および他のオブジェクトからの反射に影響されやすいことがある。そのような反射された反射波は、自律車両が環境を安全に、かつ/または快適に通り抜けることに難題をもたらす可能性がある。これらの存在しない、もしくは幻影の「オブジェクト」に応答してプランニングすることが、車両が不必要なアクション、例えば、制動、ステアリングなどを行うことをもたらすことがある。 As described above, some types of sensor data, e.g., radar data, may be susceptible to reflections, for example, from vehicles, structures, and other objects in the environment. Such reflected clutter can pose challenges to an autonomous vehicle's safe and/or comfortable traversal of the environment. Planning in response to these nonexistent or phantom "objects" can cause the vehicle to take unnecessary actions, e.g., braking, steering, etc.
本出願は、レーダシステムによってキャプチャされるレーダセンサデータにおける反射された反射波を識別するための技法について説明する。一般に、レーダセンサは、センサに戻るのに先立って環境におけるオブジェクトから反射する(もしくははね返る)無線エネルギーを放射してよい。放射されたエネルギーがオブジェクトからレーダセンサに直接に戻るとき、レーダセンサは、オブジェクトについての正確なデータ(例えば、距離、位置、速度、その他)を含むオブジェクト反射波をキャプチャすることが可能である。しかし、ある例において、無線エネルギーは、レーダセンサに戻るのに先立って、環境における多様なオブジェクトから反射することができる。これらの例において、レーダセンサは、反射された反射波をキャプチャすることができる。反射された反射波は、環境におけるオブジェクトを正確には表さない。少なくともある例において、これらの反射波が実際のオブジェクトからであるか、または反射であるかを知ることなしには、自律車両のための安全がクリティカルな経路プランニングは、影響を受けることがある。 This application describes techniques for identifying reflected echoes in radar sensor data captured by a radar system. In general, a radar sensor may emit wireless energy that reflects (or bounces) off objects in the environment before returning to the sensor. When the emitted energy returns directly from the object to the radar sensor, the radar sensor can capture object echoes that contain accurate data about the object (e.g., distance, position, velocity, etc.). However, in some examples, the wireless energy can reflect off a variety of objects in the environment before returning to the radar sensor. In these examples, the radar sensor can capture reflected echoes that do not accurately represent objects in the environment. In at least some examples, without knowing whether these echoes are from actual objects or are reflections, safety-critical path planning for autonomous vehicles can be affected.
ある例において、本明細書において説明される技法は、オブジェクト反射波を知るべく、反射波の、例えば、考慮されている反射波の一対比較を使用して、レーダ反射波が反射された反射波であると決定してよい。より具体的には、知られているオブジェクトに関連付けられていないレーダ反射波は、レーダ反射波が、何らかの仮定的なオブジェクトからのオブジェクト反射波の理論上の反射に全体的に対応するかどうかを決定すべく、オブジェクト反射波(例えば、知られているオブジェクトに関連付けられた反射波)と比較されてよい。ある例において、オブジェクト反射波は、反射波をトラックに関連付ける情報、または他の以前に獲得された情報に基づいて、すべてのレーダ反射波のなかから決定されることが可能である。非限定的な例として、理論上の反射は、オブジェクト速度(レーダ反射波によってもたらされてよいオブジェクト反射波からの大きさおよび方向)を、車両から、考慮されている反射波までに延びる半径方向上に投影することによって決定されることが可能である。例えば、半径方向に沿って延びる、投影された速度の半径成分は、この半径方向に沿ったオブジェクト反射波の反射の予期される速度を表す。したがって、投影された速度の半径成分の大きさが、問題の反射波に関連付けられた速度に対応するとき、反射波は、反射された反射波として識別されてよい。 In one example, the techniques described herein may determine that a radar return is a reflected return using a pairwise comparison of the return, e.g., the return being considered, to know the object return. More specifically, a radar return not associated with a known object may be compared to an object return (e.g., a return associated with a known object) to determine whether the radar return corresponds generally to a theoretical return of the object return from some hypothetical object. In one example, the object return can be determined from among all radar returns based on information relating the return to a track or other previously acquired information. As a non-limiting example, the theoretical return can be determined by projecting the object velocity (magnitude and direction from the object return that may be caused by the radar return) onto a radial direction extending from the vehicle to the return being considered. For example, the radial component of the projected velocity extending along the radial direction represents the expected velocity of the reflection of the object return along this radial direction. Thus, when the magnitude of the radial component of the projected velocity corresponds to the velocity associated with the return in question, the return may be identified as a reflected return.
ある例において、本明細書において説明される技法は、利用可能であるそれまでの知識が存在しないレーダ反射波の一対比較を使用して、反射波が反射されていると決定することができる。例えば、任意の2つの反射波が、それらの反射波のうちの一方が、例えば、それらの反射波のうちのより遠く離れている方が、それらの反射波のうちの他方の反射波であることが理論上、可能であるかどうかを決定すべく、比較されてよい。ある例において、そのような比較は、それらの反射波のうちのより遠い方の位置上に、より近い方の反射波の速度を投影することに基づいてよい。他の例において、それらの反射波の位置が、センサと、それらの反射波のうちのより遠い方との間の線上で理論上の反射点を決定すべく使用されることが可能である。 In one example, the techniques described herein can use pairwise comparisons of radar returns where there is no previous knowledge available to determine that a return is reflected. For example, any two returns can be compared to determine whether it is theoretically possible for one of the returns, e.g., the more distant one of the returns, to be a return of the other of the returns. In one example, such a comparison can be based on projecting the velocity of the closer return onto the location of the more distant one of the returns. In another example, the location of the returns can be used to determine a theoretical reflection point on a line between the sensor and the more distant one of the returns.
ある例において、本明細書において説明される技法は、識別された反射された反射波が、実際に反射であることを確認すべく機能することも可能である。例えば、本明細書において説明される技法は、考慮される反射波が反射された反射波である場合に無線エネルギーが反射されることになる、仮説的な反射点、例えば、考慮されている反射波の半径方向に沿った点を決定することができる。本開示の態様において、環境についてのさらなるセンサ情報、例えば、LiDARデータ、さらなるレーダデータ、飛行時間データ、SONARデータ、画像データなどが、反射点に近接したオブジェクトの存在を確認すべく使用されてよい。別の言い方をすると、仮説的な、または計算された反射点におけるオブジェクトの存在は、反射波が別の反射波の反射された反射波であることをさらに示唆する(かつ/または確認する)ことがある。 In some examples, the techniques described herein may function to verify that an identified reflected echo is in fact a reflection. For example, the techniques described herein may determine a hypothetical reflection point, e.g., a point along the radial direction of the considered echo, from which wireless energy would be reflected if the considered echo were a reflected echo. In aspects of the present disclosure, further sensor information about the environment, e.g., LiDAR data, further radar data, time-of-flight data, SONAR data, image data, etc., may be used to verify the presence of an object proximate to the reflection point. In other words, the presence of an object at the hypothetical or calculated reflection point may further suggest (and/or confirm) that the echo is a reflected echo of another echo.
また、ある実装形態において、本明細書において説明される技法は、探索のためのすべてのレーダ反射波のサブセットを、潜在的な反射された反射波として決定することができる。例えば、レーダ反射波は、反射された反射波である可能性があるレーダ反射波、および/または車両の動作に無視できないほどの影響を有する可能性があるレーダ反射波だけを含むべくフィルタリングされてよい。ある例において、トラック、または他の以前に獲得された情報に関連付けられた反射波は、オブジェクト反射波として、故に、潜在的な反射された反射波ではないものと指定されてよい。さらに、オブジェクト反射波と比べて、車両に比較的より近い、例えば、半径方向でより近い反射波は、反射された反射波であることは可能でなく、故に、本明細書において説明される技法を使用した考慮から除外されてよい。さらに、しきい値速度以下の速度を有するレーダ反射波は、例えば、それらが車両のプランニングシステムによって考慮されないため、無視されてよい。ある例において、しきい値速度は車両からの距離に伴って変動し得る。少なくともある例において、そのようなレーダ反射波をフィルタリングすることが、反射波が実際のオブジェクトの反射であるかどうかを決定するのに要求される時間、処理、および/または要求されるメモリの量を低減することがある。 Also, in some implementations, the techniques described herein may determine a subset of all radar clutters for the search as potential reflected clutters. For example, the radar clutters may be filtered to include only radar clutters that may be reflected clutters and/or that may have a non-negligible effect on the operation of the vehicle. In some examples, clutters associated with tracks or other previously acquired information may be designated as object clutters and thus not potential reflected clutters. Furthermore, clutters that are relatively closer to the vehicle, e.g., radially closer, than the object clutters may not be possible reflected clutters and thus may be excluded from consideration using the techniques described herein. Furthermore, radar clutters having a speed below a threshold speed may be ignored, e.g., because they are not considered by the vehicle's planning system. In some examples, the threshold speed may vary with distance from the vehicle. In at least some instances, filtering such radar returns may reduce the amount of time, processing, and/or memory required to determine whether a return is a reflection of an actual object.
ある例において、反射されたレーダ反射波についての情報が、環境を安全に通り抜けるように自律車両を制御すべく自律車両の車両コンピューティングデバイスによって使用されるように出力されてよい。例えば、車両コンピューティングデバイスは、反射された反射波を、ルートプランニングおよび/または軌道プランニングから除外することができる。このようにして、自律車両は、幻影の「オブジェクト」に応答して制動することも、ステアリングすることも、それ以外でアクションを行うこともない。さらに、車両コンピューティングデバイスは、反射された反射波であると決定された反射波を追跡することも、それ以外で追うこともしなくてよく、このことが、例えば、処理負荷を低減することがある。 In one example, information about the reflected radar returns may be output to be used by a vehicle computing device of the autonomous vehicle to control the autonomous vehicle safely through the environment. For example, the vehicle computing device may exclude the reflected returns from route planning and/or trajectory planning. In this manner, the autonomous vehicle does not brake, steer, or otherwise take action in response to the phantom "object." Additionally, the vehicle computing device may not track or otherwise follow returns that are determined to be reflected returns, which may, for example, reduce processing load.
本明細書において説明される技法は、複数の方法でコンピューティングデバイスの機能を向上させることができる。例えば、車両に関する制御を決定する脈絡において、考慮されるべきデータの量が、例えば、反射された反射波を除外して、その結果、環境についての不必要な決定につぎ込まれる過度のリソースを低減することによって、減らされることが可能である。向上させられた軌道生成が、安全結果を向上させることができ、乗り手体験を向上させること(例えば、幻影のオブジェクトに応答する不必要な制動、幻影のオブジェクトを回避する急な進路変更、およびそれに類することの発生を低減することによって)ができる。コンピュータの機能、および/またはユーザ体験のこれら、およびその他の向上について、本明細書において説明される。 The techniques described herein can improve the functionality of a computing device in multiple ways. For example, in the context of determining control for a vehicle, the amount of data to be considered can be reduced, for example, by filtering out reflected bounces, thereby reducing excessive resources devoted to unnecessary decisions about the environment. Improved trajectory generation can improve safety outcomes and can improve the rider experience (e.g., by reducing the occurrence of unnecessary braking in response to phantom objects, sudden turns to avoid phantom objects, and the like). These and other improvements in computer functionality and/or user experience are described herein.
本明細書において説明される技法は、複数の方法で実施されることが可能である。例示的な実装形態が、添付の図を参照して後段で与えられる。自律車両の脈絡において説明されるものの、本明細書において説明される方法、装置、およびシステムは、様々なシステム(例えば、ロボットプラットフォーム)に適用されることが可能であり、自律車両に限定されない。別の例において、技法は、航空もしくは航海の脈絡で、またはマシンビジョンを使用する任意のシステムにおいて利用されることが可能である。 The techniques described herein can be implemented in multiple ways. Exemplary implementations are provided below with reference to the accompanying figures. Although described in the context of an autonomous vehicle, the methods, apparatus, and systems described herein can be applied to a variety of systems (e.g., robotic platforms) and are not limited to autonomous vehicles. In another example, the techniques can be utilized in an aviation or nautical context, or in any system that uses machine vision.
図1は、車両102が動作している環境100の概略図である。例示される例において、車両102は、その環境において走行しているものの、他の例において、車両102は、環境100において静止していてよく、かつ/または駐車していてよい。車両102は、環境100を表すデータをキャプチャする1つまたは複数のレーダセンサシステム104を含む。例として、限定としてではなく、車両102は、運転者(または搭乗者)がいずれの時点でも車両を制御することが予期されることなく、移動全体にわたってすべての安全がクリティカルな機能を実行することができる車両について説明する、米国運輸省道路交通安全局によって発行されたレベル5分類により動作するように構成された自律車両であることが可能である。そのような例において、車両102は、すべての駐車機能を含め、開始から停止まですべての機能を制御するように構成されることが可能であるので、搭乗者なしであることが可能である。これは、例に過ぎず、本明細書において説明されるシステムおよび方法は、運転者によって常時、手動で制御される必要がある車両から、部分的に、または完全に自律的に制御される車両までに及ぶ車両を含め、任意の陸路車両、空路車両、または水路車両に組み込まれることが可能である。車両102に関連付けられたさらなる詳細について、後段で説明される。
1 is a schematic diagram of an
車両102は、例えば、概ね、1つまたは複数の他のオブジェクトに対して矢印106によって示される方向で、環境100を通って移動してよい。例えば、環境100は、さらなる車両108(概ね矢印110によって示される方向で移動する)などの動的オブジェクトと、第1の駐車された車両112(1)、第2の駐車された車両112(2)、第3の駐車された車両112(3)(ひとまとめにして、「駐車された車両112」)、第1の建造物114(1)、第2の車両114(2)、および第3の車両114(3)(ひとまとめにして、「建造物114」)などの静止オブジェクトとを含んでよい。さらなる車両106、駐車された車両112、および建造物114は、環境100にあってよいオブジェクトの例に過ぎず、車両、歩行者、自転車に乗った人、樹木、道路標識、設備などを含むが、これらには限定されないさらなるオブジェクト、および/または異なるオブジェクトが、さらに、または代替として環境100にあってもよい。
The
少なくとも1つの例において、前段で述べられるとおり、車両102は、レーダセンサ104に関連付けられることが可能であり、レーダセンサ104は、車両102の上に配置されることが可能である。レーダセンサ104は、オブジェクトまでの範囲、および/またはオブジェクトの速度を測定するように構成されてよい。ある例示的なシステムにおいて、レーダセンサ104は、ドップラセンサ、パルス型センサ、連続波周波数変調(CFWM)センサなどを含んでよい。レーダセンサ104は、所定の間隔で無線エネルギーのパルスを発してよい。ある実装形態において、間隔は、例えば、比較的遠い距離、または比較的近い距離におけるオブジェクトの強化された検出を促進すべく、構成可能であってよい。一般に、レーダセンサ104によって発せられる無線エネルギーのパルスは、環境100におけるオブジェクトから反射し、例えば、レーダデータまたはレーダ反射波として、レーダセンサ104によって受信されることが可能である。
In at least one example, as described above, the
図1の例において、レーダセンサ104によって、概ね矢印116の方向に沿って発せられる無線エネルギーが、さらなる車両108と接触して、例えば、概ね矢印118の方向に沿って、レーダセンサ104に向かって戻るように反射されることがある。この例において、無線エネルギーは、オブジェクト反射波経路120であることが可能な、概ね同一の経路に沿って発せられ、戻る。オブジェクト反射波経路120は、例示される例において実質的に直線である。オブジェクト反射波経路120に沿って反射された無線エネルギーは、例えば、オブジェクト反射波122として、レーダセンサ104によってキャプチャされる。オブジェクト反射波122は、キャプチャされたデータに基づいて決定された位置におけるブロックとして例示される。例えば、オブジェクト反射波122に関連付けられた情報は、環境における位置、例えば、さらなる車両108の位置を示す情報を含んでよい。位置情報は、車両102に対する範囲および方位角、または局所座標系もしくは全体座標系における位置を含んでよい。また、実装形態において、オブジェクト反射波122は、信号強度情報を含んでよい。例えば、信号強度情報は、オブジェクトのタイプを示すことが可能である。より具体的には、無線波が、或る形状および/または或る成分を有するオブジェクトによってより強く反射されることがある。例えば、広い、平坦な表面、および/または鋭い端部が、丸い表面と比べて、より反射性が高く、金属が、人と比べて、より反射性が高い。ある例において、信号強度は、レーダ断面積(RCS)測定を含んでよい。また、オブジェクト反射波122は、速度情報を含んでもよい。例えば、さらなる車両108の速度が、さらなる車両108によって反射された無線エネルギーの周波数、および/または反射された無線エネルギーが検出された時刻に基づいてよい。
In the example of FIG. 1, wireless energy emitted by the
オブジェクト反射波122は、例えば、さらなる車両108に対応する、レーダセンサ104によってキャプチャされた正確なデータの例であってよい。しかし、レーダセンサ104は、信頼性のより低いことがある反射波をキャプチャすることも可能である。例えば、図1は、概ね矢印124の方向に沿ってレーダセンサ104によって発せられた無線エネルギーが、概ね矢印126の方向に沿って進むように、第1の建造物114(1)から反射することがあることも例示する。例示される例において、第1の建造物114(1)から反射された無線エネルギーは、次に、概ね矢印128の方向に沿って、すなわち、矢印126の方向とは反対に、第1の建造物114(1)に向かって戻るようにさらなる車両108によって反射されることがある。最後に、無線エネルギーは、次に、第1の建造物114(1)から再び反射して、概ね矢印130の方向に沿ってレーダセンサ104に戻ることがある。したがって、さらなる車両108から反射された無線エネルギーは、さらなる車両108と第1の建造物114(1)の間の第1の区間134と、第1の建造物114(1)と車両102(例えば、レーダセンサ104)の間の第2の区間136とを含む第1の反射の反射波経路132に沿ってレーダセンサ104に戻ることがある。そのような反射されたエネルギーは、第1の反射された反射波138としてレーダセンサ104によってキャプチャされてよい。図1に例示されるとおり、第1の反射された反射波138は、第2の区間136の方向に沿って、例えば、矢印124、130に沿って受信されるが、第1の反射された反射波経路132の距離、例えば、第1の区間134の距離と第2の区間136の距離の合計である距離と等しい範囲を有する。図1および前述の説明から理解されるとおり、第1の反射された反射波138は、第1の反射された反射波138に対応する位置における、すなわち、第2の区間136の方向に沿ったオブジェクトの存在を示唆する。しかし、本明細書において説明されるとおり、そのような「オブジェクト」は、存在しない、幻影の「オブジェクト」である。
The
図1は、レーダセンサ104が、第1の駐車された車両112(1)およびさらなる車両108から反射された無線エネルギーに対応する第2の反射された反射波140をキャプチャすることもできることを例示する。より具体的には、概ね矢印142の方向に沿ってレーダセンサ104によって発せられた無線エネルギーが、概ね矢印144の方向に沿って進むように第1の駐車された自動車112(1)から反射することがある。無線エネルギーは、次に、さらなる車両108と接触して、概ね矢印146の方向に沿って、すなわち、矢印144の方向とは反対に、第1の駐車された自動車112(1)に向かって戻るように反射することがある。最後に、無線エネルギーは、次に、概ね矢印148の方向に沿って、第1の駐車された車両116(1)から再び反射することがある。したがって、第2の反射された反射波140に対応する無線エネルギーは、さらなる車両108と第1の駐車された車両112(1)の間の第1の区間156と、第1の駐車された車両112(1)と車両102(例えば、レーダセンサ104)の間の第2の区間158とを含む第2の反射された反射波経路154に沿って移動することがある。図1に例示されるとおり、第2の反射された反射波は、第2の区間158に沿って、例えば、矢印142、148の方向に沿って受信された無線エネルギーについての情報を含むが、第2の反射された反射波経路154の距離、例えば、第1の区間156の距離と第2の区間158の第2の距離の合計である距離と等しい範囲を有する。図1、および前述の説明から理解されるとおり、第2の反射された反射波140は、第2の反射された反射波140に対応する位置における、すなわち、第2の区間158の方向に沿ったオブジェクトの存在を示唆する。しかし、本明細書において説明されるとおり、そのような「オブジェクト」は、存在しない、幻影の「オブジェクト」である。
1 illustrates that the
図1によって例示される位置情報(例えば、範囲および方位角からの)を含めることに加えて、オブジェクト反射波122、第1の反射された反射波138、および第2の反射された反射波140(本明細書において、第1の反射された反射波138と第2の反射された反射波140は、「反射された反射波138、140」と呼ばれてよい)は、速度情報も含んでよい。より具体的には、オブジェクト反射波122は、例えば、矢印118の方向に沿った(さらなる車両108の)速度に対応する、オブジェクト速度160についての情報を含んでよい。同様に、第1の反射された反射波138は、第1の反射された反射波速度162、例えば、第1の反射された反射波経路132の第2の区間136の方向に沿った速度についての情報を含んでよく、第2の反射された反射波140は、第2の反射された反射波速度164、例えば、第2の反射された反射波経路154の第2の区間158の方向に沿った速度についての情報を含んでよい。したがって、オブジェクト反射波122は、さらなる車両108についての情報(例えば、位置、速度)をもたらす一方で、第1の反射された反射波138は、オブジェクト(幻影のオブジェクト)が、第1の反射された反射波速度162でその反射波に関連付けられた位置から接近していることを示唆し、第2の反射された反射波140は、オブジェクト(幻影のオブジェクト)が、第2の反射された反射波速度164でその反射波に関連付けられた位置から接近していることを示唆する。本明細書において説明されるとおり、車両102は、他にも機能のあるなかで、とりわけ、受信されたセンサデータに基づいて環境100におけるオブジェクトに対するルート、軌道、および/または制御を決定するプランニングシステムを含んでよい。しかし、反射された反射波138、140を使用するプランニングシステムは、実際には存在しないオブジェクトに反応するようにプランニングすることがある。
In addition to including position information (e.g., from range and azimuth) as illustrated by FIG. 1, the
本明細書において説明される技法は、反射波138、140などの反射波を反射された反射波として認識することによって、プランニングシステム精度およびプランニングシステムパフォーマンスを向上させることがある。例えば、図1にさらに例示されるとおり、レーダセンサ104は、車両102に関連付けられた複数のセンサシステム164のうちの1つであってよい。ある例において、センサシステム164は、さらなるレーダセンサ、光検出および測距(LiDAR)センサ、超音波トランスデューサ、音響航法および測距(ソナー)センサ、位置センサ(例えば、全地球測位システム(GPS)、COMPASS、その他)、慣性センサ(例えば、慣性測定ユニット、加速度計、磁力計、ジャイロスコープ、その他)、カメラ(例えば、RGB、IR、強度、深度、飛行時間、その他)、ホイールエンコーダ、マイクロホン、環境センサ(例えば、温度センサ、湿度センサ、光センサ、圧力センサ、その他)、その他を含んでよい、1つまたは複数のさらなるセンサ166をさらに含んでよい。
The techniques described herein may improve planning system accuracy and planning system performance by recognizing reflected waves such as reflected waves 138, 140 as reflected reflected waves. For example, as further illustrated in FIG. 1, the
図1にやはり例示されるとおり、レーダセンサ104は、レーダデータ168を生成することができ、さらなるセンサ166は、センサデータ170を生成することができる。レーダデータ168は、オブジェクト反射波122、第1の反射された反射波138、および第2の反射された反射波140についての、これらの反射波に関連付けられた位置、速度、および/またはその他の情報を含むが、これらには限定されない情報を含んでよい。また、ある例において、レーダデータ168は、RCS測定を含んでよい、信号強度情報を含んでもよい。また、レーダデータは、センサの向き、例えば、車両に対するセンサの体勢、センサに関するパルス繰り返し周波数(PRF)もしくはパルス繰り返し間隔(PRI)、視野もしくは検出アークなどを含むが、これらには限定されない、センサについての特定の情報を含むことも可能である。ある実装形態において、レーダデータ168の一部の態様、例えば、視野、向き、PRFもしくはPRIなどは、事前構成されてよく、その場合、そのデータは、例えば、ストレージにおいて利用可能であってよく、例えば、レーダ反射波と一緒に転送されなくてもよい。センサデータ170は、環境100および/またはさらなるセンサ166についての任意の情報を含むことが可能である。非限定的な例として、さらなるセンサ166がLiDARセンサを含むとき、センサデータ170は、点群データを含んでよく、さらなるセンサ166がカメラを含むとき、センサデータ170は、画像データを含んでよい。レーダセンサ104およびさらなるセンサ166は、異なるセンサシステム164に関して同一であっても、異なってもよい、それぞれ、所定の間隔でレーダデータ168およびセンサデータ170を生成してよい。例えば、レーダセンサ104は、反射波がキャプチャされ、かつレーダデータ168が生成されるスキャンニング周波数を有してよい。
1, the
レーダデータ168およびセンサデータ170は、1つまたは複数の車両コンピューティングデバイス172において受信されることが可能であり、かつ車両コンピューティングデバイス172によって、例えば、プランニングシステム(図示されない)を使用してプランニングを実行すべく利用されることが可能である。例示される例において、センサシステム164および車両コンピューティングデバイス172は、例えば、車両102上に配置されて、車両102の一部である。しかし、他の例において、センサシステム164および/または車両コンピューティングデバイス172のうちのいくつか、またはすべては、車両102とは別個であってよく、かつ/または車両102から遠隔に配置されてよい。そのような構成において、データキャプチャ、処理、コマンド、および/または制御は、有線ネットワークおよび/または無線ネットワークを経由して1つまたは複数の遠隔コンピューティングデバイスによって車両102に/車両102から通信されてよい。
The
少なくとも1つの例において、車両コンピューティングデバイス172は、反射認識の構成要素174におけるセンサシステム164によってキャプチャされたレーダデータ168およびセンサデータ170を利用することができる。例えば、反射認識の構成要素174は、オブジェクト反射波122と、第1の反射された反射波138と、第2の反射された反射波140とを含むレーダデータ168を受信すること、および反射された反射波138、140が、環境における実際のオブジェクトに関連付けられた反射波ではなく、反射された反射波であると決定することができる。この区別をすることによって、反射認識の構成要素174は、プランニングシステムにオブジェクト反射波122だけを送ること(反射された反射波138、140は送ることなく)、ならびに/またはオブジェクトの推定される位置および/または推定される速度をさらに改良すべくさらなる反射波を使用することができる。したがって、制御プランニングが、反射された反射波138、140を除外して実施されることが可能である。図2を参照して後段でより詳細に説明されるとおり、反射認識の構成要素174は、オブジェクト反射波122と、反射波138および/または反射波140などのさらなる反射波などの2つの反射波を比較することによって、反射波(例えば、候補反射波または未確認反射波)が反射された反射波であるかどうかを決定することができる。例えば、反射認識の構成要素174は、オブジェクト反射波122などの知られているオブジェクト反射波を、未確認反射波に関連付けられた方向、例えば、レーダセンサ104から半径方向に延び、かつその未確認反射波を通過する方向に沿って延びる線上に「投影する」ことができる。オブジェクト反射波122を投影するための技法は、図2を参照して後段でより詳細に説明されるが、反射波の投影は、未確認反射波(例えば、レーダセンサ104に対する半径方向)に関連付けられた速度の方向と同一の方向を有する速度成分を有する。また、反射認識の構成要素174は、オブジェクト反射波122の投影に関連付けられた速度の大きさを決定することもできる。ある実装形態において、この大きさが、未確認反射波の速度の大きさと合致する場合、反射認識の構成要素174は、未確認反射波が反射された反射波である(またはそうである尤度が高い)と決定することができる。本明細書において使用されるとおりの大きさは、それらが実質的に等しい場合、例えば、何らかのしきい値範囲内または誤差の範囲内である場合、合致することがある。
In at least one example, the vehicle computing device 172 can utilize the
反射認識の構成要素174は、環境におけるオブジェクトおよび/または環境自体のいくらかの演繹的知識を利用してよい。例えば、反射認識の構成要素174は、知られているオブジェクト反射波である反射波だけを投影してよい。ある例において、この知識は、さらなる車両108などのオブジェクトを追跡すること、および/または前もって識別することによるものであってよい。例えば、そのような追跡および/または識別は、オブジェクトを感知して以前にキャプチャされたレーダデータ168および/または以前にキャプチャされたセンサデータ170に基づいてよい。例えば、さらなる車両108などのオブジェクトは、数秒間にわたって、かつ/または拡大された距離で追跡されてよい。他方、反射された反射波は、それらが、車両102、さらなる車両108、および介在する、反射するオブジェクト/表面(例えば、第1の駐車された車両112(1)および第1の建造物114(1))の整列を要求するので、より一過性であることがある。それらのオブジェクトのうちの1つまたは複数が動くと、反射された反射波を可能にする条件(例えば、相対的な整列および/または向き)が消えて、反射された反射波を、レーダセンサ104の後続のスキャンから消失させることがある。さらに、または代替として、車両102に利用可能なマップデータ(車両102の位置に基づいて、ときどき、ダウンロードされてよいような、またはそれ以外で車両がアクセス可能であるような)が、例えば、局所3次元環境のメッシュなどの、環境の3次元表現を備えてよい。そのような例において、反射認識の構成要素174は、対応する建造物114(1)の知識に基づいて、第1の反射された反射波138が非物質的な反射波であると決定してよい。
The
また、反射認識の構成要素174は、候補反射波が反射された反射波であるという構成要素174の決定を確認する機能を含むこともできる。ある例において、反射認識の構成要素174は、反射波を、例えば、レーダデータ168として受信される後続のスキャンにわたって、追跡しようと試みることができる。前段で述べられるとおり、さらなる車両108に対する車両102の相対的な動きが、反射条件が弱まることをもたらして、それ故、反射された反射波に関連付けられた「オブジェクト」に対応する後続の反射波を受信できないことをもたらすことがある。しかし、潜在的な(接近中の)オブジェクトを、そのオブジェクトのトラックが連続的に収集されたレーダスキャンにわたって検証され得るまで無視することは、反応時間を遅くすることがあり、このことは、安全でないことがあり得る。したがって、他の実装形態において、反射認識の構成要素174は、例えば、センサデータ170および/またはレーダデータ168を使用して、反射性のオブジェクトが反射された反射波に向かう方向に沿って配置されているかどうかを決定することができる。図1を参照すると、ある例において、LiDARデータ、画像データ、またはこれらの類するものが、第1の駐車された車両112(1)および/または第1の建造物114(1)の存在を確認してよい。したがって、反射認識の構成要素174は、第1の駐車された車両112(1)および/または第1の建造物114(1)を識別すること、および、例えば、それぞれの反射された反射波経路132、154の区間の間のジャンクションにおける、それらのオブジェクトの位置に基づいて、反射波が反射された反射波138であるという以前の決定を確認することができる。マップデータが、静的な、固定されたオブジェクト、例えば、建造物114、地形、道路標識、ユーティリティ設備などを識別するのに役立つことがある。しかし、リアルタイムの、またはほぼリアルタイムのセンサデータが、静的であるか、動的であるかにかかわらず、可動のオブジェクトを識別するのに要求されることがある。例えば、駐車された車両112、歩行者、自転車に乗った人、他の動いている車両などが、マップデータを介しては利用可能でないことがある。
The
ある実装形態において、反射認識の構成要素174は、レーダ反射波が反射された反射波であるかどうかを、リアルタイムで、またはほぼリアルタイムで決定すべくレーダ反射波を処理することができる。例えば、反射認識の構成要素174は、複数の反射波を、例えば、並行して、オブジェクト反射波122などの知られているオブジェクト反射波と比較することができる。1つの例において、レーダスキャンにおける知られていないオブジェクト反射波であるすべての反射波が、そのような反射波が反射であるかどうかを決定すべく、知られているオブジェクト反射波と比較されてよい。他のある実装形態において、反射認識の構成要素174は、例えば、反射である尤度が低い、または反射であることが物理的にあり得ない点を除外すべく、反射波をフィルタリングすることができる。非限定的な例として、知られているオブジェクト反射波と比べて、比較的より近い反射波は、オブジェクト反射波の反射ではあり得ない。他の例において、反射認識の構成要素174は、或るしきい値を下回る速度、または0の速度を示す反射波を除外してよい。また、他のフィルタリング技法が、使用されてもよい。
In some implementations, the
本明細書において説明される例は、点または反射波を知られているオブジェクト反射波122と比較してよいものの、他の例において、反射認識の構成要素174は、さらに、または代替として、反射波の対を、例えば、それらの反射波のうちの一方が知られているオブジェクト反射波であるという知識なしに、比較することができる。より具体的には、本明細書において説明される技法は、2つの反射波が互いの反射である可能性があると決定することを、それらの反射波のうちの一方がオブジェクト反射波であるかどうかにかかわらず、行うことができる。例えば、反射波の対が考慮されるとき、より遠く離れた方の反射波に、潜在的な反射としてタグが付けられること、またはそれ以外でそうであるものとして指定されることが可能である。さらなる処理が、より近い方の反射波が環境におけるオブジェクトに関連付けられる(または、それ以外で、より遠く離れた方の反射波が反射に関連付けられる)かどうかを決定するための基礎として使用されることが可能である。反射認識の構成要素174は、一対比較のための点のサブセットを識別すべく、本明細書において説明される高レベルのフィルタリングを実行することができる。非限定的な例として、しきい値速度を下回る反射波は、省かれてよく、位置および/または速度にあまりにも大きな違い(例えば、しきい値差以上である)を有する対は、比較などされなくてもよい。少なくともある例において、様々な技法が、反射波が反射であるかどうかについての確かさのレベルを向上させるべく組み合わされてよい。
While the examples described herein may compare points or reflections to known
図2は、本開示のさらなる態様を示す環境100の別の概略図である。混乱を回避すべく、環境100のような、図2を参照して具体的に説明される図1からの要素は、図1と図2において同一の参照番号を含む。さらに、明確にするため、環境100のある要素は、図2においてグレー表示される。
FIG. 2 is another schematic diagram of
より具体的には、図2は、車両102、さらなる車両108、第1の駐車された車両112(1)、および第1の建造物114(1)を示す。また、図2は、オブジェクト反射波122、第1の反射された反射波138、および第2の反射された反射波140も示す。図1に関連して前段で述べられるとおり、オブジェクト反射波122、および反射された反射波138、140は、レーダセンサ104において受信された無線エネルギーの属性に基づく位置情報および速度情報を含んでよい。例えば、車両102とさらなる車両108の両方を通過する線202に沿って車両102から或る距離の間隔が空けられたオブジェクト反射波122が、オブジェクト反射波の位置(それ故、さらなる車両108の位置も)とオブジェクト反射波速度160の両方を示してよい。述べられるとおり、オブジェクト反射波122は、例えば、線202に沿った、さらなる車両108からの知られている(例えば、トラックなどの、環境100および/またはさらなる車両108についての以前に獲得されたデータから)直接の反射であるため、オブジェクト反射波は、さらなる車両108の一部分の正確な表現であると考えられてよい。前段で述べられるとおり、オブジェクト、例えば、さらなる車両108の存在、または反射波がオブジェクト反射波、例えば、オブジェクト反射波122であるという知識は、すべての例において要求されなくてよい。本明細書において説明される技法は、反射波が互いの反射である尤度を決定すべく反射波の一対比較に適用してよい。
More specifically, FIG. 2 shows the
また、反射された反射波138、140は、レーダセンサ104において受信された無線エネルギーに関連付けられた少なくとも位置情報および速度情報も含む。前段で述べられるとおり、第1の反射された反射波138は、線204に沿った例示される位置における第1の反射された反射波速度についての情報を含む。線204に沿った第1の反射された反射波138の距離は、レーダセンサ104によって決定された距離または範囲であり、かつ受信された無線エネルギーによってたどられた距離、例えば、図1に示される第1の反射された反射波経路132に対応する距離に対応する。同様に、第2の反射された反射波140は、線206に沿った例示される位置における第2の反射された反射波速度についての情報を含む。線206に沿った第2の反射された反射波140の距離は、レーダセンサ104によって決定された距離または範囲であり、かつ受信された無線エネルギーによってたどられた距離、例えば、図1に示される第2の反射された反射波経路154に対応する距離に対応する。
The reflected echoes 138, 140 also include at least position and velocity information associated with the wireless energy received at the
本明細書において説明される技法は、レーダ反射波が反射された反射波であるかどうかを決定すべく環境100における幾何を利用してよい。例えば、レーダセンサ104におけるキャプチャ時点で、オブジェクト反射波122および反射された反射波138、140は、反射波であるに過ぎない。環境100および/または環境100におけるオブジェクトについてのいくらかの以前に獲得された知識を介して初めて、オブジェクト反射波122にさらなる車両108が確かさをもって割り当てられることが可能である。ある例において、車両102に関連付けられたトラッカまたは他の構成要素が、さらなる車両108を追跡していてよく、反射波は、それが、トラックに関連付けられた予期と合致する場合、オブジェクト反射波122として識別される。他の例において、本明細書において説明されるとおり、オブジェクト反射波122は、オブジェクト反射波122にさらなる車両108が割り当てられるかどうかにかかわらず、例えば、反射波対における一方の反射波として考えられることが可能である。オブジェクト反射波122は、さらなる車両108の前部で中央に位置付けられた位置において、単一の点として例示される一方で、オブジェクト反射波122は、他の1つまたは複数の反射波、および/またはさらなる車両108上の他の1つまたは複数の位置に対応してよい。非限定的な例として、オブジェクト反射波の属性、例えば、オブジェクト反射波速度160は、さらなる車両108に関連付けられた複数の反射波に基づいて決定されてよい。例えば、オブジェクト反射波122は、さらなる車両108からの複数の反射波の平均であってよい。
The techniques described herein may utilize geometry in the
前段で述べられるとおり、オブジェクト反射波122とは異なり、反射された反射波は、いくつかの条件、例えば、幾何的条件(反射された反射波が不規則に動くこと、または存在するようになったり、存在しなくなったりすることをもたらすことがある)が存在する場合にだけ生じて、一過性であることがある。それ故、反射された反射波についてのトラックも、その他の演繹的の知識もまったく存在しない。しかし、本明細書において説明される技法は、反射波が反射であるか、または環境100における実際のオブジェクトに直接に対応することがあるかを決定する。
As mentioned in the previous paragraph, unlike
前段で述べられるとおり、第1の反射された反射波138は、線204に沿って位置付けられた反射波に対応する。第1の反射された反射波138を反射された反射波として特性化すべく、本明細書における技法は、その反射波を、オブジェクト反射波122と一緒に対として考えてよい。例えば、線204の方向が知られており、かつ線204上のレーダセンサに対しての第1の反射された反射波138の位置が知られているため、オブジェクト反射波122が、第1の反射された反射波の位置上に投影されることが可能である。概念的に、オブジェクト反射波122を投影することは、オブジェクト反射波122に関連付けられた位置(例えば、半径方向の線202に沿った)を、第1の反射された反射波138に関連付けられた位置(例えば、半径方向の線204に沿った)と結び付ける線208を決定することを含むことが可能である。やはり例示されるとおり、線208に垂直であり、かつ線208を二分する線210が、反射点212で線204と交差し、その結果、反射点212とオブジェクト反射波122の間の線分214の距離は、反射点212と第1の反射された反射波138の間の線分216の距離と等しい。さらに、オブジェクト反射波速度160は、線210を軸にして、第1の反射された速度218として反射されることが可能である。ひとたび決定されると、第1の反射された速度218は、2つの速度成分、すなわち、概ね線204に沿った半径方向速度成分220と、半径方向速度成分220に垂直である接線速度成分222とに解析されることが可能である。半径方向速度成分220は、第1の方向204に沿ったオブジェクト反射波122の投影された速度である。別の言い方をすると、第1の投影された速度は、第1の反射された速度218の半径方向速度成分220であり、第1の反射された速度218は、オブジェクト反射波速度160を表すベクトルの、線210を軸にした鏡像である。
As described above, the first reflected echo 138 corresponds to a echo located along the
図2の例において、半径方向速度成分220(投影された速度)は、さらなる車両108からはね返る無線エネルギーが反射点212においても反射されたとした場合にレーダセンサ104によって感知されることになる速度(すなわち、大きさおよび方向)である。理解されるとおり、第1の反射された速度218の半径方向速度成分220は、第1の反射された反射波速度162(図1に示され、図2には示されない)と同一の方向に沿っている(すなわち、線204に沿っている)。それ故、半径方向速度成分220(第1の投影された速度)の大きさと第1の反射された反射波速度162の大きさが、例えば、互いの所定のしきい値内もしくは所定の範囲内で、実質的に似通っている場合、第1の反射された反射波138には、反射である尤度が高いものとしてフラグ設定される、タグが付けられる、またはそれ以外で識別されることが可能である。
In the example of FIG. 2, the radial velocity component 220 (projected velocity) is the velocity (i.e., magnitude and direction) that would be sensed by the
図2は、第2の反射された反射波140が反射された反射波であるかどうかを決定することの類似した概念化を示す。例えば、第2の反射された反射波140の位置における第2の反射された速度224は、線226を軸にしたオブジェクト反射波速度160の鏡像であってよい。線226は、オブジェクト反射波122の位置と第2の反射された反射波140の位置の間に延びる線228に垂直であり、線228を二分する。第2の反射された速度224は、半径方向速度成分230、すなわち、半径方向の線206に沿った成分と、接線速度成分232、すなわち、半径方向の線206に垂直である成分とを含む。
2 shows a similar conceptualization of determining whether the second reflected wave 140 is a reflected wave. For example, the second reflected velocity 224 at the location of the second reflected wave 140 may be a mirror image of the object reflected
やはり図2に示されるとおり、線226は、反射点234において半径方向の線206と接触する。前段で述べられるとおり、第2の投影された速度224の半径方向速度成分230は、さらなる車両108からはね返されて、反射点234においてレーダセンサ104に戻るように反射する無線エネルギーに関連付けられた反射波の投影された、例えば、予期される、速度(すなわち、方向および大きさ)である。別の言い方をすると、半径方向速度成分230は、投影された速度であり、かつ反射点234における反射に関連付けられた予期される反射波に対応する。第1の投影された反射波の場合と同様に、半径方向速度成分230の方向は、第2の反射された反射波速度164の方向と実質的に同一である。それ故、これらの方向はともに、線206に沿っている。したがって、半径方向速度成分230(第2の投影された反射波)の大きさと第2の反射された反射波速度164の大きさが実質的に同一である場合、第2の反射された反射波140には、反射である尤度が高いものとしてタグが付けられる、フラグ設定される、またはそれ以外で識別されることが可能である。
2, the
本開示の実装形態において、本明細書においてさらに説明されるとおり、反射された反射波138、140が、例えば、それぞれの半径方向速度成分220、230が、第1の反射された反射波速度162、および第2の反射された反射波速度164と実質的に同一であるために、反射された反射波であると決定した後、車両102は、プランニングから、反射された反射波138、140を無視する、例えば、除外することができる。また、車両102は、例えば、オブジェクトが反射点212、234のそれぞれに存在すると決定することによって、反射を確認してもよい。例えば、車両102は、本明細書において説明されるとおり、センサデータ、マップデータなどを使用してオブジェクトの存在を確認することができる。少なくともある例において、反射波は、他の構成要素が、それらの反射波に関連付けられた、対応するオブジェクトがまったく存在しないことがあることを意識していてよいようにフラグ設定されてよい。
In an implementation of the present disclosure, as described further herein, after determining that the reflected reflections 138, 140 are reflected reflections, e.g., because the respective radial velocity components 220, 230 are substantially identical to the first reflected
また、図2は、歩行者236が建造物238を出て、環境100に入る別の例示的な実装形態も示す。例示されるとおり、歩行者236は、第2の反射された反射波140に関連付けられた位置に近い位置で環境に入ってよい。レーダセンサ104が、新たに存在する歩行者についての情報を含むレーダデータを生成してよい。歩行者236は、以前から追跡されてきたわけではないため、すなわち、歩行者236は、出現したばかりであるため、本明細書において説明される実装形態は、本明細書において説明される技法を使用して、歩行者236に関連付けられた反射波を、知られているオブジェクト反射波、例えば、オブジェクト反射波122と比較してよい。例えば、オブジェクト反射波速度160が、歩行者236に関連付けられた位置上に投影されてよい。歩行者236は、さらなる車両108と比べて、レーダセンサ104からより遠く離れているため、反射点も識別されることが可能である。例示される例において、反射点は、反射点234に近い。また、歩行者反射波の位置における投影されたオブジェクト反射波速度の半径方向成分が、他の例における場合と同様に決定されることも可能である。しかし、歩行者反射波は、反射された反射波ではないため、投影されたオブジェクト反射波速度の半径方向速度成分の速度の大きさは、似ていない尤度が高い。例えば、歩行者が、レーダセンサ104に向かう歩行者の速度の成分が、反射された反射波の速度と合致する様態で歩行しているのでない限り、歩行者反射波は、反射として(正しく)識別されない。歩行者反射波が反射ではないと決定すると、歩行者の動きが、追跡されてよく、かつ/または歩行者236についての情報が、車両に関する制御を生成すべく使用されてよい。
2 also illustrates another exemplary implementation in which a
本開示の態様は、図2に示される例示的な実装形態に限定されない。例えば、本明細書において説明される技法は、車両102からの反射を含め、環境における他のオブジェクトの反射を識別するのに使用されることが可能である。ある例において、さらなる車両108によって反射された無線エネルギーは、レーダセンサ104によってキャプチャされる前に、車両102から反射する(またははね返る)こと、さらなる車両108(または他のオブジェクト)に戻るように伝わること、およびさらなる車両から再び反射することが可能である。別の言い方をすると、検出された無線エネルギーは、レーダセンサにおいてキャプチャされる前に、線202に沿った経路を4回(各方向で2回)通ることが可能である。この「二重はね返り」は、方向202に沿って、ただし、車両102から2倍の距離で反射波をもたらすことがある。ある例において、速度の大きさは、オブジェクト反射波速度の大きさとは異なり(例えば、半分の速度)、このことが、反射された反射波の識別をもたらすことができる。
Aspects of the present disclosure are not limited to the exemplary implementation shown in FIG. 2. For example, the techniques described herein can be used to identify reflections of other objects in the environment, including reflections from the
さらに、図2は、介在する、反射するオブジェクトを、静止したオブジェクトとして例示する一方で、他の実装形態において、本明細書において説明される技法は、反射波が、動くオブジェクトから反射されるかどうかを決定することも可能である。例えば、介在するオブジェクトの速度が、知られ(例えば、他のレーダ反射波から)、その速度が、投影された速度の半径方向成分を変えるべく使用されることが可能である。また、他の変更も企図される。 Furthermore, while FIG. 2 illustrates the intervening, reflecting objects as stationary objects, in other implementations, the techniques described herein can also determine whether a return is reflected from a moving object. For example, the velocity of the intervening object can be known (e.g., from other radar returns) and that velocity can be used to vary the radial component of the projected velocity. Other modifications are also contemplated.
図3は、環境100の別の概略図を示し、反射波が他の反射波の反射である(またはそうである尤度が高い)かどうかを決定するための代替の方法を例示すべく使用される。より具体的には、図3は、反射点を決定すべく幾何を使用する技法を例示してよく、この反射点が、次に、例えば、反射点が環境におけるオブジェクトに対応するかどうかを決定すべく、環境情報と比較されてよい。
Figure 3 shows another schematic diagram of the
より具体的には、図3は、オブジェクト反射波122(さらなる車両108からの)および第1の反射された反射波138を例示する。明確にするため、第2の反射された反射波140は、例示されないものの、第1の反射された反射波138と、オブジェクト反射波122とを含む反射波の対を参照して説明される技法は、例えば、オブジェクト反射波122と、第2の反射された反射波138とを含む、第1の反射された反射波138と、第2の反射された反射波140とを含む、かつ/または反射波の他の任意の対を含む、レーダ反射波の任意の対に適用されることが可能である。本明細書において説明されるとおり、環境100の演繹的の知識が、オブジェクト反射波122をさらなる車両108に関連付けることを可能にしてよいものの、本開示の実装形態は、知られているオブジェクトの関連付けにかかわらず、さらに/または環境100の演繹的の知識の利用可能性にかかわらず、レーダ反射波の任意の対に同様に適用してもよい。それ故、反射波には、「オブジェクト」反射波および「反射された」反射波としてラベルが付けられる一方で、それらのラベルの一方または両方は、さらなる処理の後まで知られなくてよい。少なくともある例において、そのようなラベルは、自律車両を誘導することを支援すべく使用されてよい。例えば、「反射された」反射波は、プランニングの際にその反射波の重要度の重み付けが軽くされる、またはそれ以外で考慮に入れられるものの、依然としてナビゲーションのために考慮されてよい。
3 illustrates an object return 122 (from the further vehicle 108) and a first reflected return 138. For clarity, the second reflected return 140 is not illustrated, but the techniques described with reference to the return pair including the first reflected return 138 and the
本明細書において説明されるとおり、レーダセンサ104は、反射波についての範囲情報、位置情報、および/または速度(スピード)情報だけを受信してよい。それ故、例えば、レーダセンサ104は、オブジェクト反射波122の位置と第1の反射された反射波138の位置を示すセンサデータを生成してよい。例えば、図3において、図3における線302は、オブジェクト反射波122の位置とレーダセンサ104の位置の間の線であり、線304は、第1の反射された反射波138の位置とレーダセンサ104の位置の間の線である。反射波122、138、すなわち、反射波122、138の位置に基づいて、線302、304の長さ、および線302と線304の間の角314が知られる(または容易に決定されることが可能である)。本明細書において説明される技法は、線302、304、および角314を使用して、オブジェクト反射波122に関連付けられたオブジェクト(例えば、さらなる車両108)に最初に反射された無線エネルギーが、レーダセンサ104において受信されるのに先立って反射する、線304に沿った潜在的な、または理論上の反射点308を決定することができる。ひとたび、理論上の反射点308の位置が決定されると、本明細書において説明される技法は、オブジェクトが理論上の反射点308に存在するかどうかを決定して、その結果、第1の反射された反射波138がオブジェクト反射波の反射であることを確認する(または少なくとも示唆する)ことができる。
As described herein, the
より具体的には、第1の反射された反射波138とオブジェクト反射波122の間の距離、例えば、図3に示される線310の距離が、線302、304の距離、および角306を使用して決定されることが可能である。例えば、余弦定理が、要求されるわけではないものの、線310の長さを決定するのに使用されることが可能である。理論上の反射点308が、その後、線304と、反射波122と反射波138の間に延びる線310を二分し、かつ線310に垂直である線312の交差点として決定されてよい。例えば、センサ304と第1の反射された反射波138の間に延びる線304と、第1の反射された反射波138とオブジェクト反射波122の間に延びる線310との間の角314を決定すべく単純な幾何が使用されることが可能である。その後、線312によって二分される第1の反射された反射波138と反射角316の間の線分316の長さが、線304に沿った反射された反射波308の位置をもたらすべく、容易に決定されることも可能である。さらに、第1の反射された反射波138が真の反射である場合、線分316の距離は、オブジェクト反射波122から反射点308までの距離と等しい。このさらなる情報が、反射点308の位置を計算すべく(さらに、または代替として)使用されることが可能である。
More specifically, the distance between the first reflected wave 138 and the object reflected
前段で説明されたばかりの実装形態において、潜在的な反射点308は、幾何だけを使用して決定されることが可能である。例えば、反射波についての速度情報は、必要ない。しかし、潜在的な反射点は、異なる距離における反射波の任意の対に関して決定されることが可能である。したがって、本明細書において説明される技法は、反射波のうちの一方、例えば、より遠く離れている方の反射波が、反射であるかどうかを決定すべく、オブジェクトが潜在的な反射点に存在するかどうかを決定することもできる。例えば、LiDARデータ、画像データ、さらなるレーダデータなどを含むが、これらには限定されないセンサデータが、オブジェクトが理論上の反射点308の位置近くに存在するかどうかを決定すべく使用されることが可能である。例示される例において、建造物114(1)が、車両102によってキャプチャされた画像データ、LiDARデータ、および/または他のセンサデータを使用して識別されてよい。他の実施形態において、マップデータが、反射点308におけるオブジェクトの存在を確認してよい。ある例において、速度情報が、反射波からの速度を、他方の反射波に関連付けられた単位ベクトル上に投影することに少なくとも部分的に基づいて、潜在的な反射を決定すべく使用されることが可能である。そのような投影された速度は、その後、他方の反射波の速度と直接に比較されてよい。
In the implementation just described, the
図2および図3(ならびに後段の図5および図6)の態様について、例として図1の環境100における、図1に例示される構成要素を参照して説明される。しかし、図2、図3、図5、および図6を参照して例示され、説明される例は、環境100において実行されることにも、図1の構成要素を使用することにも限定されない。例えば、図2、図3、図5、および図6を参照して説明される例のうちのいくつか、またはすべては、本明細書において説明される、図4の1つまたは複数の構成要素によって、または他の1つまたは複数のシステムもしくは構成要素によって実行されることが可能である。
2 and 3 (as well as FIGS. 5 and 6 below) are described with reference to the components illustrated in FIG. 1 in the
図4は、本明細書において説明される技法を実施するための例示的なシステム400のブロック図を示す。少なくとも1つの例において、システム400は、図1に示される車両102と同一であっても、異なってもよい、車両402を含むことが可能である。
FIG. 4 illustrates a block diagram of an
車両402は、車両コンピューティングデバイス404と、1つまたは複数のセンサシステム406と、1つまたは複数のエミッタ408と、1つまたは複数の通信接続410と、1つまたは複数の駆動モジュール412と、少なくとも1つの直接接続414とを含むことが可能である。
The vehicle 402 may include a
車両コンピューティングデバイス404は、1つまたは複数のプロセッサ416と、1つまたは複数のプロセッサ416に通信可能に結合されたメモリ418とを含むことが可能である。例示される例において、車両402は、自律車両である。しかし、車両402は、少なくとも1つのセンサ(例えば、カメラ対応のスマートフォン)を有する他の任意のタイプの車両、または他の任意のシステムであることが可能である。例示される例において、車両コンピューティングデバイス404のメモリ418は、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、1つまたは複数のシステムコントローラ430、1つまたは複数のマップ432、およびトラッカ構成要素434を記憶する。例示の目的でメモリ418内に存在するものとして図4に示されるものの、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、システムコントローラ430、マップ432、および/またはトラッカ構成要素434は、さらに、または代替として、車両402がアクセス可能であり得る(例えば、車両402から遠隔のメモリ上に記憶される、またはそれ以外でそのようなメモリによってアクセス可能である)ことが企図される。ある例において、車両コンピューティングデバイス404は、図1の車両コンピューティングデバイス172の例に対応する、またはその例であることが可能である。
The
少なくとも1つの例において、位置特定の構成要素420は、車両402の位置および/または向き(例えば、x、y、z位置、ロール、ピッチ、またはヨーのうちの1つまたは複数)を決定すべくセンサシステム406からデータを受信する機能を含むことが可能である。例えば、位置特定の構成要素420は、環境のマップを含むこと、および/または要求すること/受信することができ、マップ内で自律車両の位置および/または向きを継続的に決定することができる。ある例において、位置特定の構成要素420は、自律車両の位置を正確に決定すべく画像データ、LiDARデータ、レーダデータ、IMUデータ、GPSデータ、ホイールエンコーダデータ、および以上に類するものを受信するようにSLAM(同時の位置特定とマッピング)、CLAMS(同時の較正と位置特定とマッピング)、相対SLAM、バンドル調整、非線形最小二乗最適化などを利用することができる。ある例において、位置特定の構成要素420は、軌道を生成するために自律車両402の初期位置を決定すべく車両402の様々な構成要素にデータを提供することができる。
In at least one example, the localization component 420 can include functionality for receiving data from the
ある例において、知覚構成要素422は、オブジェクト検出、セグメンテーション、および/または分類を実行する機能を含むことが可能である。ある例において、知覚構成要素422は、車両402に近接したオブジェクトの存在、および/またはオブジェクトタイプ(例えば、自動車、歩行者、サイクリスト、動物、建造物、樹木、道路表面、縁石、歩道、未知、その他)としてのオブジェクトの分類を示す処理されたセンサデータを提供することができる。さらなる例および/または代替の例において、知覚構成要素422は、検出されたオブジェクト(例えば、追跡されるオブジェクト)および/またはオブジェクトが位置付けられる環境に関連付けられた1つまたは複数の特性を示す処理されたセンサデータを提供することができる。ある例において、オブジェクトに関連付けられた特性は、x位置(全体的位置および/または局所的位置)、y位置(全体的位置および/または局所的位置)、z位置(全体的位置および/または局所的位置)、向き(例えば、ロール、ピッチ、ヨー)、オブジェクトタイプ(例えば、分類)、オブジェクトの速度、オブジェクトの加速度、オブジェクトの広がり(サイズ)、その他を含むことが可能であるが、これらには限定されない。環境に関連付けられた特性は、環境における別のオブジェクトの存在、環境における別のオブジェクトの状態、時間帯、曜日、季節、気象条件、暗さ/明るさの指標、その他を含むことが可能であるが、これらには限定されない。ある例において、知覚構成要素422は、オブジェクトを決定すべくレーダデータを使用することができ、例えば、本明細書において説明されるとおり、センサデータを含める/除外するべく、反射された反射波についての情報を受信してよい。 In one example, the perception component 422 may include functionality to perform object detection, segmentation, and/or classification. In one example, the perception component 422 may provide processed sensor data indicative of the presence of an object proximate to the vehicle 402 and/or the classification of the object as an object type (e.g., automobile, pedestrian, cyclist, animal, structure, tree, road surface, curb, sidewalk, unknown, etc.). In further and/or alternative examples, the perception component 422 may provide processed sensor data indicative of one or more characteristics associated with the detected object (e.g., tracked object) and/or the environment in which the object is located. In one example, the characteristics associated with the object may include, but are not limited to, x-position (global and/or local position), y-position (global and/or local position), z-position (global and/or local position), orientation (e.g., roll, pitch, yaw), object type (e.g., classification), object velocity, object acceleration, object extent (size), etc. Characteristics associated with the environment can include, but are not limited to, the presence of other objects in the environment, the state of other objects in the environment, the time of day, the day of the week, the season, weather conditions, darkness/light indicators, etc. In one example, the perception component 422 can use radar data to determine the object, and may receive information about reflected echoes to include/exclude sensor data, for example, as described herein.
ある例において、予測構成要素424は、環境におけるオブジェクトの予測される軌道を生成する機能を含むことが可能である。例えば、予測構成要素424は、車両402からのしきい値距離内の車両、歩行者、動物、および以上に類するものに関して1つまたは複数の予測される軌道を生成することができる。ある例において、予測構成要素424は、オブジェクトのトレースを測定すること、およびオブジェクトに関する軌道を生成することができる。ある例において、予測構成要素424は、オブジェクトが環境を通って進むにつれ、オブジェクトを追跡すべくトラッカ434と協働してよい。ある例において、予測構成要素424からの情報は、レーダ反射波が、知られているオブジェクトからであるかどうかを決定する際に使用されてよい。 In one example, the prediction component 424 may include functionality for generating predicted trajectories of objects in the environment. For example, the prediction component 424 may generate one or more predicted trajectories for vehicles, pedestrians, animals, and the like within a threshold distance from the vehicle 402. In one example, the prediction component 424 may measure a trace of an object and generate a trajectory for the object. In one example, the prediction component 424 may cooperate with a tracker 434 to track an object as it progresses through the environment. In one example, information from the prediction component 424 may be used in determining whether a radar return is from a known object.
一般に、プランニング構成要素426は、環境を通り抜けるべく車両402が従う経路を決定することができる。例えば、プランニング構成要素426は、様々なルートおよび軌道、ならびに様々な詳細レベルを決定することができる。例えば、プランニング構成要素426は、第1の位置(例えば、現在位置)から第2の位置(例えば、目標位置)まで移動するルートを決定することができる。この説明の目的で、ルートは、2つの位置の間で移動するためのウェイポイントのシーケンスであることが可能である。非限定的な例として、ウェイポイントは、通り、交差点、全地球測位システム(GPS)座標、その他を含む。さらに、プランニング構成要素426は、第1の位置から第2の位置までルートの少なくとも1部分に沿って自律車両を誘導するための命令を生成することができる。少なくとも1つの例において、プランニング構成要素426は、ウェイポイントのシーケンスにおける第1のウェイポイントからウェイポイントのシーケンスにおける第2のウェイポイントまで自律車両をどのように誘導すべきかを決定することができる。ある例において、命令は、軌道、または軌道の一部分であることが可能である。さらに、ある実装形態において、多様な軌道が、多様な軌道のうちの1つが、車両402がナビゲートするように選択されて、後退ホライズン技法により実質的に同時に生成される(例えば、技術的許容差内で)ことが可能である。ある例において、プランニング構成要素426は、センサデータ、例えば、レーダ反射波に少なくとも部分的に基づいて、車両402のための1つまたは複数の軌道を生成することができる。例えば、プランニング構成要素426は、反射された反射波であると決定された反射波を除外してよい。 In general, the planning component 426 can determine a path for the vehicle 402 to follow to move through an environment. For example, the planning component 426 can determine various routes and trajectories, as well as various levels of detail. For example, the planning component 426 can determine a route to travel from a first location (e.g., a current location) to a second location (e.g., a target location). For purposes of this description, the route can be a sequence of waypoints for traveling between the two locations. As non-limiting examples, the waypoints include streets, intersections, Global Positioning System (GPS) coordinates, and the like. Additionally, the planning component 426 can generate instructions for guiding the autonomous vehicle along at least a portion of the route from the first location to the second location. In at least one example, the planning component 426 can determine how to guide the autonomous vehicle from a first waypoint in the sequence of waypoints to a second waypoint in the sequence of waypoints. In one example, the instructions can be a trajectory, or a portion of a trajectory. Further, in some implementations, multiple trajectories can be generated substantially simultaneously (e.g., within engineering tolerances) via receding horizon techniques, with one of the multiple trajectories being selected for the vehicle 402 to navigate. In some examples, the planning component 426 can generate one or more trajectories for the vehicle 402 based at least in part on sensor data, e.g., radar returns. For example, the planning component 426 can filter out returns that are determined to be reflected returns.
一般に、反射認識の構成要素428は、センサデータ、例えば、レーダ反射波が、実際のオブジェクトに対応するか、または何らかの介在するオブジェクトからのオブジェクトの反射であるかを識別する機能を含むことが可能である。ある例において、反射認識の構成要素428は、図1の反射認識の構成要素174に対応することが可能である。本明細書において説明されるとおり、反射認識の構成要素428は、感知されたオブジェクトが、実際のオブジェクトであるか、または実際のオブジェクトの反射に過ぎないかを決定すべくレーダデータ、LiDARデータ、画像データ、マップデータ、および以上に類するものを受信することができる。ある例において、反射認識の構成要素428は、いつ、環境を通るように車両402を制御するかを決定すべく、反射に対応するのではないと決定されたセンサ情報をプランニング構成要素426に提供することができる。ある例において、反射認識の構成要素428は、例えば、プランニング構成要素426が、介在するオブジェクトからの反射に関連付けられたものと決定したセンサデータ、例えば、レーダデータを除外して、制御を決定するように、反射に対応すると決定されたセンサデータを、プランニング構成要素426に対して除外してよい。また、反射認識の構成要素428は、例えば、トラッカが環境における動的オブジェクトを追跡するように、センサ情報をトラッカ434に提供することもできる。
In general, the
システムコントローラ430は、例えば、プランニング構成要素426によって生成された制御、および/またはプランニング構成要素426からの情報に基づいて、車両402のステアリングシステム、推進システム、制動システム、安全システム、エミッタシステム、通信システム、およびその他のシステムを制御すべく構成されることが可能である。システムコントローラ430は、車両402の駆動モジュール414および/または他の構成要素の対応するシステムと通信すること、および/またはそれらのシステムを制御することができる。
The system controller 430 can be configured to control the steering system, propulsion system, braking system, safety system, emitter system, communication system, and other systems of the vehicle 402, for example, based on the control generated by and/or information from the planning component 426. The system controller 430 can communicate with and/or control corresponding systems of the
マップ432は、車両402によって環境内でナビゲートすべく使用されることが可能である。この説明の目的で、マップは、トポロジ(交差点などの)、通り、山脈、道路、地勢、および環境全般などの、ただし、これらには限定されない環境についての情報を提供することができる、2次元、3次元、またはN次元にモデル化された任意の数のデータ構造であることが可能である。ある例において、マップは、テクスチャ情報(例えば、色情報(例えば、RGB色情報、Lab色情報、HSV/HSL色情報)、および以上に類するもの)、強度情報(例えば、LiDAR情報、レーダ情報、および以上に類するもの)、空間情報(例えば、メッシュ上に投影された画像データ、個々の「サーフェル」(例えば、個別の色および/または強度に関連付けられたポリゴン))、反射性情報(例えば、鏡面性情報、再帰反射性情報、BRDF情報、BSSRDF情報、および以上に類するもの)を含むことが可能であるが、これらには限定されない。1つの例において、マップは、環境の3次元メッシュを含むことが可能である。ある例において、マップは、マップの個々のタイルが環境の別個の部分を表すようにタイル化されたフォーマットで記憶されることが可能であり、必要に応じて作業メモリにロードされることが可能である。ある例において、マップ432は、少なくとも1つのマップ(例えば、画像および/またはメッシュ)を含むことが可能である。車両402は、マップ432に少なくとも部分的に基づいて制御されることが可能である。すなわち、マップ432は、車両402の位置を決定すること、環境におけるオブジェクトを識別すること、ならびに/または環境内でナビゲートするルートおよび/または軌道を生成することを行うべく位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、および/または反射認識の構成要素432に関連して使用されることが可能である。さらに、本明細書において説明されるとおり、マップ432は、オブジェクト、例えば、レーダセンサにおいて受信される前に無線エネルギーが反射することがある、介在するオブジェクトの存在を検証すべく使用されることが可能である。 Map 432 can be used by vehicle 402 to navigate within the environment. For purposes of this description, a map can be any number of data structures modeled in two, three, or N dimensions that can provide information about the environment, such as, but not limited to, topology (such as intersections), streets, mountain ranges, roads, terrain, and the environment in general. In one example, the map can include, but is not limited to, texture information (e.g., color information (e.g., RGB color information, Lab color information, HSV/HSL color information), and the like), intensity information (e.g., LiDAR information, radar information, and the like), spatial information (e.g., image data projected onto a mesh, individual "surfels" (e.g., polygons associated with individual colors and/or intensities), reflectivity information (e.g., specularity information, retroreflectivity information, BRDF information, BSSRDF information, and the like). In one example, the map can include a three-dimensional mesh of the environment. In one example, the map can be stored in a tiled format, with each tile of the map representing a separate portion of the environment, and can be loaded into the working memory as needed. In one example, the map 432 can include at least one map (e.g., an image and/or a mesh). The vehicle 402 can be controlled at least in part based on the map 432. That is, the map 432 can be used in conjunction with the localization component 420, the perception component 422, the prediction component 424, the planning component 426, and/or the reflection recognition component 432 to determine the position of the vehicle 402, identify objects in the environment, and/or generate a route and/or trajectory for navigating within the environment. Additionally, as described herein, the map 432 can be used to verify the presence of objects, e.g., intervening objects from which wireless energy may be reflected before being received at a radar sensor.
ある例において、マップ432は、1つまたは複数のネットワーク436を介してアクセス可能な1つまたは複数の遠隔コンピューティングデバイス(1つまたは複数のコンピューティングデバイス438などの)上に記憶されることが可能である。ある例において、マップ432は、例えば、特性(例えば、エンティティのタイプ、時間帯、曜日、または年間の季節、その他)に基づいて記憶された多様な類似したマップを含むことが可能である。このように多様なマップ432を記憶することは、類似したメモリ要件を有し得るが、マップにおけるデータにアクセスされ得るスピードを高める。
In one example, map 432 may be stored on one or more remote computing devices (such as one or more computing devices 438) accessible via one or
トラッカ434は、オブジェクトの動きを追跡する、例えば、追う機能を含むことが可能である。例えば、トラッカ434は、車両の環境における動的オブジェクトを表すセンサシステム406のうちの1つまたは複数からセンサデータを受信してよい。例えば、車両402上の画像センサが、画像センサデータをキャプチャしてよく、LiDARセンサが、点群データをキャプチャしてよく、レーダセンサが、多様な時点で環境におけるオブジェクトの位置、体勢などを示す反射波を獲得してよい。このデータに基づいて、トラッカ434は、オブジェクトのトラック情報を決定することができる。例えば、トラック情報は、関連付けられたオブジェクトに関する履歴上の位置、速度、加速度、および以上に類するものを提供してよい。さらに、ある例において、トラッカ434は、環境の閉塞された領域内のオブジェクトを追跡してよい。参照により本明細書に開示の全体が組み込まれている、「レーダ空間推定(Radar Spatial Estimation)」に関する、2018年9月28日に出願された米国特許出願第16/147,177号が、閉塞された領域内のオブジェクトを追跡するための技法について説明する。本明細書において説明されるとおり、トラッカ434からの情報は、レーダ反射波が追跡されるオブジェクトに対応することを検証すべく使用されてよい。少なくともある例において、トラッカ434は、知覚構成要素422が、新たに識別されたオブジェクトが以前に識別されたオブジェクトに関連付けられるべきかどうかを決定すべくデータ関連付けを実行するように、知覚構成要素422に関連付けられることが可能である。
The tracker 434 may include functionality for tracking, e.g., following, the movement of an object. For example, the tracker 434 may receive sensor data from one or more of the
理解されるとおり、本明細書において説明される構成要素(例えば、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、システムコントローラ430、マップ432、およびトラッカ構成要素434)は、例示の目的で分割されたものとして説明される。しかし、様々な構成要素によって実行される動作は、他の任意の構成要素において組み合わされること、または実行されることが可能である。例として、反射認識機能が、システムによって転送されるデータの量を低減すべく、知覚構成要素422および/またはプランニングシステム426によって(例えば、反射認識の構成要素428によってではなく)実行されてよい。
As will be appreciated, the components described herein (e.g., localization component 420, perception component 422, prediction component 424, planning component 426,
ある例において、本明細書において説明される構成要素のうちのいくつか、またはすべての構成要素の態様が、モジュール、アルゴリズム、および/または機械学習アルゴリズムを含むことが可能である。例えば、ある例において、メモリ418(および/または、後段で説明されるメモリ442)における構成要素は、ニューラルネットワークとして実装されることが可能である。 In some examples, aspects of some or all of the components described herein may include modules, algorithms, and/or machine learning algorithms. For example, in some examples, the components in memory 418 (and/or memory 442, described below) may be implemented as neural networks.
本明細書において説明される、例示的なニューラルネットワークは、入力デーが一連の接続された層を通るようにして出力をもたらす生物学に着想を得たアルゴリズムである。ニューラルネットワークの各層が、別のニューラルネットワークを備えることも可能であり、または任意の数の層(畳み込み層であるか否かにかかわらず)を備えることが可能である。本開示の脈絡で理解されることが可能であるとおり、ニューラルネットワークは、機械学習を利用することができ、機械学習は、出力が学習されたパラメータに基づいて生成されるそのような幅広いクラスのアルゴリズムを指すことが可能である。 As described herein, an exemplary neural network is a biologically inspired algorithm that passes input data through a series of connected layers to produce an output. Each layer of a neural network may comprise another neural network, or may comprise any number of layers (whether convolutional or not). As can be understood in the context of this disclosure, a neural network may utilize machine learning, which may refer to such a broad class of algorithms in which an output is generated based on learned parameters.
ニューラルネットワークの脈絡で説明されるものの、任意のタイプの機械学習が、本開示と整合するように使用され得る。例えば、機械学習アルゴリズムは、回帰アルゴリズム(例えば、通常の最小二乗回帰(OLSR)、線形回帰、ロジスティック回帰、段階的回帰、多変量適応回帰スプライン(MARS)、局所的に推定されたスキャッタプロット平滑化(LOESS))、例ベースのアルゴリズム(例えば、リッジ回帰、最小絶対収縮および選択演算子(LASSO)、弾力ネット、最小角度回帰(LARS))、決定木アルゴリズム(例えば、分類および回帰木(CART)、反復ダイコトマイザ4(ID3)、カイ二乗自動相互作用検出(CHAID)、決定切り株、条件付き決定木)、ベイジアンアルゴリズム(例えば、ナイーブベイズ、ガウスナイーブベイズ、多項ナイーブベイズ、平均1依存エスティメータ(AODE)、ベイジアンビリーフネットワーク(BNN)、ベイジアンネットワーク)、クラスタリングアルゴリズム(例えば、k平均、kメジアン、期待値最大化(EM)、階層的クラスタリング)、相関規則学習アルゴリズム(例えば、パーセプトロン、逆伝搬、ホップフィールドネットワーク、動径基底関数ネットワーク(RBFN))、深層学習アルゴリズム(例えば、深層ボルツマンマシン(DBM)、深層ビリーフネットワーク(DBN)、畳み込みニューラルネットワーク(CNN)、積層自動エンコーダ)、次元縮小アルゴリズム(例えば、主成分分析(PCA)、主成分回帰(PCR)、部分最小二乗回帰(PLSR)、サモンマッピング、多次元尺度構成法(MDS)、射影追跡、線形判別分析(LDA)、混合判別分析(MDA)、二次判別分析(QDA)、柔軟判別分析(FDA))、アンサンブルアルゴリズム(例えば、ブースティング、ブートストラップアグリゲーション(バギング)、アダブースト)、積層ジェネラリゼーション(ブレンディング)、勾配ブースティングマシン(GBM)、勾配ブースト回帰木(GBRT)、ランダムフォレスト)、SVM(サポートベクタマシン)、教師あり学習、教師なし学習、半教師あり学習、その他を含むことが可能であるが、これらには限定されない。 Although described in the context of neural networks, any type of machine learning may be used consistent with this disclosure. For example, machine learning algorithms include regression algorithms (e.g., ordinary least squares regression (OLSR), linear regression, logistic regression, stepwise regression, multivariate adaptive regression splines (MARS), locally estimated scatterplot smoothing (LOESS)), example-based algorithms (e.g., ridge regression, least absolute shrinkage and selection operator (LASSO), elastic net, least angle regression (LARS)), decision tree algorithms (e.g., classification and regression trees (CART), iterative dichotomizer 4 (ID3), chi-squared automated interaction detection (CHAID), decision stump, conditional decision tree), Bayesian algorithms (e.g., naive Bayes, Gaussian naive Bayes, multinomial naive Bayes, average-one dependent estimator (AODE), Bayesian belief network (BNN), Bayesian network), clustering algorithms (e.g., k-means, k-median, expectation maximization (EM), hierarchical clustering), association rule learning algorithms (e.g., perceptron, backpropagation, etc.). , Hopfield Networks, Radial Basis Function Networks (RBFN)), deep learning algorithms (e.g., Deep Boltzmann Machines (DBM), Deep Belief Networks (DBN), Convolutional Neural Networks (CNN), Stacked Autoencoders), dimensionality reduction algorithms (e.g., Principal Component Analysis (PCA), Principal Component Regression (PCR), Partial Least Squares Regression (PLSR), Sammon Mapping, Multidimensional Scaling (MDS), Projection Pursuit, Linear Discriminant Analysis (LDA), Mixed Discriminant Analysis (MDA), Quadratic Discriminant Analysis (QDA), Flexible Discriminant Analysis (FDA)), ensemble algorithms (e.g., Boosting, Bootstrap Aggregation (Bagging), AdaBoost), Stacked Generalization (Blending), Gradient Boosting Machines (GBM), Gradient Boosted Regression Trees (GBRT), Random Forests), SVM (Support Vector Machines), supervised learning, unsupervised learning, semi-supervised learning, and others, but are not limited to these.
アーキテクチャのさらなる例は、ResNet70、ResNet101、VGG、DenseNet、PointNet、およびこれらの類するものなどのニューラルネットワークを含む。 Further examples of architectures include neural networks such as ResNet70, ResNet101, VGG, DenseNet, PointNet, and the like.
少なくとも1つの例において、センサシステム406は、LiDARセンサ、レーダセンサ、超音波トランスデューサ、ソナーセンサ、位置センサ(例えば、GPS、COMPASS、その他)、慣性センサ(例えば、慣性測定ユニット(IMU)、加速度計、磁力計、ジャイロスコープ、その他)、カメラ(例えば、RGB、IR、強度、深度、飛行時間、その他)、マイクロホン、ホイールエンコーダ、環境センサ(例えば、温度センサ、湿度センサ、光センサ、圧力センサ、その他)、その他を含むことが可能である。センサシステム406は、これら、または他のタイプのセンサのそれぞれの多様な例を含むことが可能である。例えば、LiDARセンサは、車両402のコーナ、前部、後部、側部、および/または頂部に配置された個々のLiDARセンサを含むことが可能である。別の例として、カメラセンサは、車両402の外側および/または内側のまわりの様々な位置に配置された多様なカメラを含むことが可能である。別の例として、レーダシステムは、車両402のまわりの様々な位置に配置された同一の、または異なるレーダセンサの多様な例を含むことが可能である。センサシステム406は、車両コンピューティングデバイス404に入力を提供することができる。さらに、または代替として、センサシステム406は、所定の期間の経過後、ほぼリアルタイムでなど、特定の頻度で、1つまたは複数のネットワーク436を介して、コンピューティングデバイス438にセンサデータを送ることができる。ある例において、センサシステム406は、レーダセンサ104および/またはさらなるセンサ166を含む、図1のセンサシステム164に対応することが可能である。
In at least one example, the
エミッタ408は、光および/またはサウンドを発するように構成されることが可能である。この例におけるエミッタ408は、車両402の搭乗者と通信すべく内部オーディオエミッタおよび内部視覚エミッタを含むことが可能である。例として、限定としてではなく、内部エミッタは、スピーカ、照明、標識、ディスプレイスクリーン、タッチスクリーン、触覚エミッタ(例えば、振動フィードバックおよび/または力フィードバック)、機械的アクチュエータ(例えば、シートベルトテンショナ、座席ポジショナ、ヘッドレストポジショナ、その他)、およびこれらに類するものを含むことが可能である。また、この例におけるエミッタ408は、外部エミッタを含むことも可能である。例として、限定としてではなく、この例における外部エミッタは、移動の方向を合図する照明、もしくは車両のアクションの他のインジケータ(例えば、インジケータ照明、標識、照明アレイ、その他)、ならびに歩行者、または音響ビームステアリング技術を1つまたは複数が含む近辺の他の車両と音響で通信する1つまたは複数のオーディオエミッタ(例えば、スピーカ、スピーカアレイ、ホーン、その他)を含む。 Emitters 408 can be configured to emit light and/or sound. Emitters 408 in this example can include internal audio emitters and internal visual emitters to communicate with occupants of vehicle 402. By way of example, and not by way of limitation, internal emitters can include speakers, lights, signs, display screens, touch screens, haptic emitters (e.g., vibration feedback and/or force feedback), mechanical actuators (e.g., seat belt tensioners, seat positioners, head rest positioners, etc.), and the like. Emitters 408 in this example can also include external emitters. By way of example, and not by way of limitation, external emitters in this example can include lights to signal the direction of movement or other indicators of the vehicle's actions (e.g., indicator lights, signs, light arrays, etc.), as well as one or more audio emitters (e.g., speakers, speaker arrays, horns, etc.) to acoustically communicate with pedestrians or other nearby vehicles, one or more of which include acoustic beam steering technology.
通信接続410が、車両402と他の1つまたは複数のローカルコンピューティングデバイスまたは遠隔コンピューティングデバイスの間で通信を可能にすることができる。例えば、通信接続410は、車両402上の他のローカルコンピューティングデバイス、および/または駆動モジュール414との通信を容易化することができる。また、通信接続410は、車両が、他の近辺のコンピューティングデバイス(例えば、他の近辺の車両、交通信号、その他)と通信することを可能にすることもできる。また、通信接続410は、車両402が、遠隔テレオペレーションコンピューティングデバイスまたは他の遠隔サービスと通信することも可能にする。
The
通信接続410は、車両コンピューティングデバイス404を、別のコンピューティングデバイス、またはネットワーク436などのネットワークに接続するための物理インタフェースおよび/または論理インタフェースを含むことが可能である。例えば、通信接続410は、IEEE802.11標準によって定義された周波数、Bluetooth(登録商標)などの短距離無線周波数、セルラ通信(例えば、2G、3G、4G、4G LTE、5G、その他)、またはそれぞれのコンピューティングデバイスがその他のコンピューティングデバイスとインタフェースをとることを可能にする任意の適切な有線通信プロトコルもしくは無線通信プロトコルを介するなどして、Wi-Fiベースの通信を可能にすることができる。
The
少なくとも1つの例において、車両402は、駆動モジュール412を含むことが可能である。ある例において、車両402は、単一の駆動モジュール412を含むことが可能である。少なくとも1つの例において、車両402は、駆動モジュール412の個々が、車両402の反対の終端部(例えば、前部と後部、その他)上に配置された、多様な駆動モジュール412を有してよい。少なくとも1つの例において、駆動モジュール412は、駆動モジュール412および/または車両402の周囲の条件を検出すべく1つまたは複数のセンサシステムを含むことが可能である。例として、限定としてではなく、駆動モジュール412に関連付けられたセンサシステムは、駆動モジュールのホイールの回転を感知する1つまたは複数のホイールエンコーダ(例えば、回転エンコーダ)、駆動モジュールの向きおよび加速度を測定する慣性センサ(例えば、慣性測定ユニット、加速度計、ジャイロスコープ、磁力計、その他)、カメラもしくは他の画像センサ、駆動モジュールの周囲におけるオブジェクトを音響的に検出する超音波センサ、LiDARセンサ、レーダセンサ、その他を含むことが可能である。そのようなホイールエンコーダのあるセンサは、駆動モジュール412に固有であることが可能である。ある事例において、駆動モジュール412上のセンサシステムは、車両402の対応するシステム(例えば、センサシステム406)を重なり合うこと、またはそのシステムを補完することが可能である。 In at least one example, the vehicle 402 can include a drive module 412. In one example, the vehicle 402 can include a single drive module 412. In at least one example, the vehicle 402 can have multiple drive modules 412, each of which is located on opposite ends of the vehicle 402 (e.g., front and rear, etc.). In at least one example, the drive module 412 can include one or more sensor systems to detect conditions around the drive module 412 and/or the vehicle 402. By way of example, and not by way of limitation, the sensor systems associated with the drive module 412 can include one or more wheel encoders (e.g., rotational encoders) that sense the rotation of the wheels of the drive module, inertial sensors (e.g., inertial measurement units, accelerometers, gyroscopes, magnetometers, etc.) that measure the orientation and acceleration of the drive module, cameras or other imaging sensors, ultrasonic sensors that acoustically detect objects in the vicinity of the drive module, LiDAR sensors, radar sensors, etc. Some sensors of such wheel encoders may be specific to the drive module 412. In some cases, a sensor system on the drive module 412 may overlap or complement a corresponding system (e.g., sensor system 406) of the vehicle 402.
駆動モジュール412は、高電圧バッテリ、車両を推進するモータ、バッテリからの直流を、他の車両システムによって使用されるように交流に変換するインバータ、ステアリングモータと、ステアリングラック(電動であり得る)とを含むステアリングシステム、油圧アクチュエータもしくは電動アクチュエータを含む制動システム、油圧構成要素および/または空気圧構成要素を含むサスペンションシステム、摩擦が失われることを緩和して、制御を維持すべく制動力を分散させるための安定性制御システム、HVACシステム、照明(例えば、車両の外側周囲を照射するヘッドライト/テールライトなどの照明)、ならびに他の1つまたは複数のシステム(例えば、冷却システム、安全システム、搭載充電システム、DC/DCコンバータなどの他の電気構成要素、高電圧ジャンクション、高電圧ケーブル、充電システム、充電ポート、その他)を含め、車両システムの多くを含むことが可能である。さらに、駆動モジュール412は、センサシステムからのデータを受信して、前処理することができ、様々な車両システムの動作を制御する駆動モジュールコントローラを含むことが可能である。ある例において、駆動モジュールコントローラは、1つまたは複数のプロセッサと、その1つまたは複数のプロセッサと通信可能に結合されたメモリとを含むことが可能である。メモリは、駆動モジュール412の様々な機能を実行する1つまたは複数のモジュールを記憶することができる。さらに、駆動モジュール412は、それぞれの駆動モジュールによる、他の1つまたは複数のローカルコンピューティングデバイスまたは遠隔コンピューティングデバイスとの通信を可能にする1つまたは複数の通信接続を含んでもよい。 The drive module 412 may include many of the vehicle systems, including a high voltage battery, a motor to propel the vehicle, an inverter to convert direct current from the battery to alternating current for use by other vehicle systems, a steering system including a steering motor and a steering rack (which may be electric), a braking system including hydraulic or electric actuators, a suspension system including hydraulic and/or pneumatic components, a stability control system to distribute braking forces to mitigate loss of friction and maintain control, an HVAC system, lighting (e.g., lighting such as headlights/taillights that illuminate the exterior surroundings of the vehicle), and one or more other systems (e.g., cooling systems, safety systems, on-board charging systems, other electrical components such as DC/DC converters, high voltage junctions, high voltage cables, charging systems, charging ports, etc.). Additionally, the drive module 412 may include a drive module controller that may receive and preprocess data from the sensor systems and control the operation of the various vehicle systems. In one example, the drive module controller may include one or more processors and a memory communicatively coupled to the one or more processors. The memory may store one or more modules that perform various functions of the drive module 412. Additionally, the drive modules 412 may include one or more communication connections that enable each drive module to communicate with one or more other local or remote computing devices.
少なくとも1つの例において、直接接続414は、駆動モジュール412を車両402の本体に結合する物理インタフェースを提供することができる。例えば、方向接続414は、駆動モジュール412と車両の間でエネルギー、液体、空気、データ、その他の転送を可能にすることができる。ある例において、直接接続414は、駆動モジュール412を車両402の本体に解放可能に固定することがさらにできる。
In at least one example, the
少なくとも1つの例において、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、システムコントローラ430、マップ432、および/またはトラッカ434が、前段で説明されるとおり、センサデータを処理することができ、1つまたは複数のネットワーク436を介して、1つまたは複数のコンピューティングデバイス438にそれぞれの出力を送ることができる。少なくとも1つの例において、位置特定の構成要素420、知覚構成要素422、予測構成要素424、プランニング構成要素426、反射認識の構成要素428、システムコントローラ430、マップ432、および/またはトラッカ434は、所定の期間の経過後、ほぼリアルタイムでなど、特定の頻度で、1つまたは複数のコンピューティングデバイス438にそれぞれの出力を送ることができる。
In at least one example, the localization component 420, the perception component 422, the prediction component 424, the planning component 426, the
ある例において、車両402は、例えば、ネットワーク436を介して、コンピューティングデバイス438にセンサデータを送ることができる。ある例において、車両402は、コンピューティングデバイス438に生のセンサデータを送ることができる。他の例において、車両402は、処理されたセンサデータ、および/またはセンサデータの表現(例えば、空間グリッドデータ)をコンピューティングデバイス438に送ることができる。ある例において、車両402は、所定の期間の経過後、ほぼリアルタイムでなど、特定の頻度で、コンピューティングデバイス48にセンサデータを送ることができる。ある事例において、車両402は、1つまたは複数のログファイルとしてコンピューティングデバイス438にセンサデータ(生のまたは処理された)を送ることができる。
In some examples, the vehicle 402 can send sensor data to the computing device 438, for example, via the
コンピューティングデバイス438は、プロセッサ440と、1つまたは複数のマップ444および/または反射認識の構成要素446を記憶するメモリ442とを含むことが可能である。
The computing device 438 may include a
ある例において、マップ444は、マップ432と同様であることが可能である。反射認識の構成要素448は、車両コンピューティングデバイス404における機能を実行することに加えて、またはその代わりに、反射認識の構成要素428に関して説明された機能と実質的に同一の機能を実行してよい。
In one example, map 444 can be similar to map 432. Reflex recognition component 448 may perform substantially the same functions as those described with respect to
車両402のプロセッサ416、およびコンピューティングデバイス438のプロセッサ440は、データを処理し、本明細書において説明される動作を実行すべく命令を実行することができる任意の適切なプロセッサであることが可能である。例として、限定としてではなく、プロセッサ416および440は、電子データを処理して、レジスタおよび/またはメモリに記憶され得る他の電子データにその電子データを変換する、1つまたは複数の中央処理装置(CPU)、グラフィクスプロセシングユニット(GPU)、または他の任意のデバイス、もしくはデバイスの他の任意の部分を備えることが可能である。ある例において、集積回路(例えば、ASIC、その他)ゲートアレイ(例えば、FPGA、その他)、および他のハードウェアデバイスが、それらがエンコードされた命令を実装するように構成される限り、プロセッサと考えられることも可能である。
The processor 416 of the vehicle 402 and the
メモリ418および442は、非一過性のコンピュータ可読媒体の例である。メモリ418および442は、オペレーティングシステム、ならびに本明細書において説明される方法、および様々なシステムに割り当てられた機能を実装する1つまたは複数のソフトウェアアプリケーション、命令、プログラム、および/またはデータを記憶することができる。様々な実装形態において、メモリは、スタティックランダムアクセスメモリ(SRAM)、シンクロナスダイナミックRAM(SDRAM)、不揮発性/フラッシュタイプのメモリ、または情報を記憶することができる他の任意のタイプのメモリなどの任意の適切なメモリ技術を使用して実装されることが可能である。本明細書において説明されるアーキテクチャ、システム、および個々の要素は、添付の図に示される構成要素が、本明細書の説明に関係付けられる例に過ぎない、他の多くの論理構成要素、プログラマティック構成要素、および物理構成要素を含むことが可能である。 Memories 418 and 442 are examples of non-transitory computer-readable media. Memories 418 and 442 may store an operating system, as well as one or more software applications, instructions, programs, and/or data that implement the methods described herein and the functions assigned to the various systems. In various implementations, the memory may be implemented using any suitable memory technology, such as static random access memory (SRAM), synchronous dynamic RAM (SDRAM), non-volatile/flash type memory, or any other type of memory capable of storing information. The architecture, systems, and individual elements described herein may include many other logical, programmatic, and physical components, of which the components shown in the accompanying figures are merely examples relevant to the description herein.
図4は、分散されたシステムとして例示される一方で、代替の例において、車両402の構成要素は、コンピューティングデバイス438に関連付けられることが可能であり、かつ/またはコンピューティングデバイス438の構成要素は、車両402に関連付けられることが可能であることに留意されたい。すなわち、車両402は、コンピューティングデバイス438に関連付けられた機能のうちの1つまたは複数を実行することができ、コンピューティングデバイス438は、車両402に関連付けられた機能のうちの1つまたは複数を実行することができる。さらに、反射認識の構成要素428、446、および/またはトラッカ434の態様は、本明細書において説明されるデバイスのうちの任意のデバイス上で実行されることも可能である。
Note that while FIG. 4 is illustrated as a distributed system, in alternative examples, components of the vehicle 402 can be associated with the computing device 438 and/or components of the computing device 438 can be associated with the vehicle 402. That is, the vehicle 402 can perform one or more of the functions associated with the computing device 438, and the computing device 438 can perform one or more of the functions associated with the vehicle 402. Furthermore, aspects of the
図5は、本開示の実施形態による、レーダ反射波が反射された反射波であるかどうかを決定するための例示的なプロセス500のフロー図である。レーダデータの脈絡において説明されるものの、例示的なプロセス500は、LiDARデータ、ソナーデータ、飛行時間画像データ、および/または他のタイプのデータの脈絡で、かつ/またはこれらのデータとの組み合わせで使用されてよい。
FIG. 5 is a flow diagram of an
動作502において、プロセス500が、環境に関するレーダデータを受信することを含むことが可能である。例えば、レーダデータは、位置情報、速度情報、および/または強度情報を含むレーダ反射波を含んでよい。ある例において、レーダシステムは、1つまたは複数のレーダセンサを含んでよく、前述される車両102などの自律車両のセンサシステムであってよい。レーダデータは、位置と、0の速度とを有するオブジェクトに対応する静的反射波、および位置と、0ではない速度とを有する動くオブジェクトに対応する動的反射波もしくはレーダトラックを含む、多様な反射波を含んでよい。
At
動作504において、プロセス500が、レーダデータにおける第1のレーダ反射波に基づいて、第1の半径方向に沿った第1の位置における第1の速度を決定することを含むことが可能である。第1のレーダ反射波は、オブジェクトと車両の間の第1の方向に沿った、例えば、車両(上のレーダセンサ)からオブジェクトを通って延びる半径方向に沿った方向を有する速度を含んでよい。ある例において、第1のレーダ反射波は、例えば、環境における知られているオブジェクトに対応する、オブジェクト反射波であってよい。ある例において、第1のレーダ反射波は、レーダデータを受信することに先立って生成された追跡情報に基づいて、オブジェクト反射波に対応すると決定されてよい。しかし、他の例において、本明細書において説明される技法は、まったく反射波の演繹的の知識なしに働くことが可能である。別の言い方をすると、第1の反射波(および、後段で説明される第2の反射波を含む、さらなる反射波)は、環境におけるオブジェクトに関連付けられていなくてよく、そのような関連付けは、ある例において不必要であることがある。第1のレーダ反射波の位置は、第1のレーダ方向に沿った距離であってよい。
At
動作506において、プロセス500が、レーダデータにおける第2のレーダ反射波に基づいて、第2の半径方向に沿った第2の位置における第2の速度を決定することを含むことが可能である。例えば、第1のレーダ反射波と同様に、第2のレーダ反射波(および他のレーダ反射波)は、環境における知られているオブジェクトに関連付けられていなくてよい。第2のレーダ反射波は、環境における別のオブジェクト、例えば、新たに検出可能なオブジェクトから、および/または環境における何らかの介在するオブジェクトからの反射からの反射波であってよい。後者の事例において、第2のレーダ反射波は、第2の半径方向に沿った位置で幻影の「オブジェクト」を識別してよい。
At
動作508において、プロセス500が、投影された速度を、第2の半径方向上の第1の速度の投影として決定することが可能である。例えば、動作508は、反射波の対における反射波のうちの一方、例えば、第1の反射波を、対における反射波の他方に関連付けられた方向、例えば、第2の反射波に関連付けられた単位ベクトル上に投影することができる。理解されるとおり、反射された反射波は、オブジェクト(例えば、直接の)反射波と比べて、より近いことはあり得ないので、動作508は、第1の反射波および第2の反射波のより近い方に関連付けられた速度を、それらの反射波のより遠く離れた方に関連付けられた方向上に投影してよい。例えば、図2の例を参照して、第1の反射波は、オブジェクト反射波122であってよく、第2の反射波は、第1の反射された反射波138であってよい。動作508によって決定される投影された速度は、オブジェクト反射波122と第1の反射された反射波138を接続する線208を二分し、かつ線208に垂直である線210上に反射されたオブジェクト反射波速度160の半径方向成分であってよい。したがって、投影された速度は、最初にオブジェクトからの、続いて第2の方向に沿って配置された介在するオブジェクトからの無線エネルギーの反射からもたらされる速度であってよい。
In
動作510において、プロセス500が、投影された速度が第2の速度に対応するかどうかを決定することができる。例えば、動作510において、投影された速度の半径方向成分、例えば、第2の半径方向に沿った成分の大きさが、第2の速度の大きさ(レーダセンサによって第2の半径方向に沿って測定される)と比較されてよい。例えば、比較は、半径方向成分の大きさが、第2の速度の大きさと実質的に等しいかどうかを決定してよい。本明細書において使用される、実質的に等しいという用語、および類似した用語は、2つの値が等しいこと、または互いの何らかのしきい値格差内であることを表してよい。例えば、格差は、絶対値(例えば、毎秒0.1メートル、毎秒0.5メートル、毎秒2メートル、またはこれらに類するもの)、パーセンテージ(例えば、0.5%、1%、10%)、または他の何らかの測定値であってよい。ある例において、格差は、レーダセンサの忠実度、オブジェクトの距離、反射波に関連付けられた距離、オブジェクトの速度、反射波に関連付けられた速度、ならびに/またはその他の特徴および/または要因に基づいてよい。
At
動作510において、投影される速度が第2の速度に対応すると決定された場合、動作512において、プロセス500が、第2のレーダ反射波を、反射されたレーダ反射波として(またはそうである尤度が高いものとして)識別することができる。例えば、反射波が、第1の反射波の(理論上の)反射に緊密に対応するため、車両コンピューティングデバイスが、反射波は反射された反射波である(そうである尤度が高い)と決定してよい。
If, at
動作514において、プロセス500が、オプションとして、さらなるセンサデータを受信してよく、動作516において、プロセス500が、オプションとして、さらなるセンサデータに基づいて、介在するオブジェクトの存在を確認してよい。例えば、動作514、516は、反射を生じさせる介在するオブジェクト(反射された無線エネルギーを有する)の存在を確認することによって、第2のレーダ反射波が反射された反射波であることを確認してよい。本明細書において説明されるとおり、さらなるセンサデータは、車両上に配置された、またはそれ以外で車両に関連付けられた1つまたは複数のセンサモダリティからの任意のタイプのセンサデータであってよい。ある例において、介在するオブジェクトの存在は、(例えば、介在するオブジェクトが、設備、地形的特徴、またはこれらに類するものであるとき)マップデータから確認されてもよい。他の実装形態において、動作514において受信されるさらなるセンサデータは、後に続くレーダデータを含むが、これには限定されない、後に続いて受信されるデータであり得る。非限定的な例として、後に続いて受信されるデータは、時とともに第2の反射波を追跡すべく使用されることが可能である。本明細書において述べられるとおり、反射された反射波は、一過性であることがあり、以前のさらなるセンサデータ、および/または後に続くさらなるセンサデータを用いて第2の反射波を追跡しようとする試みは、無駄であることがある。
At
動作518において、プロセス500が、レーダ反射波を除外して車両を制御してよい。例えば、レーダ反射波が、反射された反射波であり、環境における実際のオブジェクトを表すものではないと決定されているため、車両の制御は、レーダ反射波に依存しなくてよい。本明細書において説明されるとおり、従来のプランニングシステムは、レーダ反射波によって表される幻影の「オブジェクト」に対して反応するように(例えば、制動すること、ステアリングすること、またはこれらに類することによって)車両を制御してきたことがある。しかし、反射された反射波を識別すること、および除外することによって、本明細書において説明される技法は、向上させられた制御を提供すること、例えば、環境における実際のオブジェクトだけに応答することが可能である。
At
対照的に、動作512において、投影された速度が第2の速度に対応しないと決定された場合、動作520において、プロセス500が、レーダ反射波を、環境における潜在的なさらなるオブジェクトとして識別することができる。例えば、第2の速度の大きさが、投影された速度の半径方向成分に対応しないとき、第2のレーダ反射波は、反射された反射波ではない尤度が高い。代わりに、第2の反射波は、環境における実際のオブジェクトに対応してよい。例えば、第2の反射波は、新たに検出されたオブジェクト、例えば、図2の例における建造物から現れる歩行者からであってよい。
In contrast, if in
動作522において、プロセス500が、オプションとして、さらなるオブジェクトの存在を確認してよい。例えば、動作522は、さらなるセンサ情報を受信すること、および、そのさらなるセンサ情報に少なくとも部分的に基づいて、第2のレーダ反射波に関連付けられた位置でオブジェクトの存在を決定することを含んでよい。さらなるセンサ情報は、LiDARデータ、画像データ、さらなるレーダデータ、飛行時間データ、またはこれらに類するもののうちの1つまたは複数を含んでよい。ある例において、動作522は、動作516と実質的に同一であり得るが、何らかの介在する点における代わりに、第2の位置においてオブジェクトの存在を確認する。
At
動作524において、プロセス500が、第2のレーダ反射波に少なくとも部分的に基づいて、車両を制御することを含むことが可能である。例えば、第2のレーダ反射波は、実際の動的オブジェクトに関連付けられることがあるため、本明細書において説明される技法は、そのオブジェクトとの関係で車両を制御してよい。ある例において、車両の軌道が、第2のレーダ反射波に少なくとも部分的に基づいて決定されることが可能である。非限定的な例として、予測システムが、予測構成要素324と同様に、さらなるオブジェクトの予測される軌道を決定することができ、プランニングシステム、例えば、プランニング構成要素326が、さらなるオブジェクトの予測される軌道との関係で車両に関する軌道を生成することができる。ある実装形態において、動作524は、さらに、または代替として、例えば、さらなるオブジェクトからの後に続く反射波がオブジェクト反射波として扱われ得るように、さらなるオブジェクトを追跡することを含むことも可能である。そのようなオブジェクト反射波は、さらなるオブジェクトによって生じさせられる反射された反射波を決定すべく使用されてよい。
At
図6は、本開示の実施形態による、レーダ反射波が反射された反射波であるかどうかを決定するための別の例示的なプロセス600のフロー図である。プロセス600は、前段で説明されるプロセス500の代わりに、またはそれに加えて使用されてよい。プロセス600は、図3に示される環境に限定されないものの、プロセス600の態様は、図3を参照して前段で説明される技法に対応してよい。さらに、レーダデータの脈絡において説明されるものの、例示的なプロセス600は、LiDARデータ、ソナーデータ、飛行時間画像データ、および/または他のタイプのデータの脈絡で、かつ/またはこれらのデータとの組み合わせで使用されてよい。
FIG. 6 is a flow diagram of another
動作602において、プロセス600は、環境に関するレーダデータを受信することを含むことが可能である。例えば、レーダデータは、位置情報、速度情報、および/または強度情報を含むレーダ反射波を含んでよい。ある例において、レーダシステムは、1つまたは複数のレーダセンサを含んでよく、前段で説明される車両102、402などの自律車両のセンサシステムであってよい。レーダデータは、位置と、0の速度とを有するオブジェクトに対応する静的反射波、および位置と、0ではない速度とを有する動くオブジェクトに対応する動的反射波もしくはレーダトラックを含む、多様な反射波を含んでよい。
At
動作604において、プロセス600は、レーダデータの第1の反射波の第1の位置を識別することを含むことが可能である。第1のレーダ反射波は、反射波の深度もしくは範囲、位置、例えば、センサとの関係における反射波の角位置、および/または速度を識別してよい。ある例において、第1のレーダ反射波は、例えば、環境における知られているオブジェクトに対応する、オブジェクト反射波であってよい。ある例において、第1のレーダ反射波は、レーダデータを受信することに先立って生成された追跡情報に基づいて、オブジェクト反射波に対応すると決定されてよい。しかし、他の例において、本明細書において説明される技法は、まったく反射波の演繹的の知識なしに働くことが可能である。別の言い方をすると、第1の反射波(および、後段で説明される第2の反射波を含む、さらなる反射波)は、環境におけるオブジェクトに関連付けられていなくてよく、そのような関連付けは、ある例において不必要であることがある。第1のレーダ反射波の位置は、第1の半径方向に沿った位置、座標系におけるx-y座標、または他の何らかの位置情報であってよい。
At
動作606において、プロセス600は、レーダデータの第2の反射波の第2の位置を識別することを含むことが可能である。第2のレーダ反射波は、反射波の深度もしくは範囲、位置、例えば、センサとの関係における反射波の角位置、および/または速度を識別してよい。他の実装形態において、第2のレーダ反射波の位置は、座標系におけるx-y座標、または他の何らかの位置情報であってよい。第2のレーダ反射波は、環境における別のオブジェクト、例えば、新たに検出可能なオブジェクトからの、および/または環境における何らかの介在するオブジェクトからの反射からの反射波であってよい。後者の事例において、レーダ反射波は、半径方向に沿った位置で幻影の「オブジェクト」を識別してよい。本明細書において説明される技法は、反射波が反射された反射波であるかどうかを決定すべく使用されてよい。
At
動作608において、プロセス600が、第1の位置、および第2の位置に基づいて、反射点の位置を決定することができる。例えば、本明細書において説明される技法は、反射点を、無線エネルギーが、センサが第2の反射波を生成するように反射した第1の反射波に関連付けられたオブジェクトから反射した、第2の半径方向に沿った、空間における点として決定することができる。ある例において、動作610は、第1の反射波および第2の反射波の位置に関連付けられた幾何を使用して反射点を決定することができる。図3は、反射点が、センサと第2の反射波の間に延びる第1の線と、第1の反射波と第2の反射波の間に延びる線に垂直であり、かつこの線を二分する第2の線の交差点として決定されることが可能である。さらに、または代替として、反射点からその2つの点までの線分が等しいという想定が、その線に沿ってどこに反射点があるかを決定すべく使用されることが可能である。理解されるとおり、点の任意の所与の対に関して、反射点は、必然的に、センサとセンサから半径方向でより遠く離れた反射波の間の線上にあり、それ故、図6の例において、第2の反射波は、第1の反射波と比べて、より遠く離れている。
In
動作610において、プロセス600が、環境におけるオブジェクトについてのデータを受信することができる。例えば、動作610は、環境についてのさらなるセンサデータを受信することを含んでよい。そのようなさらなるセンサデータは、車両上に配置された、またはそれ以外で車両に関連付けられた1つまたは複数のセンサモダリティからの任意のタイプのセンサデータであってよい。ある例において、動作610は、環境のマップデータを受信することを含むことが可能である。本明細書において説明される例において、オブジェクトについてのデータは、環境内における静的であるか、動的であるかにかかわらず、オブジェクトについての情報を提供することが可能である任意のソースからであってよい。
At
動作612において、プロセス600が、オブジェクトが反射点の位置にあるかどうかを決定する。前段で説明されるとおり、反射波の幾何が、理論上の反射点、すなわち、最初に第1の反射波に関連付けられたオブジェクトから反射された無線エネルギーが、第2の反射波の位置で反射波を与えるべく、後に続いて反射する点を決定することを可能にする。そのような反射は、環境におけるオブジェクトからの(直接の)反射と対比される、ゴーストの、または幻影の反射である。それ故、そのような理論上の点が、反射波の任意の対に関して決定され得る一方で、610で受信されたオブジェクトについてのデータが、その理論上の反射点に実際にオブジェクトが存在するかどうかを決定すべく使用されることが可能である。
In
動作612において、反射点にオブジェクトが存在すると決定された場合、動作614において、プロセス600が、第2のレーダ反射波を、反射されたレーダ反射波として識別することができる。例えば、第2の反射波の位置が、反射点における第1の反射波の(理論上の)反射の位置に緊密に対応し、かつその理論上の反射点にオブジェクトが存在するため、車両コンピューティングデバイスが、反射波は反射された反射波であると決定してよい。例えば、車両コンピューティングデバイスは、第2の反射波に、潜在的な反射された反射波としてフラグ設定すること、および/または車両の他の構成要素に情報を送ることができる。
If, in
動作616において、プロセス600が、第2のレーダ反射波を除外して車両を制御してよく、またはそれ以外でそれを考慮に入れてよい。例えば、第2のレーダ反射波は、反射された反射波であり、環境における実際のオブジェクトを表すものではないと決定されているため、車両の制御は、第2のレーダ反射波に依存しなくてよい。本明細書において説明されるとおり、従来のプランニングシステムは、第2のレーダ反射波によって表される幻影の「オブジェクト」に対して反応するように(例えば、制動すること、ステアリングすること、またはこれらに類することによって)車両を制御してきたことがある。しかし、反射された反射波を識別すること、および除外することによって、本明細書において説明される技法は、向上させられた制御を提供すること、例えば、環境における実際のオブジェクトだけに応答することが可能である。ある実装形態において、本明細書において説明される技法は、第2の反射波を、それが反射点であることを確認すべく追跡することもできる。前段で述べられるとおり、環境の幾何が、反射された反射波を可能にする条件を生じさせるが、その幾何は、不断に変化している。それ故、反射された反射波が1つのレーダスキャンに存在することがある一方で、後に続く(または先行する)スキャンに存在する尤度は低く、それ故、一過性の反射波を追跡しようと試みることは、可能でないことがある。
At
対照的に、動作612において、反射点の位置にオブジェクトが存在しないと決定された場合、動作518において、プロセス600が、第2のレーダ反射波を、環境におけるさらなる潜在的なオブジェクトとして識別することができる。例えば、反射点にオブジェクトが存在しないとき、レーダ反射波は、反射された反射波でない尤度が高い。代わりに、第2の反射波は、環境における実際のオブジェクトに対応してよい。例えば、反射波は、新たに検出されたオブジェクト、例えば、図3の例における建造物から出現する歩行者であってよい。
In contrast, if it is determined in
動作620において、プロセス600が、オプションとして、さらなるオブジェクトの存在を確認してよい。例えば、動作624は、さらなるセンサ情報を受信すること、および、さらなるセンサ情報に少なくとも部分的に基づいて、第2のレーダ反射波に関連付けられた位置におけるオブジェクトの存在を決定することを含んでよい。さらなるセンサ情報は、LiDARデータ、画像データ、さらなるレーダデータ、飛行時間データ、またはこれらに類するもののうちの1つまたは複数を含んでよい。ある実装形態において、動作620は、動作610、612と実質的に同一であってよいが、反射点におけるオブジェクトの存在を決定する代わりに、プロセス600は、第2の位置におけるオブジェクトの、すなわち、第2の反射波の存在を決定してよい。
At
動作622において、プロセス600が、第2の反射波に少なくとも部分的に基づいて車両を制御することを含むことが可能である。例えば、第2の反射波は、実際の動的オブジェクトに関連付けられることがあるため、本明細書において説明される技法は、そのオブジェクトとの関係において車両を制御してよい。ある例において、車両の軌道は、第2の反射波に少なくとも部分的に基づいて決定されることが可能である。非限定的な例として、予測システムが、予測構成要素424と同様に、さらなるオブジェクトの予測される軌道を決定することができ、プランニングシステム、例えば、プランニング構成要素426が、さらなるオブジェクトの予測される軌道との関係で車両の軌道を生成することができる。ある実装形態において、動作622は、さらに、または代替として、例えば、さらなるオブジェクトからの後に続く反射波がオブジェクト反射波として扱われ得るように、さらなるオブジェクトを追跡することを含むことも可能である。そのようなオブジェクト反射波は、さらなるオブジェクトによって生じさせられる反射された反射波を決定すべく使用されてよい。
At
プロセス500、600の動作は、順次に実行されること、および/または並行に実行されることがある。非限定的な例として、動作502、504、602において受信されるレーダデータは、複数のレーダ反射波を含んでよい。ある実装形態において、動作506、508、510、512、608、610、612、およびその他は、レーダ反射波のそれぞれに関して、例えば、並行に実行されてよい。それ故、レーダデータからのすべての反射された反射波が、本明細書において説明されるとおり、比較的迅速に識別され、考慮から除外されてよい。さらに、反射波の単一の対だけが図5および図6において参照される一方で、反射波の多様な対が、本明細書において説明される技法を使用して比較されてよい。非限定的な例として、同一の反射波が、他の多様な反射波(環境におけるオブジェクトに関連付けられていることが知られていても、知られていなくてもよい)と比較されてよい。ある例において、知られている各オブジェクトに関する複数のレーダ反射波が受信されることが可能であり、それらの反射波が、例えば、プロセス400またはプロセス500を使用して、オブジェクトに関連付けられていない他の反射波と比較されることが可能である。さらに、反射波の対が、例えば、反射波が反射であることのさらなる信頼度を得るべく、プロセス400とプロセス500の両方により処理されてよい。さらに別の実装形態において、複数のレーダ反射波は、例えば、複数のレーダ反射波のうちの何らかのサブセットだけが処理されるように、フィルタリングされてよい。例えば、知られているオブジェクトと比べて、車両102に相対的により近いレーダ反射波は、反射された反射波ではあり得ず、それ故、プロセス500の態様により探索されなくてよい。さらに、例えば、0ではない、最低限の速度を下回る速度を有するレーダ反射波は、例えば、それらの反射波が、反射された反射波である場合でも、車両に極めてわずかな影響しか与えないことがあるため、探索から除外されてもよい。さらに、しきい値角度、例えば、45度、60度、90度、またはこれらに類するもの以上の角度(レーダセンサ104/車両102との関係で)を有する反射波、また、他のフィルタリング技法および基準が使用されてもよい。
The operations of
図5および図6は、本開示の実施形態による例示的なプロセスを示す。図5および図6に示されるプロセスは、複数のサブプロセスとして、例えば、車両102、402の様々な構成要素によって実行されてよいが、必ずしもそのように実行される必要はない。プロセス500、600は、各動作が、ハードウェアで、ソフトウェアで、またはその組み合わせで実施され得る動作のシーケンスを表す論理フローチャートとして例示される。ソフトウェアの脈絡において、動作は、1つまたは複数のプロセッサによって実行されたとき、記載される動作をコンピュータまたは自律車両に実行させる1つまたは複数の非一過性のコンピュータ可読記憶媒体上に記憶されたコンピュータ実行可能命令を表す。一般に、コンピュータ実行可能命令は、特定の機能を実行する、または特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、構成要素、データ構造、およびこれらに類するものを含む。動作が説明される順序は、限定として解釈されることが意図されるわけではなく、任意の数の説明される動作が、プロセスを実施すべく任意の順序で、かつ/または並行に組み合わされることが可能である。
5 and 6 illustrate an exemplary process according to an embodiment of the present disclosure. The processes illustrated in FIGS. 5 and 6 may, but need not, be performed as multiple sub-processes, for example, by various components of the
(例条項)
A 例示的な自律車両は、自律車両上のレーダセンサと、1つまたは複数のプロセッサと、その1つまたは複数のプロセッサによって実行されたとき、レーダセンサから、レーダセンサからの第1の半径方向に沿った第1の速度と、第1の範囲とを備える第1のレーダ反射波と、レーダセンサからの第2の半径方向に沿った第2の速度と、第2の範囲とを備える第2のレーダ反射波とを備える、環境のレーダデータを受信すること、投影された速度として、第2のレーダ反射波に対応する点上に第1の速度を投影すること、第2の速度および投影された速度に少なくとも部分的に基づいて、第2のレーダ反射波が、介在する表面から反射した反射されたレーダ反射波に対応すると決定すること、および第2のレーダ反射波を除外して環境内で自律車両を制御することを備える動作を自律車両に実行させるプロセッサ実行可能命令を記憶するメモリとを含む。
(Example clause)
An example autonomous vehicle includes a radar sensor on the autonomous vehicle, one or more processors, and a memory storing processor-executable instructions that, when executed by the one or more processors, cause the autonomous vehicle to perform operations comprising receiving radar data of an environment from the radar sensor, the radar data comprising a first radar return having a first velocity and a first range along a first radial direction from the radar sensor, and a second radar return having a second velocity and a second range from the radar sensor, projecting the first velocity onto a point corresponding to the second radar return as a projected velocity, determining that the second radar return corresponds to a reflected radar return that reflected off an intervening surface based at least in part on the second velocity and the projected velocity, and controlling the autonomous vehicle within the environment to exclude the second radar return.
B 例Aの自律車両であって、第1の速度を投影することが、第1の半径方向上の第1の範囲、および第2の半径方向上の第2の範囲に少なくとも部分的に基づいて、反射線を決定すること、反射線を軸にして第1の位置から第2の位置に第1の速度を反射すること、および投影された速度を、第2の半径方向に沿った反射された速度の成分として決定することを備える、自律車両。 B The autonomous vehicle of example A, wherein projecting the first velocity comprises determining a reflection line based at least in part on a first range on a first radial direction and a second range on a second radial direction, reflecting the first velocity from the first location to the second location about the reflection line, and determining the projected velocity as a component of the reflected velocity along the second radial direction.
C 例Aまたは例Bの自律車両であって、第2のレーダ反射波が反射されたレーダ反射波に対応すると決定することが、投影された速度の第1の大きさを第2の速度の第2の大きさと比較すること、および第1の大きさが第2の大きさと実質的に等しいと決定することを備える、自律車両。 C. The autonomous vehicle of example A or example B, wherein determining that the second radar return corresponds to the reflected radar return comprises comparing a first magnitude of the projected velocity to a second magnitude of the second velocity, and determining that the first magnitude is substantially equal to the second magnitude.
D 例A乃至例Cのいずれか1つの例の自律車両であって、動作が、レーダデータを受信することに先立って、オブジェクトに関連付けられた以前のレーダ反射波を受信すること、および、以前のレーダ反射波に少なくとも部分的に基づいて、第1の反射波を、オブジェクトに関連付けられたオブジェクト反射波として識別することをさらに備える、自律車両。 D. The autonomous vehicle of any one of Examples A to C, wherein the operation further comprises, prior to receiving the radar data, receiving a previous radar return associated with the object, and identifying the first return as an object return associated with the object based at least in part on the previous radar return.
E 車両上に少なくとも1つのさらなるセンサをさらに備える、例A乃至例Dのいずれか1つの例の自律車両であって、動作が、少なくとも1つのさらなるセンサから、さらなるセンサデータを受信すること、および、さらなるセンサデータに少なくとも部分的に基づいて、介在するオブジェクトの存在を検証することをさらに備える、自律車両。 E. The autonomous vehicle of any one of examples A to D, further comprising at least one additional sensor on the vehicle, wherein the operation further comprises receiving additional sensor data from the at least one additional sensor, and verifying the presence of an intervening object based at least in part on the additional sensor data.
F 例A乃至例Eのいずれか1つの例の自律車両であって、動作が、第1の反射波および第2の反射波に関連付けられた距離、第1の反射波および第2の反射波に関連付けられた位置、または第1の反射波および第2の反射波に関連付けられた速度のうちの1つまたは複数に少なくとも部分的に基づいて、複数の候補レーダ反射波から第1の反射波および第2の反射波を選択することをさらに備える、自律車両。 F. The autonomous vehicle of any one of Examples A to E, wherein the operation further comprises selecting the first and second reflections from the plurality of candidate radar reflections based at least in part on one or more of a distance associated with the first and second reflections, a position associated with the first and second reflections, or a speed associated with the first and second reflections.
G 例示的な方法は、車両上のレーダセンサによって、複数のレーダ反射波を含む、環境のレーダデータをキャプチャすること、複数のレーダ反射波の第1のレーダ反射波に少なくとも基づいて、車両から延びる第1の半径方向に沿った第1の速度を決定すること、複数のレーダ反射波の第2のレーダ反射波に少なくとも部分的に基づいて、車両から延びる第2の半径方向に沿った第2の速度を決定すること、第2の方向に沿って第1の速度の投影された速度を決定すること、投影された速度と第2の速度の比較に少なくとも部分的に基づいて、第2のレーダ反射波が、オブジェクト、およびオブジェクトとレーダセンサの間の介在するオブジェクトから反射された反射されたレーダ反射波に対応すると決定することを含む。 G An exemplary method includes capturing radar data of an environment, including a plurality of radar returns, with a radar sensor on the vehicle; determining a first velocity along a first radial direction extending from the vehicle based at least on a first radar return of the plurality of radar returns; determining a second velocity along a second radial direction extending from the vehicle based at least in part on a second radar return of the plurality of radar returns; determining a projected velocity of the first velocity along the second direction; and determining, based at least in part on a comparison of the projected velocity and the second velocity, that the second radar return corresponds to a reflected radar return reflected from the object and an intervening object between the object and the radar sensor.
H レーダセンサまたはさらなるセンサのうちの少なくとも1つからセンサデータを受信すること、および、センサデータに少なくとも部分的に基づいて、第1の反射波が環境におけるオブジェクトに関連付けられていると識別することをさらに備える例Gの方法。 H The method of example G, further comprising receiving sensor data from at least one of the radar sensor or the additional sensor, and identifying, based at least in part on the sensor data, the first reflected wave as being associated with an object in the environment.
I センサデータに少なくとも部分的に基づいて、かつ第1のレーダ反射波および第2のレーダ反射波をキャプチャすることに先立って、環境におけるオブジェクトを追跡することをさらに備え、第2の反射波が反射された反射波であると決定することが、追跡することに少なくとも部分的にさらに基づく、例Gまたは例Hの方法。 I The method of Example G or Example H, further comprising tracking an object in the environment based at least in part on the sensor data and prior to capturing the first radar return and the second radar return, and determining that the second return is a reflected return is further based at least in part on the tracking.
J 投影される速度が、第2の方向に沿って第2の反射波に対応する位置上に投影された速度を備える、例G乃至例Iのいずれか1つの例の方法。 J The method of any one of Examples G to I, wherein the projected velocity comprises a velocity projected along the second direction onto a location corresponding to the second reflected wave.
K 投影された速度を決定することが、第1の反射波に関連付けられた第1の範囲、および第2の反射波に関連付けられた第2の範囲に少なくとも部分的に基づいて、反射線を決定すること、反射された速度を決定すべく反射線を軸にして第1の速度を反射すること、および投影された速度を、第2の半径方向に沿った反射された速度の成分として決定することを備える、例G乃至例Jのいずれか1つの例の方法。 K The method of any one of Examples G through J, wherein determining the projected velocity comprises determining a reflection line based at least in part on a first range associated with the first reflected wave and a second range associated with the second reflected wave, reflecting the first velocity about the reflection line to determine the reflected velocity, and determining the projected velocity as a component of the reflected velocity along a second radial direction.
L 反射点を、反射線と、レーダセンサと第2の位置の間に延びる線の交差点として決定することをさらに備え、反射点が、介在するオブジェクトに関連付けられた位置である、例G乃至例Kのいずれか1つの例の方法。 L The method of any one of Examples G to K, further comprising determining a reflection point as an intersection of the reflection line with a line extending between the radar sensor and the second location, the reflection point being a location associated with an intervening object.
M さらなるセンサデータまたはマップデータのうちの少なくとも1つを受信すること、および、さらなるセンサデータまたはマップデータに少なくとも部分的に基づいて、反射点における介在するオブジェクトを識別することをさらに備える例G乃至例Lのいずれか1つの例の方法。 M The method of any one of Examples G to L, further comprising receiving at least one of additional sensor data or map data, and identifying an intervening object at the reflection point based at least in part on the additional sensor data or map data.
N 第1の反射波および第2の反射波が、第1の反射波および第2の反射波に関連付けられた距離、第1の反射波および第2の反射波に関連付けられた位置、または第1の反射波および第2の反射波に関連付けられた速度のうちの少なくとも1つに少なくとも部分的に基づいて、選択される、例G乃至例Mのいずれか1つの例の方法。 N The method of any one of Examples G to M, in which the first reflected wave and the second reflected wave are selected based at least in part on at least one of a distance associated with the first reflected wave and the second reflected wave, a position associated with the first reflected wave and the second reflected wave, or a velocity associated with the first reflected wave and the second reflected wave.
O 第1の反射波が、環境におけるオブジェクトに関連付けられ、第2の反射波が、第1のレーダ反射波に関連付けられた第1の距離と比べて、より大きい第2の距離を有する第2のレーダ反射波、またはしきい値速度以上である第2の速度のうちの少なくとも1つに少なくとも部分的に基づいて、決定される、例G乃至例Nのいずれか1つの例の方法 O The method of any one of Examples G to N, in which the first reflection is associated with an object in the environment and the second reflection is determined based at least in part on at least one of a second radar reflection having a second distance greater than a first distance associated with the first radar reflection, or a second speed greater than or equal to a threshold speed.
P 実行されたとき、レーダセンサによって、第1の速度と、第1の方向と、第1の範囲とを備える第1のレーダ反射波と、第2の速度と、第2の方向と、第2の範囲とを備える第2のレーダ反射波と含む、環境のレーダデータをキャプチャすること、第2の方向に関して第1の速度の投影された速度を決定すること、および、投影された速度と第2の速度の比較に少なくとも部分的に基づいて、第2のレーダ反射波が反射されたレーダ反射波に対応すると決定することを含む動作を1つまたは複数のプロセッサに実行させる命令を記憶する1つまたは複数の例示的な非一過性のコンピュータ可読媒体。 P One or more exemplary non-transitory computer-readable media storing instructions that, when executed, cause one or more processors to perform operations including capturing, with a radar sensor, radar data of an environment including a first radar return having a first speed, a first direction, and a first range, and a second radar return having a second speed, a second direction, and a second range, determining a projected velocity of the first speed with respect to the second direction, and determining that the second radar return corresponds to a reflected radar return based at least in part on a comparison of the projected velocity and the second speed.
Q 例Pの1つまたは複数の非一過性のコンピュータ可読媒体であって、投影された速度を決定することが、第1の反射波および第2の反射波に少なくとも部分的に基づいて、反射線を決定すること、反射された速度を決定すべく反射線を軸にして第1の位置から第2の位置に第1の速度を反射すること、および投影された速度を、第2の方向に沿った反射された速度の成分として決定することを備える、コンピュータ可読媒体。 Q One or more non-transitory computer-readable media of Example P, wherein determining the projected velocity comprises determining a reflection line based at least in part on the first reflected wave and the second reflected wave, reflecting the first velocity from the first location to the second location about the reflection line to determine the reflected velocity, and determining the projected velocity as a component of the reflected velocity along the second direction.
R 反射点を、反射点からの線が第1の点から第2の点までの接続線を二分するように第2の方向に沿った点として決定すること、さらなるセンサデータを受信すること、さらなるセンサデータに少なくとも部分的に基づいて、反射点における表面の存在を決定すること、および第2のレーダ反射波が反射されたレーダ反射波に対応することを検証することをさらに備える例Pまたは例Qの方法。 R The method of Example P or Example Q further comprising determining the reflection point as a point along the second direction such that a line from the reflection point bisects a connecting line from the first point to the second point, receiving additional sensor data, determining the presence of a surface at the reflection point based at least in part on the additional sensor data, and verifying that the second radar return corresponds to a reflected radar return.
S 動作は、レーダセンサまたはさらなるセンサのうちの少なくとも1つからセンサデータを受信すること、および、センサデータに少なくとも部分的に基づいて、第1の反射された反射波が、環境におけるオブジェクトに関連付けられていると決定することをさらに備える、例P乃至例Rのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 S. One or more non-transitory computer-readable media of any one of Examples P through R, wherein the operations further comprise receiving sensor data from at least one of the radar sensor or the additional sensor, and determining, based at least in part on the sensor data, that the first reflected echo is associated with an object in the environment.
T 動作が、複数の反射の反射波から1つまたは複数の候補反射の反射波を識別することをさらに備え、1つまたは複数の候補反射の反射波が、第2のレーダ反射波を含み、識別することが、1つまたは複数の候補反射の反射波の個々に関連付けられた範囲、または1つまたは複数の候補反射の反射波の個々に関連付けられた速度のうちの少なくとも1つに少なくとも部分的に基づく、例P乃至例Sのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 T one or more non-transitory computer-readable media of any one of Examples P to S, wherein the operation further comprises identifying one or more candidate reflections from the plurality of reflections, the one or more candidate reflections including a second radar reflection, and the identifying is based at least in part on at least one of a range associated with each of the one or more candidate reflections or a speed associated with each of the one or more candidate reflections.
U 例示的な自律車両は、少なくともレーダセンサを含む自律車両上の1つまたは複数のセンサと、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行されたとき、レーダセンサから、レーダセンサからの第1の半径方向に沿った第1の範囲を備える関連付けられた第1の位置を有する第1のレーダ反射波と、レーダセンサからの第2の半径方向に沿った第2の範囲を備える関連付けられた第2の位置を有する第2のレーダ反射波とを備える、環境のレーダデータを受信すること、第1の位置および第2の位置に少なくとも部分的に基づいて、第2の半径方向に沿って反射点を決定すること、1つまたは複数のセンサから、さらなるセンサデータを受信すること、さらなるセンサデータに少なくとも部分的に基づいて、環境におけるオブジェクトを識別すること、反射点に配置されているオブジェクトに少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であると決定すること、および第2のレーダ反射波を除外して環境内で自律車両を制御することを備える動作を自律車両に実行させるプロセッサ実行可能命令を記憶するメモリとを含む。 U An exemplary autonomous vehicle includes one or more sensors on the autonomous vehicle including at least a radar sensor, one or more processors, and a memory storing processor-executable instructions that, when executed by the one or more processors, cause the autonomous vehicle to perform operations including receiving radar data of an environment from the radar sensor, the radar data including a first radar return having an associated first position with a first range along a first radial direction from the radar sensor, and a second radar return having an associated second position with a second range along a second radial direction from the radar sensor, determining a reflection point along the second radial direction based at least in part on the first position and the second position, receiving further sensor data from the one or more sensors, identifying an object in the environment based at least in part on the further sensor data, determining that the second radar return is a reflected return based at least in part on the object located at the reflection point, and excluding the second radar return to control the autonomous vehicle in the environment.
V 反射点を決定することが、第1の位置および第2の位置に少なくとも部分的に基づいて、反射線を決定すること、および反射点を、反射線と第2の方向に沿って延びる線の交差点として決定することを備える、例Uの自律車両。 V The autonomous vehicle of example U, wherein determining the reflection point comprises determining a reflection line based at least in part on the first position and the second position, and determining the reflection point as an intersection of the reflection line and a line extending along the second direction.
W 動作が、レーダセンサから、かつレーダデータを受信することに先立って、第2のオブジェクトに関連付けられた以前のセンサデータを受信すること、および、以前のセンサデータに少なくとも部分的に基づいて、第1の反射波を、第2のオブジェクトに関連付けられたオブジェクト反射波として識別することをさらに備える、例Uまたは例Vの自律車両。 W The autonomous vehicle of Example U or Example V, wherein the operation further comprises receiving previous sensor data associated with the second object from the radar sensor and prior to receiving the radar data, and identifying the first return wave as an object return wave associated with the second object based at least in part on the previous sensor data.
X 動作が、第2の範囲が第1の範囲と比べてより大きいことに少なくとも部分的に基づいて、複数の反射波から第2の反射波を選択することをさらに備える、例U乃至例Wのいずれか1つの例の自律車両。 X The autonomous vehicle of any one of Examples U to W, wherein the operation further comprises selecting a second reflected wave from the plurality of reflected waves based at least in part on the second range being greater than the first range.
Y 動作が、レーダセンサから、かつレーダデータを受信した後、環境に関連付けられたさらなるレーダ反射波を受信すること、およびさらなるレーダ反射波に少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であると識別することをさらに備える、例U乃至例Xのいずれか1つの例の自律車両。 Y The autonomous vehicle of any one of Examples U through X, wherein the operations further comprise receiving a further radar return associated with the environment after receiving the radar data from the radar sensor, and identifying the second radar return as a reflected return based at least in part on the further radar return.
Z 車両上のレーダセンサから、複数のレーダ反射波を含む、環境のレーダデータを受信すること、複数のレーダ反射波のうちの第1のレーダ反射波に少なくとも基づいて、レーダセンサから延びる第1の半径方向上の第1の位置を決定すること、複数のレーダ反射波のうちの第2のレーダ反射波に少なくとも部分的に基づいて、レーダセンサから延びる第2の半径方向上の第2の位置を決定すること、第2の半径方向に沿って、かつレーダセンサと第2の位置の間で反射点を決定すること、および環境についてのさらなるデータに少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であると決定することを備える例示的な方法。 Z An exemplary method comprising receiving radar data of an environment from a radar sensor on a vehicle, the radar data including a plurality of radar returns; determining a first location on a first radial direction extending from the radar sensor based at least on a first radar return of the plurality of radar returns; determining a second location on a second radial direction extending from the radar sensor based at least in part on a second radar return of the plurality of radar returns; determining a reflection point along the second radial direction and between the radar sensor and the second location; and determining that the second radar return is a reflected return based at least in part on further data about the environment.
AA 第2のレーダ反射波を除外して環境内で車両を制御することをさらに備える例Zの方法。 The method of example Z further comprising controlling the vehicle within the environment by excluding the second radar return AA.
BB 反射点を決定することが、第1の位置および第2の位置に少なくとも部分的に基づいて、反射線を決定することを備える、例Zまたは例AAの方法。 BB The method of Example Z or Example AA, wherein determining the reflection point comprises determining a reflection line based at least in part on the first location and the second location.
CC さらなるデータが、センサデータまたはマップデータのうちの少なくとも1つを備え、センサデータが、LiDARデータ、さらなるレーダデータ、もしくは画像データのうちの1つまたは複数を備える、例Z乃至例BBのいずれか1つの例の方法。 CC The method of any one of Examples Z to BB, wherein the further data comprises at least one of sensor data or map data, and the sensor data comprises one or more of LiDAR data, further radar data, or image data.
DD レーダセンサから、環境に関連付けられたさらなるレーダ反射波を受信すること、およびさらなるレーダ反射波に少なくとも基づいて、第2のレーダ反射波が反射された反射波であることを識別することをさらに備える例Z乃至例CCのいずれか1つの例の方法。 The method of any one of Examples Z to CC further comprising receiving from the DD radar sensor a further radar return associated with the environment, and identifying the second radar return as a reflected return based at least on the further radar return.
EE レーダセンサから、かつレーダデータを受信することに先立って、環境における追跡されるオブジェクトに関連付けられた以前のレーダ反射波を受信すること、以前のレーダ反射波に少なくとも部分的に基づいて、第1の反射波を、追跡されるオブジェクトに関連付けられたオブジェクト反射波として識別することさらに備える例Z乃至例DDのいずれか1つの例の方法。 EE The method of any one of Examples Z through DD, further comprising receiving a previous radar return associated with a tracked object in the environment from the radar sensor and prior to receiving the radar data, and identifying the first return as an object return associated with the tracked object based at least in part on the previous radar return.
FF 第1の反射波および第2の反射波が、第1の反射波および第2の反射波に関連付けられた範囲、第1の反射波および第2の反射波に関連付けられた第1の位置および第2の位置、または速度のうちの少なくとも1つに少なくとも部分的に基づいて、選択される、例Z乃至例EEのいずれか1つの例の方法。 FF The method of any one of Examples Z to EE, in which the first and second reflected waves are selected based at least in part on at least one of a range associated with the first and second reflected waves, a first and second position associated with the first and second reflected waves, or a velocity.
GG 第1の反射波が、環境におけるオブジェクトに関連付けられ、第2の反射波が、第2のレーダ反射波が、第1のレーダ反射波に関連付けられた第1の範囲と比べてより大きい第2の範囲を有すること、または第2のレーダ反射波の第2の速度が、しきい値速度以上であることのうちの少なくとも1つに少なくとも部分的に基づいて、決定される、例Z乃至例FFのいずれか1つの例の方法。 GG The method of any one of Examples Z through FF, in which the first radar reflection is associated with an object in the environment and the second radar reflection is determined based at least in part on at least one of the second radar reflection having a second range that is greater than the first range associated with the first radar reflection, or the second velocity of the second radar reflection being equal to or greater than a threshold velocity.
HH 車両上のさらなるセンサから、さらなるセンサデータを受信すること、およびさらなるセンサデータに少なくとも部分的に基づいて、第1の反射波に関連付けられたオブジェクトを識別することをさらに備える、例Z乃至例GGのいずれか1つの例の方法。 HH The method of any one of Examples Z to GG, further comprising receiving additional sensor data from an additional sensor on the vehicle and identifying an object associated with the first reflected wave based at least in part on the additional sensor data.
II 実行されたとき、車両上のレーダセンサから、複数のレーダ反射波を含む、環境のレーダデータを受信すること、複数のレーダ反射波のうちの第1のレーダ反射波に少なくとも基づいて、レーダセンサから延びる第1の半径方向上の第1の位置を決定すること、複数のレーダ反射波のうちの第2のレーダ反射波に少なくとも部分的に基づいて、レーダセンサから延びる第2の半径方向上の第2の位置を決定すること、第2の半径方向に沿って、かつレーダセンサと第2の位置の間で反射点を決定すること、環境についてのさらなるデータに少なくとも部分的に基づいて、反射点に対応する位置におけるオブジェクトの存在を決定すること、およびその位置におけるオブジェクトの存在に少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であると決定することを含む動作を1つまたは複数のプロセッサに実行させる命令を記憶する1つまたは複数の例示的な非一過性のコンピュータ可読媒体。 II One or more exemplary non-transitory computer-readable media storing instructions that, when executed, cause one or more processors to perform operations including receiving radar data of an environment from a radar sensor on a vehicle, the radar data including a plurality of radar returns; determining a first location on a first radial direction extending from the radar sensor based at least in part on a first radar return of the plurality of radar returns; determining a second location on a second radial direction extending from the radar sensor based at least in part on a second radar return of the plurality of radar returns; determining a reflection point along the second radial direction and between the radar sensor and the second location; determining a presence of an object at a location corresponding to the reflection point based at least in part on further data about the environment; and determining that the second radar return is a reflected return based at least in part on the presence of an object at the location.
JJ 反射点を決定することが、第1の位置および第2の位置に少なくとも部分的に基づいて、反射線を決定することを備える、例IIの1つまたは複数の非一過性のコンピュータ可読媒体。 JJ One or more non-transitory computer-readable media of Example II, wherein determining the reflection point comprises determining a reflection line based at least in part on the first location and the second location.
KK さらなるデータが、センサデータまたはマップデータのうちの少なくとも1つを備え、センサデータが、LiDARデータまたは画像データのうちの1つまたは複数を備える、例IIまたは例JJの1つまたは複数の非一過性のコンピュータ可読媒体。 KK One or more non-transitory computer-readable media of Example II or Example JJ, wherein the further data comprises at least one of sensor data or map data, and the sensor data comprises one or more of LiDAR data or image data.
LL 動作が、レーダセンサから、環境に関連付けられたさらなるレーダ反射波を受信すること、およびさらなるレーダ反射波に少なくとも部分的に基づいて、第2のレーダ反射波が反射された反射波であることを検証することをさらに備える、例II乃至例KKのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 LL One or more non-transitory computer-readable media of any one of Examples II through KK, wherein the operations further comprise receiving, from the radar sensor, a further radar return associated with the environment, and verifying that the second radar return is a reflected return based at least in part on the further radar return.
MM 動作が、レーダセンサから、かつレーダデータを受信することに先立って、環境における追跡されるオブジェクトに関連付けられた以前のレーダ反射波を受信すること、以前のレーダ反射波に少なくとも部分的に基づいて、第1の反射波を、追跡されるオブジェクトに関連付けられたオブジェクト反射波として識別することをさらに備える、例II乃至例LLのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 One or more non-transitory computer-readable media of any one of Examples II through LL, wherein the MM operation further comprises receiving, from the radar sensor and prior to receiving the radar data, a previous radar return associated with a tracked object in the environment, and identifying the first return as an object return associated with the tracked object based at least in part on the previous radar return.
NN 第1の反射波および第2の反射波が、第1の反射波および第2の反射波に関連付けられた範囲、第1の反射波および第2の反射波に関連付けられた第1の位置および第2の位置、または速度のうちの少なくとも1つに少なくとも部分的に基づいて、選択される、例II乃至例MMのいずれか1つの例の1つまたは複数の非一過性のコンピュータ可読媒体。 NN One or more non-transitory computer readable media of any one of Examples II through MM, in which the first reflected wave and the second reflected wave are selected based at least in part on at least one of a range associated with the first reflected wave and the second reflected wave, a first position and a second position associated with the first reflected wave and the second reflected wave, or a velocity.
前段で説明される例条項は、1つの特定の実装形態に関して説明される一方で、本明細書の脈絡において、例条項の内容は、方法、デバイス、システム、コンピュータ可読媒体、および/または別の実装形態を介して実施されることも可能であることを理解されたい。 While the example clauses described above are described with respect to one particular implementation, it should be understood that in the context of this specification, the contents of the example clauses may also be implemented via methods, devices, systems, computer-readable media, and/or other implementations.
前段で説明される例条項は、1つの特定の実装形態に関して説明される一方で、本明細書の脈絡において、例条項の内容は、方法、デバイス、システム、コンピュータ可読媒体、および/または別の実装形態を介して実施されることも可能であることを理解されたい。 While the example clauses described above are described with respect to one particular implementation, it should be understood that in the context of this specification, the contents of the example clauses may also be implemented via methods, devices, systems, computer-readable media, and/or other implementations.
(結論)
本明細書において説明される技法の1つまたは複数の例が説明されてきた一方で、それらの例の様々な変更形態、追加形態、置換形態、および均等形態が、本明細書において説明される技法の範囲内に含められる。
(Conclusion)
While one or more examples of the techniques described herein have been described, various modifications, additions, permutations, and equivalents of those examples are included within the scope of the techniques described herein.
例の説明において、例示として、主張される主題の特定の例を示す、説明の一部を形成する添付の図面に対する参照が行われる。他の例が使用されることが可能であること、および構造上の変更などの変更または変形が行われることが可能であることを理解されたい。そのような例、変更、または変形は、必ずしも、意図される主張される主題の範囲からの逸脱ではない。本明細書において説明されるステップは、或る順序で提示され得る一方で、ある事例において、順序は、説明されるシステムおよび方法の機能を変更することなしに、いくつかの入力が異なる時点で、または異なる順序で提供されるように変更されることが可能である。また、開示される手続きは、異なる順序で実行されることも可能である。さらに、本明細書における様々な計算は、開示される順序で実行される必要はなく、計算の代替の順序を使用する他の例が、容易に実施されることが可能である。順序変更されることに加えて、計算は、同一の結果を伴って部分計算に分解されることも可能である。 In describing the examples, reference is made to the accompanying drawings, which form a part of the description, showing, by way of illustration, specific examples of the claimed subject matter. It is understood that other examples can be used and that modifications or variations, such as structural changes, can be made. Such examples, modifications, or variations do not necessarily depart from the intended scope of the claimed subject matter. While the steps described herein may be presented in a certain order, in some cases the order can be changed such that some inputs are provided at different times or in a different order without changing the functionality of the systems and methods described. The procedures disclosed can also be performed in a different order. Furthermore, the various calculations herein need not be performed in the order disclosed, and other examples using alternative orders of calculations can be readily implemented. In addition to being reordered, the calculations can also be decomposed into sub-calculations with the same results.
Claims (13)
前記自律車両のレーダセンサと、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによって実行された場合に、前記自律車両に、
前記レーダセンサから環境のレーダデータを受信し、前記レーダデータは、
前記レーダセンサから第1の半径方向に沿った第1の速度および前記第1の半径方向に沿った第1の範囲での第1の位置を含む第1のレーダ反射波と、
前記レーダセンサから第2の半径方向に沿った第2の速度および第2の範囲を含む第2のレーダ反射波とを含み、
前記第1の位置および第2の位置または前記第1の速度および前記第2の速度のうちの少なくとも1つに少なくとも部分的に基づいて、前記第2のレーダ反射波が中間表面で反射された反射されたレーダ反射波に対応することを決定し、
前記第2のレーダ反射波を除いた前記環境内の前記自律車両を制御する動作を実行させるプロセッサ実行可能命令を格納するメモリと、を備え、
前記第2のレーダ反射波が前記反射されたレーダ反射波に対応することを前記決定することは、
投影された速度として、前記第1の速度を前記第2のレーダ反射波に対応する点に投影することと、
前記投影された速度の第1の大きさが前記第2の速度の第2の大きさに等しいことを決定することと
を含む、自律車両。 1. An autonomous vehicle, comprising:
a radar sensor of the autonomous vehicle;
one or more processors;
When executed by the one or more processors, causes the autonomous vehicle to:
receiving radar data of an environment from the radar sensor, the radar data comprising:
a first radar return including a first velocity along a first radial direction from the radar sensor and a first position at a first range along the first radial direction;
a second radar return having a second velocity and a second range along a second radial direction from the radar sensor;
determining, based at least in part on at least one of the first and second positions or the first and second velocities, that the second radar return corresponds to a reflected radar return reflected off an intermediate surface;
and a memory storing processor-executable instructions for performing operations to control the autonomous vehicle in the environment excluding the second radar return,
Determining that the second radar return corresponds to the reflected radar return includes:
projecting the first velocity to a point corresponding to the second radar return as a projected velocity;
determining that a first magnitude of the projected velocity is equal to a second magnitude of the second velocity;
Including, autonomous vehicles.
前記第1の半径方向の前記第1の範囲および前記第2の半径方向の前記第2の範囲に少なくとも部分的に基づいて反射線を決定することと、
前記第1の速度を前記反射線について前記第1の位置から前記第2の位置まで反射することと、
前記投影速度を前記第2の半径方向に沿った前記反射された速度の成分として決定することと
を含む請求項1に記載の自律車両。 Projecting the first velocity includes:
determining a reflected line based at least in part on the first range in the first radial direction and the second range in the second radial direction;
reflecting the first velocity about the reflection line from the first location to the second location;
and determining the projected velocity as a component of the reflected velocity along the second radial direction.
前記第1の位置および前記第2の位置に少なくとも部分的に基づいて、前記第2の半径方向に沿った反射点を決定することと、
1つまたは複数のさらなるセンサから、さらなるセンサデータを受信することと、
前記さらなるセンサデータに少なくとも部分的に基づいて、前記環境におけるオブジェクトを識別することと、
前記オブジェクトが前記反射点に配置されていることを決定することと
を含む請求項1または2に記載の自律車両。 Determining that the second radar return corresponds to the reflected radar return comprises:
determining a reflection point along the second radial direction based at least in part on the first location and the second location;
receiving further sensor data from one or more further sensors;
identifying objects in the environment based at least in part on the further sensor data; and
and determining that the object is located at the reflection point .
前記第1の位置および前記第2の位置に少なくとも部分的に基づいて、反射線を決定することと、
前記反射点を前記反射線と前記第2の半径方向に沿って延びる線との交点として決定することと
を含む請求項3に記載の自律車両。 Determining the reflection point comprises:
determining a reflected line based at least in part on the first location and the second location;
and determining the reflection point as an intersection of the reflection line and a line extending along the second radial direction .
前記レーダデータを受信する前に、オブジェクトに関連付けられた以前のレーダ反射波を受信することと、
少なくとも部分的に前記以前のレーダ反射波に基づいて、前記第1のレーダ反射波を前記オブジェクトに関連付けられたオブジェクト反射波として識別することと
をさらに含む請求項1ないし4のいずれか一項に記載の自律車両。 The operation includes:
receiving a previous radar return associated with an object prior to receiving the radar data;
5. The autonomous vehicle of claim 1 , further comprising: identifying the first radar return as an object return associated with the object based at least in part on the previous radar return.
前記少なくとも1つのさらなるセンサから、さらなるセンサデータを受信することと、
前記さらなるセンサデータに少なくとも部分的に基づいて、前記中間表面の存在を検証することと、をさらに含む請求項1ないし5のいずれか一項に記載の自律車両。 and further comprising at least one additional sensor in the autonomous vehicle, the operation comprising:
receiving further sensor data from the at least one further sensor;
6. The autonomous vehicle of claim 1, further comprising : verifying a presence of the intermediate surface based at least in part on the further sensor data.
前記複数のレーダ反射波のうちの第1のレーダ反射波に少なくとも基づいて、前記車両から延びる第1の半径方向に沿った第1の速度または前記第1の半径方向に沿った第1の範囲での第1の位置の少なくとも1つを決定するステップと、
前記複数のレーダ反射波のうちの第2のレーダ反射波に少なくとも部分的に基づいて、前記車両から延びる第2の半径方向に沿った第2の速度または前記第2の半径方向に沿った第2の範囲での第2の位置の少なくとも1つを決定するステップと、
前記第1の位置および前記第2の位置または前記第1の速度および前記第2の速度のうちの少なくとも1つに少なくとも部分的に基づいて、前記第2のレーダ反射波がオブジェクトおよび前記オブジェクトと前記レーダセンサとの間の中間オブジェクトから反射されたレーダ反射波に対応することを決定するステップと、
投影された速度として、前記第1の速度を前記第2のレーダ反射波に対応する点に投影するステップと、
前記投影された速度の第1の大きさが前記第2の速度の第2の大きさに等しいことを決定するステップと、
を備える方法。 Capturing radar data of an environment with a radar sensor of the vehicle, the radar data including a plurality of radar returns;
determining at least one of a first velocity along a first radial direction extending from the vehicle or a first position at a first range along the first radial direction based at least on a first radar return of the plurality of radar returns;
determining at least one of a second velocity along a second radial direction extending from the vehicle or a second position at a second range along the second radial direction based at least in part on a second radar return of the plurality of radar returns;
determining, based at least in part on at least one of the first and second positions or the first and second velocities, that the second radar return corresponds to a radar return reflected from an object and an intermediate object between the object and the radar sensor ;
projecting the first velocity to a point corresponding to the second radar return as a projected velocity;
determining that a first magnitude of the projected velocity is equal to a second magnitude of the second velocity;
A method for providing the above.
前記第1の半径方向の前記第1の範囲および前記第2の半径方向の前記第2の範囲に少なくとも部分的に基づいて反射線を決定するステップと、
前記第1の速度を前記反射線について前記第1の位置から前記第2の位置まで反射するステップと、
前記投影速度を前記第2の半径方向に沿った前記反射された速度の成分として決定するステップと
を含む請求項7に記載の方法。 The projecting of the first velocity includes:
determining a reflected line based at least in part on the first range in the first radial direction and the second range in the second radial direction;
reflecting the first velocity about the reflection line from the first location to the second location;
and determining the projected velocity as a component of the reflected velocity along the second radial direction.
1つまたは複数のさらなるセンサから、さらなるセンサデータを受信するステップと、
前記さらなるセンサデータに少なくとも部分的に基づいて、前記環境におけるさらなるオブジェクトを識別するステップとをさらに備え、
前記第2のレーダ反射波が反射された反射波であるという前記決定は、少なくとも部分的に、前記反射点に配置されている前記さらなるオブジェクトに基づいている、
請求項7ないし9のいずれか一項に記載の方法。 determining a reflection point along the second radial direction based at least in part on the first location and the second location;
receiving further sensor data from one or more further sensors;
and identifying a further object in the environment based at least in part on the further sensor data.
the determination that the second radar return is a reflected return is based, at least in part, on the further object being located at the reflection point.
10. The method according to any one of claims 7 to 9 .
前記第1の位置および前記第2の位置に少なくとも部分的に基づいて、反射線を決定するステップと、
前記反射点を前記反射線と前記第2の半径方向に沿って延びる線との交点として決定するステップと、
前記反射点を前記反射線と前記第2の半径方向に沿って延びる線との交点として決定するステップと
を含む請求項10に記載の方法。 The step of determining the reflection points comprises:
determining a reflection line based at least in part on the first location and the second location;
determining the reflection point as an intersection of the reflection line and a line extending along the second radial direction;
and determining the reflection point as an intersection of the reflection line with a line extending along the second radial direction .
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/289,068 | 2019-02-28 | ||
US16/288,990 | 2019-02-28 | ||
US16/288,990 US11255958B2 (en) | 2019-02-28 | 2019-02-28 | Recognizing radar reflections using velocity information |
US16/289,068 US11353578B2 (en) | 2019-02-28 | 2019-02-28 | Recognizing radar reflections using position information |
PCT/US2020/019674 WO2020176483A1 (en) | 2019-02-28 | 2020-02-25 | Recognizing radar reflections using velocity and position information |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022522298A JP2022522298A (en) | 2022-04-15 |
JPWO2020176483A5 JPWO2020176483A5 (en) | 2023-03-03 |
JP7464616B2 true JP7464616B2 (en) | 2024-04-09 |
Family
ID=69941497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021550204A Active JP7464616B2 (en) | 2019-02-28 | 2020-02-25 | Recognizing radar returns using speed and position information. |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3931593A1 (en) |
JP (1) | JP7464616B2 (en) |
CN (1) | CN113544538A (en) |
WO (1) | WO2020176483A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11693110B2 (en) | 2020-11-04 | 2023-07-04 | Ford Global Technologies, Llc | Systems and methods for radar false track mitigation with camera |
DE102022211987A1 (en) | 2021-11-12 | 2023-05-17 | Zf Friedrichshafen Ag | Method, computer program, machine-readable storage medium and system for classifying ghost objects in an environment of a road vehicle, a transportation system and/or a component of a traffic infrastructure |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001116839A (en) | 1999-10-22 | 2001-04-27 | Fujitsu Ten Ltd | Sensor for intervehicular distance |
JP2003270342A (en) | 2002-03-19 | 2003-09-25 | Denso Corp | Object recognizing device, object recognizing method, and radar device |
JP2009079917A (en) | 2007-09-25 | 2009-04-16 | Denso Corp | Method and apparatus for detecting vehicle width, and device for controlling vehicle |
US20170261602A1 (en) | 2014-07-03 | 2017-09-14 | GM Global Technology Operations LLC | Vehicle radar methods and systems |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9810782B2 (en) * | 2015-03-20 | 2017-11-07 | Delphi Technologies, Inc. | Vehicle radar system with image reflection detection |
US10296001B2 (en) * | 2016-10-27 | 2019-05-21 | Uber Technologies, Inc. | Radar multipath processing |
JP7053982B2 (en) * | 2017-05-25 | 2022-04-13 | ミツミ電機株式会社 | Ghost removal method and radar device |
-
2020
- 2020-02-25 EP EP20713468.5A patent/EP3931593A1/en active Pending
- 2020-02-25 CN CN202080017300.4A patent/CN113544538A/en active Pending
- 2020-02-25 WO PCT/US2020/019674 patent/WO2020176483A1/en unknown
- 2020-02-25 JP JP2021550204A patent/JP7464616B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001116839A (en) | 1999-10-22 | 2001-04-27 | Fujitsu Ten Ltd | Sensor for intervehicular distance |
JP2003270342A (en) | 2002-03-19 | 2003-09-25 | Denso Corp | Object recognizing device, object recognizing method, and radar device |
JP2009079917A (en) | 2007-09-25 | 2009-04-16 | Denso Corp | Method and apparatus for detecting vehicle width, and device for controlling vehicle |
US20170261602A1 (en) | 2014-07-03 | 2017-09-14 | GM Global Technology Operations LLC | Vehicle radar methods and systems |
Also Published As
Publication number | Publication date |
---|---|
WO2020176483A1 (en) | 2020-09-03 |
JP2022522298A (en) | 2022-04-15 |
EP3931593A1 (en) | 2022-01-05 |
CN113544538A (en) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11776135B2 (en) | Object velocity from images | |
US20220363256A1 (en) | Trajectory modifications based on a collision zone | |
US11351991B2 (en) | Prediction based on attributes | |
US11021148B2 (en) | Pedestrian prediction based on attributes | |
US11126873B2 (en) | Vehicle lighting state determination | |
US11255958B2 (en) | Recognizing radar reflections using velocity information | |
EP3927588A1 (en) | Motion prediction based on appearance | |
US11965956B2 (en) | Recognizing radar reflections using position information | |
JP2022527072A (en) | Pedestrian prediction based on attributes | |
JP2022538535A (en) | Depth refinement from images | |
CN113853533A (en) | Yaw rate from radar data | |
US20210157321A1 (en) | Height estimation using sensor data | |
JP2023547988A (en) | Collision avoidance planning system | |
WO2022125308A1 (en) | Determining inputs for perception system | |
JP7464616B2 (en) | Recognizing radar returns using speed and position information. | |
US20220179089A1 (en) | Determining depth using multiple modulation frequencies | |
US11761780B1 (en) | Determining data for semantic localization | |
US11954877B2 (en) | Depth dependent pixel filtering | |
US11861857B2 (en) | Determining pixels beyond nominal maximum sensor depth | |
US20230003872A1 (en) | Tracking objects with radar data | |
US20230003871A1 (en) | Associating radar data with tracked objects | |
US11953590B1 (en) | Radar multipath detection based on changing virtual arrays | |
US11906967B1 (en) | Determining yaw with learned motion model | |
WO2023219893A1 (en) | Sensor calibration validation | |
WO2023278771A1 (en) | Associating radar data with tracked objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7464616 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |