JP2021516763A - Methods and equipment for object detection using beam steering radar and convolutional neural network systems - Google Patents
Methods and equipment for object detection using beam steering radar and convolutional neural network systems Download PDFInfo
- Publication number
- JP2021516763A JP2021516763A JP2020564047A JP2020564047A JP2021516763A JP 2021516763 A JP2021516763 A JP 2021516763A JP 2020564047 A JP2020564047 A JP 2020564047A JP 2020564047 A JP2020564047 A JP 2020564047A JP 2021516763 A JP2021516763 A JP 2021516763A
- Authority
- JP
- Japan
- Prior art keywords
- scan
- radar
- fmcw signal
- object detection
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title claims description 22
- 238000013527 convolutional neural network Methods 0.000 title claims description 10
- 238000010801 machine learning Methods 0.000 claims abstract description 5
- 238000005259 measurement Methods 0.000 claims description 19
- 230000004927 fusion Effects 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000013461 design Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 2
- 241000282994 Cervidae Species 0.000 description 2
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 2
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000981 bystander Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
- G01S13/32—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S13/34—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
- G01S13/426—Scanning radar, e.g. 3D radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/583—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
- G01S13/584—Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4911—Transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4913—Circuits for detection, sampling, integration or read-out
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
- G01S13/32—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S13/34—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
- G01S13/343—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using sawtooth modulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
- G01S13/32—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S13/36—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
- G01S13/38—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal wherein more than one modulation frequency is used
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/52—Discriminating between fixed and moving objects or between objects moving at different speeds
- G01S13/536—Discriminating between fixed and moving objects or between objects moving at different speeds using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9322—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/03—Details of HF subsystems specially adapted therefor, e.g. common to transmitter and receiver
- G01S7/032—Constructional details for solid-state radar subsystems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
Abstract
本明細書に開示される例は、物体検出及び分類のための自律車両におけるレーダーシステムに関する。レーダーシステムは、少なくとも1つのビームステアリングアンテナ、送受信機、及び送受信機のスキャンパラメータセットを調整するように適合されたスキャンパラメータ制御装置を有するレーダーモジュールと、自律車両の経路及び周囲環境において物体を検出及び分類するための機械学習モジュール及び分類器を有する認識モジュールとを有し、認識モジュールは、物体データ及びレーダー制御情報をレーダーモジュールに送信する。The examples disclosed herein relate to radar systems in autonomous vehicles for object detection and classification. The radar system detects objects in the path and surrounding environment of an autonomous vehicle with a radar module having at least one beam steering antenna, a transmitter / receiver, and a scan parameter controller adapted to adjust the scan parameter set of the transmitter / receiver. It also has a machine learning module for classification and a recognition module with a classifier, which transmits object data and radar control information to the radar module.
Description
本出願は、2018年2月5日に出願された米国仮特許出願第62/626,569号に対する優先権を主張するものであり、2018年1月4日に出願された米国仮特許出願第62/613,675号の優先権を主張する、2019年1月4日に出願された米国特許出願第16/240,666号に関連する(両方は、その全体が参照により本明細書に組み込まれる)。 This application claims priority to U.S. Provisional Patent Application No. 62 / 626,569 filed on February 5, 2018, and U.S. Provisional Patent Application No. 62, filed on January 4, 2018. It relates to US Patent Application No. 16 / 240,666 filed on January 4, 2019, claiming the priority of 62 / 613,675 (both incorporated herein by reference in their entirety). ).
自律運転は、空想科学小説の領域から達成可能な現実へと急速に移行している。安全性及びより良好な運転のために車両を自動化し、適合させ、強化する先進運転支援システム(Advanced-Driver Assistance System、「ADAS」)が、既に市場に存在している。次のステップは、交通、横断する歩行者、動物などを回避するために必要なときに車線又は速度を変更するなど、操縦、加速、制動、及び周囲環境及び運転条件を監視するなどの運転機能の制御をますます引き受ける車両になる。物体及び画像検出の要件は重要であり、データをキャプチャし、それを処理し、それをアクションに変えるために必要な時間を指定する。この間中、正確性、一貫性、及びコストの最適化を確実にする。 Autonomous driving is rapidly shifting from the realm of science fiction novels to achievable reality. Advanced-Driver Assistance Systems (“ADAS”) that automate, adapt and enhance vehicles for safety and better driving are already on the market. The next step is driving functions such as maneuvering, acceleration, braking, and monitoring the surrounding environment and driving conditions, such as changing lanes or speeds when necessary to avoid traffic, crossing pedestrians, animals, etc. Become an increasingly vehicle that takes control of. Object and image detection requirements are important and specify the time required to capture the data, process it, and turn it into an action. During this time, ensure accuracy, consistency, and cost optimization.
これをうまくいかせる態様は、人間と同じ又は更に良好なレベルで周囲環境内の物体を検出及び分類する能力である。人間は、2つの主要機能部:目及び脳を本質的に有する非常に複雑なヒト視覚系を用いて、彼らの周りの世界を認知及び認識することに熟達している。自律運転技術では、眼は、カメラ、レーダー、及びライダーなどの複数のセンサの組み合わせを含み得る一方で、脳は、複数の人工知能、機械学習、及び深学習システムを伴い得る。目標は、動的で動きの速い環境をリアルタイムで完全に理解し、環境の変化に対応して行動するための人間のような知能を有することである。 A way to make this work is the ability to detect and classify objects in the surrounding environment at the same or even better levels as humans. Humans are proficient in recognizing and recognizing the world around them using a very complex human visual system that essentially has two main functional parts: the eye and the brain. In autonomous driving technology, the eye can include a combination of multiple sensors such as cameras, radar, and riders, while the brain can involve multiple artificial intelligence, machine learning, and deep learning systems. The goal is to have a human-like intelligence to fully understand the dynamic and fast-moving environment in real time and to act in response to changes in the environment.
本出願は、添付図面と併せて以下の詳細な説明に関連してより完全に理解され得、添付図面は、縮尺通りに描かれておらず、添付図面において、同様の参照文字は、全体を通して同様の部分を指す。 The present application may be more fully understood in connection with the following detailed description in conjunction with the accompanying drawings, the accompanying drawings are not drawn to scale, and similar reference characters are used throughout in the attached drawings. Refers to a similar part.
ビームステアリングレーダー及び畳み込みニューラルネットワークシステムを使用して物体検出するための方法及び装置が開示される。方法及び装置は、自律車両におけるビームステアリングレーダーによる生データの取得と、そのデータを認識モジュールを通して処理して、車両の視野(「Field-of-View、FoV」)内の複数の物体についての情報を抽出することと、を含む。この情報は、位置、サイズ、速度、物体カテゴリなどの検出された物体のパラメータ、測定値、又は記述子であってもよい。物体としては、道路、壁、建物、及び道路中央の中央線などの車両のFoV内の構造要素、並びに他の車両、歩行者、傍観者、自転車運転者、植物、樹木、動物などが挙げられ得る。ビームステアリングレーダーは、ビームステアリングを可能にするために、その電気的又は電磁的構成を変更するように動的に制御される少なくとも1つのビームステアリングアンテナを組み込む。動的制御は、認識モジュールによって支援され、これは、車両FoV内の物体を識別すると、ビームステアリングレーダーに、そのレーダスキャンパラメータを調整することによって、ビームを操縦し、対象領域に焦点を合わせることを知らせる。 Methods and devices for object detection using beam steering radar and convolutional neural network systems are disclosed. Methods and devices take raw data from a beam steering radar in an autonomous vehicle and process that data through a recognition module to provide information about multiple objects within the vehicle's field of view (“Field-of-View, FoV”). To extract and include. This information may be a parameter, measurement, or descriptor of the detected object such as position, size, velocity, object category. Objects include structural elements within the vehicle's FoV, such as roads, walls, buildings, and the central line of the road, as well as other vehicles, pedestrians, bystanders, cyclists, plants, trees, animals, and the like. obtain. The beam steering radar incorporates at least one beam steering antenna that is dynamically controlled to change its electrical or electromagnetic configuration to enable beam steering. Dynamic control is assisted by a recognition module, which, when identifying an object in the vehicle FoV, steers the beam and focuses on the area of interest by adjusting its radar scan parameters to the beam steering radar. Inform.
以下の説明では、実施例の完全な理解を提供するために、数多くの具体的な詳細が記載されることが理解される。しかしながら、実施例は、これらの具体的な詳細を限定することなく実施することができることが理解される。他の例では、実施例の説明を不必要に不明瞭にすることを避けるために、周知の方法及び構造を詳細に説明していないことがある。また、実施例は、互いに組み合わせて使用されてもよい。 It is understood that the following description provides a number of specific details to provide a complete understanding of the examples. However, it is understood that the examples can be carried out without limiting these specific details. In other examples, well-known methods and structures may not be described in detail to avoid unnecessarily obscuring the description of the examples. Moreover, the examples may be used in combination with each other.
図1は、自律車両におけるビームステアリングレーダーシステムが物体を検出及び識別するために使用される例示的な環境を示す。自車両100は、レーダー信号を送信して、FoV又は特定の領域をスキャンするためのビームステアリングレーダーシステム106を有する自律車両である。以下により詳細に記載されるように、レーダー信号は、複数の伝送ビーム118をもたらすように調整することができるスキャンパラメータセットに従って送信される。スキャンパラメータは、とりわけ、レーダー送信点からのスキャン領域の総角度、送信されたレーダー信号の電力、各増分送信ビームのスキャン角度、並びに各ビーム間の角度又はそれらの間の重複を含み得る。FoV全体又はその一部分は、連続的に隣接するスキャン位置又は特定の若しくはランダムな順序であってもよい、そのような伝送ビーム118のコンパイルによってスキャンすることができる。なお、用語FoVは、レーダー送信を参照して本明細書で使用され、妨害されていないビューを有する光学FoVを意味しないことに留意されたい。スキャンパラメータはまた、これらの増分送信ビーム間の時間間隔、並びに完全又は部分スキャンのための開始及び停止角度位置を示してもよい。
FIG. 1 shows an exemplary environment in which a beam steering radar system in an autonomous vehicle is used to detect and identify an object.
様々な例では、自車両100はまた、カメラ102及びライダー104などの他の認識センサを有してもよい。これらの認識センサは、自車両100には必須ではないが、ビームステアリングレーダーシステム106の物体検出能力を増加させるのに有用であり得る。カメラセンサ102は、可視物体及び条件を検出し、様々な機能の性能を支援するために使用することができる。また、ライダーセンサ104を使用して物体を検出し、この情報を提供して車両の制御を調整することもできる。この情報は、高速道路の混雑、道路条件、及び車両のセンサ、アクション、又は動作に影響を与える他の条件などの情報を含んでもよい。カメラセンサは、駐車(例えば、背面カメラ)などの運転機能におけるドライバを支援するために、現在、先進運転支援システム(「ADAS」)で使用されている。カメラは、高レベルの詳細ではあるが人間の目と同様に、質感、色、及びコントラスト情報をキャプチャすることが可能であるが、それらは、有害な気象条件及び照明の変動を受けやすい。カメラ102は、高解像度を有し得るが、50メートルを超える物体を解像することはできない。
In various examples, the
ライダーセンサは、典型的には、物体に移動し、センサに戻る光のパルスによって取られた時間を計算することによって、物体までの距離を測定する。車両の上に位置決めされたとき、ライダーセンサは、周囲環境の360°3Dビューを提供することができる。他のアプローチは、全360°ビューを提供するために、車両の周囲の異なる場所でいくつかのライダーを使用することができる。しかしながら、ライダー104などのライダーセンサは、依然として、非常に高価であり、大きさが嵩高であり、気象条件に敏感であり、短距離(典型的には<150〜200メートル)に限定される。一方、レーダーは、車両内で長年使用されており、全天候条件で動作している。レーダーはまた、他の種類のセンサよりもはるかに少ない処理を使用し、障害物の背後の物体を検出し、移動物体の速度を判定するという利点を有する。解像度になれば、ライダーのレーザビームは、小さい領域に集束され、RF信号よりも小さい波長を有し、約0.25度の解像度を達成することができる。 A lidar sensor typically measures the distance to an object by calculating the time taken by the pulse of light moving to and back to the sensor. When positioned on top of the vehicle, the rider sensor can provide a 360 ° 3D view of the surrounding environment. Other approaches can use several riders in different locations around the vehicle to provide a full 360 ° view. However, rider sensors such as the Rider 104 are still very expensive, bulky in size, sensitive to weather conditions, and limited to short distances (typically <150-200 meters). Radar, on the other hand, has been used in vehicles for many years and operates in all weather conditions. Radar also has the advantage of using much less processing than other types of sensors, detecting objects behind obstacles, and determining the speed of moving objects. At resolution, the rider's laser beam is focused in a small area, has a wavelength smaller than the RF signal, and can achieve a resolution of about 0.25 degrees.
様々な実施例では、以下により詳細に記載されるように、ビームステアリングレーダーシステム106は、自車両の経路及び周囲環境の360°真の3Dビジョン及び人間様の解釈を提供することができる。レーダーシステム106は、ビームステアリングアンテナモジュール(少なくとも1つのビームステアリングアンテナを有する)を用いて、360°FoV内の全ての方向にRFビームを成形及びステアリングし、物体を迅速に、かつ約300メートル以上の長距離にわたって高精度で認知することができる。レーダー106の長距離能力と共にカメラ102及びライダー104の短距離能力により、自車両100内のセンサ融合モジュール108が、その物体検出及び識別を強化することを可能にする。
In various embodiments, the beam
ここで、様々な実施例による、自車両用の自律運転システムの概略図を示す図2に注目する。自律運転システム200は、運転機能の一部又は完全な自動化を提供する、自車両で使用するためのシステムである。運転機能としては、例えば、交通、横断する歩行者、動物などを回避するために必要なときに斜線又は速度を変更するなど、周囲環境及び運転条件を操縦、加速、制動、及び監視することを含んでもよい。自律運転システム200は、ビームステアリングレーダーシステム202と、カメラ204、ライダー206、インフラストラクチャセンサ208のような他のセンサシステム、環境センサ210、動作センサ212、ユーザプリファレンスセンサ214、及び他のセンサ216を含む。自律運転システム200はまた、通信モジュール218、センサ融合モジュール220、システムコントローラ222、システムメモリ224、及びV2V通信モジュール226も含む。自律運転システム200のこの構成は、例示的な構成であり、図2に例示される特定の構造に限定することを意図するものではないことが理解される。図2に示されていない追加のシステム及びモジュールは、自律運転システム200に含まれてもよい。
Here, attention is paid to FIG. 2, which shows a schematic diagram of an autonomous driving system for the own vehicle according to various embodiments. The
様々な実施例では、ビームステアリングレーダーシステム202は、車両の360°FoVの1つ以上の部分に焦点を合わせることができる動的に制御可能かつ操縦可能なビームを提供するための少なくとも1つのビームステアリングアンテナを含む。ビームステアリングアンテナから放射されたビームは、車両の経路及び周囲環境内の物体から反射され、レーダーシステム202によって受信及び処理されて、物体を検出及び識別する。レーダーシステム202は、所望に応じて、物体を検出し、識別し、レーダーモジュールを制御するように訓練される認識モジュールを含む。カメラセンサ204及びライダー206はまた、非常に低距離で、自車両の経路及び周囲環境内の物体を識別するために使用されてもよい。
In various embodiments, the beam
インフラストラクチャセンサ208は、スマートロード構成、ビルボード情報、信号機、一時停止標識、交通警告などを含む交通警報及びインジケーターなど、運転中のインフラストラクチャからの情報を提供することができる。これは成長領域であり、この情報から抽出される使用及び能力は、限りない。環境センサ210は、とりわけ、温度、湿度、霧、視認性、降雨などの様々な条件を検出する。動作センサ212は、車両の機能動作に関する情報を提供する。これは、タイヤ圧力、燃料レベル、ブレーキ摩耗などであり得る。ユーザプリファレンスセンサ214は、ユーザ嗜好の一部である条件を検出するように構成することができる。これは、温度調整、スマートウィンドウシェーディングなどであってもよい。他のセンサ216は、車両内及び車両の周囲の状態を監視するための追加のセンサを含んでもよい。
様々な実施例では、センサ融合モジュール220は、これらの様々な機能を最適化して、車両及び環境のおよそ包括的な図を提供する。多くのタイプのセンサは、センサ融合モジュール220によって制御されてもよい。これらのセンサは、情報を共有し、別のシステムに対する1つの制御アクションの影響を考慮するために、互いに協調してもよい。一実施例では、混雑した運転条件では、ノイズ検出モジュール(図示せず)は、車両に干渉し得る複数のレーダー信号が存在することを識別してもよい。この情報は、レーダー202内の認識モジュールによって使用されて、レーダーのスキャンパラメータを調整して、これらの他の信号を回避し、干渉を最小限に抑えることができる。
In various embodiments, the
別の実施例では、環境センサ210は、天気が変化していることを検出することができ、視認性が低下する。この状況では、センサ融合モジュール220は、これらの新たな条件で車両がナビゲートする能力を改善するようにセンサを構成することができる。この構成は、カメラ又はライダーセンサ204〜206をオフにすること、又はこれらの視認性ベースのセンサのサンプリングレートを低減することを含んでもよい。これは、現在の状況に適合されたセンサ(複数可)上に依存する。これに応答して、認識モジュールは、これらの条件のためにレーダー202を構成する。例えば、レーダー202は、より集束されたビームを提供するためにビーム幅を低減することができ、したがって、より微細な感知能力を提供することができる。
In another embodiment, the
様々な実施例では、センサ融合モジュール220は、履歴条件及び制御に基づいて、メタ構造アンテナに直接制御を送信することができる。センサ融合モジュール220はまた、システム200内のセンサの一部を使用して、他のセンサのフィードバック又は較正として機能してもよい。このようにして、動作センサ212は、テンプレート、パターン、及び制御シナリオを作成するために、認識モジュール及び/又はセンサ融合モジュール220にフィードバックを提供してもよい。これらは、成功したアクションに基づくものであるか、又は、センサ融合モジュール220が過去のアクションから学習する、不十分な結果に基づくことができる。
In various embodiments, the
センサ202〜216からのデータは、センサ融合モジュール220内で組み合わされて、自律運転システム200の目標検出及び識別性能を改善することができる。センサ融合モジュール220は、それ自体が、車両における他のモジュール及びシステムと相互作用し、制御することができるシステムコントローラ222によって制御されてもよい。例えば、システムコントローラ222は、所望に応じて、異なるセンサ202〜216をオン及びオフにするか、又は運転中のハザード(車両の経路に突然現れる鹿、歩行者、自転車運転者、又は別の車両、飛行破片など)を識別すると、車両に停止するように命令を提供してもよい。
The data from sensors 202-216 can be combined within the
自律運転システム200内の全てのモジュール及びシステムは、通信モジュール218を介して互いに通信する。自律運転システム200はまた、システム200及びシステム200を使用する自車両の動作に使用される情報及びデータ(例えば、静的及び動的データ)を記憶し得るシステムメモリ224を含む。V2V通信モジュール226は、他の車両との通信に使用される。V2V通信はまた、車両のユーザ、運転者、又は乗り手から見ることができない他の車両からの情報を含んでもよく、事故を回避するために車両の座標を支援することができる。
All modules and systems in the
図3は、様々な実施例による、図2のビームステアリングレーダーシステムの概略図を示す。ビームステアリングレーダーシステム300は、真の3Dビジョンを有する「デジタル眼」であり、世界の人間様の解釈が可能である。「デジタル眼」及び人間様の解釈能力は、レーダーモジュール302及び認識モジュール304の2つの主モジュールによって提供される。レーダーモジュール302は、自律自車両の360°FoVの1つ以上の部分に焦点を合わせることができる動的に制御可能かつ操縦可能なビームを提供するための少なくとも1つのビームステアリングアンテナ306を含む。現在のビームステアリングアンテナの実装は、120〜180°FoVまでのビームを向けることができることに留意されたい。360°FoV全体に到達する操縦能力を提供するために、複数のビームステアリングアンテナが必要とされ得る。
FIG. 3 shows a schematic diagram of the beam steering radar system of FIG. 2 according to various embodiments. The beam
様々な実施例では、ビームステアリングアンテナ306は、複数の操舵角でRF信号を提供するためにRFICと一体化される。アンテナは、メタ構造アンテナ、位相アレイアンテナ、又はミリメートル波周波数でRF信号を放射することができる任意の他のアンテナであってもよい。本明細書で一般に定義されるメタ構造は、その幾何学的形状に基づいて、所望の方向に入射放射線を制御及び操作することができる、工学的構造である。メタ構造アンテナは、例えば、電力を分割し、インピーダンス整合を提供するためのフィード又は電力分割層、操舵角制御及び他の機能を提供するRFICを有するRF回路層、並びに複数のマイクロストリップ、ギャップ、パッチ、ビアなどを有するメタ構造アンテナ層を含む、様々な構造及び層を含み得る。メタ構造層は、メタ材料層を含んでもよい。ビームステアリングアンテナ306の様々な構成、形状、設計、及び寸法を使用して、特定の設計を実施し、特定の制約を満たすことができる。
In various embodiments, the
レーダー制御は、認識モジュール304によって部分的に提供される。レーダーモジュール302によって生成されたレーダーデータは、物体検出及び識別のために認識モジュール304に提供される。レーダーデータは、送受信機308によって取得され、これは、メタ構造アンテナ306によって放射されたRF信号を送信し、これらのRF信号の反射を受信することができるレーダーチップセットを有する。認識モジュール304内の物体検出及び識別は、機械学習モジュール(「MLM」)312及び分類器314内で実行される。車両のFoV内の物体を識別すると、認識モジュール304は、必要に応じてビームステアリング及びビーム特性を調整するために、レーダーモジュール302内のアンテナ制御装置310及びスキャンパラメータ制御装置316に物体データ及び制御命令を提供する。アンテナ制御装置310は、ステアリング角度などのアンテナパラメータを制御する一方で、スキャンパラメータ制御装置316は、送受信機308内のレーダー信号のスキャンパラメータを調整する。例えば、認識モジュール304は、車両の経路上の自転車運転者を検出し、レーダーモジュール302を指示して、所与の操舵角で、及び自転車運転者の場所に対応するFoVの部分内で、追加のRFビームを集束させることができる。
Radar control is partially provided by the
様々な実施例におけるMLM312は、様々な実施例では、入力から出力への3つの積み重ねられた畳み込み層を有する完全畳み込みニューラルネットワーク(「FCN」)であるCNNを実装する(追加の層もCNNに含まれてもよい)。これらの層の各々はまた、従来のL2規則化の代わりとして整流された線形活性化機能及びバッチ正規化を実行し、各層は、64フィルタを有する。多くのFCNとは異なり、データは、入力のサイズが比較的小さく、圧縮を伴わずに実行されるため、データは、ネットワークを通って伝播するときに圧縮されない。様々な実施例では、CNNは、生レーダーデータ、合成レーダーデータ、ライダーデータなどで訓練されてもよく、レーダーデータで再訓練されてもよい。良好な物体検出及び識別性能を達成するために、CNNを訓練するために、複数のトレーニングオプションを実装することができる。 MLM312 in various embodiments implements CNN, which in various embodiments is a fully convolutional neural network (“FCN”) with three stacked convolutional layers from input to output (additional layers are also on CNNs). May be included). Each of these layers also performs a rectified linear activation function and batch normalization as an alternative to conventional L2 normalization, and each layer has 64 filters. Unlike many FCNs, the data is relatively small in size and runs uncompressed, so the data is not compressed as it propagates through the network. In various embodiments, the CNN may be trained with raw radar data, synthetic radar data, rider data, etc., and may be retrained with radar data. Multiple training options can be implemented to train CNNs to achieve good object detection and identification performance.
分類器314はまた、レーダーモジュール302によって取得されたレーダーデータにおける速度情報及びマイクロドプラップラー署名を使用して、認識モジュール304の物体識別能力を向上させるためのCNN又は他の物体分類器を含んでもよい。物体がゆっくり移動しているか、又は道路車線外で移動しているとき、それは、モーター付き車両ではなく、むしろ、人、動物、自転車運転者などである。同様に、1つの物体が高速で移動しているが、高速道路で他の車両の平均速度よりも低い場合、分類器314は、この速度情報を使用して、その車両が、よりゆっくり移動する傾向にあるトラック又は別の物体であるか否かを判定する。同様に、いくつかの国(例えば、アメリカ合衆国)の高速道路などの物体の場所は、低速移動型の車両を示す。物体の移動が道路の経路に追従しない場合、物体は、道路を横切って走る鹿などの動物であり得る。この情報の全ては、天気及び交通サービスから提供される情報、並びにスマート道路及びスマートトラフィック標識などの他の車両又は環境自体から提供される情報を含む、車両に利用可能な様々なセンサ及び情報から判定され得る。
The
速度情報は、レーダーセンサに固有であることに留意されたい。レーダーデータは、(ri、θi、φi、Ii、vi)という形式のデータタプルを有する多次元形式であり、ここで、ri、θi、φiは、物体の場所座標を表し、riは、レーダーシステム300とその視線に沿った物体との間の距離又は間隔を示し、θiは、方位角であり、φiは、仰角であり、Iiは、送受信機308に戻される送信電力の量を示す強度又は反射率であり、viは、その視線に沿ったレーダーシステム300と物体との間の速度である。認識モジュール304によってレーダーモジュール302に提供される場所及び速度情報により、アンテナ制御装置310及びスキャンパラメータ制御装置316が、そのパラメータを適宜調整することを可能にする。
Note that the velocity information is specific to the radar sensor. Radar data is a multidimensional format with data taples of the form (ri i , θ i , φ i , I i , vi i ), where r i , θ i , φ i are the location coordinates of the object. the stands, r i denotes the distance or spacing between the
ここで図4に注目すると、図3のように実装されたビームステアリングレーダーシステムを動作させるためのフローチャートを示す。まず、ビームステアリングレーダーシステムは、スキャンパラメータセットを用いてビームステアリングレーダースキャンの送信を開始する(400)。レーダースキャンは、様々な実施例において、周波数変調された連続波(Frequency-Modulated Continuous Wave、「FMCW」)信号であってもよい。FMCW信号は、レーダーシステムが、送信された信号と受信/反射された信号又はエコーとの間の位相又は周波数の差を測定することによって、レーダーシステムが物体への距離を測定することを可能にする。FMCWフォーマット内には、各々が利点及び目的を有する、三角形、のこぎり、矩形などを含む、様々な変調パターンが存在する。FMCW信号内には、各々が送信ビームに対応する複数の波形又はチャープが存在し得る。送信ビームが物体に遭遇すると、ビームは物体を反射し、戻り信号又はエコーはレーダーシステムで受信される(402)。 Focusing on FIG. 4, a flowchart for operating the beam steering radar system implemented as shown in FIG. 3 is shown. First, the beam steering radar system initiates transmission of a beam steering radar scan using the scan parameter set (400). The radar scan may be a frequency-modulated continuous wave (“FMWC”) signal in various embodiments. The FMCW signal allows the radar system to measure the distance to an object by measuring the phase or frequency difference between the transmitted signal and the received / reflected signal or echo. To do. Within the FMCW format, there are various modulation patterns, including triangles, saws, rectangles, etc., each with its own advantages and purposes. Within the FMCW signal, there may be multiple waveforms or chirps, each corresponding to the transmitted beam. When the transmitting beam encounters an object, the beam reflects off the object and the return signal or echo is received by the radar system (402).
エコーは、認識モジュール304においてMLMによって分析されて、物体を検出する(404)。物体が検出されない場合、ビームステアリングレーダーシステム300は、更なるスキャンを伴うエコーを待機し続ける。なお、ビームステアリングレーダーシステムは、送信ビームを停止しないことに留意されたい。スキャンは、自車両が動作中である限り、達成される。認識モジュール304が、物体がエコーにおいて検出されたことを示すと、物体の場所及びその速度などの物体情報が抽出され、レーダーモジュール302に送られる(406)。認識モジュール304はまた、次のスキャンでレーダービームの焦点を合わせる情報を送信してもよい。物体情報は、スキャンパラメータ制御装置316に、図5〜11を参照して以下に記載されるような様々な方法でスキャンパラメータを調整する(408)ことを通知する。次いで、認識モジュール304は、物体を分類(410)し、物体分類結果を車両におけるセンサ融合モジュールに送信して、他のセンサからの物体検出/分類と組み合わせて、必要なら、車両でどの制御アクション(例えば、速度、車線変更、ブレークなど)が取られるかを判定する。
The echo is analyzed by the MLM in the
図5は、レーダー信号及びその関連するスキャンパラメータをより詳細に示す。レーダー信号500は、チャープ502〜506などの一連のチャープを含むFMCW信号である。信号500は、物体の場所、その解像度、及び速度を決定する方法に影響を及ぼすパラメータセットによって定義される。信号500に関連付けられ、図5に示されるパラメータは、(1)チャープ信号の最小周波数及び最大周波数に対するfmax及びfmin、(2)1つのチャープシーケンスの総時間に対するTtotal、(3)レーダーシステム内の位相ロックループ(Phase Locked Loop、「PLL」)のセトリング時間を表すTdelay、(4)実際の測定時間のTMEAS(例えば、300メートル以内の物体を検出するためのチャープシーケンスの>2μs)、(5)1つのチャープの総時間に対するTchip、(6)チャープ間の反復時間のTrepeat(7)チャープの総帯域幅に関するB、(8)チャープの有効帯域幅のBeff、(9)連続した測定間の帯域幅についてのΔBeff、(10)チャープごとに行われた測定の数、Nr(すなわち、各チャープについて、何回エコーで測定を行うか)、及び(11)シーケンス当たりのチャープ数、Ncを含む。
FIG. 5 shows the radar signal and its associated scan parameters in more detail. The
物体の間隔及び間隔の解像度は、以下のようにチャープパラメータNr及びBeffによって完全に決定され、図6に示すように、帯域幅B当たりの距離解像度を示すグラフ600を用いて、完全に決定される。
物体の速度及び速度解像度は、チャープシーケンスパラメータによっても完全に決定される。達成される最小速度又は解像度は、以下のように決定される(cは光の速度を表す):
より高いレーダー周波数は、同じシーケンスパラメータに対してより良好な速度解像度を与えることに留意されたい。最大速度は、以下によって与えられる。
The velocity and velocity resolution of the object are also completely determined by the chirp sequence parameters. The minimum speed or resolution achieved is determined as follows (where c represents the speed of light):
Note that higher radar frequencies give better velocity resolution for the same sequence parameters. The maximum speed is given by:
スキャンパラメータ間の更なる関係は、以下の式によって与えられ、式中、式5は、試料速度を表し、式6は、連続測定の間の時間Δtを表し、式7は、距離解像度を表し、式8は、チャープ時間を表し、式9は、最大速度を表す:
パラメータRmaxが固定されると、vmax及びRminは、もはや独立していないことに留意されたい。また、式5のサンプル速度fsampleはまた、選択された最大速度及び距離に対して、距離解像度の定義がどのように達成され得るかを決定する。なお、以下の式1〜9を使用して、所与の設計目標のスキャンパラメータを確立することができる。例えば、長距離で高解像度で物体を検出するために、レーダーシステム300は、チャープ当たりの測定回数を多く取る必要がある。目標が、長距離で高速で物体を検出することである場合、チャープ時間は低くなければならず、チャープ時間を制限する。第1の場合、長距離での高解像度検出は、レーダーシステムにおける信号処理ユニットの帯域幅によって制限される。また、第2の場合、長距離での最大速度は、レーダーチップセットのデータ取得速度(解像度も制限する)によって制限される。
Note that once the parameters R max are fixed, v max and R min are no longer independent. Also, the sample velocity f sample of
図7A〜Bは、スキャンパラメータと設計目標との間の例示的なトレードオフを示す。図7Aでは、表700は、目標が長距離で物体を検出することである単一のチャープシーケンスのスキャンパラメータの値を示す。なお、物体の速度及び距離の増加は、より低い距離解像度をもたらすことに留意されたい。また、速度解像度は、総シーケンス時間の増加という代償を払って、より多くのチャープをシーケンスに追加することによって増大され得ることにも留意されたい。図7Bでは、表702は、目標が近距離で物体を検出することである単一のチャープシーケンスのスキャンパラメータの値を示す。なお、距離解像度は、検出物体の最大速度が20m/s未満である場合、微細な0.2メートルに改善することができる。更に、より良好な速度解像度は、シーケンス時間を増加させることに留意されたい。例えば、0.3m/sの速度解像度は、7.1msのシーケンス時間を必要とする。 7A-B show exemplary trade-offs between scan parameters and design goals. In FIG. 7A, Table 700 shows the values of scan parameters for a single chirp sequence whose target is to detect an object over long distances. It should be noted that increasing the velocity and distance of the object results in lower distance resolution. It should also be noted that velocity resolution can be increased by adding more chirps to the sequence at the cost of increasing total sequence time. In FIG. 7B, Table 702 shows the values of scan parameters for a single chirp sequence where the target is to detect an object at close range. The distance resolution can be improved to a fine 0.2 meter when the maximum speed of the detected object is less than 20 m / s. In addition, it should be noted that better velocity resolution increases sequence time. For example, a velocity resolution of 0.3 m / s requires a sequence time of 7.1 ms.
物体検出能力に関して、スキャンパラメータと設計目標との間のトレードオフは、ビームステアリングレーダーシステムの動作中にスキャンパラメータを調整するための複数の方法を可能にする。図8A、9、及び10は、所望に応じて、様々な実施例に従ってスキャンパラメータを調整するためのフローチャートを示す。図8Aでは、ビームステアリングレーダーシステムは、例えば、計算時間を低減するためにチャープランプ当たりの測定ポイント及び/又はチャープ数をより少なくすることによって、又は測定時間を短縮するためのシーケンスにおけるより少ないチャープを使用することによって、低解像度スキャンを最初に実行する(800)。このスキャンには、より高い解像度スキャン(802)が続く。より高い解像度のスキャンは、例えば、予想される交通量のある領域内(例えば、地図ツールを使用して、道路が自車両の前面から300メートル離れている場所を予測することにより)、低解像度スキャン中に1つ以上の物体が含まれているとフラグが付けられた領域内、又は他のセンサ、例えば自車両のカメラ及び/又はライダーセンサによってフラグが立てられた領域内で行われる。図8Bは、行806における低解像度スキャン及び行808における高解像度スキャンの例示的スキャンパラメータを示す。なお、高解像度スキャンは、測定時間の2倍、及び低解像度スキャンとして処理するための多くのデータ点として4回行われる。 The trade-off between scan parameters and design goals in terms of object detection capabilities allows multiple ways to adjust scan parameters during the operation of the beam steering radar system. 8A, 9 and 10 show flowcharts for adjusting scan parameters according to various embodiments, if desired. In FIG. 8A, the beam steering radar system has fewer chirps in the sequence, for example, by reducing the number of measurement points and / or chirps per chirp to reduce calculation time, or to reduce measurement time. Perform a low resolution scan first by using (800). This scan is followed by a higher resolution scan (802). Higher resolution scans, for example, within areas of expected traffic (eg, by using map tools to predict where the road is 300 meters away from the front of the vehicle), lower resolution. It takes place within an area flagged as containing one or more objects during the scan, or within an area flagged by another sensor, such as the vehicle's camera and / or rider sensor. FIG. 8B shows exemplary scan parameters for low resolution scans in row 806 and high resolution scans in row 808. The high resolution scan is performed twice as long as the measurement time and four times as many data points for processing as a low resolution scan.
図9では、ビームステアリングレーダーシステムは、まず、より広いビーム幅を有するスキャンを実行し(900)、次いで、狭いビームでFoVを再スキャンする(902)。図8のより高い解像度のスキャンと同様に、より狭いスキャンは、例えば予想される交通のある領域内、低解像度スキャン中に1つ以上の物体が含まれているとフラグが付けられた領域内、又は、他のセンサ、例えば自車両におけるカメラ及び/又はライダーセンサによってフラグが立てられた領域内で行われる。なお、ビームステアリングレーダーシステムを複数のアンテナで実装した場合に、両方の動作を並行して実行することができる。76〜81GHzの範囲内の許容周波数帯域内で、異なる周波数サブ帯域でアンテナの各セットを動作させることによって、クロストークを省略することができる。また、二重ビーム幅を有するアンテナは、同じスキャンパラメータを使用して、固定されたFoVを半分にスキャンすることを可能にすることにも留意されたい。 In FIG. 9, the beam steering radar system first performs a scan with a wider beam width (900) and then rescans the FoV with a narrower beam (902). Similar to the higher resolution scans in FIG. 8, narrower scans are, for example, within areas with expected traffic, within areas flagged as containing one or more objects during low resolution scans. Or within the area flagged by other sensors, such as the camera and / or rider sensor in the vehicle. When the beam steering radar system is implemented with a plurality of antennas, both operations can be executed in parallel. Crosstalk can be omitted by operating each set of antennas in different frequency subbands within the permissible frequency band within the range of 76-81 GHz. It should also be noted that antennas with double beamwidth allow fixed FoVs to be scanned in half using the same scan parameters.
図10では、ビームステアリングレーダーシステムは、高距離解像度を有する第1のスキャンを行うが、より低い絶対速度キャプチャを実行する(1000)。これに続いて、より低い距離解像度であるが、高絶対速度キャプチャで第2のスキャン(1002)が続く。対応する例示的なスキャンパラメータを表1100の図11に示し、行1102は、最大速度30m/sの高距離解像度スキャンを示し、行1104は、最大速度85m/sの低距離解像度スキャンを示す。スキャンパラメータを調整するために使用される方法にかかわらず、ビームステアリングレーダーシステムは、複数の設計目標を達成し、短及び長距離の両方において客観的な場所及び速度を検出することができる。物体は、図3に示すように、レーダーモジュールに連結された認識モジュール内のMLMに更に分類される。
In FIG. 10, the beam steering radar system performs a first scan with a high range resolution, but performs a lower absolute velocity capture (1000). This is followed by a second scan (1002) with a lower range resolution, but with a high absolute velocity capture. Corresponding exemplary scan parameters are shown in FIG. 11 of Table 1100, where
これらの様々な実施例は、改善されたセンサ性能、全気象/全状態検出、高度意思決定アルゴリズム、及びセンサ融合による他のセンサとの相互作用をサポートする。これらの構成は、レーダーが、自動車を自己運転するなどの多くの用途において気象条件によって阻害されないため、レーダーセンサの使用を最適化する。本明細書に記載されるレーダーは、事実上「デジタル眼」であり、真の3Dビジョンを有し、世界の人間様の解釈が可能である。 These various examples support improved sensor performance, all-weather / all-state detection, advanced decision-making algorithms, and interaction with other sensors through sensor fusion. These configurations optimize the use of radar sensors because the radar is not hampered by weather conditions in many applications, such as self-driving a car. The radars described herein are effectively "digital eyes", have a true 3D vision, and can be interpreted by humans in the world.
開示された実施例の以前の説明は、当業者が本開示を作製又は使用することを可能にするために提供されることが理解される。これらの実施例に対する様々な修正が当業者には容易に明らかとなり、本明細書で定義される一般的原理は、本開示の趣旨又は範囲から逸脱することなく他の実施例に適用され得る。したがって、本開示は、本明細書に示される実施例に限定されることを意図するものではなく、本明細書に開示される原理及び新規の特徴と一致する最も広い範囲を与えられるものである。 It is understood that previous description of the disclosed examples will be provided to allow one of ordinary skill in the art to make or use the present disclosure. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the general principles defined herein can be applied to other embodiments without departing from the spirit or scope of the present disclosure. Accordingly, this disclosure is not intended to be limited to the embodiments presented herein, but is given the broadest scope consistent with the principles and novel features disclosed herein. ..
Claims (20)
レーダーモジュールであって、
少なくとも1つのビームステアリングアンテナと、
送受信機と、
前記送受信機のスキャンパラメータセットを調整するように適合されたスキャンパラメータ制御装置と、を備える、レーダーモジュールと、
前記自律車両の経路及び周囲環境内の物体を検出及び分類するための機械学習モジュール及び分類器を備える認識モジュールであって、物体データ及びレーダー制御情報を前記レーダーモジュールに送信する、認識モジュールと、を備える、レーダーシステム。 A radar system in an autonomous vehicle for object detection and classification.
It ’s a radar module,
With at least one beam steering antenna
With the transmitter / receiver
A radar module comprising a scan parameter controller adapted to adjust the scan parameter set of the transmitter / receiver.
A recognition module including a machine learning module and a classifier for detecting and classifying objects in the path of the autonomous vehicle and the surrounding environment, and a recognition module that transmits object data and radar control information to the radar module. A radar system equipped with.
送受信機を用いてビームステアリングレーダースキャンの送信を開始することと、
エコーを受信することと、
受信した前記エコーにおいて物体を検出することと、
検出された前記物体についての物体情報を抽出することと、
次のビームステアリングレーダースキャンのために、前記送受信機におけるスキャンパラメータセットを調整することと、を含む、物体検出及び分類方法。 Object detection and classification method
Starting transmission of beam steering radar scan using a transmitter / receiver,
Receiving echo and
Detecting an object in the received echo and
Extracting the object information about the detected object and
A method for detecting and classifying objects, including adjusting a set of scan parameters in said transmitter / receiver for the next beam steering radar scan.
第1のスキャンパラメータセットを用いて第1のスキャンを実行することと、
受信したエコーからの物体検出情報に基づいて、前記第1のスキャンパラメータセットを調整することと、
前記第1のスキャンパラメータセットから調整された第2のパラメータセットを用いて第2のスキャンを実行することと、を含む、物体検出及び分類方法。 Object detection and classification method
Performing the first scan with the first scan parameter set,
Adjusting the first scan parameter set based on the object detection information from the received echo,
An object detection and classification method comprising performing a second scan with a second parameter set adjusted from the first scan parameter set.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862626569P | 2018-02-05 | 2018-02-05 | |
US62/626,569 | 2018-02-05 | ||
PCT/US2019/016723 WO2019153016A1 (en) | 2018-02-05 | 2019-02-05 | Method and apparatus for object detection using a beam steering radar and convolutional neural network system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021516763A true JP2021516763A (en) | 2021-07-08 |
Family
ID=67478616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020564047A Pending JP2021516763A (en) | 2018-02-05 | 2019-02-05 | Methods and equipment for object detection using beam steering radar and convolutional neural network systems |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3749977A4 (en) |
JP (1) | JP2021516763A (en) |
KR (1) | KR20200108097A (en) |
WO (1) | WO2019153016A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111220958B (en) * | 2019-12-10 | 2023-05-26 | 西安宁远电子电工技术有限公司 | Radar target Doppler image classification and identification method based on one-dimensional convolutional neural network |
CN110988872B (en) * | 2019-12-25 | 2023-10-03 | 中南大学 | Rapid identification method for detecting wall health state by unmanned aerial vehicle through-wall radar |
ES2894200A1 (en) * | 2020-08-05 | 2022-02-11 | Univ Rovira I Virgili | Device and procedure for communication Vehicle-infrastructure and vehicle-vehicle (Machine-translation by Google Translate, not legally binding) |
WO2023163354A1 (en) * | 2022-02-25 | 2023-08-31 | 삼성전자 주식회사 | Vehicle electronic device and operation method thereof |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04323584A (en) * | 1991-04-23 | 1992-11-12 | Mitsubishi Electric Corp | Device for identifying radar signal |
JP2007218690A (en) * | 2006-02-15 | 2007-08-30 | Fujitsu Ltd | Apparatus for measuring detection distance |
JP2014025914A (en) * | 2012-06-21 | 2014-02-06 | Furuno Electric Co Ltd | Target detection device and target detection method |
US20160223651A1 (en) * | 2015-01-29 | 2016-08-04 | Nidec Elesys Corporation | Neural network-based radar system having independent multibeam antenna |
US20160284213A1 (en) * | 2015-03-24 | 2016-09-29 | Panasonic Corporation | Radar apparatus and running vehicle sensing method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003507716A (en) * | 1999-08-12 | 2003-02-25 | オートモーティブ システムズ ラボラトリー インコーポレーテッド | Neural network radar processor |
US7683827B2 (en) * | 2004-12-15 | 2010-03-23 | Valeo Radar Systems, Inc. | System and method for reducing the effect of a radar interference signal |
US7327308B2 (en) * | 2005-04-28 | 2008-02-05 | Chung Shan Institute Of Science And Technology, Armaments Bureau, M.N.D. | Programmable method and test device for generating target for FMCW radar |
US9720072B2 (en) * | 2014-08-28 | 2017-08-01 | Waymo Llc | Methods and systems for vehicle radar coordination and interference reduction |
TWI588510B (en) * | 2016-05-12 | 2017-06-21 | 桓達科技股份有限公司 | Method of processing FMCW radar signal |
-
2019
- 2019-02-05 WO PCT/US2019/016723 patent/WO2019153016A1/en unknown
- 2019-02-05 EP EP19746621.2A patent/EP3749977A4/en active Pending
- 2019-02-05 JP JP2020564047A patent/JP2021516763A/en active Pending
- 2019-02-05 KR KR1020207025523A patent/KR20200108097A/en not_active Application Discontinuation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04323584A (en) * | 1991-04-23 | 1992-11-12 | Mitsubishi Electric Corp | Device for identifying radar signal |
JP2007218690A (en) * | 2006-02-15 | 2007-08-30 | Fujitsu Ltd | Apparatus for measuring detection distance |
JP2014025914A (en) * | 2012-06-21 | 2014-02-06 | Furuno Electric Co Ltd | Target detection device and target detection method |
US20160223651A1 (en) * | 2015-01-29 | 2016-08-04 | Nidec Elesys Corporation | Neural network-based radar system having independent multibeam antenna |
US20160284213A1 (en) * | 2015-03-24 | 2016-09-29 | Panasonic Corporation | Radar apparatus and running vehicle sensing method |
Also Published As
Publication number | Publication date |
---|---|
EP3749977A4 (en) | 2021-11-10 |
EP3749977A1 (en) | 2020-12-16 |
KR20200108097A (en) | 2020-09-16 |
WO2019153016A1 (en) | 2019-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10739438B2 (en) | Super-resolution radar for autonomous vehicles | |
US20190204834A1 (en) | Method and apparatus for object detection using convolutional neural network systems | |
US11327156B2 (en) | Reinforcement learning engine for a radar system | |
US11479262B2 (en) | Geographically disparate sensor fusion for enhanced target detection and identification in autonomous vehicles | |
US11269058B2 (en) | Autoencoder assisted radar for target identification | |
US20220308204A1 (en) | Beam steering radar with selective scanning mode for autonomous vehicles | |
US11852746B2 (en) | Multi-sensor fusion platform for bootstrapping the training of a beam steering radar | |
US11133577B2 (en) | Intelligent meta-structure antennas with targeted polarization for object identification | |
US11378654B2 (en) | Recurrent super-resolution radar for autonomous vehicles | |
US20230204722A1 (en) | Motion-based object detection in a vehicle radar using convolutional neural network systems | |
JP2021516763A (en) | Methods and equipment for object detection using beam steering radar and convolutional neural network systems | |
US11852749B2 (en) | Method and apparatus for object detection using a beam steering radar and a decision network | |
US11587204B2 (en) | Super-resolution radar for autonomous vehicles | |
US11921233B2 (en) | Adaptive radar for near-far target identification | |
US11719803B2 (en) | Beam steering radar with adjustable long-range radar mode for autonomous vehicles | |
US11867830B2 (en) | Side lobe reduction in a beam steering vehicle radar antenna for object identification | |
US20210255300A1 (en) | Gan-based data synthesis for semi-supervised learning of a radar sensor | |
US20220252721A1 (en) | Guard band antenna in a beam steering radar for resolution refinement | |
US20200241122A1 (en) | Radar system with three-dimensional beam scanning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200903 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200903 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20201112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210402 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230202 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240321 |