JP2021516763A - Methods and equipment for object detection using beam steering radar and convolutional neural network systems - Google Patents

Methods and equipment for object detection using beam steering radar and convolutional neural network systems Download PDF

Info

Publication number
JP2021516763A
JP2021516763A JP2020564047A JP2020564047A JP2021516763A JP 2021516763 A JP2021516763 A JP 2021516763A JP 2020564047 A JP2020564047 A JP 2020564047A JP 2020564047 A JP2020564047 A JP 2020564047A JP 2021516763 A JP2021516763 A JP 2021516763A
Authority
JP
Japan
Prior art keywords
scan
radar
fmcw signal
object detection
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020564047A
Other languages
Japanese (ja)
Inventor
アルミン アール. フォルケル
アルミン アール. フォルケル
マシュー ハリソン
マシュー ハリソン
Original Assignee
メタウェーブ コーポレーション
メタウェーブ コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メタウェーブ コーポレーション, メタウェーブ コーポレーション filed Critical メタウェーブ コーポレーション
Publication of JP2021516763A publication Critical patent/JP2021516763A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/426Scanning radar, e.g. 3D radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/584Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/343Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using sawtooth modulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/36Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • G01S13/38Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal wherein more than one modulation frequency is used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/536Discriminating between fixed and moving objects or between objects moving at different speeds using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/03Details of HF subsystems specially adapted therefor, e.g. common to transmitter and receiver
    • G01S7/032Constructional details for solid-state radar subsystems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target

Abstract

本明細書に開示される例は、物体検出及び分類のための自律車両におけるレーダーシステムに関する。レーダーシステムは、少なくとも1つのビームステアリングアンテナ、送受信機、及び送受信機のスキャンパラメータセットを調整するように適合されたスキャンパラメータ制御装置を有するレーダーモジュールと、自律車両の経路及び周囲環境において物体を検出及び分類するための機械学習モジュール及び分類器を有する認識モジュールとを有し、認識モジュールは、物体データ及びレーダー制御情報をレーダーモジュールに送信する。The examples disclosed herein relate to radar systems in autonomous vehicles for object detection and classification. The radar system detects objects in the path and surrounding environment of an autonomous vehicle with a radar module having at least one beam steering antenna, a transmitter / receiver, and a scan parameter controller adapted to adjust the scan parameter set of the transmitter / receiver. It also has a machine learning module for classification and a recognition module with a classifier, which transmits object data and radar control information to the radar module.

Description

関連出願の相互参照Cross-reference of related applications

本出願は、2018年2月5日に出願された米国仮特許出願第62/626,569号に対する優先権を主張するものであり、2018年1月4日に出願された米国仮特許出願第62/613,675号の優先権を主張する、2019年1月4日に出願された米国特許出願第16/240,666号に関連する(両方は、その全体が参照により本明細書に組み込まれる)。 This application claims priority to U.S. Provisional Patent Application No. 62 / 626,569 filed on February 5, 2018, and U.S. Provisional Patent Application No. 62, filed on January 4, 2018. It relates to US Patent Application No. 16 / 240,666 filed on January 4, 2019, claiming the priority of 62 / 613,675 (both incorporated herein by reference in their entirety). ).

自律運転は、空想科学小説の領域から達成可能な現実へと急速に移行している。安全性及びより良好な運転のために車両を自動化し、適合させ、強化する先進運転支援システム(Advanced-Driver Assistance System、「ADAS」)が、既に市場に存在している。次のステップは、交通、横断する歩行者、動物などを回避するために必要なときに車線又は速度を変更するなど、操縦、加速、制動、及び周囲環境及び運転条件を監視するなどの運転機能の制御をますます引き受ける車両になる。物体及び画像検出の要件は重要であり、データをキャプチャし、それを処理し、それをアクションに変えるために必要な時間を指定する。この間中、正確性、一貫性、及びコストの最適化を確実にする。 Autonomous driving is rapidly shifting from the realm of science fiction novels to achievable reality. Advanced-Driver Assistance Systems (“ADAS”) that automate, adapt and enhance vehicles for safety and better driving are already on the market. The next step is driving functions such as maneuvering, acceleration, braking, and monitoring the surrounding environment and driving conditions, such as changing lanes or speeds when necessary to avoid traffic, crossing pedestrians, animals, etc. Become an increasingly vehicle that takes control of. Object and image detection requirements are important and specify the time required to capture the data, process it, and turn it into an action. During this time, ensure accuracy, consistency, and cost optimization.

これをうまくいかせる態様は、人間と同じ又は更に良好なレベルで周囲環境内の物体を検出及び分類する能力である。人間は、2つの主要機能部:目及び脳を本質的に有する非常に複雑なヒト視覚系を用いて、彼らの周りの世界を認知及び認識することに熟達している。自律運転技術では、眼は、カメラ、レーダー、及びライダーなどの複数のセンサの組み合わせを含み得る一方で、脳は、複数の人工知能、機械学習、及び深学習システムを伴い得る。目標は、動的で動きの速い環境をリアルタイムで完全に理解し、環境の変化に対応して行動するための人間のような知能を有することである。 A way to make this work is the ability to detect and classify objects in the surrounding environment at the same or even better levels as humans. Humans are proficient in recognizing and recognizing the world around them using a very complex human visual system that essentially has two main functional parts: the eye and the brain. In autonomous driving technology, the eye can include a combination of multiple sensors such as cameras, radar, and riders, while the brain can involve multiple artificial intelligence, machine learning, and deep learning systems. The goal is to have a human-like intelligence to fully understand the dynamic and fast-moving environment in real time and to act in response to changes in the environment.

本出願は、添付図面と併せて以下の詳細な説明に関連してより完全に理解され得、添付図面は、縮尺通りに描かれておらず、添付図面において、同様の参照文字は、全体を通して同様の部分を指す。 The present application may be more fully understood in connection with the following detailed description in conjunction with the accompanying drawings, the accompanying drawings are not drawn to scale, and similar reference characters are used throughout in the attached drawings. Refers to a similar part.

自律ビームステアリングレーダーシステムが物体を検出及び識別するために使用される例示的な環境を示す車両における。In a vehicle showing an exemplary environment in which an autonomous beam steering radar system is used to detect and identify an object.

様々な実施例による自律車両用の自律運転システムの概略図である。It is the schematic of the autonomous driving system for the autonomous vehicle by various examples.

様々な実施例による、図2のビームステアリングレーダーシステムの概略図である。It is the schematic of the beam steering radar system of FIG. 2 according to various examples.

様々な実施例による、図3のように実装されたビームステアリングレーダーシステムを動作させるためのフローチャートである。It is a flowchart for operating the beam steering radar system implemented as shown in FIG. 3 according to various examples.

様々な実施例による、レーダー信号及びその関連するスキャンパラメータを示す。Radar signals and their associated scan parameters according to various embodiments are shown.

様々な実施例による、ビームステアリングレーダーシステムの帯域幅当たりの距離解像度を示すグラフを示す。Graphs showing the distance resolution per bandwidth of a beam steering radar system according to various embodiments are shown.

スキャンパラメータと設計目標との間の例示的なトレードオフを示す。Show an exemplary trade-off between scan parameters and design goals. スキャンパラメータと設計目標との間の例示的なトレードオフを示す。Show an exemplary trade-off between scan parameters and design goals.

様々な実施例による、スキャンパラメータを調整するためのフローチャートを示す。A flowchart for adjusting scan parameters according to various embodiments is shown.

図8Aの調整のための例示的なスキャンパラメータを示す。Shown are exemplary scan parameters for the adjustment of FIG. 8A.

様々な実施例による、スキャンパラメータを調整するためのフローチャートを示す。A flowchart for adjusting scan parameters according to various embodiments is shown.

様々な実施例による、スキャンパラメータを調整するためのフローチャートを示す。A flowchart for adjusting scan parameters according to various embodiments is shown.

図10の調整のための例示的なスキャンパラメータを示す。An exemplary scan parameter for the adjustment of FIG. 10 is shown.

ビームステアリングレーダー及び畳み込みニューラルネットワークシステムを使用して物体検出するための方法及び装置が開示される。方法及び装置は、自律車両におけるビームステアリングレーダーによる生データの取得と、そのデータを認識モジュールを通して処理して、車両の視野(「Field-of-View、FoV」)内の複数の物体についての情報を抽出することと、を含む。この情報は、位置、サイズ、速度、物体カテゴリなどの検出された物体のパラメータ、測定値、又は記述子であってもよい。物体としては、道路、壁、建物、及び道路中央の中央線などの車両のFoV内の構造要素、並びに他の車両、歩行者、傍観者、自転車運転者、植物、樹木、動物などが挙げられ得る。ビームステアリングレーダーは、ビームステアリングを可能にするために、その電気的又は電磁的構成を変更するように動的に制御される少なくとも1つのビームステアリングアンテナを組み込む。動的制御は、認識モジュールによって支援され、これは、車両FoV内の物体を識別すると、ビームステアリングレーダーに、そのレーダスキャンパラメータを調整することによって、ビームを操縦し、対象領域に焦点を合わせることを知らせる。 Methods and devices for object detection using beam steering radar and convolutional neural network systems are disclosed. Methods and devices take raw data from a beam steering radar in an autonomous vehicle and process that data through a recognition module to provide information about multiple objects within the vehicle's field of view (“Field-of-View, FoV”). To extract and include. This information may be a parameter, measurement, or descriptor of the detected object such as position, size, velocity, object category. Objects include structural elements within the vehicle's FoV, such as roads, walls, buildings, and the central line of the road, as well as other vehicles, pedestrians, bystanders, cyclists, plants, trees, animals, and the like. obtain. The beam steering radar incorporates at least one beam steering antenna that is dynamically controlled to change its electrical or electromagnetic configuration to enable beam steering. Dynamic control is assisted by a recognition module, which, when identifying an object in the vehicle FoV, steers the beam and focuses on the area of interest by adjusting its radar scan parameters to the beam steering radar. Inform.

以下の説明では、実施例の完全な理解を提供するために、数多くの具体的な詳細が記載されることが理解される。しかしながら、実施例は、これらの具体的な詳細を限定することなく実施することができることが理解される。他の例では、実施例の説明を不必要に不明瞭にすることを避けるために、周知の方法及び構造を詳細に説明していないことがある。また、実施例は、互いに組み合わせて使用されてもよい。 It is understood that the following description provides a number of specific details to provide a complete understanding of the examples. However, it is understood that the examples can be carried out without limiting these specific details. In other examples, well-known methods and structures may not be described in detail to avoid unnecessarily obscuring the description of the examples. Moreover, the examples may be used in combination with each other.

図1は、自律車両におけるビームステアリングレーダーシステムが物体を検出及び識別するために使用される例示的な環境を示す。自車両100は、レーダー信号を送信して、FoV又は特定の領域をスキャンするためのビームステアリングレーダーシステム106を有する自律車両である。以下により詳細に記載されるように、レーダー信号は、複数の伝送ビーム118をもたらすように調整することができるスキャンパラメータセットに従って送信される。スキャンパラメータは、とりわけ、レーダー送信点からのスキャン領域の総角度、送信されたレーダー信号の電力、各増分送信ビームのスキャン角度、並びに各ビーム間の角度又はそれらの間の重複を含み得る。FoV全体又はその一部分は、連続的に隣接するスキャン位置又は特定の若しくはランダムな順序であってもよい、そのような伝送ビーム118のコンパイルによってスキャンすることができる。なお、用語FoVは、レーダー送信を参照して本明細書で使用され、妨害されていないビューを有する光学FoVを意味しないことに留意されたい。スキャンパラメータはまた、これらの増分送信ビーム間の時間間隔、並びに完全又は部分スキャンのための開始及び停止角度位置を示してもよい。 FIG. 1 shows an exemplary environment in which a beam steering radar system in an autonomous vehicle is used to detect and identify an object. Own vehicle 100 is an autonomous vehicle having a beam steering radar system 106 for transmitting radar signals to scan FoVs or specific areas. As described in more detail below, radar signals are transmitted according to a scan parameter set that can be tuned to result in multiple transmission beams 118. Scan parameters can include, among other things, the total angle of the scan area from the radar transmission point, the power of the transmitted radar signal, the scan angle of each incremental transmission beam, and the angle between each beam or overlaps between them. The entire FoV or a portion thereof can be scanned by compiling such a transmission beam 118, which may be in continuous adjacent scan positions or in a specific or random order. It should be noted that the term FoV is used herein with reference to radar transmission and does not mean an optical FoV having an unobstructed view. The scan parameters may also indicate the time interval between these incrementally transmitted beams, as well as the start and stop angle positions for a full or partial scan.

様々な例では、自車両100はまた、カメラ102及びライダー104などの他の認識センサを有してもよい。これらの認識センサは、自車両100には必須ではないが、ビームステアリングレーダーシステム106の物体検出能力を増加させるのに有用であり得る。カメラセンサ102は、可視物体及び条件を検出し、様々な機能の性能を支援するために使用することができる。また、ライダーセンサ104を使用して物体を検出し、この情報を提供して車両の制御を調整することもできる。この情報は、高速道路の混雑、道路条件、及び車両のセンサ、アクション、又は動作に影響を与える他の条件などの情報を含んでもよい。カメラセンサは、駐車(例えば、背面カメラ)などの運転機能におけるドライバを支援するために、現在、先進運転支援システム(「ADAS」)で使用されている。カメラは、高レベルの詳細ではあるが人間の目と同様に、質感、色、及びコントラスト情報をキャプチャすることが可能であるが、それらは、有害な気象条件及び照明の変動を受けやすい。カメラ102は、高解像度を有し得るが、50メートルを超える物体を解像することはできない。 In various examples, the own vehicle 100 may also have other recognition sensors such as the camera 102 and the rider 104. These recognition sensors are not essential for the own vehicle 100, but may be useful for increasing the object detection capability of the beam steering radar system 106. The camera sensor 102 can be used to detect visible objects and conditions and to support the performance of various functions. The rider sensor 104 can also be used to detect an object and provide this information to adjust vehicle control. This information may include information such as highway congestion, road conditions, and other conditions that affect vehicle sensors, actions, or movements. Camera sensors are currently used in advanced driver assistance systems (“ADAS”) to assist drivers in driving functions such as parking (eg, rear cameras). Cameras are capable of capturing texture, color, and contrast information, similar to the human eye, albeit at a high level of detail, but they are susceptible to harmful weather conditions and lighting fluctuations. The camera 102 may have high resolution but cannot resolve objects larger than 50 meters.

ライダーセンサは、典型的には、物体に移動し、センサに戻る光のパルスによって取られた時間を計算することによって、物体までの距離を測定する。車両の上に位置決めされたとき、ライダーセンサは、周囲環境の360°3Dビューを提供することができる。他のアプローチは、全360°ビューを提供するために、車両の周囲の異なる場所でいくつかのライダーを使用することができる。しかしながら、ライダー104などのライダーセンサは、依然として、非常に高価であり、大きさが嵩高であり、気象条件に敏感であり、短距離(典型的には<150〜200メートル)に限定される。一方、レーダーは、車両内で長年使用されており、全天候条件で動作している。レーダーはまた、他の種類のセンサよりもはるかに少ない処理を使用し、障害物の背後の物体を検出し、移動物体の速度を判定するという利点を有する。解像度になれば、ライダーのレーザビームは、小さい領域に集束され、RF信号よりも小さい波長を有し、約0.25度の解像度を達成することができる。 A lidar sensor typically measures the distance to an object by calculating the time taken by the pulse of light moving to and back to the sensor. When positioned on top of the vehicle, the rider sensor can provide a 360 ° 3D view of the surrounding environment. Other approaches can use several riders in different locations around the vehicle to provide a full 360 ° view. However, rider sensors such as the Rider 104 are still very expensive, bulky in size, sensitive to weather conditions, and limited to short distances (typically <150-200 meters). Radar, on the other hand, has been used in vehicles for many years and operates in all weather conditions. Radar also has the advantage of using much less processing than other types of sensors, detecting objects behind obstacles, and determining the speed of moving objects. At resolution, the rider's laser beam is focused in a small area, has a wavelength smaller than the RF signal, and can achieve a resolution of about 0.25 degrees.

様々な実施例では、以下により詳細に記載されるように、ビームステアリングレーダーシステム106は、自車両の経路及び周囲環境の360°真の3Dビジョン及び人間様の解釈を提供することができる。レーダーシステム106は、ビームステアリングアンテナモジュール(少なくとも1つのビームステアリングアンテナを有する)を用いて、360°FoV内の全ての方向にRFビームを成形及びステアリングし、物体を迅速に、かつ約300メートル以上の長距離にわたって高精度で認知することができる。レーダー106の長距離能力と共にカメラ102及びライダー104の短距離能力により、自車両100内のセンサ融合モジュール108が、その物体検出及び識別を強化することを可能にする。 In various embodiments, the beam steering radar system 106 can provide a 360 ° true 3D vision of the vehicle's path and surroundings and a human interpretation, as described in more detail below. The radar system 106 uses a beam steering antenna module (having at least one beam steering antenna) to form and steer an RF beam in all directions within 360 ° FoV to quickly and more than about 300 meters of an object. Can be recognized with high accuracy over long distances. The long-range capabilities of the radar 106 as well as the short-range capabilities of the camera 102 and the rider 104 allow the sensor fusion module 108 within the own vehicle 100 to enhance its object detection and identification.

ここで、様々な実施例による、自車両用の自律運転システムの概略図を示す図2に注目する。自律運転システム200は、運転機能の一部又は完全な自動化を提供する、自車両で使用するためのシステムである。運転機能としては、例えば、交通、横断する歩行者、動物などを回避するために必要なときに斜線又は速度を変更するなど、周囲環境及び運転条件を操縦、加速、制動、及び監視することを含んでもよい。自律運転システム200は、ビームステアリングレーダーシステム202と、カメラ204、ライダー206、インフラストラクチャセンサ208のような他のセンサシステム、環境センサ210、動作センサ212、ユーザプリファレンスセンサ214、及び他のセンサ216を含む。自律運転システム200はまた、通信モジュール218、センサ融合モジュール220、システムコントローラ222、システムメモリ224、及びV2V通信モジュール226も含む。自律運転システム200のこの構成は、例示的な構成であり、図2に例示される特定の構造に限定することを意図するものではないことが理解される。図2に示されていない追加のシステム及びモジュールは、自律運転システム200に含まれてもよい。 Here, attention is paid to FIG. 2, which shows a schematic diagram of an autonomous driving system for the own vehicle according to various embodiments. The autonomous driving system 200 is a system for use in own vehicle that provides partial or full automation of driving functions. Driving functions include maneuvering, accelerating, braking, and monitoring the surrounding environment and driving conditions, such as changing diagonal lines or speeds when necessary to avoid traffic, crossing pedestrians, animals, etc. It may be included. The autonomous driving system 200 includes a beam steering radar system 202 and other sensor systems such as camera 204, rider 206, infrastructure sensor 208, environment sensor 210, motion sensor 212, user preference sensor 214, and other sensors 216. including. The autonomous driving system 200 also includes a communication module 218, a sensor fusion module 220, a system controller 222, a system memory 224, and a V2V communication module 226. It is understood that this configuration of the autonomous driving system 200 is an exemplary configuration and is not intended to be limited to the particular structure exemplified in FIG. Additional systems and modules not shown in FIG. 2 may be included in the autonomous driving system 200.

様々な実施例では、ビームステアリングレーダーシステム202は、車両の360°FoVの1つ以上の部分に焦点を合わせることができる動的に制御可能かつ操縦可能なビームを提供するための少なくとも1つのビームステアリングアンテナを含む。ビームステアリングアンテナから放射されたビームは、車両の経路及び周囲環境内の物体から反射され、レーダーシステム202によって受信及び処理されて、物体を検出及び識別する。レーダーシステム202は、所望に応じて、物体を検出し、識別し、レーダーモジュールを制御するように訓練される認識モジュールを含む。カメラセンサ204及びライダー206はまた、非常に低距離で、自車両の経路及び周囲環境内の物体を識別するために使用されてもよい。 In various embodiments, the beam steering radar system 202 is at least one beam for providing a dynamically controllable and maneuverable beam that can focus on one or more parts of the 360 ° FoV of the vehicle. Includes steering antenna. The beam emitted from the beam steering antenna is reflected from the vehicle's path and objects in the surrounding environment and is received and processed by the radar system 202 to detect and identify the object. The radar system 202 includes a recognition module that is trained to detect, identify, and control the radar module, if desired. Camera sensors 204 and rider 206 may also be used to identify objects in the vehicle's path and surroundings at very low distances.

インフラストラクチャセンサ208は、スマートロード構成、ビルボード情報、信号機、一時停止標識、交通警告などを含む交通警報及びインジケーターなど、運転中のインフラストラクチャからの情報を提供することができる。これは成長領域であり、この情報から抽出される使用及び能力は、限りない。環境センサ210は、とりわけ、温度、湿度、霧、視認性、降雨などの様々な条件を検出する。動作センサ212は、車両の機能動作に関する情報を提供する。これは、タイヤ圧力、燃料レベル、ブレーキ摩耗などであり得る。ユーザプリファレンスセンサ214は、ユーザ嗜好の一部である条件を検出するように構成することができる。これは、温度調整、スマートウィンドウシェーディングなどであってもよい。他のセンサ216は、車両内及び車両の周囲の状態を監視するための追加のセンサを含んでもよい。 Infrastructure sensor 208 can provide information from the infrastructure in operation, such as traffic warnings and indicators, including smart road configurations, billboard information, traffic lights, stop signs, traffic warnings, and the like. This is a growing area and the uses and capabilities extracted from this information are endless. The environmental sensor 210 detects various conditions such as temperature, humidity, fog, visibility, and rainfall, among others. The motion sensor 212 provides information about the functional motion of the vehicle. This can be tire pressure, fuel level, brake wear, etc. The user preference sensor 214 can be configured to detect conditions that are part of the user preference. This may be temperature control, smart window shading, etc. Other sensors 216 may include additional sensors for monitoring conditions in and around the vehicle.

様々な実施例では、センサ融合モジュール220は、これらの様々な機能を最適化して、車両及び環境のおよそ包括的な図を提供する。多くのタイプのセンサは、センサ融合モジュール220によって制御されてもよい。これらのセンサは、情報を共有し、別のシステムに対する1つの制御アクションの影響を考慮するために、互いに協調してもよい。一実施例では、混雑した運転条件では、ノイズ検出モジュール(図示せず)は、車両に干渉し得る複数のレーダー信号が存在することを識別してもよい。この情報は、レーダー202内の認識モジュールによって使用されて、レーダーのスキャンパラメータを調整して、これらの他の信号を回避し、干渉を最小限に抑えることができる。 In various embodiments, the sensor fusion module 220 optimizes these various features to provide a more or less comprehensive view of the vehicle and environment. Many types of sensors may be controlled by the sensor fusion module 220. These sensors may coordinate with each other to share information and consider the impact of one control action on another system. In one embodiment, under congested driving conditions, the noise detection module (not shown) may identify the presence of multiple radar signals that may interfere with the vehicle. This information can be used by a recognition module within the radar 202 to adjust the radar scan parameters to avoid these other signals and minimize interference.

別の実施例では、環境センサ210は、天気が変化していることを検出することができ、視認性が低下する。この状況では、センサ融合モジュール220は、これらの新たな条件で車両がナビゲートする能力を改善するようにセンサを構成することができる。この構成は、カメラ又はライダーセンサ204〜206をオフにすること、又はこれらの視認性ベースのセンサのサンプリングレートを低減することを含んでもよい。これは、現在の状況に適合されたセンサ(複数可)上に依存する。これに応答して、認識モジュールは、これらの条件のためにレーダー202を構成する。例えば、レーダー202は、より集束されたビームを提供するためにビーム幅を低減することができ、したがって、より微細な感知能力を提供することができる。 In another embodiment, the environmental sensor 210 can detect that the weather is changing, reducing visibility. In this situation, the sensor fusion module 220 can be configured to improve the ability of the vehicle to navigate in these new conditions. This configuration may include turning off cameras or lidar sensors 204-206, or reducing the sampling rate of these visibility-based sensors. This depends on the sensor (s) adapted to the current situation. In response, the recognition module configures radar 202 for these conditions. For example, radar 202 can reduce the beamwidth to provide a more focused beam and thus can provide finer sensing capabilities.

様々な実施例では、センサ融合モジュール220は、履歴条件及び制御に基づいて、メタ構造アンテナに直接制御を送信することができる。センサ融合モジュール220はまた、システム200内のセンサの一部を使用して、他のセンサのフィードバック又は較正として機能してもよい。このようにして、動作センサ212は、テンプレート、パターン、及び制御シナリオを作成するために、認識モジュール及び/又はセンサ融合モジュール220にフィードバックを提供してもよい。これらは、成功したアクションに基づくものであるか、又は、センサ融合モジュール220が過去のアクションから学習する、不十分な結果に基づくことができる。 In various embodiments, the sensor fusion module 220 can transmit control directly to the metastructured antenna based on historical conditions and controls. The sensor fusion module 220 may also use some of the sensors in the system 200 to serve as feedback or calibration for other sensors. In this way, the motion sensor 212 may provide feedback to the recognition module and / or the sensor fusion module 220 to create templates, patterns, and control scenarios. These can be based on successful actions or based on inadequate results that the sensor fusion module 220 learns from past actions.

センサ202〜216からのデータは、センサ融合モジュール220内で組み合わされて、自律運転システム200の目標検出及び識別性能を改善することができる。センサ融合モジュール220は、それ自体が、車両における他のモジュール及びシステムと相互作用し、制御することができるシステムコントローラ222によって制御されてもよい。例えば、システムコントローラ222は、所望に応じて、異なるセンサ202〜216をオン及びオフにするか、又は運転中のハザード(車両の経路に突然現れる鹿、歩行者、自転車運転者、又は別の車両、飛行破片など)を識別すると、車両に停止するように命令を提供してもよい。 The data from sensors 202-216 can be combined within the sensor fusion module 220 to improve the target detection and identification performance of the autonomous driving system 200. The sensor fusion module 220 may itself be controlled by a system controller 222 capable of interacting with and controlling other modules and systems in the vehicle. For example, the system controller 222 turns different sensors 202-216 on and off, as desired, or a driving hazard (a deer, a pedestrian, a cyclist, or another vehicle that suddenly appears in the vehicle's path). , Flying debris, etc.) may be identified and the vehicle may be instructed to stop.

自律運転システム200内の全てのモジュール及びシステムは、通信モジュール218を介して互いに通信する。自律運転システム200はまた、システム200及びシステム200を使用する自車両の動作に使用される情報及びデータ(例えば、静的及び動的データ)を記憶し得るシステムメモリ224を含む。V2V通信モジュール226は、他の車両との通信に使用される。V2V通信はまた、車両のユーザ、運転者、又は乗り手から見ることができない他の車両からの情報を含んでもよく、事故を回避するために車両の座標を支援することができる。 All modules and systems in the autonomous driving system 200 communicate with each other via the communication module 218. The autonomous driving system 200 also includes a system memory 224 capable of storing information and data (eg, static and dynamic data) used in the operation of the system 200 and its own vehicle using the system 200. The V2V communication module 226 is used for communication with other vehicles. V2V communication may also include information from other vehicles that are not visible to the user, driver, or rider of the vehicle and can assist in vehicle coordinates to avoid accidents.

図3は、様々な実施例による、図2のビームステアリングレーダーシステムの概略図を示す。ビームステアリングレーダーシステム300は、真の3Dビジョンを有する「デジタル眼」であり、世界の人間様の解釈が可能である。「デジタル眼」及び人間様の解釈能力は、レーダーモジュール302及び認識モジュール304の2つの主モジュールによって提供される。レーダーモジュール302は、自律自車両の360°FoVの1つ以上の部分に焦点を合わせることができる動的に制御可能かつ操縦可能なビームを提供するための少なくとも1つのビームステアリングアンテナ306を含む。現在のビームステアリングアンテナの実装は、120〜180°FoVまでのビームを向けることができることに留意されたい。360°FoV全体に到達する操縦能力を提供するために、複数のビームステアリングアンテナが必要とされ得る。 FIG. 3 shows a schematic diagram of the beam steering radar system of FIG. 2 according to various embodiments. The beam steering radar system 300 is a "digital eye" with a true 3D vision and can be interpreted by humans in the world. The "digital eye" and human-like interpretive power are provided by two main modules, the radar module 302 and the recognition module 304. Radar module 302 includes at least one beam steering antenna 306 for providing a dynamically controllable and maneuverable beam capable of focusing on one or more parts of the 360 ° FoV of the autonomous vehicle. It should be noted that current beam steering antenna implementations can direct beams from 120 to 180 ° FoV. Multiple beam steering antennas may be required to provide maneuverability to reach the entire 360 ° FoV.

様々な実施例では、ビームステアリングアンテナ306は、複数の操舵角でRF信号を提供するためにRFICと一体化される。アンテナは、メタ構造アンテナ、位相アレイアンテナ、又はミリメートル波周波数でRF信号を放射することができる任意の他のアンテナであってもよい。本明細書で一般に定義されるメタ構造は、その幾何学的形状に基づいて、所望の方向に入射放射線を制御及び操作することができる、工学的構造である。メタ構造アンテナは、例えば、電力を分割し、インピーダンス整合を提供するためのフィード又は電力分割層、操舵角制御及び他の機能を提供するRFICを有するRF回路層、並びに複数のマイクロストリップ、ギャップ、パッチ、ビアなどを有するメタ構造アンテナ層を含む、様々な構造及び層を含み得る。メタ構造層は、メタ材料層を含んでもよい。ビームステアリングアンテナ306の様々な構成、形状、設計、及び寸法を使用して、特定の設計を実施し、特定の制約を満たすことができる。 In various embodiments, the beam steering antenna 306 is integrated with the RFIC to provide RF signals at multiple steering angles. The antenna may be a metastructured antenna, a phase array antenna, or any other antenna capable of emitting RF signals at millimeter wave frequencies. A metastructure generally defined herein is an engineering structure that can control and manipulate incident radiation in a desired direction based on its geometry. Metastructured antennas include, for example, feed or power split layers for splitting power and providing impedance matching, RF circuit layers with RFICs for steering angle control and other functions, and multiple microstrips, gaps, etc. It may include various structures and layers, including metastructured antenna layers with patches, vias, etc. The metastructure layer may include a metamaterial layer. Various configurations, shapes, designs, and dimensions of the beam steering antenna 306 can be used to implement specific designs and meet specific constraints.

レーダー制御は、認識モジュール304によって部分的に提供される。レーダーモジュール302によって生成されたレーダーデータは、物体検出及び識別のために認識モジュール304に提供される。レーダーデータは、送受信機308によって取得され、これは、メタ構造アンテナ306によって放射されたRF信号を送信し、これらのRF信号の反射を受信することができるレーダーチップセットを有する。認識モジュール304内の物体検出及び識別は、機械学習モジュール(「MLM」)312及び分類器314内で実行される。車両のFoV内の物体を識別すると、認識モジュール304は、必要に応じてビームステアリング及びビーム特性を調整するために、レーダーモジュール302内のアンテナ制御装置310及びスキャンパラメータ制御装置316に物体データ及び制御命令を提供する。アンテナ制御装置310は、ステアリング角度などのアンテナパラメータを制御する一方で、スキャンパラメータ制御装置316は、送受信機308内のレーダー信号のスキャンパラメータを調整する。例えば、認識モジュール304は、車両の経路上の自転車運転者を検出し、レーダーモジュール302を指示して、所与の操舵角で、及び自転車運転者の場所に対応するFoVの部分内で、追加のRFビームを集束させることができる。 Radar control is partially provided by the recognition module 304. The radar data generated by the radar module 302 is provided to the recognition module 304 for object detection and identification. Radar data is acquired by transmitter / receiver 308, which has a radar chipset capable of transmitting RF signals radiated by the metastructured antenna 306 and receiving reflections of these RF signals. Object detection and identification within the recognition module 304 is performed within the machine learning module (“MLM”) 312 and the classifier 314. Upon identifying an object in the vehicle's FoV, the recognition module 304 provides object data and control to the antenna controller 310 and scan parameter controller 316 in the radar module 302 to adjust beam steering and beam characteristics as needed. Provide instructions. The antenna control device 310 controls antenna parameters such as the steering angle, while the scan parameter control device 316 adjusts the scan parameters of the radar signal in the transmitter / receiver 308. For example, the recognition module 304 detects the cyclist on the path of the vehicle and directs the radar module 302 to add at a given steering angle and within the portion of the FoV corresponding to the cyclist's location. RF beam can be focused.

様々な実施例におけるMLM312は、様々な実施例では、入力から出力への3つの積み重ねられた畳み込み層を有する完全畳み込みニューラルネットワーク(「FCN」)であるCNNを実装する(追加の層もCNNに含まれてもよい)。これらの層の各々はまた、従来のL2規則化の代わりとして整流された線形活性化機能及びバッチ正規化を実行し、各層は、64フィルタを有する。多くのFCNとは異なり、データは、入力のサイズが比較的小さく、圧縮を伴わずに実行されるため、データは、ネットワークを通って伝播するときに圧縮されない。様々な実施例では、CNNは、生レーダーデータ、合成レーダーデータ、ライダーデータなどで訓練されてもよく、レーダーデータで再訓練されてもよい。良好な物体検出及び識別性能を達成するために、CNNを訓練するために、複数のトレーニングオプションを実装することができる。 MLM312 in various embodiments implements CNN, which in various embodiments is a fully convolutional neural network (“FCN”) with three stacked convolutional layers from input to output (additional layers are also on CNNs). May be included). Each of these layers also performs a rectified linear activation function and batch normalization as an alternative to conventional L2 normalization, and each layer has 64 filters. Unlike many FCNs, the data is relatively small in size and runs uncompressed, so the data is not compressed as it propagates through the network. In various embodiments, the CNN may be trained with raw radar data, synthetic radar data, rider data, etc., and may be retrained with radar data. Multiple training options can be implemented to train CNNs to achieve good object detection and identification performance.

分類器314はまた、レーダーモジュール302によって取得されたレーダーデータにおける速度情報及びマイクロドプラップラー署名を使用して、認識モジュール304の物体識別能力を向上させるためのCNN又は他の物体分類器を含んでもよい。物体がゆっくり移動しているか、又は道路車線外で移動しているとき、それは、モーター付き車両ではなく、むしろ、人、動物、自転車運転者などである。同様に、1つの物体が高速で移動しているが、高速道路で他の車両の平均速度よりも低い場合、分類器314は、この速度情報を使用して、その車両が、よりゆっくり移動する傾向にあるトラック又は別の物体であるか否かを判定する。同様に、いくつかの国(例えば、アメリカ合衆国)の高速道路などの物体の場所は、低速移動型の車両を示す。物体の移動が道路の経路に追従しない場合、物体は、道路を横切って走る鹿などの動物であり得る。この情報の全ては、天気及び交通サービスから提供される情報、並びにスマート道路及びスマートトラフィック標識などの他の車両又は環境自体から提供される情報を含む、車両に利用可能な様々なセンサ及び情報から判定され得る。 The classifier 314 also includes a CNN or other object classifier to improve the object identification capability of the recognition module 304 using the velocity information and microdropler signature in the radar data acquired by the radar module 302. But it may be. When an object is moving slowly or off the road lane, it is not a motorized vehicle, but rather a person, animal, cyclist, etc. Similarly, if one object is moving at high speed, but is slower than the average speed of another vehicle on the highway, the classifier 314 will use this speed information to move that vehicle more slowly. Determine if it is a prone track or another object. Similarly, the location of objects, such as highways in some countries (eg, the United States), indicates slow-moving vehicles. If the movement of the object does not follow the path of the road, the object can be an animal such as a deer running across the road. All of this information comes from the various sensors and information available to the vehicle, including information provided by weather and traffic services, as well as information provided by other vehicles such as smart roads and smart traffic signs or the environment itself. Can be judged.

速度情報は、レーダーセンサに固有であることに留意されたい。レーダーデータは、(r、θ、φ、I、v)という形式のデータタプルを有する多次元形式であり、ここで、r、θ、φは、物体の場所座標を表し、rは、レーダーシステム300とその視線に沿った物体との間の距離又は間隔を示し、θは、方位角であり、φは、仰角であり、Iは、送受信機308に戻される送信電力の量を示す強度又は反射率であり、vは、その視線に沿ったレーダーシステム300と物体との間の速度である。認識モジュール304によってレーダーモジュール302に提供される場所及び速度情報により、アンテナ制御装置310及びスキャンパラメータ制御装置316が、そのパラメータを適宜調整することを可能にする。 Note that the velocity information is specific to the radar sensor. Radar data is a multidimensional format with data taples of the form (ri i , θ i , φ i , I i , vi i ), where r i , θ i , φ i are the location coordinates of the object. the stands, r i denotes the distance or spacing between the radar system 300 and the object along its line of sight, theta i is the azimuthal angle, phi i are elevation, I i is the transceiver the intensity or reflectance indicates the amount of transmit power is returned to 308, v i is the velocity between the radar system 300 and the object along its line of sight. The location and speed information provided by the recognition module 304 to the radar module 302 allows the antenna controller 310 and the scan parameter controller 316 to adjust their parameters as appropriate.

ここで図4に注目すると、図3のように実装されたビームステアリングレーダーシステムを動作させるためのフローチャートを示す。まず、ビームステアリングレーダーシステムは、スキャンパラメータセットを用いてビームステアリングレーダースキャンの送信を開始する(400)。レーダースキャンは、様々な実施例において、周波数変調された連続波(Frequency-Modulated Continuous Wave、「FMCW」)信号であってもよい。FMCW信号は、レーダーシステムが、送信された信号と受信/反射された信号又はエコーとの間の位相又は周波数の差を測定することによって、レーダーシステムが物体への距離を測定することを可能にする。FMCWフォーマット内には、各々が利点及び目的を有する、三角形、のこぎり、矩形などを含む、様々な変調パターンが存在する。FMCW信号内には、各々が送信ビームに対応する複数の波形又はチャープが存在し得る。送信ビームが物体に遭遇すると、ビームは物体を反射し、戻り信号又はエコーはレーダーシステムで受信される(402)。 Focusing on FIG. 4, a flowchart for operating the beam steering radar system implemented as shown in FIG. 3 is shown. First, the beam steering radar system initiates transmission of a beam steering radar scan using the scan parameter set (400). The radar scan may be a frequency-modulated continuous wave (“FMWC”) signal in various embodiments. The FMCW signal allows the radar system to measure the distance to an object by measuring the phase or frequency difference between the transmitted signal and the received / reflected signal or echo. To do. Within the FMCW format, there are various modulation patterns, including triangles, saws, rectangles, etc., each with its own advantages and purposes. Within the FMCW signal, there may be multiple waveforms or chirps, each corresponding to the transmitted beam. When the transmitting beam encounters an object, the beam reflects off the object and the return signal or echo is received by the radar system (402).

エコーは、認識モジュール304においてMLMによって分析されて、物体を検出する(404)。物体が検出されない場合、ビームステアリングレーダーシステム300は、更なるスキャンを伴うエコーを待機し続ける。なお、ビームステアリングレーダーシステムは、送信ビームを停止しないことに留意されたい。スキャンは、自車両が動作中である限り、達成される。認識モジュール304が、物体がエコーにおいて検出されたことを示すと、物体の場所及びその速度などの物体情報が抽出され、レーダーモジュール302に送られる(406)。認識モジュール304はまた、次のスキャンでレーダービームの焦点を合わせる情報を送信してもよい。物体情報は、スキャンパラメータ制御装置316に、図5〜11を参照して以下に記載されるような様々な方法でスキャンパラメータを調整する(408)ことを通知する。次いで、認識モジュール304は、物体を分類(410)し、物体分類結果を車両におけるセンサ融合モジュールに送信して、他のセンサからの物体検出/分類と組み合わせて、必要なら、車両でどの制御アクション(例えば、速度、車線変更、ブレークなど)が取られるかを判定する。 The echo is analyzed by the MLM in the recognition module 304 to detect the object (404). If no object is detected, the beam steering radar system 300 continues to wait for an echo with further scanning. Note that the beam steering radar system does not stop the transmitting beam. The scan is accomplished as long as the vehicle is in operation. When the recognition module 304 indicates that the object has been detected in the echo, the object information such as the location of the object and its velocity is extracted and sent to the radar module 302 (406). The recognition module 304 may also transmit information to focus the radar beam on the next scan. The object information notifies the scan parameter controller 316 that the scan parameters are adjusted (408) in various ways as described below with reference to FIGS. 5-11. The recognition module 304 then classifies the object (410), sends the object classification result to the sensor fusion module in the vehicle, combines it with object detection / classification from other sensors, and if necessary, which control action in the vehicle. Determine if (eg, speed, lane change, break, etc.) is taken.

図5は、レーダー信号及びその関連するスキャンパラメータをより詳細に示す。レーダー信号500は、チャープ502〜506などの一連のチャープを含むFMCW信号である。信号500は、物体の場所、その解像度、及び速度を決定する方法に影響を及ぼすパラメータセットによって定義される。信号500に関連付けられ、図5に示されるパラメータは、(1)チャープ信号の最小周波数及び最大周波数に対するfmax及びfmin、(2)1つのチャープシーケンスの総時間に対するTtotal、(3)レーダーシステム内の位相ロックループ(Phase Locked Loop、「PLL」)のセトリング時間を表すTdelay、(4)実際の測定時間のTMEAS(例えば、300メートル以内の物体を検出するためのチャープシーケンスの>2μs)、(5)1つのチャープの総時間に対するTchip、(6)チャープ間の反復時間のTrepeat(7)チャープの総帯域幅に関するB、(8)チャープの有効帯域幅のBeff、(9)連続した測定間の帯域幅についてのΔBeff、(10)チャープごとに行われた測定の数、N(すなわち、各チャープについて、何回エコーで測定を行うか)、及び(11)シーケンス当たりのチャープ数、Nを含む。 FIG. 5 shows the radar signal and its associated scan parameters in more detail. The radar signal 500 is an FMCW signal including a series of chirps such as chirps 502 to 506. The signal 500 is defined by a set of parameters that affect the location of the object, its resolution, and the way it determines its velocity. Associated with the signal 500, parameters shown in Figure 5, (1) f max and f min to the minimum frequency and maximum frequency of the chirp signal, T total to the total time of (2) one chirp sequence, (3) Radar T delay , which represents the settling time of the phase locked loop (“PLL”) in the system, (4) T MEAS of the actual measurement time (for example, a chirp sequence for detecting an object within 300 meters> 2 μs), (5) T chip for the total time of one chirp, (6) Repeat of the repetition time between chirps (7) B for the total bandwidth of the chirp, (8) B eff of the effective bandwidth of the chirp, (9) .DELTA.B eff for bandwidth between successive measurements, (10) the number of measurements made for each chirp, N r (i.e., for each chirp, or make measurements at times echo), and (11 ) Includes the number of chirps per sequence, N c.

物体の間隔及び間隔の解像度は、以下のようにチャープパラメータN及びBeffによって完全に決定され、図6に示すように、帯域幅B当たりの距離解像度を示すグラフ600を用いて、完全に決定される。

Figure 2021516763

物体の速度及び速度解像度は、チャープシーケンスパラメータによっても完全に決定される。達成される最小速度又は解像度は、以下のように決定される(cは光の速度を表す):
Figure 2021516763

より高いレーダー周波数は、同じシーケンスパラメータに対してより良好な速度解像度を与えることに留意されたい。最大速度は、以下によって与えられる。
Figure 2021516763
The object distance and the distance resolution, is completely determined by the chirp parameter N r and B eff as follows, as shown in FIG. 6, with reference to the graph 600 indicating the distance resolution per bandwidth B, completely It is determined.
Figure 2021516763

The velocity and velocity resolution of the object are also completely determined by the chirp sequence parameters. The minimum speed or resolution achieved is determined as follows (where c represents the speed of light):
Figure 2021516763

Note that higher radar frequencies give better velocity resolution for the same sequence parameters. The maximum speed is given by:
Figure 2021516763

スキャンパラメータ間の更なる関係は、以下の式によって与えられ、式中、式5は、試料速度を表し、式6は、連続測定の間の時間Δtを表し、式7は、距離解像度を表し、式8は、チャープ時間を表し、式9は、最大速度を表す:

Figure 2021516763
Further relationships between scan parameters are given by the following equations, in which Equation 5 represents the sample velocity, Equation 6 represents the time Δt between continuous measurements, and Equation 7 represents the distance resolution. , Equation 8 represents the charp time and Equation 9 represents the maximum speed:
Figure 2021516763

パラメータRmaxが固定されると、vmax及びRminは、もはや独立していないことに留意されたい。また、式5のサンプル速度fsampleはまた、選択された最大速度及び距離に対して、距離解像度の定義がどのように達成され得るかを決定する。なお、以下の式1〜9を使用して、所与の設計目標のスキャンパラメータを確立することができる。例えば、長距離で高解像度で物体を検出するために、レーダーシステム300は、チャープ当たりの測定回数を多く取る必要がある。目標が、長距離で高速で物体を検出することである場合、チャープ時間は低くなければならず、チャープ時間を制限する。第1の場合、長距離での高解像度検出は、レーダーシステムにおける信号処理ユニットの帯域幅によって制限される。また、第2の場合、長距離での最大速度は、レーダーチップセットのデータ取得速度(解像度も制限する)によって制限される。 Note that once the parameters R max are fixed, v max and R min are no longer independent. Also, the sample velocity f sample of Equation 5 also determines how the definition of distance resolution can be achieved for the selected maximum velocity and distance. It should be noted that the following equations 1-9 can be used to establish scan parameters for a given design goal. For example, in order to detect an object at a long distance and with high resolution, the radar system 300 needs to take a large number of measurements per chirp. If the goal is to detect objects over long distances and at high speeds, the chirp time must be low, limiting the chirp time. In the first case, high resolution detection over long distances is limited by the bandwidth of the signal processing unit in the radar system. In the second case, the maximum speed over a long distance is limited by the data acquisition speed (which also limits the resolution) of the radar chipset.

図7A〜Bは、スキャンパラメータと設計目標との間の例示的なトレードオフを示す。図7Aでは、表700は、目標が長距離で物体を検出することである単一のチャープシーケンスのスキャンパラメータの値を示す。なお、物体の速度及び距離の増加は、より低い距離解像度をもたらすことに留意されたい。また、速度解像度は、総シーケンス時間の増加という代償を払って、より多くのチャープをシーケンスに追加することによって増大され得ることにも留意されたい。図7Bでは、表702は、目標が近距離で物体を検出することである単一のチャープシーケンスのスキャンパラメータの値を示す。なお、距離解像度は、検出物体の最大速度が20m/s未満である場合、微細な0.2メートルに改善することができる。更に、より良好な速度解像度は、シーケンス時間を増加させることに留意されたい。例えば、0.3m/sの速度解像度は、7.1msのシーケンス時間を必要とする。 7A-B show exemplary trade-offs between scan parameters and design goals. In FIG. 7A, Table 700 shows the values of scan parameters for a single chirp sequence whose target is to detect an object over long distances. It should be noted that increasing the velocity and distance of the object results in lower distance resolution. It should also be noted that velocity resolution can be increased by adding more chirps to the sequence at the cost of increasing total sequence time. In FIG. 7B, Table 702 shows the values of scan parameters for a single chirp sequence where the target is to detect an object at close range. The distance resolution can be improved to a fine 0.2 meter when the maximum speed of the detected object is less than 20 m / s. In addition, it should be noted that better velocity resolution increases sequence time. For example, a velocity resolution of 0.3 m / s requires a sequence time of 7.1 ms.

物体検出能力に関して、スキャンパラメータと設計目標との間のトレードオフは、ビームステアリングレーダーシステムの動作中にスキャンパラメータを調整するための複数の方法を可能にする。図8A、9、及び10は、所望に応じて、様々な実施例に従ってスキャンパラメータを調整するためのフローチャートを示す。図8Aでは、ビームステアリングレーダーシステムは、例えば、計算時間を低減するためにチャープランプ当たりの測定ポイント及び/又はチャープ数をより少なくすることによって、又は測定時間を短縮するためのシーケンスにおけるより少ないチャープを使用することによって、低解像度スキャンを最初に実行する(800)。このスキャンには、より高い解像度スキャン(802)が続く。より高い解像度のスキャンは、例えば、予想される交通量のある領域内(例えば、地図ツールを使用して、道路が自車両の前面から300メートル離れている場所を予測することにより)、低解像度スキャン中に1つ以上の物体が含まれているとフラグが付けられた領域内、又は他のセンサ、例えば自車両のカメラ及び/又はライダーセンサによってフラグが立てられた領域内で行われる。図8Bは、行806における低解像度スキャン及び行808における高解像度スキャンの例示的スキャンパラメータを示す。なお、高解像度スキャンは、測定時間の2倍、及び低解像度スキャンとして処理するための多くのデータ点として4回行われる。 The trade-off between scan parameters and design goals in terms of object detection capabilities allows multiple ways to adjust scan parameters during the operation of the beam steering radar system. 8A, 9 and 10 show flowcharts for adjusting scan parameters according to various embodiments, if desired. In FIG. 8A, the beam steering radar system has fewer chirps in the sequence, for example, by reducing the number of measurement points and / or chirps per chirp to reduce calculation time, or to reduce measurement time. Perform a low resolution scan first by using (800). This scan is followed by a higher resolution scan (802). Higher resolution scans, for example, within areas of expected traffic (eg, by using map tools to predict where the road is 300 meters away from the front of the vehicle), lower resolution. It takes place within an area flagged as containing one or more objects during the scan, or within an area flagged by another sensor, such as the vehicle's camera and / or rider sensor. FIG. 8B shows exemplary scan parameters for low resolution scans in row 806 and high resolution scans in row 808. The high resolution scan is performed twice as long as the measurement time and four times as many data points for processing as a low resolution scan.

図9では、ビームステアリングレーダーシステムは、まず、より広いビーム幅を有するスキャンを実行し(900)、次いで、狭いビームでFoVを再スキャンする(902)。図8のより高い解像度のスキャンと同様に、より狭いスキャンは、例えば予想される交通のある領域内、低解像度スキャン中に1つ以上の物体が含まれているとフラグが付けられた領域内、又は、他のセンサ、例えば自車両におけるカメラ及び/又はライダーセンサによってフラグが立てられた領域内で行われる。なお、ビームステアリングレーダーシステムを複数のアンテナで実装した場合に、両方の動作を並行して実行することができる。76〜81GHzの範囲内の許容周波数帯域内で、異なる周波数サブ帯域でアンテナの各セットを動作させることによって、クロストークを省略することができる。また、二重ビーム幅を有するアンテナは、同じスキャンパラメータを使用して、固定されたFoVを半分にスキャンすることを可能にすることにも留意されたい。 In FIG. 9, the beam steering radar system first performs a scan with a wider beam width (900) and then rescans the FoV with a narrower beam (902). Similar to the higher resolution scans in FIG. 8, narrower scans are, for example, within areas with expected traffic, within areas flagged as containing one or more objects during low resolution scans. Or within the area flagged by other sensors, such as the camera and / or rider sensor in the vehicle. When the beam steering radar system is implemented with a plurality of antennas, both operations can be executed in parallel. Crosstalk can be omitted by operating each set of antennas in different frequency subbands within the permissible frequency band within the range of 76-81 GHz. It should also be noted that antennas with double beamwidth allow fixed FoVs to be scanned in half using the same scan parameters.

図10では、ビームステアリングレーダーシステムは、高距離解像度を有する第1のスキャンを行うが、より低い絶対速度キャプチャを実行する(1000)。これに続いて、より低い距離解像度であるが、高絶対速度キャプチャで第2のスキャン(1002)が続く。対応する例示的なスキャンパラメータを表1100の図11に示し、行1102は、最大速度30m/sの高距離解像度スキャンを示し、行1104は、最大速度85m/sの低距離解像度スキャンを示す。スキャンパラメータを調整するために使用される方法にかかわらず、ビームステアリングレーダーシステムは、複数の設計目標を達成し、短及び長距離の両方において客観的な場所及び速度を検出することができる。物体は、図3に示すように、レーダーモジュールに連結された認識モジュール内のMLMに更に分類される。 In FIG. 10, the beam steering radar system performs a first scan with a high range resolution, but performs a lower absolute velocity capture (1000). This is followed by a second scan (1002) with a lower range resolution, but with a high absolute velocity capture. Corresponding exemplary scan parameters are shown in FIG. 11 of Table 1100, where row 1102 shows a high range resolution scan with a maximum speed of 30 m / s and line 1104 shows a low range resolution scan with a maximum speed of 85 m / s. Regardless of the method used to adjust the scan parameters, the beam steering radar system can achieve multiple design goals and detect objective locations and velocities at both short and long distances. Objects are further classified into MLMs in a recognition module connected to a radar module, as shown in FIG.

これらの様々な実施例は、改善されたセンサ性能、全気象/全状態検出、高度意思決定アルゴリズム、及びセンサ融合による他のセンサとの相互作用をサポートする。これらの構成は、レーダーが、自動車を自己運転するなどの多くの用途において気象条件によって阻害されないため、レーダーセンサの使用を最適化する。本明細書に記載されるレーダーは、事実上「デジタル眼」であり、真の3Dビジョンを有し、世界の人間様の解釈が可能である。 These various examples support improved sensor performance, all-weather / all-state detection, advanced decision-making algorithms, and interaction with other sensors through sensor fusion. These configurations optimize the use of radar sensors because the radar is not hampered by weather conditions in many applications, such as self-driving a car. The radars described herein are effectively "digital eyes", have a true 3D vision, and can be interpreted by humans in the world.

開示された実施例の以前の説明は、当業者が本開示を作製又は使用することを可能にするために提供されることが理解される。これらの実施例に対する様々な修正が当業者には容易に明らかとなり、本明細書で定義される一般的原理は、本開示の趣旨又は範囲から逸脱することなく他の実施例に適用され得る。したがって、本開示は、本明細書に示される実施例に限定されることを意図するものではなく、本明細書に開示される原理及び新規の特徴と一致する最も広い範囲を与えられるものである。 It is understood that previous description of the disclosed examples will be provided to allow one of ordinary skill in the art to make or use the present disclosure. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the general principles defined herein can be applied to other embodiments without departing from the spirit or scope of the present disclosure. Accordingly, this disclosure is not intended to be limited to the embodiments presented herein, but is given the broadest scope consistent with the principles and novel features disclosed herein. ..

Claims (20)

物体検出及び分類のための自律車両におけるレーダーシステムであって、
レーダーモジュールであって、
少なくとも1つのビームステアリングアンテナと、
送受信機と、
前記送受信機のスキャンパラメータセットを調整するように適合されたスキャンパラメータ制御装置と、を備える、レーダーモジュールと、
前記自律車両の経路及び周囲環境内の物体を検出及び分類するための機械学習モジュール及び分類器を備える認識モジュールであって、物体データ及びレーダー制御情報を前記レーダーモジュールに送信する、認識モジュールと、を備える、レーダーシステム。
A radar system in an autonomous vehicle for object detection and classification.
It ’s a radar module,
With at least one beam steering antenna
With the transmitter / receiver
A radar module comprising a scan parameter controller adapted to adjust the scan parameter set of the transmitter / receiver.
A recognition module including a machine learning module and a classifier for detecting and classifying objects in the path of the autonomous vehicle and the surrounding environment, and a recognition module that transmits object data and radar control information to the radar module. A radar system equipped with.
前記レーダーモジュールが、前記認識モジュールによって前記レーダーモジュールに送信される前記物体データ及び前記レーダー制御情報に従って前記少なくとも1つのビームステアリングアンテナを制御するためのアンテナ制御装置を更に含む、請求項1に記載のレーダーシステム。 The first aspect of claim 1, wherein the radar module further includes an antenna control device for controlling the at least one beam steering antenna according to the object data and the radar control information transmitted by the recognition module to the radar module. Radar system. 前記機械学習モジュールが、畳み込みニューラルネットワークを含む、請求項1に記載のレーダーシステム。 The radar system according to claim 1, wherein the machine learning module includes a convolutional neural network. 前記送受信機が、前記スキャンパラメータセットを用いてビームステアリングレーダースキャンの送信を開始する、請求項1に記載のレーダーシステム。 The radar system of claim 1, wherein the transmitter / receiver initiates transmission of a beam steering radar scan using the scan parameter set. 前記スキャンパラメータセットが、前記認識モジュールによって前記レーダーモジュールに送信される前記物体データ及び前記レーダー制御情報に従って調整される、請求項4に記載のレーダーシステム。 The radar system according to claim 4, wherein the scan parameter set is adjusted according to the object data and the radar control information transmitted by the recognition module to the radar module. 前記レーダースキャンが、FMCW信号を含む、請求項4に記載のレーダーシステム。 The radar system according to claim 4, wherein the radar scan includes an FMCW signal. 前記スキャンパラメータが、前記FMCW信号の最小周波数及び最大周波数、前記FMCW信号におけるチャープシーケンスの総時間、位相ロックループのセトリング時間、測定時間、前記FMCW信号における1つのチャープの総時間、前記FMCW信号におけるチャープ間の反復時間、前記FMCW信号におけるチャープの総帯域幅、前記FMCW信号におけるチャープの有効帯域幅、連続する測定間の帯域幅、前記FMCW信号におけるチャープ当たりに行われる測定の数、及びシーケンス当たりのチャープの数、からなる群から選択されるパラメータを含む、請求項6に記載のレーダーシステム。 The scan parameters are the minimum and maximum frequencies of the FMCW signal, the total time of the charp sequence in the FMCW signal, the settling time of the phase lock loop, the measurement time, the total time of one chapter in the FMCW signal, and the FMCW signal. Repetition time between chapters, total chap bandwidth in said FMCW signal, effective bandwidth of chap in said FMCW signal, bandwidth between successive measurements, number of measurements taken per chap in said FMCW signal, and per sequence. The radar system of claim 6, comprising a parameter selected from the group consisting of the number of charps of. 物体検出及び分類方法であって、
送受信機を用いてビームステアリングレーダースキャンの送信を開始することと、
エコーを受信することと、
受信した前記エコーにおいて物体を検出することと、
検出された前記物体についての物体情報を抽出することと、
次のビームステアリングレーダースキャンのために、前記送受信機におけるスキャンパラメータセットを調整することと、を含む、物体検出及び分類方法。
Object detection and classification method
Starting transmission of beam steering radar scan using a transmitter / receiver,
Receiving echo and
Detecting an object in the received echo and
Extracting the object information about the detected object and
A method for detecting and classifying objects, including adjusting a set of scan parameters in said transmitter / receiver for the next beam steering radar scan.
前記ビームステアリングレーダースキャンが、FMCW信号である、請求項8に記載の物体検出及び分類方法。 The object detection and classification method according to claim 8, wherein the beam steering radar scan is an FMCW signal. 検出された前記物体を畳み込みニューラルネットワーク及び分類器で分類することを更に含む、請求項8に記載の物体検出及び分類方法。 The object detection and classification method according to claim 8, further comprising classifying the detected object by a convolutional neural network and a classifier. 前記物体情報が、物体場所及び速度を含む、請求項8に記載の物体検出及び分類方法。 The object detection and classification method according to claim 8, wherein the object information includes an object location and a velocity. 物体分類情報をセンサ融合モジュールに送信することを更に含む、請求項8に記載の物体検出及び分類方法。 The object detection and classification method according to claim 8, further comprising transmitting object classification information to the sensor fusion module. 前記スキャンパラメータが、前記FMCW信号の最小周波数及び最大周波数、前記FMCW信号におけるチャープシーケンスの総時間、位相ロックループのセトリング時間、測定時間、前記FMCW信号における1つのチャープの総時間、前記FMCW信号におけるチャープ間の反復時間、前記FMCW信号におけるチャープの総帯域幅、前記FMCW信号におけるチャープの有効帯域幅、連続する測定間の帯域幅、前記FMCW信号におけるチャープ当たりに行われる測定の数、及びシーケンス当たりのチャープの数、からなる群から選択されるパラメータを含む、請求項9に記載の物体検出及び分類方法。 The scan parameters are the minimum and maximum frequencies of the FMCW signal, the total time of the chirp sequence in the FMCW signal, the settling time of the phase lock loop, the measurement time, the total time of one chirp in the FMCW signal, and the FMCW signal. Repetition time between chapters, total chirp bandwidth in the FMCW signal, effective chirp bandwidth in the FMCW signal, bandwidth between successive measurements, number of measurements made per chirp in the FMCW signal, and per sequence. The object detection and classification method according to claim 9, which comprises a parameter selected from the group consisting of the number of chirps of. 物体検出及び分類方法であって、
第1のスキャンパラメータセットを用いて第1のスキャンを実行することと、
受信したエコーからの物体検出情報に基づいて、前記第1のスキャンパラメータセットを調整することと、
前記第1のスキャンパラメータセットから調整された第2のパラメータセットを用いて第2のスキャンを実行することと、を含む、物体検出及び分類方法。
Object detection and classification method
Performing the first scan with the first scan parameter set,
Adjusting the first scan parameter set based on the object detection information from the received echo,
An object detection and classification method comprising performing a second scan with a second parameter set adjusted from the first scan parameter set.
前記第1のスキャンが、前記第2のスキャンよりも低い解像度を有する、請求項14に記載の物体検出及び分類方法。 The object detection and classification method according to claim 14, wherein the first scan has a lower resolution than the second scan. 前記第1のスキャンが、第1のビーム幅を有するビームステアリングアンテナで実行される、請求項14に記載の物体検出及び分類方法。 The object detection and classification method according to claim 14, wherein the first scan is performed on a beam steering antenna having a first beam width. 前記第2のスキャンが、第2のビーム幅を有するビームステアリングアンテナで実行され、前記第2のビーム幅が、前記第1のビーム幅よりも狭い、請求項14に記載の物体検出及び分類方法。 The object detection and classification method according to claim 14, wherein the second scan is performed on a beam steering antenna having a second beam width, and the second beam width is narrower than the first beam width. .. 前記第2のスキャンが、前記第1のスキャンよりも低い解像度及び前記第1のスキャンよりも高速のキャプチャを有する、請求項14に記載の物体検出及び分類方法。 The object detection and classification method according to claim 14, wherein the second scan has a lower resolution than the first scan and a faster capture than the first scan. 前記第1のスキャンパラメータセットが、前記FMCW信号の最小周波数及び最大周波数、前記FMCW信号におけるチャープシーケンスの総時間、位相ロックループのセトリング時間、測定時間、前記FMCW信号における1つのチャープの総時間、前記FMCW信号におけるチャープ間の反復時間、前記FMCW信号におけるチャープの総帯域幅、前記FMCW信号におけるチャープの有効帯域幅、連続する測定間の帯域幅、前記FMCW信号におけるチャープ当たりに行われる測定の数、及びシーケンス当たりのチャープの数、からなる群から選択されるパラメータを含む、請求項14に記載の物体検出及び分類方法。 The first scan parameter set includes the minimum and maximum frequencies of the FMCW signal, the total time of the chirp sequence in the FMCW signal, the settling time of the phase lock loop, the measurement time, the total time of one chirp in the FMCW signal. The repetition time between chirps in the FMCW signal, the total bandwidth of the chirps in the FMCW signal, the effective bandwidth of the chirps in the FMCW signal, the bandwidth between successive measurements, the number of measurements taken per chirp in the FMCW signal. The object detection and classification method according to claim 14, further comprising a parameter selected from the group consisting of, and the number of chirps per sequence. 前記第1及び第2のスキャンが、メタ構造アンテナで実行される、請求項14に記載の物体検出及び分類方法。 The object detection and classification method according to claim 14, wherein the first and second scans are performed on a metastructured antenna.
JP2020564047A 2018-02-05 2019-02-05 Methods and equipment for object detection using beam steering radar and convolutional neural network systems Pending JP2021516763A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862626569P 2018-02-05 2018-02-05
US62/626,569 2018-02-05
PCT/US2019/016723 WO2019153016A1 (en) 2018-02-05 2019-02-05 Method and apparatus for object detection using a beam steering radar and convolutional neural network system

Publications (1)

Publication Number Publication Date
JP2021516763A true JP2021516763A (en) 2021-07-08

Family

ID=67478616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020564047A Pending JP2021516763A (en) 2018-02-05 2019-02-05 Methods and equipment for object detection using beam steering radar and convolutional neural network systems

Country Status (4)

Country Link
EP (1) EP3749977A4 (en)
JP (1) JP2021516763A (en)
KR (1) KR20200108097A (en)
WO (1) WO2019153016A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111220958B (en) * 2019-12-10 2023-05-26 西安宁远电子电工技术有限公司 Radar target Doppler image classification and identification method based on one-dimensional convolutional neural network
CN110988872B (en) * 2019-12-25 2023-10-03 中南大学 Rapid identification method for detecting wall health state by unmanned aerial vehicle through-wall radar
ES2894200A1 (en) * 2020-08-05 2022-02-11 Univ Rovira I Virgili Device and procedure for communication Vehicle-infrastructure and vehicle-vehicle (Machine-translation by Google Translate, not legally binding)
WO2023163354A1 (en) * 2022-02-25 2023-08-31 삼성전자 주식회사 Vehicle electronic device and operation method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04323584A (en) * 1991-04-23 1992-11-12 Mitsubishi Electric Corp Device for identifying radar signal
JP2007218690A (en) * 2006-02-15 2007-08-30 Fujitsu Ltd Apparatus for measuring detection distance
JP2014025914A (en) * 2012-06-21 2014-02-06 Furuno Electric Co Ltd Target detection device and target detection method
US20160223651A1 (en) * 2015-01-29 2016-08-04 Nidec Elesys Corporation Neural network-based radar system having independent multibeam antenna
US20160284213A1 (en) * 2015-03-24 2016-09-29 Panasonic Corporation Radar apparatus and running vehicle sensing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003507716A (en) * 1999-08-12 2003-02-25 オートモーティブ システムズ ラボラトリー インコーポレーテッド Neural network radar processor
US7683827B2 (en) * 2004-12-15 2010-03-23 Valeo Radar Systems, Inc. System and method for reducing the effect of a radar interference signal
US7327308B2 (en) * 2005-04-28 2008-02-05 Chung Shan Institute Of Science And Technology, Armaments Bureau, M.N.D. Programmable method and test device for generating target for FMCW radar
US9720072B2 (en) * 2014-08-28 2017-08-01 Waymo Llc Methods and systems for vehicle radar coordination and interference reduction
TWI588510B (en) * 2016-05-12 2017-06-21 桓達科技股份有限公司 Method of processing FMCW radar signal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04323584A (en) * 1991-04-23 1992-11-12 Mitsubishi Electric Corp Device for identifying radar signal
JP2007218690A (en) * 2006-02-15 2007-08-30 Fujitsu Ltd Apparatus for measuring detection distance
JP2014025914A (en) * 2012-06-21 2014-02-06 Furuno Electric Co Ltd Target detection device and target detection method
US20160223651A1 (en) * 2015-01-29 2016-08-04 Nidec Elesys Corporation Neural network-based radar system having independent multibeam antenna
US20160284213A1 (en) * 2015-03-24 2016-09-29 Panasonic Corporation Radar apparatus and running vehicle sensing method

Also Published As

Publication number Publication date
EP3749977A4 (en) 2021-11-10
EP3749977A1 (en) 2020-12-16
KR20200108097A (en) 2020-09-16
WO2019153016A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
US10739438B2 (en) Super-resolution radar for autonomous vehicles
US20190204834A1 (en) Method and apparatus for object detection using convolutional neural network systems
US11327156B2 (en) Reinforcement learning engine for a radar system
US11479262B2 (en) Geographically disparate sensor fusion for enhanced target detection and identification in autonomous vehicles
US11269058B2 (en) Autoencoder assisted radar for target identification
US20220308204A1 (en) Beam steering radar with selective scanning mode for autonomous vehicles
US11852746B2 (en) Multi-sensor fusion platform for bootstrapping the training of a beam steering radar
US11133577B2 (en) Intelligent meta-structure antennas with targeted polarization for object identification
US11378654B2 (en) Recurrent super-resolution radar for autonomous vehicles
US20230204722A1 (en) Motion-based object detection in a vehicle radar using convolutional neural network systems
JP2021516763A (en) Methods and equipment for object detection using beam steering radar and convolutional neural network systems
US11852749B2 (en) Method and apparatus for object detection using a beam steering radar and a decision network
US11587204B2 (en) Super-resolution radar for autonomous vehicles
US11921233B2 (en) Adaptive radar for near-far target identification
US11719803B2 (en) Beam steering radar with adjustable long-range radar mode for autonomous vehicles
US11867830B2 (en) Side lobe reduction in a beam steering vehicle radar antenna for object identification
US20210255300A1 (en) Gan-based data synthesis for semi-supervised learning of a radar sensor
US20220252721A1 (en) Guard band antenna in a beam steering radar for resolution refinement
US20200241122A1 (en) Radar system with three-dimensional beam scanning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200903

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200903

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20201112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230202

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240321