JP2022138425A - 物体位置検出装置及び方法 - Google Patents

物体位置検出装置及び方法 Download PDF

Info

Publication number
JP2022138425A
JP2022138425A JP2021038305A JP2021038305A JP2022138425A JP 2022138425 A JP2022138425 A JP 2022138425A JP 2021038305 A JP2021038305 A JP 2021038305A JP 2021038305 A JP2021038305 A JP 2021038305A JP 2022138425 A JP2022138425 A JP 2022138425A
Authority
JP
Japan
Prior art keywords
image data
position detection
detection device
distance
object position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021038305A
Other languages
English (en)
Other versions
JP2022138425A5 (ja
Inventor
光明 久保
Mitsuaki Kubo
圭記 松浦
Keiki Matsuura
昌之 小泉
Masayuki Koizumi
大樹 七條
Daiki SHICHIJO
彩花 岩出
Ayaka Iwade
雄太郎 奥野
Yutaro Okuno
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2021038305A priority Critical patent/JP2022138425A/ja
Priority to PCT/JP2022/010041 priority patent/WO2022191197A1/ja
Priority to CN202280017396.3A priority patent/CN116888502A/zh
Priority to US18/279,296 priority patent/US20240142600A1/en
Priority to EP22767151.8A priority patent/EP4307001A1/en
Publication of JP2022138425A publication Critical patent/JP2022138425A/ja
Publication of JP2022138425A5 publication Critical patent/JP2022138425A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/536Discriminating between fixed and moving objects or between objects moving at different speeds using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/343Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using sawtooth modulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/584Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/065Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/538Discriminating between fixed and moving objects or between objects moving at different speeds eliminating objects that have not moved between successive antenna scans, e.g. area MTi
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/881Radar or analogous systems specially adapted for specific applications for robotics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】従来技術に比較して、反射波が干渉するような近接する複数の物体又は構造物が近接する状況においても高精度で物体を検出する。【解決手段】本発明の物体位置検出装置は、レーダ装置からのレーダ信号に基づいて、物体の位置を検出する。物体位置検出装置は、レーダ信号を含む画像データに基づいて、物体の位置を表す所定の教師画像データにより学習された機械学習モデルを用いて、物体の有無及び位置を推定して、推定された物体の有無及び位置を表す画像データを出力する位置推定部を備える。ここで、画像データは、方位に対する距離の2次元画像データ、もしくは方位に対する距離及び相対速度の3次元画像データである。また、教師画像データは、物体の位置を示す複数の画素から構成された図形である物体ラベルで表わされる。【選択図】図1

Description

本発明は、例えばレーダ装置からのレーダ情報に基づいて、物体の位置を推定して検出する物体位置検出装置及び方法に関する。
一般的に、レーダ装置は、受信されたレーダ信号から生成された観測エリアの反射強度及びドップラー速度に対してピーク検出(CFAR(Constant False Alarm Rate))やクラスタ分析を適用することで、物標である移動物体を検出している。
例えば、特許文献1では、誤検出を抑圧し、目標物体のみを高精度に抽出することのできるレーダ装置が開示されている。当該レーダ装置は、パルス又は連続波を送受信してN回(N≧1)のCPI(Coherent Pulse Interval)データからレンジ-ドップラー(RD)データを作成し、前記RDデータについて所定のスレショルドを超えるレンジ-ドップラー軸のセルを抽出する。そして、レーダ装置は、抽出されたセルを用いてクラスタを分析することで目標候補となるクラスタの代表値を選出し、前記代表値から目標のレンジ-ドップラーを抽出し、測距、測速及び測角の少なくともいずれかの処理を行って目標観測値を出力する。
特開2018-205174号公報
しかし、光学系センサと比較して、レーダ装置はアンテナ数の制約により角度分離分解能を高めることが難しいため、CFARやクラスタ分析の様な手法では、反射波が干渉するような近接する複数の物体や構造物が近接する状況において、物体検出は難しいという問題点があった。
例えば、CFARの手法を用いたとき、2つの物体が同一距離かつレーダ固有の角度分解能よりも狭い距離で近接する場合、2つの物体からの反射波が干渉し、物標由来の反射波源のピークの検出が困難になる。また、クラスタリングの手法を用いたとき、2つの物体が同一速度で近接移動する場合、クラスタの分離が困難になる。
本発明の目的は以上の問題点を解決し、従来技術に比較して、反射波が干渉するような近接する複数の物体又は構造物が近接する状況においても高精度で物体を検出することができる物体位置検出装置及び方法を提供することにある。
本発明の一態様に係る物体位置検出装置は、
レーダ装置からのレーダ信号に基づいて、物体の位置を検出する物体位置検出装置であって、
前記レーダ信号を含む画像データに基づいて、前記物体の位置を表す所定の教師画像データにより学習された機械学習モデルを用いて、前記物体の有無及び位置を推定して、前記推定された物体の有無及び位置を表す画像データを出力する位置推定部を、
備える。
従って、本発明に係る物体位置検出装置等によれば、反射波が干渉するような近接する複数の物体又は構造物が近接する状況においても高精度で物体を検出することができる。
実施形態に係る物体推定時の物体位置検出装置の構成例を示すブロック図である。 実施形態に係る学習時の物体位置検出装置の構成例を示すブロック図である。 図1及び図2のレーダ装置から送信される無線信号のチャープ信号のタイミングチャートである。 図1及び図2の機械学習モデルの第1の構成例を示すブロック図である。 図1及び図2の機械学習モデルの第2の構成例を示すブロック図である。 図1及び図2の機械学習モデルのための画像データ例であって、物標の位置を表す画像データを示す図である。 図6Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示す図である。 図1及び図2の機械学習モデルのための画像データの第1例であって、物標の位置を表す画像データを示す図である。 図7Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示す図である。 図7Bの画像データに対応し、機械学習モデルの教師データとして与える学習用教師画像データであるレーダ画像データの一例を示す図である。 図1及び図2の機械学習モデルのための画像データの第2例であって、物標の位置を表す画像データを示す図である。 図8Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示す図である。 図8Bの画像データに対応し、機械学習モデルの教師データとして与える学習用教師画像データであるレーダ画像データの一例を示す図である。 図1の物体座標検出部の構成例及び処理例を示すブロック図である。 変形例に係る物体位置検出装置で用いる画像データの次元を示す図である。
以下、本発明に係る実施形態について図面を参照して説明する。なお、同一又は同様の構成要素については同一の符号を付している。
(発明者の知見)
本発明者らは、レーダ装置を用いた例えば通行車両数計測のアプリケーションにおいて、トンネル内や防音壁が近接する場所等で、マルチパスフェージングやクラッタが発生する環境内で、計数がうまくいかないという課題があることを知り、それに対する解決手段として本発明の実施形態を考案したものである。
本発明では、物標の位置を推定する手段としてCFARとクラスタリングを組み合わせる方法ではなく、機械学習によるレーダ信号の波源推定手法を考案し、信号処理によって生成した時間差分時系列情報と画像認識用の機械学習モデルを用いることで、物標の位置に対応するラベルを描画した画像を生成することを考案した。それにより、CFARやクラスタリングで課題が発生する状況においても、それぞれの物標の位置を高精度に推定することを特徴としている。以下、実施形態について説明する。
(実施形態)
図1は実施形態に係る物体推定時の物体位置検出装置の構成例を示すブロック図であり、図2は実施形態に係る学習時の物体位置検出装置の構成例を示すブロック図である。
図1の物体推定時において、実施形態に係る物体位置検出装置は、レーダ装置1と、信号処理部2と、入力処理部3と、物体検出部4と、出力処理部5と、物体座標検出部6と、表示部7と、記憶部8を備えて構成される。また、図2の学習時において、本実施形態の物体位置検出装置は、レーダ装置1と、信号処理部2と、入力処理部3と、物体検出部4と、出力処理部5Aと、記憶部8を備えて構成される。ここで、物体検出部4は機械学習モデル40を有し、学習後の機械学習モデル40を、推定検出時に用いるために、学習済み機械学習モデル81として記憶部8に格納する。なお、図1及び図2においては、物体推定時と学習時で、異なる図で図示しているが、物体検出部4に対して出力処理部5又は5Aを、スイッチを用いて選択的に切り換えて接続するように構成してもよい。
図1及び図2において、レーダ装置1は、例えばFCM(Fast Chirp Modulation)方式を用いて、チャープ信号を含む無線信号を物標に向けて送信し、当該物標で反射されてくる無線信号を受信して、物標との距離及び相対速度を推定するためのレーダ信号であるビート信号を生成する。ここで、FCM方式では、周波数が連続的に変化する複数のチャープ信号が繰り返されるチャープ信号を含む無線信号を、物標に対して無線送信して、検出範囲内に存在する各物標との距離及び相対速度を検出する。具体的には、FCM方式は、チャープ信号を生成する変調信号と物標による送信信号の反射波を受信して得られる受信信号とから生成されたビート信号に対して距離(レンジ)高速フーリエ変換処理(以下、距離FFT処理という)を実行して物標との距離を推定する(後述する距離FFT部22の説明参照)。
図3は図1及び図2のレーダ装置から送信される無線信号のチャープ信号のタイミングチャートである。本実施形態において、1枚の電波画像データを構成する受信データを「1フレーム」と呼び、1フレームは複数のチャープ信号から構成される。図3は、高速FMCW(Frequency Modulation Continuous Wave)方式のフレームを表しており、Bはチャープ信号の帯域幅を示し、Tはチャープ信号の反復時間、T・Mは1つのフレーム内にあるアクティブチャープ時間を示す。なお、フレーム時間には、アイドル時間を含む。ここで、例えば、1フレーム当たりのチャープ数は24として、受信された無線信号の複数のチャープ信号を積算平均することでノイズ耐性を高めることができる。
さらに、レーダ装置1の無線受信部は、例えば複数のアンテナを含むアレーアンテナを用いて、物標で反射された無線信号を受信した後、無線送信部の送信無線信号と混合しかつローパスフィルタリングすることで、各アンテナに対応する複数のビート信号を計算して信号処理部2に出力する。
図1及び図2において、信号処理部2は、AD変換部21と、距離FFT部22と、到来方向推定部23とを備える。AD変換部21は、レーダ装置1から出力されるレーダ信号の複数のビート信号をAD変換して距離FFT部22に出力する。距離FFT部22は、入力されるAD変換されたビート信号に対して距離FFT処理を実行して、処理後の距離FFTスペクトルを到来方向推定部23に出力する。到来方向推定部23は、入力される距離FFTスペクトルに基づいて、例えばビームフォーミング法を用いて、物標から反射された無線信号の到来方向(方位)を推定し、方位に対する距離の2次元画像において、画素値として反射信号強度(例えば互いに直交するI信号及びQ信号の振幅値を対数値に変換した値)の情報を含む2次元画像データ(所定の離散時間間隔を有する)の形式で入力処理部3に出力する。
図1及び図2において、入力処理部3は、時間差分部31と、正規化部32とを備える。時間差分部31は、入力される、方位に対する距離の2次元画像において、画素値として反射信号強度の情報(物標の有無及び位置を示す)を含む画像データのうち、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算(時間方向の有限差分を演算する)を順次、時系列の所定数(例えば31個)のフレーム毎に行って、方位に対する距離のフレームが時間的に複数ある、方位、距離及び時間の3次元画像データを生成して出力する。次いで、正規化部32は、後退差分演算後の3次元画像データに基づいて、その各画素値を所定の最大値で正規化し、正規化処理後の3次元画像データを生成し、これを機械学習モデル40に対する入力データとする。
なお、時間差分部31の処理は、例えば上述のように、画素値として反射信号強度の情報を含む画像データのうち、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算を順次、時系列の所定数のフレーム毎に行っており、推定頻度は当該時系列の所定数のフレームに係るフレーム数に対して1回となる。これに対して、本発明はこれに限らず、時間差分部31の処理は、例えば上述のように、画素値として反射信号強度の情報を含む画像データのうち、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算を順次、時系列の1フレーム毎にシフトさせながら行ってもよい。この場合、推定頻度は1フレームに対して1回となる。
また、時間差分部31の処理は、方位に対する距離の2次元画像データにおいて、画素値として反射信号強度の情報(物標の有無及び位置を示す)を含む画像データのうち、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算を行って、方位に対する距離のフレームが時間的に複数ある、方位、距離及び時間の次元を有する時系列の3次元画像データを生成している。ここで、後退差分演算の代替手段として、方位に対する距離の2次元画像データに対して、クラッタ抑圧のために、ドップラーFFTを行ってゼロドップラー成分を計算し、元の2次元画像データから当該ゼロドップラー成分を減算してもよい。このとき、前記減算された2次元力画像データに基づいて、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算を行って、方位に対する距離のフレームが時間的に複数ある、方位、距離及び時間の次元を有する時系列の3次元画像データを生成する。
一方、出力処理部5Aは、レーダ装置1を用いて物標の位置検出したときの2次元教師画像データ(図7A~図9Cを参照して後述するように、既知の物標位置に対して複数画素を2次元画像データ(物標の位置情報を鳥瞰図として表す)において与える)を内蔵メモリに格納しておき、機械学習モデル40に対する学習時に出力データとして物体検出部4に入力する。なお、物体推定時の出力処理部に対して符号5を付し、出力処理部5は、物体検出部4からの推定結果の2次元画像データを内蔵バッファメモリに格納した後、図1の物体座標検出部6に出力する。
以下の表1に、信号処理部2及び入力処理部3の信号処理(信号データの種類)と出力データフォーマットを示す。
[表1]
信号処理部2及び入力処理部3の信号処理(信号データの種類)と
出力データフォーマット
――――――――――――――――――――――――――――――――――
レーダ装置1のI/Q信号取得処理(複素数データ):
フレーム数×チャープ数×仮想受信アンテナ数×取得サンプル数
――――――――――――――――――――――――――――――――――
レーダ装置1のチャープ信号の積算処理(複素数データ):
フレーム数×仮想受信アンテナ数×取得サンプル数
――――――――――――――――――――――――――――――――――
距離FFT処理(複素数データ):
フレーム数×仮想受信アンテナ数×距離ビン数
――――――――――――――――――――――――――――――――――
到来方向推定処理(デジタルビームフォーミング法)(複素数データ):
フレーム数×方位ビン数×距離ビン数
――――――――――――――――――――――――――――――――――
到来方向推定処理後のI/Q信号の振幅絶対値演算及び対数変換処理
(複素数データ):
フレーム数×方位ビン数×距離ビン数
――――――――――――――――――――――――――――――――――
時間差分処理(複素数データ):
(フレーム数-1)×方位ビン数×距離ビン数
――――――――――――――――――――――――――――――――――
正規化処理(複素数データ):
(フレーム数-1)×方位ビン数×距離ビン数
――――――――――――――――――――――――――――――――――
図1及び図2の物体検出部4は位置推定部の一例であって、例えば畳み込みエンコーダと畳み込みデコーダで構成されるDNN(ディープニューラルネットワーク)で構成される機械学習モデル40を有し、入力データとして前記正規化処理後の3次元画像データを入力する一方、出力データとして出力処理部5Aから前記2次元教師画像データを入力して、機械学習モデル40を学習させた後、学習済み機械学習モデル40を、学習済み機械学習モデル81として記憶部8に保存する。次いで、物体検出部4は、図1の物体検出時において、記憶部8内の学習済み機械学習モデル81を、機械学習モデル40として物体検出部4の内蔵メモリに保存格納して推定検出に用いる。
図1の物体検出時においては、レーダ装置1から信号処理部2及び入力処理部3を経て物体検出部4に至る処理は、学習時と同じであるが、物体検出部4は、入力データに用いて機械学習モデル40を用いて物体検出時の推定を行って、2次元画像データである出力データを出力処理部5に出力する。出力処理部5は、物体検出部4からの推定結果の2次元画像データを内蔵バッファメモリに格納した後、図1の物体座標検出部6に出力する。
図4は図1及び図2の機械学習モデル40の第1の構成例(実施形態)である機械学習モデル40Aを示すブロック図である。図4において、機械学習モデル40Aは、3次元畳み込みエンコーダ41と、2次元畳み込みデコーダ42とを備えて構成される。
図4の3次元畳み込みエンコーダ41は4個の信号処理部を備え、3次元変換フィルタ3×3×3(16又は32)と、最大プーリング処理部2×2×2と、活性化関数処理部(関数Relu)とを用いて構成される。ここで、括弧内はフィルタ数を示す。また、2次元畳み込みデコーダ42は5個の信号処理部を備え、2次元変換フィルタ3×3(16又は32)と、アップサンプリング処理部2×2と、活性化関数処理部(関数Relu)と、出力層の活性化関数処理部(シグモイド関数)とを用いて構成される。
3次元畳み込みエンコーダ41の入力データは、例えば次式のデータフォーマットを有する。
(時間,距離,方位,チャネル)=(80,128,80,1)
また、2次元畳み込みデコーダ42の出力データは、例えば次式のデータフォーマットを有する。
(距離,方位,チャネル)=(128,80,1)
以上のように構成された図4の機械学習モデル40Aの基本構成に対して、例えば一般的な深層学習のディープドロップ又はバッチノーマライゼション等の追加処理を行ってもよい。
図5は図1及び図2の機械学習モデルの第2の構成例(変形例)である機械学習モデル40Bを示すブロック図である。図4の機械学習モデル40Aに対して、図5の機械学習モデル40Bは、2次元畳み込みエンコーダ51と、2次元畳み込みデコーダ52とを備えて構成される。
図5の2次元畳み込みエンコーダ51は4個の信号処理部を備え、2次元変換フィルタ3×3(16又は32)と、最大プーリング処理部2×2と、活性化関数処理部(関数Relu)とを用いて構成される。ここで、括弧内はフィルタ数を示す。また、2次元畳み込みデコーダ52は5個の信号処理部を備え、2次元変換フィルタ3×3(16又は32)と、アップサンプリング処理部2×2と、活性化関数処理部(関数Relu)と、出力層の活性化関数処理部(シグモイド関数)とを用いて構成される。
2次元畳み込みエンコーダ51の入力データは、例えば次式のデータフォーマットを有する。
(距離,方位,チャネル)=(128,80,1)
また、2次元畳み込みデコーダ52の出力データは、例えば次式のデータフォーマットを有する。
(距離,方位,チャネル)=(128,80,1)
以上のように構成された図5の機械学習モデル40Bでは、入力データにおいて時間方向の次元を無くし(すなわち、図1及び図2において、時間差分部31を省略する)、畳み込みエンコーダ51を2次元で構成したことを特徴としている。これにより、物体検出の認識性能は、機械学習モデル40Aに比較して低下するが、計算負荷が小さくなるという特有の効果を有する。
次いで、図1及び図2の機械学習モデル40の画像データの一例について以下に説明する。
図6Aは図1及び図2の機械学習モデルのための画像データ例であって、物標の位置を表す画像データを示す図である。図6Aに、方位に対する距離を表す2次元画像において、物標が存在する座標点に対応する画素101を示している。これに対して、図6Bは図6Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示している。図6Bにおいて、物標の存在に対応するレーダ信号のメインローブの方位方向の幅は、レーダ装置1の方位方向のチャンネル数によって決まる。図6Bの実施例では、レーダ装置1の方位方向のチャンネル数は8であり、そのメインローブ幅はおよそ22度に相当する。実施例では1度を1画素で表現しているため、メインローブは22画素に相当する。
図7Aは図1及び図2の機械学習モデルのための画像データの第1例であって、物標の位置を表す画像データを示す図である。図7Aに、方位に対する距離を表す2次元画像において、物標が存在する座標点に対応する画素101を示している。これに対して、図7Bは図7Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示しており、図7Cは図7Bの画像データに対応し、機械学習モデル40の教師データとして与える学習用教師画像データであるレーダ画像データの一例を示している。
図7Cに示すように、機械学習モデル40の教師データとして与える画像データ(教師画像データ)における物標の位置を表す点(図7Aの画素101の位置に対応する)は、1画素の点ではなく複数画素からなる範囲を持った図形である「物体ラベル」(ここで、例えば物体ラベルの中心に、画素101が位置する。)とすることで、学習が精度よく収束する。このとき、上記の実施例で、物標の位置を表す図形の方位方向の幅を、22ピクセル以下(図7Cの中央部の白部分の横方向の幅)とすることで、元々のレーダ信号のもつ方位分解能を損なわずに物標の位置の推定を行うことができる。同様に距離の次元やその他の次元に対しても、レーダ装置1のパラメータによって定められるメインローブの幅を、物標の位置を表す図形の対応する次元方向の幅の上限とすることが望ましい。
図8Aは図1及び図2の機械学習モデルのための画像データの第2例であって、物標の位置を表す画像データを示す図である。図8Aに、方位に対する距離を表す2次元画像において、物標が存在する座標点に対応する画素101を示している。これに対して、図8Bは図8Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示す図である。図8Cは図8Bの画像データに対応し、機械学習モデルの教師データとして与える学習用教師画像データであるレーダ画像データの一例を示す図である。
発明者らのシミュレーション及び実験によれば、経験的に、物標の位置を表す図形の方位方向の幅をレーダ装置1のメインローブ幅の0.25倍~0.75倍の範囲とすることが、学習の収束性と分解能を両立させる上で望ましい。上記の実施例では、11画素程度(図8Cの中央部の白部分の横方向の幅)とすると最も推定精度がよく、これはメインローブ幅の0.5倍に対応する。また、物標の位置を表す図形の形状は、テンプレートマッチングの際にどの次元方向に対しても分離がされやすいように、図8Cに示すように、楕円のようにどの方向にも凸な形状が望ましい。そのため、物体ラベルのサイズはどの次元方向に対しても凸な形状になるよう、好ましくは最低でも各次元で3ピクセル以上である必要がある。
図6A~図7Cを参照して説明したように、
(1)教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、点反射源からの反射波を検出したときの各次元方向におけるメインローブ幅を上限として設定され、もしくは
(2)教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、前記レーダ装置の方位方向のチャンネル数及びレーダ帯域幅から定まる各次元方向におけるメインローブ幅を上限として設定される、
ことが好ましい。
以上説明したように、本実施形態で用いる機械学習モデル40は以下のように構成することが好ましい。
1.機械学習モデル40の入力データ
(1)入力データは、各方位及び各距離における反射強度の情報を含むレーダ画像を時間フレームで後退差分したヒートマップを表す画像データある。
(2)距離及び方位の範囲はアプリケーションに合わせて任意に設定可能である。
(3)入力される画像データは必ずしも3次元である必要はなく、時系列をなくして1フレームで推論してもよい。
(4)入力と出力の距離及び方位の範囲(画像サイズ)は必ずしも同じである必要はない。
(5)入力データのモーダルを増やすことも可能であって、例えば、時間差分前の反射強度画像を2つ目のモーダルとして、RGB画像のように2つ目のチャネルとして用意してもよい。
2.機械学習モデル40の教師データ及び出力データ
(1)教師画像データ及び出力画像データは、例えば0~1の出力範囲で表現されたグレースケールの画像を含む。
(2)検出対象となる物標以外の背景等を0として表現する。
(3)検出対象となる物標を1とし、複数画素の所定形状の図形の物体ラベルで表現する。
(4)物標の位置は時系列中の特定のフレームを基準に決定し、図6A~図8Cの実施例では時系列中の中心フレームを基準に物標の位置を決定した。
(5)物体ラベルの中心座標は物標の位置情報を示す。
(6)物体ラベルのサイズは物標のサイズには依存せず一定のサイズで表す。
次いで、図1の物体座標検出部6の構成例及び処理例について以下に説明する。
図9は図1の物体座標検出部6の構成例及び処理例を示すブロック図である。図1及び図9において、物体座標検出部6は、テンプレートマッチング部61と、ピークサーチ部62とを備える。本実施形態では、出力処理部5からの出力データの後処理において、機械学習モデル40の出力データの結果から物標の検出点数及び座標情報を抽出するためにテンプレートマッチングとピークサーチを行った。
テンプレートマッチング部61は、入力される画像データのうち、物標の物体ラベルのパターンを、予め格納した物標の正解物標の物体ラベルのパターンと相互相関値を求めてパターンマッチング処理を行うことで、合致度の計算を行って類似度マップの画像データを計算する。次いで、ピークサーチ部62は、テンプレートマッチング部61から出力される類似度マップの画像データに対して以下のピークサーチ処理を行う。
(1)最大値フィルタ(6×6のフィルタであって、正解ラベルサイズやアプリケーションに応じて任意にサイズを決定することが可能)を用いて最大値のピーク位置を検索し、検索結果の画素を有する画像データを得る。
(2)次いで、得られた画像データに対してマスク処理を行うことで元の配列と同じ値を持つ要素だけ残した画像データを得る。
(3)さらに、得られた画像データに対してノイズ除去のために、所定のしきい値以下の低値ピークの画素を排除して画像データを得る。
さらに、物体座標検出部6は、ピークサーチ部62で得られた画像データとともに、物標の検出点数及び物標の座標位置(距離、方位)を表示部7に出力して表示させる。
以上説明したように、物体座標検出部6では、テンプレートマッチング部61及びピークサーチ部62との各処理を組み合わせることで、レーダ装置1の観測エリアに含まれる物標の数や座標を求めることができる。また、ここで用いた処理以外にも一般的な図形の中心座標の求め方を適用することができ、発明の基本的な効果を損なうことはない。
(実施形態の作用効果)
以上説明したように、本実施形態によれば、物標の位置を推定する手段としてCFARとクラスタリングを組み合わせる方法ではなく、信号処理によって生成した時間差分時系列情報と画像認識用の機械学習モデルを用いることで、物標の位置に対応する物体ラベルを描画した画像データを生成することができる。それにより、CFARやクラスタリングで課題が発生する状況においても、それぞれの物標の位置を、従来技術に比較して高精度に推定することが可能になった。ここで、従来技術であるドップラーFFT、CFAR、クラスタ分析では計数がうまくいかない物体近接状況において、正しく波源数を計数でき位置を検出できるという、特有の効果を有する。
本実施形態では、特に、画像認識用の機械学習モデル40に対して、信号処理部2によって処理された各方位及び各距離における反射強度情報を含む時系列の時間差分レーダ画像データを物体検出部4の機械学習モデル40に入力することで、物標の位置に対応する物体ラベルを描画された画像データを生成できる。これにより、ユーザは、移動する複数の物標が近接する環境内でも、各移動物体の位置を従来技術に比較して高精度で同時に検出することができる。また、例えばトンネルや高速道路の防音壁など壁が近接しレーダデータにおいてクラッタが発生するような状況下でも各移動物体の位置を従来技術に比較して高精度で同時に検出することができる。
本実施形態では,以下の特有の効果をさらに有する。
(1)信号処理部2において、信号を分離するためのドップラー速度FFT処理が不要になる。なお、従来技術では、距離(レンジ)及びドップラー速度(相対速度)の2次元FFT処理を行うことが一般的である。
(2)CFAR及びクラスタ分析が不要である。
(3)クラッタやサイドローブを抑圧する必要がない。
(4)所望する物標からの反射信号が微弱であっても検知が可能である。
(5)実施形態に係る物体検出処理では、レーダ画像の情報は欠損しない。
(6)アンテナ素子が少なくても高精度な検知が可能である。
(変形例)
図10は変形例に係る物体位置検出装置で用いる画像データの次元を示す図である。以上の実施形態では、方位に対する距離を表す2次元画像データを用いて物標を検出している。しかし、本発明はこれに限らず、図10に示すように、方位及び距離の次元にさらに、相対速度(ドップラー速度)を含み、方位に対する距離及び速度を表す3次元画像データを用いて物標を検出してもよい。この場合、距離FFT部22に代えて、距離及び速度FFT部を備え、公知の距離及び速度の2次元FFT処理を行う。
さらに、例えば、方位に対するチャンネルを持たず距離の一次元のみに対して物標の位置を検出するレーダ装置も考えられ、位置を距離として使用する場合もある。この場合に、本発明を適用して距離-速度平面上での波源位置推定を行うと、より正確な物標位置を求めることができる。従って、本発明に係る画像データは、距離、方位及び速度のうちの少なくとも2つの次元を有する画像データであってもよい。
(応用例)
本実施形態に係る物体位置検出装置の応用例について以下に説明する。
(1)トンネル内の交通流の監視
レーダ装置はトンネル内の天井に搭載されて、トンネル内の交通流(交通トラフィック)の監視のために使用される。本発明の実施形態によって、内壁や車両同士による虚像の影響を受けずに観測エリアに存在する物標(移動体)の位置を正しく検出することができる。また、その結果に対してトラッキングを加えることで交通流の監視や通知の制御に適用することができる。
(2)道路に近接する大きな構造物が存在する環境での交通流の監視
レーダ装置は高速道路の防音壁(遮音壁)のように道路に近接する大きな構造物が存在する環境の路側機に搭載されて、交通流の監視のために使用される。本発明の実施形態によって、防音壁や車両同士による虚像の影響を受けずに観測エリアに存在する物標(移動体)の位置を正しく検出することができる。また、その結果に対してトラッキングを加えることで交通流の監視や通知の制御に適用することができる。
(3)交差点での歩行者の安全監視
レーダ装置は交差点の路側機に搭載されて、交通流の監視のために使用される。本発明の実施形態によって、人間同士や電柱や建物などによる虚像の影響を受けずに観測エリアに存在する物標(移動体)の位置を正しく検出し、その結果が歩行者の安全監視や通知の制御に用いられる。
(4)工場内での自動搬送車もしくは自走ロボットの障害物検知のセンサ
レーダ装置は工場内で稼働する自動搬送車や自走ロボットに搭載され、障害物を検知するために使用される。本発明の実施形態によって、工場内における製造ラインの機械や作業者などによる虚像の影響を受けずに観測エリアに存在する物標(障害物)の位置を正しく検出し、その結果が自動搬送車や自走ロボットの走行制御に用いられる。
(従来技術との相違点と特有の効果)
本発明の実施形態では、機械学習モデル40は、物体の位置に対応する情報を画像データとして出力することを特徴としている。ここで、機械学習モデル40の入力データは、方位に対する距離の各位置における反射強度の情報を含むレーダ信号の画像データを時間フレームで差分した後、時系列化した画像データである。また、機械学習モデル40の教師出力データは、物体の位置情報を複数の画素で表すことを特徴としている。これにより、例えばRAD(Range Azimuth Doppler)のヒートマップのテンソル及び正解ボックスのクラス及び位置を用いる従来技術に比較して、複数の物体の有無と位置に関する情報を1枚の画像データの形式で出力するために、計算コストがきわめて小さい。また、機械学習モデル40の構造も従来技術に比較して簡単である。
以上詳述したように、本発明によれば、従来技術に比較して、反射波が干渉するような近接する複数の物体又は構造物が近接する状況においても高精度で物体を検出することができる。本発明の物体位置検出装置は、例えば、車両又は歩行者を計数するカウンタ装置、トラフィックカウンタ装置、インフラレーダ装置、及び工場内での自動搬送車の障害物を検出するセンサ装置に適用することができる。
1 レーダ装置
2 信号処理部
3 入力処理部
4 物体検出部
5 出力処理部
6 物体座標検出部
7 表示部
8 記憶部
21 AD変換部
22 距離FFT部
23 到来方向推定部
31 時間差分部
32 正規化部
40,40A,40B 機械学習モデル
41 3次元畳み込みエンコーダ
42 2次元畳み込みデコーダ
51 2次元畳み込みエンコーダ
52 2次元畳み込みデコーダ
61 テンプレートマッチング部
62 ピークサーチ部
81 学習済み機械学習モデル
101 物標が存在する座標点に対応する画素

Claims (27)

  1. レーダ装置からのレーダ信号に基づいて、物体の位置を検出する物体位置検出装置であって、
    前記レーダ信号を含む画像データに基づいて、前記物体の位置を表す所定の教師画像データにより学習された機械学習モデルを用いて、前記物体の有無及び位置を推定して、前記推定された物体の有無及び位置を表す画像データを出力する位置推定部を、
    備える物体位置検出装置。
  2. 前記画像データは、方位に対する距離の2次元画像データである、
    請求項1に記載の物体位置検出装置。
  3. 前記画像データは、距離、方位及び速度のうちの少なくとも2つの次元を有する画像データである、
    請求項1に記載の物体位置検出装置。
  4. 前記教師画像データは、前記物体の位置を示す複数の画素から構成された図形である物体ラベルで表わされる、
    請求項1~3のいずれか1項に記載の物体位置検出装置。
  5. 前記物体ラベルは、前記物体の位置が前記物体ラベルの中心に位置するように構成される、請求項4に記載の物体位置検出装置。
  6. 前記教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、点反射源からの反射波を検出したときの各次元方向におけるメインローブ幅を上限として設定される、
    請求項4又は5に記載の物体位置検出装置。
  7. 前記教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、前記レーダ装置の方位方向のチャンネル数及びレーダ帯域幅から定まる各次元方向におけるメインローブ幅を上限として設定される、
    請求項4又は5に記載の物体位置検出装置。
  8. 前記物体ラベルは、各次元方向に凸である形状を有する、
    請求項4~7のいずれか1項に記載の物体位置検出装置。
  9. 前記物体ラベルは、楕円形状を有する、
    請求項8に記載の物体位置検出装置。
  10. 前記レーダ信号を含む画像データは、方位に対する距離の各位置における反射強度を含む画像データである、
    請求項1~9のいずれか1項に記載の物体位置検出装置。
  11. 前記レーダ信号を含む画像データは、前記方位に対する距離の各位置における反射強度を含む画像データに基づいて、複数の異なる時刻で取得された時系列の複数の画像データである、
    請求項10に記載の物体位置検出装置。
  12. 前記レーダ信号を含む画像データは、前記複数の異なる時刻で取得された時系列の複数の画像データに対して、時間差分の反射強度を計算することで得られる前記時間差分の反射強度を含む画像データである、
    請求項11に記載の物体位置検出装置。
  13. 前記レーダ信号を含む画像データは、
    前記方位に対する距離の各位置における反射強度を含む画像データに対してドップラーFFTを行った後、前記ドップラーFFTにより得られたゼロドップラー成分を、前記レーダ信号を含む画像データから減算し、当該減算された画像データに基づいて複数の異なる時刻で取得された時系列の複数の画像データである、請求項11に記載の物体位置検出装置。
  14. 前記物体位置検出装置は、
    (1)トンネル内の交通流を測定するトンネル交通流監視センサ装置と、
    (2)所定の構造物の傍に設けられた交通流監視センサ装置、
    (3)交差点に設けられ、交差点の歩行者を測定する歩行者監視センサ装置と、
    (4)工場内での自動搬送車もしくは自走ロボットの障害物を検出するセンサ装置との
    いずれかである、請求項1~13のいずれか1項に記載の物体位置検出装置。
  15. レーダ装置からのレーダ信号に基づいて、物体の位置を検出する物体位置検出装置の物体位置検出方法であって、
    位置推定部が、前記レーダ信号を含む画像データに基づいて、前記物体の位置を表す所定の教師画像データにより学習された機械学習モデルを用いて、前記物体の有無及び位置を推定して、前記推定された物体の有無及び位置を表す画像データを出力するステップを、
    含む物体位置検出方法。
  16. 前記画像データは、方位に対する距離の2次元画像データである、
    請求項15に記載の物体位置検出方法。
  17. 前記画像データは、距離、方位及び速度のうちの少なくとも2つの次元を有する画像データである、
    請求項15に記載の物体位置検出方法。
  18. 前記教師画像データは、前記物体の位置を示す複数の画素から構成された図形である物体ラベルで表わされる、
    請求項15~17のいずれか1項に記載の物体位置検出方法。
  19. 前記物体ラベルは、前記物体の位置が前記物体ラベルの中心に位置するように構成される、請求項18に記載の物体位置検出方法。
  20. 前記教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、点反射源からの反射波を検出したときの各次元方向におけるメインローブ幅を上限として設定される、
    請求項18又は19に記載の物体位置検出方法。
  21. 前記教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、前記レーダ装置の方位方向のチャンネル数及びレーダ帯域幅から定まる各次元方向におけるメインローブ幅を上限として設定される、
    請求項18又は19に記載の物体位置検出方法。
  22. 前記物体ラベルは、各次元方向に凸である形状を有する、
    請求項18~21のいずれか1項に記載の物体位置検出方法。
  23. 前記物体ラベルは、楕円形状を有する、
    請求項22に記載の物体位置検出方法。
  24. 前記レーダ信号を含む画像データは、方位に対する距離の各位置における反射強度を含む画像データである、
    請求項15~23のいずれか1項に記載の物体位置検出方法。
  25. 前記レーダ信号を含む画像データは、前記方位に対する距離の各位置における反射強度を含む画像データに基づいて、複数の異なる時刻で取得された時系列の複数の画像データである、
    請求項24に記載の物体位置検出方法。
  26. 前記レーダ信号を含む画像データは、前記複数の異なる時刻で取得された時系列の複数の画像データに対して、時間差分の反射強度を計算することで得られる前記時間差分の反射強度を含む画像データである、
    請求項25に記載の物体位置検出方法。
  27. 前記レーダ信号を含む画像データは、
    前記方位に対する距離の各位置における反射強度を含む画像データに対してドップラーFFTを行った後、前記ドップラーFFTにより得られたゼロドップラー成分を、前記レーダ信号を含む画像データから減算し、当該減算された画像データに基づいて複数の異なる時刻で取得された時系列の複数の画像データである、請求項25に記載の物体位置検出方法。
JP2021038305A 2021-03-10 2021-03-10 物体位置検出装置及び方法 Pending JP2022138425A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021038305A JP2022138425A (ja) 2021-03-10 2021-03-10 物体位置検出装置及び方法
PCT/JP2022/010041 WO2022191197A1 (ja) 2021-03-10 2022-03-08 物体位置検出装置及び方法
CN202280017396.3A CN116888502A (zh) 2021-03-10 2022-03-08 物体位置检测装置及方法
US18/279,296 US20240142600A1 (en) 2021-03-10 2022-03-08 Object-position detector apparatus and detection method for estimating position of object based on rader information from rader apparatus
EP22767151.8A EP4307001A1 (en) 2021-03-10 2022-03-08 Object-position detecting device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021038305A JP2022138425A (ja) 2021-03-10 2021-03-10 物体位置検出装置及び方法

Publications (2)

Publication Number Publication Date
JP2022138425A true JP2022138425A (ja) 2022-09-26
JP2022138425A5 JP2022138425A5 (ja) 2023-09-04

Family

ID=83226760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021038305A Pending JP2022138425A (ja) 2021-03-10 2021-03-10 物体位置検出装置及び方法

Country Status (5)

Country Link
US (1) US20240142600A1 (ja)
EP (1) EP4307001A1 (ja)
JP (1) JP2022138425A (ja)
CN (1) CN116888502A (ja)
WO (1) WO2022191197A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9023909D0 (en) * 1990-11-02 1990-12-12 Secr Defence Radar apparatus
JP6699904B2 (ja) 2017-06-06 2020-05-27 株式会社東芝 レーダ装置及びそのレーダ信号処理方法
JP2019152543A (ja) * 2018-03-02 2019-09-12 株式会社東芝 目標認識装置、目標認識方法及びプログラム
JP2020016597A (ja) * 2018-07-27 2020-01-30 パナソニック株式会社 レーダデータ処理装置、物体判別装置、レーダデータ処理方法、および物体判別方法
US11555915B2 (en) * 2019-03-01 2023-01-17 Samsung Electronics Co., Ltd. Determining relevant signals using multi-dimensional radar signals
US20220260673A1 (en) * 2019-06-28 2022-08-18 Nec Corporation Radar device, imaging method, and imaging program

Also Published As

Publication number Publication date
US20240142600A1 (en) 2024-05-02
WO2022191197A1 (ja) 2022-09-15
EP4307001A1 (en) 2024-01-17
CN116888502A (zh) 2023-10-13

Similar Documents

Publication Publication Date Title
EP3252501B1 (en) Enhanced object detection and motion state estimation for a vehicle environment detection system
US11506776B2 (en) Method and device with improved radar resolution
US11719811B2 (en) Method and device to improve radar data using reference data
EP2382486B1 (en) A method for estimating an object motion characteristic from a radar signal, a computer system and a computer program product
JP2020091281A (ja) レーダーデータを処理する装置及び方法
CN109102702A (zh) 基于视频车辆检测和雷达信号融合的车辆测速方法
US10585188B2 (en) Broadside detection system and techniques for use in a vehicular radar
EP3982160A1 (en) Method and system for indoor multipath ghosts recognition
US20230139751A1 (en) Clustering in automotive imaging
EP3460515B1 (en) Mapping for autonomous robotic devices
Cui et al. 3D detection and tracking for on-road vehicles with a monovision camera and dual low-cost 4D mmWave radars
CN115061113B (zh) 用于雷达的目标检测模型训练方法、装置及存储介质
CN111386476A (zh) 确定车辆雷达系统中的对象运动和加速度矢量
Iqbal et al. Imaging radar for automated driving functions
CN115856854A (zh) 一种模型与数据混合驱动的雷达探测方法及系统
Gao et al. Static background removal in vehicular radar: Filtering in azimuth-elevation-doppler domain
Holder et al. Modeling and simulation of radar sensor artifacts for virtual testing of autonomous driving
WO2022191197A1 (ja) 物体位置検出装置及び方法
JP7306030B2 (ja) 目標運動推定装置及び目標運動推定方法
CN113640802B (zh) 一种基于多融合传感器的机器人空间定位方法和系统
Ren et al. Discrimination of Automotive Radar Distributed Targets
Stolz et al. Direction of movement estimation of cyclists with a high-resolution automotive radar
EP4369028A1 (en) Interface for detection representation of hidden activations in neural networks for automotive radar
US20240094377A1 (en) High resolution radar simulation to train vehicle radar system neural network
WO2023100390A1 (ja) 情報処理方法、レーダー装置及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240116