JP2020159925A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2020159925A
JP2020159925A JP2019060887A JP2019060887A JP2020159925A JP 2020159925 A JP2020159925 A JP 2020159925A JP 2019060887 A JP2019060887 A JP 2019060887A JP 2019060887 A JP2019060887 A JP 2019060887A JP 2020159925 A JP2020159925 A JP 2020159925A
Authority
JP
Japan
Prior art keywords
range
sensor
distance
sensors
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019060887A
Other languages
English (en)
Other versions
JP7244325B2 (ja
Inventor
健 亢
Jian Kang
健 亢
光利 守永
Mitsutoshi Morinaga
光利 守永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2019060887A priority Critical patent/JP7244325B2/ja
Priority to DE112020001507.6T priority patent/DE112020001507T5/de
Priority to PCT/JP2020/013599 priority patent/WO2020196723A1/ja
Priority to CN202080024253.6A priority patent/CN113631948A/zh
Publication of JP2020159925A publication Critical patent/JP2020159925A/ja
Priority to US17/483,647 priority patent/US20220012492A1/en
Application granted granted Critical
Publication of JP7244325B2 publication Critical patent/JP7244325B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】極力少ない処理負荷で物体の位置を検出する技術を提供する。【解決手段】本開示の物体検出装置は、範囲測定部と範囲取得部と範囲判定部と物体検出部とを備える。S402において範囲測定部は、少なくとも物体の方位を検出する1個以上の第1のセンサによる検出結果に基づいて、少なくとも物体が存在する方位の範囲を物体の存在範囲として測定する。S404において範囲取得部は、第1のセンサにより物体の位置を検出できる検出範囲と、物体との距離を検出する複数の第2のセンサにより物体の位置を検出できる検出範囲とが重なる共通範囲を取得する。S404において範囲判定部は、存在範囲と共通範囲とが重なっているか否かを判定する。S406において物体検出部は、存在範囲と共通範囲とが重なっている場合、存在範囲において、第2のセンサのそれぞれが検出する第2のセンサと物体との距離に基づいて、物体の位置を検出する。【選択図】図2

Description

本開示は、物体の位置を検出する技術に関する。
物体の位置を検出する技術として、例えば特許文献1には、3個以上のセンサのうち2組の異なるセンサの組み合わせのそれぞれにおいて、物体からの電波の到達時間の差を測定し、各組の到達時間差がセンサと物体との距離の差により生じることに基づいて物体の位置を検出する技術が記載されている。
各組のセンサが測定する到達時間の差に基づいて物体の位置を検出する場合、複数の信号が混信したり、センサを有する受信機に雑音が発生したりするために、各組のセンサにより複数の異なる到達時間差が測定されることがある。
そこで、特許文献1に記載の技術では、各組のセンサにより複数の異なる到達時間差が測定されると、基準となるセンサに対し他のセンサが受信した電波信号をそれぞれの到達時間差だけシフトし、シフトした電波信号同士の内積を算出する。正しい到達時間差同士の電波信号であれば、電波信号を到達時間差だけシフトすると、各組のセンサにとって同じ時刻に到達する電波信号になるので、他の到達時間差同士の電波信号同士の内積よりも大きい値になる。
そして、特許文献1に記載の技術では、内積の値が大きく、相関の高い組み合わせの電波信号の到達時間差に基づいて、物体の位置を検出しようとしている。
また、物体までの距離を複数の第2のセンサで検出し、それぞれの第2のセンサを中心とし、測定した距離を半径とする円の交点を物体の位置として検出することが知られている。
特開2014−44160号公報
しかしながら、発明者の詳細な検討の結果、特許文献1に記載の技術では、相関の高い電波信号の組み合わせを求めるために、各組のセンサが受信する受信信号のすべての組み合わせについて内積を計算する必要があるので、処理負荷が大きいという課題が見出された。
また、物体までの距離を半径とする円の交点を物体の位置を表す候補点として抽出し、抽出した候補点に対して物体の検出処理を行う場合、すべての候補点に対して物体の検出処理を実行すると、検出処理の処理負荷が大きいという課題が見出された。
本開示の一つの局面は、極力少ない処理負荷で物体の位置を検出する技術を提供することが望ましい。
本開示の一つの態様による物体検出装置(10、20)は、範囲測定部(12、S402、S412)と、範囲取得部(14、S404、S414)と、範囲判定部(16、S404、S414)と、物体検出部(18、26、S406、S420)と、を備える。
範囲測定部は、少なくとも物体の方位を検出する1個以上の第1のセンサ(2)による検出結果に基づいて、少なくとも物体が存在する方位の範囲を物体が存在する存在範囲(300、302、330、340、350、360、370、380、390)として測定する。範囲取得部は、第1のセンサにより物体の位置を検出できる検出範囲(310、314)と、物体との距離を検出する複数の第2のセンサにより物体の位置を検出できる検出範囲(312、316)とが重なる共通範囲(320)を取得する。範囲判定部は、範囲測定部が測定する存在範囲と範囲取得部が取得する共通範囲とが重なっているか否かを判定する。物体検出部は、存在範囲と共通範囲とが重なっていると範囲判定部が判定すると、存在範囲において、第2のセンサのそれぞれが検出する第2のセンサと物体との距離に基づいて、物体の位置を検出する。
このような構成によれば、第1のセンサよる検出結果に基づいて、少なくとも物体が存在する方位の範囲を物体が存在する存在範囲として測定できる。そして、存在範囲が第1のセンサの検出範囲と第2のセンサの検出範囲とが重なる共通範囲と重なっていれば、存在範囲において、第2のセンサのそれぞれが検出する第2のセンサと物体との距離に基づいて、物体の位置を検出できる。
これにより、第2のセンサの検出範囲のうち、存在範囲を除いた範囲で、第2のセンサが検出する距離に基づいて物体の位置を検出する必要がない。したがって、第2のセンサが検出する距離に基づいて物体の位置を検出する処理負荷を低減できる。
第1実施形態の物体検出装置を示すブロック図。 物体の検出処理を示すフローチャート。 第1のセンサによる物体の方位の検出を説明する模式図。 第1のセンサの検出範囲と第2のセンサの検出範囲との共通範囲を示す説明図。 存在範囲での物体の検出を説明する模式図。 第2実施形態の物体検出装置を示すブロック図。 物体の検出処理を示すフローチャート。 メッシュ分割された存在範囲での物体の検出を説明する模式図。 第3実施形態の物体検出装置を示すブロック図。 第1のセンサの検出範囲と第2のセンサの検出範囲との共通範囲を示す説明図。 メッシュ分割された存在範囲での物体の検出を説明する模式図。 第4実施形態のメッシュ分割の一例を示す模式図。 メッシュ分割の他の例を示す模式図。 第5実施形態のメッシュ分割の一例を示す模式図。 メッシュ分割の他の例を示す模式図。
以下、本開示の実施形態を図に基づいて説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す物体検出装置10は、例えば車両等の移動体に搭載され、移動体の周囲に存在する物体の位置を検出する。物体検出装置10は、少なくとも物体の方位を測定する第1のセンサ2から、物体が存在する方位を取得する。第1のセンサ2は、物体の方位に加え、第1のセンサ2と物体との距離を検出できるセンサであっても良い。第1のセンサ2として、例えば単眼カメラまたはミリ波レーダ等が使用される。
また、物体検出装置10は、物体との距離を検出する第2のセンサ4から、第2のセンサ4と物体との距離を取得する。第1実施形態では、第1のセンサ2は1個であり、第2のセンサ4は複数である。第1のセンサ2が、物体の方位に加え、第1のセンサ2と物体との距離を検出できるセンサの場合、第2のセンサ4が物体との距離を検出できる精度は、第1のセンサ2が物体との距離を検出できる精度よりも高い。第2のセンサ4として、例えばミリ波レーダが使用される。
物体検出装置10は、CPUと、RAM、ROM、フラッシュメモリ等の半導体メモリと、入出力インターフェースと、を備えるマイクロコンピュータを中心に構成されている。以下、半導体メモリを単にメモリとも言う。物体検出装置10は一つのマイクロコンピュータを搭載してもよいし、複数のマイクロコンピュータを搭載してもよい。
物体検出装置10の各種機能は、CPUが非遷移的実体的記録媒体に記憶されているプログラムを実行することにより実現される。この例では、メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。このプログラムをCPUが実行することで、プログラムに対応する方法が実行される。
物体検出装置10は、CPUがプログラムを実行することで実現される機能の構成として、範囲測定部12と、範囲取得部14と、範囲判定部16と、物体検出部18とを備えている。範囲測定部12と、範囲取得部14と、範囲判定部16と、物体検出部18とが実現する機能の詳細は、次の処理の欄で説明される。
[1−2.処理]
物体検出装置10による物体検出処理を、図2のフローチャートに基づいて説明する。
S400において、第1のセンサ2として例えばミリ波レーダは、図3に示すように、所定の走査角度毎にビームで所定の角度範囲を走査するビームスキャン方式により、物体200が存在する方位を検出する。
S402において範囲測定部12は、図3に示すように、第1のセンサ2が検出する物体200が存在する方位に対して第1のセンサ2が検出する方位の誤差を考慮し、物体200が存在する方位の範囲を物体200が存在する存在範囲300として測定する。複数の物体200が存在する場合は、複数の存在範囲300が測定される。
第1のセンサ2が距離も検出できる場合、方位範囲と、第1のセンサ2が検出する距離の誤差を考慮した距離範囲とが重なる点線で示す範囲を存在範囲302としてもよい。
S404において範囲取得部14は、図4示すように、第1のセンサ2により物体200の位置を検出できる検出範囲310と、第2のセンサ4により物体200の位置を検出できる検出範囲312とが重なる共通範囲320を取得する。
第1のセンサ2の検出範囲310において、第1のセンサ2から物体200に向かう距離方向の最大範囲は、第1のセンサ2が物体の方位を検出できる限界である。共通範囲320は、例えば、距離範囲として0〜100m、角度範囲として−45°〜45°である。
共通範囲320は、予め、ROMまたはフラッシュメモリに記憶されていても良いし、第1のセンサ2と第2のセンサ4とが実際に検出できる検出範囲から設定されても良い。
次に、S404において範囲判定部16は、範囲測定部12が測定した存在範囲300と範囲取得部14が取得する共通範囲320とが重なっているか否かを判定する。第1のセンサ2が距離も検出できる場合、範囲判定部16は、範囲測定部12が測定した存在範囲302が、範囲取得部14が取得する共通範囲320に含まれるか否かを判定する。
S404の判定がNoである、つまり範囲測定部12が測定した存在範囲300と共通範囲320とが重なっていない場合、本処理は終了する。第1のセンサ2が距離も検出できる場合、S404の判定がNoである、つまり範囲測定部12が測定した存在範囲302が共通範囲320に含まれない場合、本処理は終了する。
この場合、第2のセンサ4のすべての検出範囲312において、複数の第2のセンサ4が検出する第2のセンサ4と物体との距離から、例えば三辺測位に基づいて物体の位置が検出される。そして、三辺測位により、1個の物体であると推定される範囲に物体の複数の候補が存在する場合、候補数の多いグループの位置を物体の位置とするか、あるいは、複数の候補の重心位置を物体の位置とする位置決定処理が行われる。
S404の判定がYesである、つまり範囲測定部12が測定した存在範囲300と共通範囲320とが重なっている場合、S406において物体検出部18は、図5に示すように、存在範囲300において、第2のセンサ4の検出結果に基づいて、第2のセンサ4と物体との距離から、例えば三辺測位に基づいて物体の位置を検出する。そして、上記と同様に、1個の物体であると推定される範囲に物体の複数の候補が存在する場合、前述した位置決定処理が行われる。
存在範囲300と共通範囲320とが重なっていても、存在範囲300には共通範囲320と重ならない範囲が存在する可能性がある。この場合、物体検出部18は、存在範囲300と共通範囲320とが重なっている重複範囲において、第2のセンサ4と物体との距離から、例えば三辺測位と前述した位置決定処理とに基づいて物体の位置を検出する。存在範囲300において共通範囲320と重ならない範囲、つまり共通範囲320の外側に物体が存在する場合、物体検出部18は物体の位置を検出できない。
第1のセンサ2が距離も検出できる場合、S404の判定がYesである、つまり範囲測定部12が測定した存在範囲302が共通範囲320に含まれる場合、S406において物体検出部18は、図5に示すように、存在範囲302において、第2のセンサ4の検出結果に基づいて、第2のセンサ4と物体との距離から、例えば三辺測位と前述した位置決定処理とに基づいて物体の位置を検出する。
[1−3.効果]
以上説明した第1実施形態では、以下の効果を得ることができる。
(1a)第1のセンサ2よる検出結果に基づいて、物体が存在する存在範囲300または存在範囲302が測定される。そして、存在範囲300が第1のセンサ2の検出範囲310と第2のセンサ4の検出範囲312とが重なる共通範囲320と重なっていれば、存在範囲300において第2のセンサ4が検出する物体200との距離に基づいて、物体の位置が検出される。
第1のセンサ2が距離も検出できる場合、存在範囲302が共通範囲320に含まれていれば、存在範囲302において第2のセンサ4が検出する物体200との距離に基づいて、物体の位置が検出される。
これにより、第2のセンサ4の検出範囲312のうち、存在範囲300または存在範囲302を除いた範囲で、第2のセンサ4が検出する距離に基づいて物体の位置を検出する必要がない。したがって、第2のセンサ4が検出する距離に基づいて物体の位置を検出する処理負荷を低減できる。
[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第1実施形態では、物体の存在範囲300が第1のセンサ2の検出範囲310と第2のセンサ4の検出範囲312とが重なる共通範囲320と重なっていれば、存在範囲300において物体の位置が検出される。
第1のセンサ2が距離も検出できる場合、存在範囲302が共通範囲320に含まれていれば、存在範囲302において物体の位置が検出される。
これに対し、第2実施形態では、存在範囲300と共通範囲320とが重なっていれば、存在範囲300をメッシュ状に分割して、それぞれの分割単位をセル304とし、周囲のセル304よりも物体が存在する確からしさの高いセル304を、物体が存在する位置として検出する点で、第1実施形態と相違する。
第1のセンサ2が距離も検出できる場合、存在範囲302が共通範囲320に含まれていれば、存在範囲302をメッシュ状に分割して、それぞれの分割単位をセル304とし、周囲のセル304よりも物体が存在する確からしさの高いセル304を、物体が存在する位置として検出する点で、第1実施形態と相違する。
以後、第1のセンサ2が距離も検出できる場合の説明は、第1のセンサ2が距離を検出できない場合の説明と重複するので、図での表示だけにして省略する。
図6に示す第2実施形態の物体検出装置20は、範囲測定部12と、範囲取得部14と、範囲判定部16と、メッシュ分割部22と、評価部24と、物体検出部26とを備えている。
[2−2.処理]
物体検出装置20による物体検出処理を、図7のフローチャートに基づいて説明する。
S410〜S414の処理は、第1実施形態の図2に示すS400〜S404の処理と実質的に同一であるから、説明を省略する。
S416においてメッシュ分割部22は、例えば図8の下段に示すように、複数の扇状のセル304により、存在範囲300をメッシュ状に分割する。セル304の大きさは、例えば、要求される物体の位置の検出精度によって適宜決定される。小さいセル304に分割されるほど、物体の位置の検出精度は高くなる。ただし、セル304の大きさは、第2のセンサ4が検出する距離の精度の範囲内に設定される。
評価部24は、セル304において、物体が存在する確からしさを表す評価値を設定する。まず、評価部24は、セル304毎に、第2のセンサ4が検出する第2のセンサ4と物体200との距離誤差を算出する。以下、図8に示すセル304において、評価部24が算出する距離誤差について説明する。
まず、第2のセンサ4の数をNs、物体の数をNo、距離方向の存在範囲300の分割数をNr、セル304の距離方向の長さをΔr、距離方向のセル304のインデックスをnr=1、・・・、Nr、角度方向の存在範囲300の分割数をNp、セル304の角度方向の角度をΔp、角度方向のセル304のインデックスをnp=1、・・・、Np、第2のセンサ4のインデックスをn=1、・・・、Ns、n番目の第2のセンサ4が検出するNo個の物体との距離をRn=(rn1、・・・、rnNo)、n番目の第2のセンサ4の座標をLradar_n=(xn、yn)とする。
インデックス(nr、np)のセル304の座標Lmesh(nr、np)は次式(1)で表される。
Figure 2020159925
そして、各第2のセンサ4と各セル304との距離rmesh(nr、np、n)は次式(2)で表される。
Figure 2020159925
尚、式(2)は、各第2のセンサ4のxy座標と各セル304のxy座標とのそれぞれの差の2乗の和の平方根を求めていることを表している。
次に、インデックス(nr、np)のセル304において、n番目の第2のセンサ4が検出する複数の物体との距離Rn=(rn1、・・・、rnNo)のそれぞれと、セル304とn番目の第2のセンサ4との距離rmesh(nr、np、n)との差が最小となる最小距離誤差δ(nr、np、n)は、次式(3)から算出される。
Figure 2020159925
そして、各セル304において式(3)で算出した最小距離誤差を、すべての第2のセンサ4について加算した合計である各セル304の距離誤差ε(nr、np)は、次式(4)から算出される。
Figure 2020159925
式(4)が示す距離誤差ε(nr、np)の値が小さいほど、該当するセル304に物体が存在する確からしさが高いことを表している。
発明者の検討の結果、式(4)が表す距離誤差は、第2のセンサ4に対して距離方向の精度は高いが、第2のセンサ4に対して方位方向、つまり角度方向の精度は低いことが分かっている。
そこで、評価部24は、次式(5)により、各セル304において、式(3)で算出した最小距離誤差δ(nr、np、n)の分散を表す距離分散σ(nr、np)を算出する。式(5)において、E(δ(nr、np))は、各セル304における複数の第2のセンサ4に対応する最小距離誤差の平均を表している。
Figure 2020159925
式(5)が示す距離分散σ(nr、np)の値が小さいほど、該当するセル304に物体が存在する確からしさが高いことを表している。
発明者の検討の結果、式(5)が表す距離分散は、第2のセンサ4に対して角度方向の精度は高いが、第2のセンサ4に対して距離方向の精度が低いことが分かっている。
次に、距離誤差と距離分散とを加算する。距離誤差と距離分散とを加算する場合、物体の誤検出を抑制するために、各セル304において、距離誤差が、セル304の距離方向の長さΔrを第2のセンサ4の数で割った値Δr/Nsより大きい場合、そのセル304における距離誤差には無限大が設定される。
さらに、各セル304において、距離分散が、セル304の距離方向の長さΔrを所定の除数σthで割った値Δr/σthより大きい場合、そのセル304における距離分散には無限大が設定される。尚、除数σthは、誤検出の抑制の程度によって経験的に設定される。除数σthが大きいほど物体の誤検出を抑制できるが、存在している物体の位置を検出できない場合もある。
評価部24は、距離誤差と距離分散とを加算した値を算出し、セル304に物体が存在する確からしさを表す評価値として設定する。そして、物体検出部26は、該当するセル304の評価値が、例えば前後の距離方向と左右の角度方向に存在する周囲のセル304よりも高いピークの評価値を有するセル304を、存在範囲300から抽出する。
第2実施形態では、物体検出部26は、周囲のセル304よりも評価値の低いピークの評価値を有すセル304を存在範囲300から抽出する。
尚、距離誤差と距離分散とに対し重視する精度に応じて重み付けを行ってから、距離誤差と距離分散とを加算してもよい。例えば、距離精度よりも方位精度を重視するのであれば、方位精度を表す距離分散を式(5)から算出される値よりも大きくしてから距離誤差と距離分散とを加算してもよい。
また、第2のセンサ4に対して距離方向よりも角度方向に物体を誤検出する可能性が高いので、評価部24は、ピークの評価値を有するセル304と評価値を比較する周囲のセル304について、角度方向のセル304の数を距離方向のセル304の数よりも多くすることが望ましい。例えば、距離方向のセル304の数を前後にそれぞれ一つにすると、角度方向のセル304の数を左右にそれぞれ2つにする。
物体検出部26は、抽出したピークの評価値を有する位置のセル304に物体が存在すると判定する。
[2−3.効果]
以上説明した第2実施形態では、前述した第1実施形態の効果に加え、以下の効果を得ることができる。
(2a)物体が存在する距離方向の精度は高いが角度方向の精度は低い距離誤差と、物体が存在する角度方向の精度は高いが距離方向の精度は低い距離分散とを加算して、物体が存在する確からしさを表す評価値として設定することにより、距離方向の精度と角度方向との両方において物体が存在する精度の高いセル304を抽出することができる。
これにより、存在範囲300に存在する物体の位置を、距離を測定する第2のセンサ4の検出結果に基づいて高精度に検出できる。
(2b)各セル304において、距離誤差が、セル304の距離方向の長さΔrを第2のセンサ4の数で割った値Δr/Nsより大きい場合、そのセル304における距離誤差に無限大が設定され、距離分散が、セル304の距離方向の長さΔrを所定の除数σthで割った値Δr/σthより大きい場合、そのセル304における距離分散に無限大が設定される。これにより、無限大が設定されたセル304には物体が存在しないと判定できるので、物体の誤検出を抑制できる。
[3.第3実施形態]
[3−1.第2実施形態との相違点]
第3実施形態は、基本的な構成は第2実施形態と同様であるため、相違点について以下に説明する。なお、第2実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第2実施形態では、1個の第1のセンサ2を使用した。これに対し、第3実施形態では、図9に示すように、複数の第1のセンサ2を使用する点で、第2実施形態と相違する。第3実施形態では、3個の第1のセンサ2を例にして説明する。
そして、図10に示すように、3個の第1のセンサ4は、第2のセンサ4よりも物体から離れた位置に設置されている。これは、3個の第1のセンサ2のそれぞれで検出できる検出範囲310を合わせた検出範囲314と、4個の第2のセンサ4で検出できる検出範囲316とが重なる共通範囲320を極力広くするためである。図10では、第2のセンサ4で検出できる検出範囲316が、ほぼ共通範囲320に相当している。
図11に示すように、第1のセンサ2を複数使用することにより、第1のセンサ2が方位だけで距離を検出できないセンサであっても、範囲測定部12が第1のセンサ2のそれぞれの検出結果に基づいて測定する物体の存在範囲300の重なった範囲を、物体の存在範囲330として測定できる。
存在範囲330は、複数の扇状のセル332によりメッシュ状に分割される。各セル332の角度幅は同じで、第2のセンサ4から物体に向かう距離方向の長さも同じである。
第1のセンサ2が距離も検出できるセンサの場合は、複数の第1のセンサ2のそれぞれが検出する物体の方位範囲と距離範囲とが重なる、第1実施形態および第2実施形態で説明した存在範囲302が重なった範囲を、物体の存在範囲330として測定できる。
[3−2.効果]
以上説明した第3実施形態では、第2実施形態の効果に加え、以下の効果を得ることができる。
(3a)複数の第1のセンサ4を第2のセンサ4よりも物体から離れた位置に設置することにより、複数の第1のセンサ2のそれぞれで検出できる検出範囲310を合わせた検出範囲314と、複数の第2のセンサ4で検出できる検出範囲316とが重なる共通範囲320を極力広くすることができる。
(3b)第1のセンサ2を複数使用することにより、第1のセンサ2が方位だけで距離を検出できないセンサであっても、範囲測定部12が第1のセンサ2の検出結果に基づいて測定する物体の存在範囲300の重なった範囲を、物体の存在範囲330として測定できる。これにより、第1のセンサ2が1個の場合よりも、物体の存在範囲が小さくなる。これにより、存在範囲において、第2のセンサ4が検出する物体の距離に基づいて物体の位置を検出する処理負荷を低減できる。
[4.第4実施形態]
[4−1.第3実施形態との相違点]
第4実施形態は、基本的な構成は第3実施形態と同様であるため、相違点について以下に説明する。なお、第3実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第3実施形態では、物体の存在範囲330を、角度幅が同じで、第2のセンサ4から物体に向かう距離方向の長さが同じセル304でメッシュ状に分割した。
これに対し、第4実施形態では、図12に示すように、第1のセンサ2の検出結果から測定された物体の扇状の存在範囲340において、第2のセンサ4から物体に向かう距離方向のセル342の長さは、第2のセンサ4とセル342との距離に反比例して設定されている。つまり、第2のセンサ4からの距離が遠くなるほど、距離方向のセル342の長さは短く設定されている。第4実施形態では、各セル342の角度幅は同じである。
これは、第2のセンサ4からの距離が遠くなるほど、距離の検出精度が低下するので、第2のセンサ4からの距離が遠くなるほど距離方向のセル342の長さを短くすることにより、第2のセンサ4からの距離が遠いセル342の距離精度の低下を抑制するためである。
図13に示す四角形状の存在範囲350の場合、距離方向と直交する横方向のセル352の長さは同じである。そして、セル352の距離方向の長さは、第2のセンサ4とセル352との距離に反比例して設定されている。つまり、第2のセンサ4からの距離が遠くなるほど、第2のセンサ4から物体に向かう距離方向のセル352の長さは短く設定されている。
[4−2.効果]
以上説明した第4実施形態では、第3実施形態の効果に加え、以下の効果を得ることができる。
(4a)存在範囲340、350のそれぞれにおいて、第2のセンサ4からの距離が遠くなるほど、距離方向のセル342、352の長さを短くすることにより、第2のセンサ4から遠いセル342、352の距離精度の低下を抑制できる。
(4b)第2のセンサ4からの距離が遠くなるほど、セル342、351の長さを短くするので、存在範囲340、350のそれぞれにおいて、すべてのセル342、352について距離方向の長さを短くする場合に比べ、物体を検出する処理負荷の増加を抑制できる。
[5.第5実施形態]
[5−1.第4実施形態との相違点]
第5実施形態は、基本的な構成は第4実施形態と同様であるため、相違点について以下に説明する。なお、第4実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
前述した第4実施形態では、第2のセンサ4と存在範囲340との距離に関係なく、物体の存在範囲340において、セル342の角度幅は同じで、セル342の距離方向の長さは、第2のセンサ4とセル342との距離に反比例して設定されている。
これに対し、第5実施形態では、図14に示すように、第2のセンサ4と存在範囲360、370との距離に応じて、セル362とセル372との角度幅、ならびにセル362とセル372との距離方向の長さは異なっている。
第2のセンサ4からの距離が遠い存在範囲370ほど、セル372の角度幅は小さく、セル372の距離方向の長さは短く設定されている。
これは、第2のセンサ4からの距離が遠くなるほど、第2のセンサ4による距離の検出精度が低下するので、第2のセンサ4からの距離が遠い存在範囲370ほど、セル372の距離方向の長さを短くすることにより、第2のセンサ4からの距離が遠いセル372の距離精度の低下を抑制するためである。
さらに、図14では、第2のセンサ4からの距離が遠くなるほど、第2のセンサ4による角度方向の検出精度が低下するので、第2のセンサ4からの距離が遠い存在範囲370ほど、角度幅は小さく設定されている。
ただし、存在範囲360において、各セル362の角度幅は同じであり、距離方向の各セル362の長さも同じである。存在範囲370においても、各セル372の角度幅は同じであり、各セル372の距離方向の長さも同じである。
図15に示す四角形状の存在範囲380の場合も、セル382の横方向の長さは同じであり、セル382の距離方向の長さも同じである。存在範囲390においても、セル392の横方向の長さは同じであり、セル392の距離方向の長さも同じである。
しかし、第2のセンサ4からの距離が遠い存在範囲390ほど、セル392の横方向の長さは短く、セル392の距離方向の長さは短く設定されている。
[5−2.効果]
以上説明した第5実施形態では、第4実施形態の効果に加え、以下の効果を得ることができる。
(5a)存在範囲360、370と存在範囲380、390とのそれぞれにおいて、第2のセンサ4からの距離が遠い存在範囲370、390ほど、セル372、392の距離方向の長さは短く、セル372の角度幅は小さく、セル392の横方向の長さは短く設定されている。これにより、第2のセンサ4から遠いセル372、392の距離精度および角度精度または横位置精度の低下を抑制できる。
言い換えれば、第2のセンサ4からの距離が近い存在範囲360、380ほど、セル362、382の距離方向の長さを長くし、角度幅を小さくするか横方向の長さを長くすることにより、物体を検出する処理負荷の増加を抑制できる。
[6.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上記実施形態に限定されることなく、種々変形して実施することができる。
(6a)上記実施形態では、物体までの距離を検出する第2のセンサ4として、ミリ波レーダを使用した。ミリ波レーダ以外にも、探査波を照射して物体までの距離を検出する第2のセンサであれば、LiDAR、ソナー等を使用してもよい。
(6b)物体検出装置10、20が搭載される移動体として、車両以外に、自転車、車椅子、ロボット等の移動体に物体検出装置10、20を搭載してもよい。
(6c)物体検出装置10、20は移動体に限らず、静止物体等の固定位置に設置されてもよい。
(6d)本開示に記載の物体検出装置10、20およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物体検出装置10、20およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物体検出装置10、20およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータが読み取り可能な非遷移有形記録媒体に記憶されてもよい。物体検出装置10、20に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(6e)上記実施形態における一つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、一つの構成要素が有する一つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、一つの構成要素によって実現したり、複数の構成要素によって実現される一つの機能を、一つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。
(6f)上述した物体検出装置10、30の他、当該物体検出装置10、30を構成要素とするシステム、当該物体検出装置10、30としてコンピュータを機能させるための物体検出プログラム、この物体検出プログラムを記録した記録媒体、物体検出方法など、種々の形態で本開示を実現することもできる。
2:第1のセンサ、4:第2のセンサ、10、20:物体検出装置、12:範囲測定部、14:範囲取得部、16範囲判定部、18、26:物体検出部、22:メッシュ分割部、24:評価部、200:物体、300、302、330、340、350、360、370、380、390:存在範囲、310、312、314、316:検出範囲、320:共通範囲、304、332、342、352、362、372、382、392:セル

Claims (6)

  1. 少なくとも物体(200)の方位を検出する1個以上の第1のセンサ(2)による検出結果に基づいて、少なくとも前記物体が存在する方位の範囲を前記物体が存在する存在範囲(300、302、330、340、350、360、370、380、390)として測定するように構成された範囲測定部(12、S402、S412)と、
    前記第1のセンサにより前記物体の位置を検出できる検出範囲(310、314)と、物体との距離を検出する複数の第2のセンサにより前記物体の位置を検出できる検出範囲(312、316)とが重なる共通範囲(320)を取得する範囲取得部(14、S404、S414)と、
    前記範囲測定部が測定する前記存在範囲と前記範囲取得部が取得する前記共通範囲とが重なっているか否かを判定するように構成された範囲判定部(16、S404、S414)と、
    前記存在範囲と前記共通範囲とが重なっていると前記範囲判定部が判定すると、前記存在範囲において、前記第2のセンサのそれぞれが検出する前記第2のセンサと前記物体との距離に基づいて、前記物体の位置を検出するように構成された物体検出部(18、26、S406、S420)と、
    を備える物体検出装置(10、20)。
  2. 請求項1に記載の物体検出装置であって、
    前記第1のセンサは、前記物体が存在する方位に加え、前記第1のセンサと前記物体との距離を検出し、
    前記範囲測定部は、前記第1のセンサによる検出結果に基づいて、前記第1のセンサと前記物体との距離の範囲と、前記方位の範囲とから前記存在範囲を測定するように構成されており、
    前記範囲判定部は、前記存在範囲が前記共通範囲に含まれるか否かを判定するように構成されており、
    前記物体検出部は、前記存在範囲が前記共通範囲に含まれると前記範囲判定部が判定すると、前記存在範囲において、前記第2のセンサのそれぞれが検出する前記第2のセンサと前記物体との距離に基づいて、前記物体の位置を検出するように構成されている、
    物体検出装置。
  3. 請求項1または2に記載の物体検出装置であって、
    前記第2のセンサが検出する前記距離の精度は、前記第1のセンサが検出する前記距離の精度よりも高い、
    物体検出装置。
  4. 請求項1から3のいずれか一項に記載の物体検出装置であって、
    前記存在範囲を複数のセル(304、332、342、352、362、372、382、392)からなるメッシュ状に分割するように構成されたメッシュ分割部(22、S416)と、
    前記第2のセンサのそれぞれが検出する前記第2のセンサと前記物体との距離に基づいて前記セルのそれぞれにおいて前記物体が存在する確からしさを表す評価値を設定するように構成された評価部(24、S418)と、
    を備え、
    前記物体検出部は、前記評価部が設定する前記評価値に基づいて、前記セルのそれぞれに前記物体が存在するか否かを判定するように構成されている、
    物体検出装置。
  5. 請求項4に記載の物体検出装置であって、
    前記評価部は、前記セルのそれぞれにおいて、前記第2のセンサのそれぞれが検出する前記物体との距離と、前記セルと前記第2のセンサのそれぞれとの距離との差が最小となる最小距離誤差を算出し、前記第2のセンサのそれぞれに対応した前記最小距離誤差の合計と、前記セルのそれぞれにおいて前記第2のセンサのそれぞれに対応した前記最小距離誤差の分散とを算出し、前記最小距離誤差の合計と前記最小距離誤差の分散とを前記評価値として設定するように構成されており、
    前記物体検出部は、前記評価値として、前記最小距離誤差の合計と前記最小距離誤差の分散とに基づいて、前記セルのそれぞれに前記物体が存在するか否かを判定するように構成されている、
    物体検出装置。
  6. 請求項1から5のいずれか1項に記載の物体検出装置であって、
    前記第1のセンサは前記第2のセンサよりも前記物体から離れた位置に設置されている、
    物体検出装置。
JP2019060887A 2019-03-27 2019-03-27 物体検出装置 Active JP7244325B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019060887A JP7244325B2 (ja) 2019-03-27 2019-03-27 物体検出装置
DE112020001507.6T DE112020001507T5 (de) 2019-03-27 2020-03-26 Objekterfassungsvorrichtung
PCT/JP2020/013599 WO2020196723A1 (ja) 2019-03-27 2020-03-26 物体検出装置
CN202080024253.6A CN113631948A (zh) 2019-03-27 2020-03-26 物体检测装置
US17/483,647 US20220012492A1 (en) 2019-03-27 2021-09-23 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060887A JP7244325B2 (ja) 2019-03-27 2019-03-27 物体検出装置

Publications (2)

Publication Number Publication Date
JP2020159925A true JP2020159925A (ja) 2020-10-01
JP7244325B2 JP7244325B2 (ja) 2023-03-22

Family

ID=72611570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060887A Active JP7244325B2 (ja) 2019-03-27 2019-03-27 物体検出装置

Country Status (5)

Country Link
US (1) US20220012492A1 (ja)
JP (1) JP7244325B2 (ja)
CN (1) CN113631948A (ja)
DE (1) DE112020001507T5 (ja)
WO (1) WO2020196723A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099930A (ja) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd 周辺監視センサ
JP2004301567A (ja) * 2003-03-28 2004-10-28 Fujitsu Ltd 衝突予測装置
US20050197770A1 (en) * 2004-02-18 2005-09-08 Schiffmann Jan K. Collision detection system and method of estimating target crossing location
WO2017017766A1 (ja) * 2015-07-27 2017-02-02 日産自動車株式会社 物体検出方法及び物体検出装置
JP2019035633A (ja) * 2017-08-14 2019-03-07 本田技研工業株式会社 外界認識装置
WO2019151489A1 (ja) * 2018-02-02 2019-08-08 日本電気株式会社 センサ情報統合システム、センサ情報統合方法及びプログラム
JP7111586B2 (ja) * 2018-11-09 2022-08-02 株式会社Soken 物体検出装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7362258B2 (en) * 2004-03-31 2008-04-22 Honda Motor Co., Ltd. Transponder detection system using radio and light wave signals
US7688256B2 (en) * 2004-06-24 2010-03-30 Bae Systems Plc Velocity extraction
US8311695B2 (en) * 2008-03-19 2012-11-13 Honeywell International Inc. Construction of evidence grid from multiple sensor measurements
JP2011027457A (ja) * 2009-07-22 2011-02-10 Fujitsu Ten Ltd 物体検出装置、情報処理方法、および、情報処理システム
JP5206752B2 (ja) * 2010-08-30 2013-06-12 株式会社デンソー 走行環境認識装置
JP5950761B2 (ja) 2012-08-28 2016-07-13 三菱電機株式会社 測位装置
JP5812064B2 (ja) * 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
EP3301470A3 (en) * 2016-09-29 2018-06-20 Panasonic Corporation Multi-radar system
US10195992B2 (en) * 2017-04-03 2019-02-05 Ford Global Technologies, Llc Obstacle detection systems and methods
US10656245B2 (en) * 2017-09-05 2020-05-19 Valeo Radar Systems, Inc. Automotive radar sensor blockage detection using adaptive overlapping visibility
US20190154823A1 (en) * 2017-11-17 2019-05-23 Valeo Radar Systems, Inc. Method for detecting pedestrians using 24 gigahertz radar
US10501064B2 (en) * 2017-12-08 2019-12-10 GM Global Technology Operations LLC Method and apparatus for monitoring a vehicle brake
US11353577B2 (en) * 2018-09-28 2022-06-07 Zoox, Inc. Radar spatial estimation
JP6747491B2 (ja) 2018-11-28 2020-08-26 ソニー株式会社 血液状態解析装置、血液状態解析システム、血液状態解析方法、および該方法をコンピューターに実現させるための血液状態解析プログラム
US11801867B2 (en) * 2020-03-30 2023-10-31 Honda Motor Co., Ltd. Vehicle control device and vehicle control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099930A (ja) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd 周辺監視センサ
JP2004301567A (ja) * 2003-03-28 2004-10-28 Fujitsu Ltd 衝突予測装置
US20050197770A1 (en) * 2004-02-18 2005-09-08 Schiffmann Jan K. Collision detection system and method of estimating target crossing location
WO2017017766A1 (ja) * 2015-07-27 2017-02-02 日産自動車株式会社 物体検出方法及び物体検出装置
JP2019035633A (ja) * 2017-08-14 2019-03-07 本田技研工業株式会社 外界認識装置
WO2019151489A1 (ja) * 2018-02-02 2019-08-08 日本電気株式会社 センサ情報統合システム、センサ情報統合方法及びプログラム
JP7111586B2 (ja) * 2018-11-09 2022-08-02 株式会社Soken 物体検出装置

Also Published As

Publication number Publication date
DE112020001507T5 (de) 2021-12-23
US20220012492A1 (en) 2022-01-13
JP7244325B2 (ja) 2023-03-22
CN113631948A (zh) 2021-11-09
WO2020196723A1 (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
CN110531357B (zh) 估计移动目标在水平面中速度大小的方法和雷达检测系统
US9794519B2 (en) Positioning apparatus and positioning method regarding a position of mobile object
US20180005056A1 (en) Object recognition device
JP2006234513A (ja) 障害物検出装置
JPWO2016103464A1 (ja) 障害物検知装置及び障害物検知方法
US8744752B2 (en) Apparatus and method for detecting locations of vehicle and obstacle
WO2020095819A1 (ja) 物体検出装置
WO2019220503A1 (ja) 物体検出装置及び物体検出方法
US11073498B2 (en) Detection system, detection device, and detection method
US20220113171A1 (en) Sensor diagnosis device and computer readable medium
WO2020196723A1 (ja) 物体検出装置
US11841419B2 (en) Stationary and moving object recognition apparatus
JP7074593B2 (ja) 物体検出装置
CN115951336A (zh) 确定激光雷达误差的方法、装置、设备及存储介质
JP6686776B2 (ja) 段差検出方法及び段差検出装置
US11609307B2 (en) Object detection apparatus, vehicle, object detection method, and computer readable medium
US11454698B2 (en) Radar mount-angle calibration
US20230146935A1 (en) Content capture of an environment of a vehicle using a priori confidence levels
WO2019030893A1 (ja) レーダ信号処理装置及びレーダ信号処理方法
JP7254243B2 (ja) 物体検知システムおよび物体検知方法
JP7409959B2 (ja) 物体検出装置
CN112352167B (zh) 定位装置、定位方法及定位系统
JP3882087B2 (ja) レーダ装置
RU2610520C1 (ru) Способ автоматического определения гидролокатором курсового угла обнаруженного объекта
JP2021001729A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R150 Certificate of patent or registration of utility model

Ref document number: 7244325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150