JP2020118514A - 測距方法、測距装置、車載装置、移動体、測距システム - Google Patents
測距方法、測距装置、車載装置、移動体、測距システム Download PDFInfo
- Publication number
- JP2020118514A JP2020118514A JP2019008763A JP2019008763A JP2020118514A JP 2020118514 A JP2020118514 A JP 2020118514A JP 2019008763 A JP2019008763 A JP 2019008763A JP 2019008763 A JP2019008763 A JP 2019008763A JP 2020118514 A JP2020118514 A JP 2020118514A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- evaluation value
- image
- matching evaluation
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
- G01S13/32—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S13/34—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
- G01S13/343—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using sawtooth modulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
- G01S13/32—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S13/34—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
- G01S13/345—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using triangular modulation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/34—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Measurement Of Optical Distance (AREA)
- Radar Systems Or Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
対応点を探す事をマッチングといい、そのマッチングの度合いをコストという。コストはマッチングの度合いの「評価値」であり、「非類似度」や「類似度」とも表現される。非類似度が低ければより一致している事を示し、類似度が高ければより一致している事を示す指標である。「非類似度」「類似度」を合わせて「一致度」とも表現することもある。
上記したように、ステレオカメラによる測距値と、LiDAR、FCM又はFMCW方式による測距値とを融合することが検討されている。まず、物体からの反射波を受光して距離を計測するToF方式(LiDAR)では受光量が微弱になることにより、遠方の物体又は反射率の低い物体までの測距が困難になる場合が起きやすい。
本実施形態の課題について補足するため、FCM方式による測距方法を説明する。図1は、送信波27、受信波28、及び、反射波29のモデルを示す。ミリ波送受信装置25が送信した送信波27が物体26で反射した反射波29が、受信波28として受信されている。ミリ波送受信装置25と物体との距離はRである。
Δt=2R/C …(1)
次に、ΔtとΔfには、図2(b)の図から明らかなように以下の関係がある
Δt:Δf=T:F
これを変形して、以下の式が得られる。
Δf=F×Δt/T …(2)
式(1)を式(2)に代入すると下式が得られる。
Δf=2RF/CT …(3)
R=CTΔf/2F …(4)
したがって、式(4)にフーリエ変換で求めたΔfを代入することで距離Rに変換できる。
Rk=CTΔfk/2F …(5)
実際の測距ではフーリエ変換で得た周波数スペクトルからΔf1、Δf2、Δf3を探すことになるが、Δf1、Δf2、Δf3の実際の周波数は不明である。このため、パワーが閾値以上となる周波数をΔfとする処理が一般に行われている。
図7を用いて、測距システム100の適用例について説明する。図7は、移動体の一例である車両に搭載された測距システム100を示す図である。図7では、移動体200のフロントウィンドウの内側中央位置に、測距システム100が取り付けられている。測距システム100は、ミリ波レーダ測距部110とステレオ画像演算部120とを有する。測距システム100は測距する装置であるため測距装置ということができる。ミリ波レーダ測距部110とステレオ画像演算部120はいずれも前方が測距範囲となるように設置されている。ミリ波レーダ測距部110は、ステレオ画像演算部120が有するステレオカメラ(2つの撮像部)の間(好ましくは中央)に配置されるものとする。ミリ波レーダ測距部110は、上記のようにFCM方式で物体までの距離と方向を測距する。
図9は、ミリ波レーダ測距部110によるミリ波の照射範囲について説明する図の一例である。図9(a)は、移動体200を上方から見た上面図であり、図9(b)は、移動体200を側方から見た側面図である。
図10は、ステレオ画像演算部120によるステレオ画像の撮像範囲を説明するための図である。図10(a)は、移動体200の上面図である。ステレオ画像演算部120は、2つの撮像装置(カメラ)が移動体200の進行方向の前方に光軸を向けて設置されており、進行方向の所定範囲の画像を撮像する。ミリ波の照射範囲とステレオカメラの撮像範囲は少なくとも一部が重複している。
図12は、測距システムの一例の概略構成図を示す。測距システム100は、ミリ波レーダ測距部110とステレオ画像演算部120とを有する。ミリ波レーダ測距部110は送信アンテナ31、受信アンテナ32、発生器34、ミキサ33、ADC35、方向演算部36、及びFFT部37を有している。
続いて、図14を用いて、FCM方式における物体の方向の検出方法を説明する。図14は物体の方向を説明する図である。図14(a)はミリ波送受信装置25と物体26の一例の上面図を示す。FCM方式は、水平面を使用して反射された反射波の到来方向θ(角度θという場合がある)を推定する。例えば移動体の進行方向を0度とすれば、θは水平方向の物体26の角度(到来方向)である。
l=dsinθ
r=l/C=(d/C)sinθ
θ=arcsin(r・C/d)…(6)
<ブロックマッチングによる整数視差の演算>
図15を用いてブロックマッチングによる整数視差の演算について説明する。図15は、右カメラ11により撮像された基準画像420と、左カメラ12により撮像された比較画像410における、注目している画素p=(Px3,Py5)のコストとして、SAD(Sum of Absolute Difference)を算出する例を示した図である。なお、SADの計算式を(数1)に示す。
伝播部40は、画素ごとに得たステレオマッチングコストC(p,d)を下式(7)に基づいて伝播コストLr(p,d)を算出する。
続いて、図18、図19を用いてうなり信号の周波数範囲の限定方法を説明する。図18はうなり信号をフーリエ変換して得られる周波数スペクトルの一例である。図18(a)は反射波にノイズが乗ってない状態を示し、図18(b)は反射波にノイズが乗った状態を示す。図19はデータ融合部39が視差画像から求めた距離L1と、FCM方式で検出された距離Rを融合する手順を示す一例のフローチャート図である。
L1=(B×F/p)/d …(9)
ただし、Bは基線長、Fは焦点距離、pは画素ピッチ、Dは視差である。
このため、式(9)の距離L1はRθφ極座標空間で距離Rに換算される。
R=L/cosθ …(10)
(S2)
次に、周波数変換部42は式(10)で換算した距離Rを周波数のずれΔfに変換する。変換式は式(4)でよい。
Δf=(2F/CT)×(L/cosθ)
=2FBf/(CTpDcosθ) …(11)
(S3)
次に、周波数範囲限定部43は求めた周波数のずれΔfの近くの周波数に、うなり信号の周波数を限定する。例えば、範囲を決めるパラメータをαとして「Δf±α」を、周波数スペクトルのピークを検出する範囲に制限する。αは適宜決定される設計値である。固定値でもよいし、可変値でもよい。固定値の場合、平均的なΔfの半値幅などとし、可変値の場合、例えば周波数スペクトルにいくつかあるピーク値の平均の半分程度とする。
次に、うなり信号周波数決定部44は、周波数スペクトルにおいて周波数範囲限定部43が限定した周波数範囲の中から、閾値以上のパワーを有し、かつ、極大値を決定する。この極大値がある周波数が求める周波数のずれΔfである。この閾値は物体があることで生じたうなり信号があると推定してよいパワー値である。
次に、距離逆変換部45は、うなり信号周波数決定部44が決定した周波数のずれΔfを式(4)で距離Rに変換し、式(10)を使ってこの距離Rをステレオ画像演算部120から見た距離L2に変換する。
次に、視差画像距離融合部46は視差画像が有する画素ごとの距離L1と、距離逆変換部が変換した距離L2を融合する。融合の処理について説明する。
(i) FCM方式で求めた距離L2によりブロックマッチングで求めた距離L1を強制的に置き換える。
(ii) ミリ波レーダで求めた距離L2とブロックマッチングで求めた距離L1の信頼性が高い方を採用する。
(iii) 距離L1,L2に距離に応じて重み付けする。
以上説明したように、本実施例の測距システムは、ミリ波レーダにより求めた測距値を、ブロックマッチングによりもとめた測距値が距離画像に変換される前に、ブロックマッチングによりもとめた測距値と融合できる。したがって、遠方でも測距値の分散が小さくかつ空間分解能が高い距離画像が得られる。また、うなり信号がフーリエ変換された周波数スペクトルにおいて周波数範囲を、ブロックマッチングによりもとめた測距値で限定するので、ノイズによるピークを取り出しにくくなり、物体の数や距離の精度を向上できる。
続いて、図22〜図24を用いてステレオマッチングコストと周波数スペクトルの融合について説明する。図22はデータ融合部39が視差画像のステレオマッチングコストと、周波数スペクトルを融合する手順を示す一例のフローチャート図である。図22の処理は受信波の到来方向θに対応する画素ごとに実行される。
まず、距離空間変換部61は評価部38が生成した各画素の視差空間のステレオマッチングコストを、距離空間のコストカーブに変換する。この変換について図23を用いて説明する。
図22に戻って説明する。次に、周波数変換部62は距離空間のステレオマッチングコストを周波数空間のステレオマッチングコスト(コストカーブ)に変換する。式(10)により距離L1をRθφ極座標空間の距離Rに変換する。式(10)のθは受信波の到来方向である。そして、式(4)を使って、距離Rを周波数空間に変換する。
次に、コストカーブ融合部63は周波数空間のステレオマッチングコストと、うなり信号の周波数スペクトルを融合して融合コストカーブを生成する。
図22に戻って説明する。続いて、最小値決定部64は周波数空間の融合コストカーブにおいて値が最小となる周波数を決定する。図24(d)に示したように、周波数のずれΔf1が決定される。
そして、周波数距離変換部65は、式(4)を用いてステップS14で決定した周波数のずれΔfを距離Rに変換する。距離RはRθφ極座標空間の距離なので、式(10)を使ってステレオ画像演算部120の距離空間の距離L2に変換する。データ融合部39は受信波の到来方向θに対応する全ての画素において図22の処理を実行する。それぞれの画素の距離を画像データに格納して距離画像とする。
以上説明したように、本実施例の測距システム100は、ミリ波レーダにより求めた測距値を、ブロックマッチングによりもとめた測距値が距離画像に変換される前に、ブロックマッチングによりもとめた測距値と融合できる。したがって、遠方でも測距値の分散が小さくかつ空間分解能が高い距離画像が得られる。また、ステレオマッチングコストにうなり信号の周波数スペクトルを融合して最小値を決定するので、ステレオマッチングコストが平坦でも最小値を決定しやすくなる。
t=1/f …(12)
コストカーブ融合部63は時間空間のステレオマッチングコストとうなり信号の時間空間のスペクトルを融合して、融合コストカーブを生成する。最小値決定部74は、時間空間の融合コストカーブにおいて値が最小となる周波数を決定する。時間距離変換部75は、決定した時間を距離Rに変換し、距離Rをステレオ画像演算部120から見た距離L2に変換する。この距離が各画素に格納され距離画像となる。
続いて、図26、図27を用いてステレオマッチングコストと周波数スペクトルの融合について説明する。図26はデータ融合部39が視差画像のステレオマッチングコストと、うなり信号の時間空間のスペクトルを融合する手順を示す一例のフローチャート図である。図26の処理は受信波の到来方向θに対応する画素ごとに実行される。
まず、時間空間変換部1は評価部38が生成した各画素の視差空間のステレオマッチングコストを、時間空間のコストカーブに変換する。視差dを式(9)で距離L1に変換し、次いで、この距離L1を式(10)で距離Rに変換する。そして、距離Rを式(1)で時間tに変換する。
図26に戻って説明する。次に、時間空間変換部2は式(12)の関係を利用して、うなり信号の周波数スペクトルを時間空間のスペクトルに変換する。
次に、コストカーブ融合部73は時間空間のステレオマッチングコストと、うなり信号の時間空間のスペクトルを融合して融合コストカーブを生成する。図24にて説明したように、うなり信号の時間空間のスペクトルはゼロを基準に反転させる。図27(b)は融合コストカーブを模式的に示す。
図26に戻って説明する。続いて、最小値決定部74は時間空間の融合コストカーブにおいて値が最小となる時間tを決定する。
そして、時間距離変換部75は、式(1)を用いてステップS24で決定した時間tを距離Rに変換し、式(10)を用いて距離Rをステレオ画像演算部120から見た距離L2に変換する。データ融合部39は到来方向θに対応する画素において図26の処理を実行する。それぞれの画素の距離を画像データに格納して距離画像とする。
以上説明したように、本実施例の測距システム100は、ミリ波レーダにより求めた測距値を、ブロックマッチングによりもとめた測距値が距離画像に変換される前に、ブロックマッチングによりもとめた測距値と融合できる。したがって、遠方でも測距値の分散が小さくかつ空間分解能が高い距離画像が得られる。また、ステレオマッチングコストにうなり信号の周波数スペクトルを融合して最小値を決定するので、ステレオマッチングコストが平坦でも最小値を決定しやすくなる。
続いて、図29、図30を用いてうなり信号の周波数範囲の限定方法を説明する。図29はうなり信号の周波数スペクトルから変換された時間空間の周波数スペクトルの一例である。図29(a)は反射波にノイズが乗ってない状態を示し、図29(b)は反射波にノイズが乗った状態を示す。図30は時間空間における距離画像の距離L1と、FCM方式で検出された距離Rを融合する手順を示す一例のフローチャート図である。
時間空間変換部4は、式(12)の関係を使って、うなり信号の周波数スペクトルを時間空間のスペクトルに変換する。
次に、時間範囲限定部83は視差画像から求めた時間の近くに、ピークが決定される時間の範囲を限定する。例えば、時間の範囲を決めるパラメータをβとして「t±β」から、周波数スペクトルのピークを検出する。βは適宜決定される設計値である。固定値でもよいし、可変値でもよい。固定値の場合、平均的なピーク値の半値幅などとし、可変値の場合、例えば時間空間のスペクトルが有するいくつかのピーク値の平均の半分程度とする。
うなり信号時間決定部84は、時間空間のスペクトルにおいて時間範囲限定部83が限定した時間範囲の中から、閾値以上のパワーを有し、かつ、極大値を決定する。この閾値は物体があることで生じたうなり信号があると推定してよいパワー値である。
距離逆変換部85は、式(1)を使ってステップS46で決定した時間tをθφR座標系の距離Rに変換する。また、式(10)を使って距離Rをステレオ画像演算部120の座標系の距離L2に変換する。
次に、視差画像距離融合部86は視差画像が有する画素ごとの距離L1と、距離逆変換部85が変換した距離L2を融合する。融合の処理については実施例1と同様でよい。
以上説明したように、本実施例の測距システムは、ミリ波レーダにより求めた測距値を、ブロックマッチングによりもとめた測距値が距離画像に変換される前に、ブロックマッチングによりもとめた測距値と融合できる。したがって、遠方でも測距値の分散が小さくかつ空間分解能が高い距離画像が得られる。また、うなり信号がフーリエ変換された時間空間のスペクトルにおいて時間範囲を、ブロックマッチングによりもとめた時間で限定するので、ノイズによるピークを取り出しにくくなり、物体の数や距離の精度を向上できる。
・ミリ波レーダ測距部110に異常がある場合は、ECU20はステレオ画像演算部120が生成する距離画像により運転支援を継続できる。
・ステレオ画像演算部120に異常がある場合は、ECU20はFFT部37から周波数スペクトルと物体の方向を取得し、周波数スペクトルから距離情報を求めることで、ECU20は運転支援を継続できる。周波数スペクトルでなく距離情報を取得してもよい。
・ステレオマッチングコストが平坦で、かつ、周波数スペクトルのピークが1つの場合、周波数スペクトルとステレオマッチングコストを融合する。
・周波数スペクトルが複数のピークを有し、ステレオマッチングコストの極小値が1つの場合、周波数スペクトルとステレオマッチングコストを融合する。
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
110 レーザレーダ測距部
120 ステレオ画像演算部
200 移動体
Claims (14)
- 取得手段が、対象物に照射される送信波と対象物からの反射波の合成により得たうなり信号から信号成分を取り出すステップと、
生成手段が、複数の画像データのマッチング評価値を生成するステップと、
前記信号成分と前記マッチング評価値の融合を、前記マッチング評価値から距離画像を生成する前に融合手段が行い、融合された前記信号成分と前記マッチング評価値から画素ごとに距離情報が設定された距離画像を生成するステップと、
を有することを特徴とする測距方法。 - 前記融合手段は、前記マッチング評価値に基づいて、前記信号成分の極大値を決定する範囲を限定し、前記範囲で極大値を取る前記信号成分から対象物までの距離を求めることを特徴とする請求項1に記載の測距方法。
- 前記信号成分は前記うなり信号の周波数成分であり、
前記融合手段は、前記マッチング評価値を周波数に変換し、
変換した周波数で前記うなり信号の周波数成分の範囲を限定し、前記周波数成分の範囲から極大値を有する周波数を決定し、
決定した周波数を距離に変換して、前記距離画像を生成することを特徴とする請求項1又は2に記載の測距方法。 - 前記信号成分は前記うなり信号の周波数成分であり、
前記融合手段は、前記マッチング評価値を時間に変換し、
前記うなり信号の周波数成分を時間成分に変換し、
前記マッチング評価値から変換された時間で前記うなり信号の時間成分の範囲を限定し、前記時間成分の範囲から極大値を有する時間を決定し、
決定した時間を距離に変換して、前記距離画像を生成することを特徴とする請求項1又は2に記載の測距方法。 - 前記生成手段は、複数の視差に対する前記マッチング評価値を生成し、
前記融合手段は、前記マッチング評価値の横軸である視差と、前記信号成分の横軸を同じ物理量に合わせて、前記マッチング評価値と前記信号成分を融合し、
融合して得られたカーブが極小値を示す前記物理量に基づいて対象物までの距離を求めることを特徴とする請求項1に記載の測距方法。 - 前記信号成分は前記うなり信号の周波数成分であり、
前記融合手段は、前記マッチング評価値の横軸である視差を周波数に変換し、
周波数に対する前記マッチング評価値と前記信号成分を融合し、
融合して得られたカーブが極小値を示す周波数に基づいて対象物までの距離を求めることを特徴とする請求項5に記載の測距方法。 - 前記信号成分は前記うなり信号の周波数成分であり、
前記融合手段は、前記マッチング評価値の横軸である視差を時間に変換し、
周波数に対する前記信号成分を、時間に対する前記周波数成分に変換し、
時間に対する前記マッチング評価値と前記信号成分を融合し、
融合して得られたカーブが極小値を示す時間に基づいて対象物までの距離を求めることを特徴とする請求項5に記載の測距方法。 - 前記融合手段は、前記マッチング評価値が平坦で、前記うなり信号の周波数成分のピークが1つの場合、前記マッチング評価値と前記信号成分を融合し、
前記うなり信号の周波数成分が複数のピークを有し、前記マッチング評価値の極小値が1つの場合、前記マッチング評価値と前記信号成分を融合することを特徴とする請求項5〜7のいずれか1項に記載の測距方法。 - 送信波の送信、反射波の受信及び前記うなり信号に関する処理を行う第一の機能の異常を検出する第一の異常検出部と、
画像データの撮像と前記画像データの処理に関する処理を行う第二の機能の異常を検出する第二の異常検出部と、
前記第一の異常検出部又は前記第二の異常検出部の少なくとも一方が異常を検出した旨を表示装置に表示することを特徴とする請求項1〜8のいずれか1項に記載の測距方法。 - 前記第一の異常検出部が前記第一の機能の異常を検出した場合、前記融合手段は、複数の画像データの前記マッチング評価値から、前記画像データの画素に距離情報が対応付けられた前記距離画像を生成し、
前記第二の異常検出部が前記第二の機能の異常を検出した場合、前記第一の機能は前記信号成分に基づく距離情報を外部に出力することを特徴とする請求項9に記載の測距方法。 - 対象物に照射される送信波と対象物からの反射波の合成により得たうなり信号から信号成分を取り出す取得手段と、
複数の画像データのマッチング評価値を生成する生成手段と、
前記信号成分と前記マッチング評価値の融合を、前記マッチング評価値から距離画像を生成する前に行い、融合された前記信号成分と前記マッチング評価値から画素ごとに距離情報が設定された距離画像を生成する融合手段と、
を有することを特徴とする測距装置。 - 対象物に照射される送信波と対象物からの反射波の合成により得たうなり信号から信号成分を取り出す取得手段と、
複数の画像データのマッチング評価値を生成する生成手段と、
前記信号成分と前記マッチング評価値の融合を、前記マッチング評価値から距離画像を生成する前に行い、融合された前記信号成分と前記マッチング評価値から画素ごとに距離情報が設定された距離画像を生成する融合手段と、を有し、
前記距離画像を移動体の制御ユニットに送出する車載装置。 - 対象物に照射される送信波と対象物からの反射波の合成により得たうなり信号から信号成分を取り出す取得手段と、
複数の画像データのマッチング評価値を生成する生成手段と、
前記信号成分と前記マッチング評価値の融合を、前記マッチング評価値から距離画像を生成する前に行い、融合された前記信号成分と前記マッチング評価値から画素ごとに距離情報が設定された距離画像を生成する融合手段と、
前記距離画像を使って移動体を制御する制御ユニットと、
を有する移動体。 - 対象物に送信波を送信し、対象物からの反射波を受信する測距部と、
撮像部と、
前記送信波と前記反射波の合成により得たうなり信号から信号成分を取り出す取得手段と、
複数の画像データのマッチング評価値を生成する生成手段と、
前記信号成分と前記マッチング評価値の融合を、前記マッチング評価値から距離画像を生成する前に行い、融合された前記信号成分と前記マッチング評価値から画素ごとに距離情報が設定された距離画像を生成する融合手段と、
を有することを特徴とする測距システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019008763A JP7238422B2 (ja) | 2019-01-22 | 2019-01-22 | 測距方法、測距装置、車載装置、移動体、測距システム |
EP20151291.0A EP3686631A1 (en) | 2019-01-22 | 2020-01-10 | Range finding method, range finding apparatus, and range finding system |
US16/745,391 US11366229B2 (en) | 2019-01-22 | 2020-01-17 | Range finding method, range finding apparatus, and range finding system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019008763A JP7238422B2 (ja) | 2019-01-22 | 2019-01-22 | 測距方法、測距装置、車載装置、移動体、測距システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020118514A true JP2020118514A (ja) | 2020-08-06 |
JP7238422B2 JP7238422B2 (ja) | 2023-03-14 |
Family
ID=69159576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019008763A Active JP7238422B2 (ja) | 2019-01-22 | 2019-01-22 | 測距方法、測距装置、車載装置、移動体、測距システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11366229B2 (ja) |
EP (1) | EP3686631A1 (ja) |
JP (1) | JP7238422B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022142602A (ja) * | 2021-03-16 | 2022-09-30 | 独立行政法人国立高等専門学校機構 | 電磁波レーダ装置および電磁波レーダ装置の学習方法 |
US11885709B2 (en) | 2021-08-26 | 2024-01-30 | Transtron Inc. | Engine test method, computer-readable recording medium, and engine test apparatus |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7238422B2 (ja) * | 2019-01-22 | 2023-03-14 | 株式会社リコー | 測距方法、測距装置、車載装置、移動体、測距システム |
US11143753B2 (en) * | 2019-05-09 | 2021-10-12 | GM Global Technology Operations LLC | Range extension with segmentation |
CN113644981B (zh) * | 2021-06-24 | 2022-10-14 | 广东工业大学 | 一种产生频谱平坦的毫米波噪声的系统和方法 |
CN117930224B (zh) * | 2024-03-19 | 2024-06-18 | 山东科技大学 | 一种基于单目视觉深度估计的车辆测距方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006234513A (ja) * | 2005-02-23 | 2006-09-07 | Toyota Central Res & Dev Lab Inc | 障害物検出装置 |
JP2014006123A (ja) * | 2012-06-22 | 2014-01-16 | Toyota Motor Corp | 物体検出装置、情報処理装置、物体検出方法 |
WO2017057056A1 (ja) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
JP2018021776A (ja) * | 2016-08-02 | 2018-02-08 | 株式会社リコー | 視差演算システム、移動体及びプログラム |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4402400B2 (ja) * | 2003-08-28 | 2010-01-20 | オリンパス株式会社 | 物体認識装置 |
CN100573191C (zh) * | 2004-04-28 | 2009-12-23 | 松下电器产业株式会社 | 超声波测距装置 |
EP2026097A1 (en) * | 2007-08-08 | 2009-02-18 | Harman Becker Automotive Systems GmbH | Vehicle illumination system |
JP5549230B2 (ja) | 2010-01-13 | 2014-07-16 | 株式会社リコー | 測距装置、測距用モジュール及びこれを用いた撮像装置 |
JP5809390B2 (ja) | 2010-02-03 | 2015-11-10 | 株式会社リコー | 測距・測光装置及び撮像装置 |
US9267797B2 (en) | 2010-06-22 | 2016-02-23 | Ricoh Company, Ltd. | Range-finding device and imaging apparatus |
JP5742152B2 (ja) | 2010-09-28 | 2015-07-01 | 株式会社リコー | 撮像装置 |
JP5382087B2 (ja) * | 2011-11-02 | 2014-01-08 | 株式会社デンソー | レーダ装置 |
JP6275370B2 (ja) | 2012-04-11 | 2018-02-07 | 三菱電機株式会社 | レーダ装置 |
US9134402B2 (en) * | 2012-08-13 | 2015-09-15 | Digital Signal Corporation | System and method for calibrating video and lidar subsystems |
JP6476831B2 (ja) | 2013-12-26 | 2019-03-06 | 株式会社リコー | 視差演算システム、情報処理装置、情報処理方法及びプログラム |
US8886387B1 (en) * | 2014-01-07 | 2014-11-11 | Google Inc. | Estimating multi-vehicle motion characteristics by finding stable reference points |
JP6528447B2 (ja) | 2014-02-25 | 2019-06-12 | 株式会社リコー | 視差演算システム及び距離測定装置 |
JP2016001170A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理プログラム、及び、処理方法 |
JP6805534B2 (ja) | 2015-07-02 | 2020-12-23 | 株式会社リコー | 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム |
JP6825569B2 (ja) * | 2015-09-30 | 2021-02-03 | ソニー株式会社 | 信号処理装置、信号処理方法、およびプログラム |
EP3413267B1 (en) | 2016-02-05 | 2023-06-28 | Ricoh Company, Ltd. | Object detection device, device control system, objection detection method, and program |
EP3223034B1 (en) * | 2016-03-16 | 2022-07-20 | Ricoh Company, Ltd. | Object detection apparatus and moveable apparatus |
WO2017169491A1 (ja) * | 2016-03-30 | 2017-10-05 | 富士フイルム株式会社 | 撮像装置及びフォーカス制御方法 |
KR101877388B1 (ko) * | 2016-07-21 | 2018-07-11 | 엘지전자 주식회사 | 차량용 라이다 장치 |
JP6776692B2 (ja) * | 2016-07-25 | 2020-10-28 | 株式会社リコー | 視差演算システム、移動体及びプログラム |
WO2018196001A1 (en) * | 2017-04-28 | 2018-11-01 | SZ DJI Technology Co., Ltd. | Sensing assembly for autonomous driving |
EP3514759A1 (en) | 2018-01-23 | 2019-07-24 | Ricoh Company, Ltd. | Image processing method, image processing apparatus, on-board device, moving body, and system |
JP2020003236A (ja) | 2018-06-25 | 2020-01-09 | 株式会社リコー | 測距装置、移動体、測距方法、測距システム |
JP7238422B2 (ja) * | 2019-01-22 | 2023-03-14 | 株式会社リコー | 測距方法、測距装置、車載装置、移動体、測距システム |
-
2019
- 2019-01-22 JP JP2019008763A patent/JP7238422B2/ja active Active
-
2020
- 2020-01-10 EP EP20151291.0A patent/EP3686631A1/en active Pending
- 2020-01-17 US US16/745,391 patent/US11366229B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006234513A (ja) * | 2005-02-23 | 2006-09-07 | Toyota Central Res & Dev Lab Inc | 障害物検出装置 |
JP2014006123A (ja) * | 2012-06-22 | 2014-01-16 | Toyota Motor Corp | 物体検出装置、情報処理装置、物体検出方法 |
WO2017057056A1 (ja) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
JP2018021776A (ja) * | 2016-08-02 | 2018-02-08 | 株式会社リコー | 視差演算システム、移動体及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022142602A (ja) * | 2021-03-16 | 2022-09-30 | 独立行政法人国立高等専門学校機構 | 電磁波レーダ装置および電磁波レーダ装置の学習方法 |
US11885709B2 (en) | 2021-08-26 | 2024-01-30 | Transtron Inc. | Engine test method, computer-readable recording medium, and engine test apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP7238422B2 (ja) | 2023-03-14 |
US20200233087A1 (en) | 2020-07-23 |
EP3686631A1 (en) | 2020-07-29 |
US11366229B2 (en) | 2022-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7238422B2 (ja) | 測距方法、測距装置、車載装置、移動体、測距システム | |
US10891751B2 (en) | Range image generating method, range image generating apparatus, and on-board device having range image generating function | |
US10962638B2 (en) | Vehicle radar sensing system with surface modeling | |
US10962641B2 (en) | Vehicle radar sensing system with enhanced accuracy using interferometry techniques | |
US10545229B2 (en) | Systems and methods for unified mapping of an environment | |
CN108139476B (zh) | 信息处理设备、信息处理方法和程序 | |
US11378654B2 (en) | Recurrent super-resolution radar for autonomous vehicles | |
US12000951B2 (en) | Robust radar-centric perception system | |
JP5363094B2 (ja) | 信号処理装置、及びレーダ装置 | |
WO2017181642A1 (en) | Systems and methods for radar-based localization | |
JP7176406B2 (ja) | 画像処理方法、画像処理装置、車載装置、移動体、システム | |
US11762084B2 (en) | Vehicle radar system | |
JP2020003236A (ja) | 測距装置、移動体、測距方法、測距システム | |
KR20150127188A (ko) | 물체 분류를 위한 편파측정 레이더 및 이를 이용한 물체 분류 방법 | |
KR20190060341A (ko) | 레이더 및 카메라 융합 시스템 및 그것을 이용한 타겟 탐지 방법 | |
US11346922B2 (en) | Object recognition apparatus and object recognition method | |
JP2011099683A (ja) | 物体検出装置 | |
JP2017227510A (ja) | レーダ装置および物標検知方法 | |
Cui et al. | 3D detection and tracking for on-road vehicles with a monovision camera and dual low-cost 4D mmWave radars | |
US20220308205A1 (en) | Partially-Learned Model for Speed Estimates in Radar Tracking | |
JP2021518557A (ja) | 移動する物体の材料組成を識別するための方法およびシステム | |
US20170254881A1 (en) | Apparatus for detecting axial misalignment | |
Ram | Fusion of inverse synthetic aperture radar and camera images for automotive target tracking | |
JP7233340B2 (ja) | 物標検出装置 | |
EP3540467B1 (en) | Range finding system, range finding method, in-vehicle device, and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211021 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230213 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7238422 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |