JP3685970B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP3685970B2
JP3685970B2 JP37094099A JP37094099A JP3685970B2 JP 3685970 B2 JP3685970 B2 JP 3685970B2 JP 37094099 A JP37094099 A JP 37094099A JP 37094099 A JP37094099 A JP 37094099A JP 3685970 B2 JP3685970 B2 JP 3685970B2
Authority
JP
Japan
Prior art keywords
reception
target
distance data
detection area
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP37094099A
Other languages
Japanese (ja)
Other versions
JP2001183462A (en
Inventor
隼人 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP37094099A priority Critical patent/JP3685970B2/en
Publication of JP2001183462A publication Critical patent/JP2001183462A/en
Application granted granted Critical
Publication of JP3685970B2 publication Critical patent/JP3685970B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、レーザーやミリ波よりなる電磁波を物体に向けて送信し、その反射波を受信することにより前記物体の距離および方位を検知する物体検知装置に関する。
【0002】
【従来の技術】
図14は自車の前方を走行する前走車、標識や歩道橋のような固定物、路上の落下物等のターゲットの距離や方位を検知するための物体検知装置の機能を示すもので、車両の前部に設けたレーダー装置から前方に送信される電磁波でターゲットを上下方向および左右方向に走査し、ターゲットにより反射された反射波を受信することにより自車を基準としたターゲットの距離および方位を検知するようになっている。
【0003】
例えば図14(A)に示す従来の物体検知装置は、レーダー装置から前方に送信される電磁波が100m前方で幅28mの走査範囲に放射状に拡散するため、ターゲットの左右の方位を検知するための検知エリアを左右方向に56等分した場合には、自車の40m前方では1本の検知エリアの幅が0.2mになってターゲットの左右の方位の分解能が0.2mになるが、自車の80m前方では1本の検知エリアの幅が0.4mになってターゲットの左右の方位の分解能が0.4mに低下してしまう。その理由は後から詳述する。そこで、自車から遠い位置での分解能を高めるべく、図14(B)に示すように走査範囲を前述の2倍の112の検知エリアに分割すれば、自車の40m前方では左右の方位の分解能を0.1mに高め、自車の80m前方では左右の方位の分解能を0.2mに高めることができる。
【0004】
ところで、上記図14(A)の走査範囲をラジアンで表記した図15(A)に示すように、左右方向の走査範囲である280mradを56等分した1本の検知エリアの検知角が5mradであり、走査範囲を1回走査する間に1680回の距離測定を行うとすると、1本の検知エリアについて30回の距離測定が行われることになる(図15(B)参照)。しかしながら、図15(C)に示すように前記1680回の距離測定の回数を変更せずに、検知エリアの数を56から112に増加させると、1本の検知エリアについて15回の距離測定しか行われなくなり、ターゲットの検知能力の低下、ターゲットの距離測定精度の低下、検知エリア数の増加による演算負荷の増加、近距離での分解能が必要以上に高くなることによる無駄な演算負荷の増加等の問題が発生する。
【0005】
次に、図14(A)および図15(A),(B)に示した従来技術において、ターゲットの左右の方位の分解能を高められない理由を以下に説明する。
【0006】
【表1】

Figure 0003685970
【0007】
表1は、走査範囲の左端の検知エリア1の距離計測データを示すものである。検知エリア1の距離データNo. に対応する第1ビーム〜第30ビームのうちの第4、第5、第6、第8、第9、第10,第11、第25、第29ビームについて距離データが得られたとする。それら9個の距離データのうち第25ビームおよび第29ビームの距離データは距離データが得られた他のデータと相互に離散した単独データであるため、ノイズデータであると判断して除外する。そして、残りの第4、第5、第6、第8、第9、第10、第11ビームの7個の距離データは相互に纏まっており、かつ計測誤差を考慮した範囲(例えば、±2mの範囲)内に収まっているため、これらをターゲットの距離データとして採用する。
【0008】
続いて、第4、第5、第6、第8、第9、第10、第11ビームの7個の距離データを全て加算した結果を距離データ数7で除算することにより、自車からターゲットまでの距離を算出する。即ち、7個の距離データの加算値は、80.2+80.8+79.2+81.3+80.1+82.2+78.6=562.4であり、これを7で除算した562.4÷7=80.34が自車からターゲットまでの距離となる。図16において、従来の手法では、ターゲットの方位は該ターゲットが検知エリア1の中央に在ると仮定しており、走査範囲は車体前方から左右にそれぞれ140mradであり、かつ各検知エリアの幅が5mradであることから、この場合のターゲットの方位は自車の前方を基準として左側に140−5/2=137.5mradとなる。
【0009】
従って、自車位置を原点としたターゲットの極座標T(R,θ)は、
T(R,θ)=(80.34m,137.5mrad) …(1)
となる。これを自車位置を原点とし、車体前後方向をX、車体左右方向をYとする直交座標(X,Y)に変換すると、ターゲットの位置はX=80.34×cos(137.5mrad)=79.58mとなり、Y=80.34×sin(137.5mrad)=11.01mとなる。これらの小数点以下第2桁を切り捨てると、ターゲットの最終的な位置座標Tは、
T(X,Y)=(79.5m,11.0m) …(2)
で与えられる。
【0010】
【発明が解決しようとする課題】
しかしながら、上記従来のものは、1本の検知エリア内で検知されたターゲットが該検知エリアの左右方向中央位置に在るものと仮定してターゲットの座標を算出しているので、図14の例では自車位置の80m前方で0.4mの分解能を得るのが限界であり、自車位置からターゲットまでの距離が増加するに伴ってターゲットの左右の方位に大きな誤差が発生する問題があった。
【0011】
本発明は前述の事情に鑑みてなされたもので、検知エリアの数やビームの数を増加させることなくターゲットの方位の分解能を高めることを目的とする。
【0012】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載され発明によれば、多数のビームの集合よりなる電磁波で物体を少なくとも一方向に走査し、その反射波を受信することで物体の存在を検知する物体検知装置において、電磁波のビーム毎に受信結果を検知する検知手段と、隣接する受信信号が得られたビームの受信結果を統合する受信結果統合手段と、受信結果統合手段の統合結果に基づいて少なくとも物体の方位を算出する演算手段とを備え、前記電磁波の走査範囲は測定回数がそれぞれ異なる複数の検知エリアに分割されており、前記受信結果統合手段は、検知エリア毎に前記ビームの受信結果が得られた複数の距離データ番号の平均値を求めるとともに、検知エリア内における最後の距離データ番号から該検知エリアにおける測定回数を求め、前記平均値を前記測定回数で除算することにより前記 統合結果を得ることを特徴とする物体検知装置が提案される。
【0013】
上記構成によれば、電磁波のビーム毎に受信結果を検知し、隣接する受信信号が得られたビームの受信結果を統合した結果に基づいて少なくとも物体の方位を算出するので、受信信号が得られた特定のビームと物体との関係に基づいて該物体の方位の分解能を高めることができる。特に、電磁波の走査範囲を測定回数がそれぞれ異なる複数の検知エリアに分割し、各々の検知エリア毎にビームの受信結果が得られた複数の距離データ番号の平均値を求める際に、検知エリア内における最後の距離データ番号から該検知エリアにおける測定回数を求め、前記平均値を前記測定回数で除算することにより前記統合結果を得るので、各々の検知エリア内における測定回数が変化しても物体の方位を支障なく検知することができる。
【0014】
また請求項2に記載された発明によれば、多数のビームの集合よりなる電磁波で物体を少なくとも一方向に走査し、その反射波を受信することで物体の存在を検知する物体検知装置において、ランダムな時間間隔で送信される電磁波のビーム毎に受信結果を検知する検知手段と、隣接する受信信号が得られたビームの受信結果を統合する受信結果統合手段と、受信結果統合手段の統合結果に基づいて少なくとも物体の方位を算出する演算手段とを備え、前記電磁波の走査範囲は複数の検知エリアに分割されており、前記受信結果統合手段は検知エリア毎に受信結果を統合し、前記受信結果統合手段は、検知エリアにおける走査開始から所定周期でカウントを行うとともに各々のビームが送信された時点でのカウント値を記憶し、ビームの受信結果と該受信結果に対応する前記カウント値とに基づいて該受信結果を統合することを特徴とする物体検知装置が提案される。
【0015】
上記構成によれば、電磁波のビーム毎に受信結果を検知し、隣接する受信信号が得られたビームの受信結果を統合した結果に基づいて少なくとも物体の方位を算出するので、受信信号が得られた特定のビームと物体との関係に基づいて該物体の方位の分解能を高めることができる。特に、電磁波の走査範囲を複数の検知エリアに分割して各々の検知エリア毎に受信結果を統合する際に、検知エリアにおける走査開始から所定周期でカウントを行うとともにランダムな時間間隔で送信される各々のビームが送信された時点でのカウント値を記憶し、ビームの受信結果と該受信結果に対応する前記カウント値とに基づいて該受信結果を統合するので、ビームを送信する時間間隔が不均一であっても物体の方位を支障なく検知し、他の物体検知装置からのビームを誤検知して検知精度が低下するのを防止することができる。
【0016】
また請求項3に記載された発明によれば、請求項1または2の構成に加えて、前記受信結果統合手段は物体が検知された検知エリアの走査方向における両端の中間位置を求め、前記物体の距離が所定値以下のときに前記演算手段は前記中間位置に基づき物体の方位を求めることを特徴とする物体検知装置が提案される。
【0017】
上記構成によれば、物体の距離が所定値以下のときに、物体が検知された検知エリアの両端の中間位置に基づき物体の方位を求めるので、方位の分解能が既に充分に高い近距離の物体について、方位の演算を簡略化して演算負荷を軽減することができる。
【0018】
また請求項に記載された発明によれば、請求項またはの構成に加えて、前記受信結果統合手段は複数の受信結果の平均値を求めるものであることを特徴とする物体検知装置が提案される。
【0019】
上記構成によれば、複数の受信結果の平均値を求めることにより受信結果を統合するので、物体の中心位置の方位を精密に検知することができる。
【0020】
また請求項に記載された発明によれば、請求項またはの構成に加えて、前記受信結果統合手段は複数の受信結果のうちの最小値および最大値の平均値を求めるものであることを特徴とする物体検知装置が提案される。
【0021】
上記構成によれば、受信結果のうちの最小値および最大値の平均値を求めることにより受信結果を統合するので、方位の演算を簡略化して演算負荷を軽減することができる。
【0022】
また請求項に記載された発明によれば、請求項の何れかの構成に加えて、前記検知エリア内に前記受信結果統合手段の複数の統合結果が得られたとき、前記演算手段は距離が近いものから所定数の物体を選択し、その物体の少なくとも方位を算出することを特徴とする物体検知装置が提案される。
【0023】
上記構成によれば、複数の統合結果が得られたときに距離が近い物体から優先的に該物体の少なくとも方位を算出するので、自車との接触の可能性が最も高い物体の方位を確実に検知することができる。
【0024】
【発明の実施の形態】
以下、本発明の実施の形態を、添付図面に示した本発明の実施例に基づいて説明する。 図1〜図9は本発明の第1実施例を示すもので、図1は物体検知装置のブロック図、図2は物体検知装置の斜視図、図3は走査方式の説明図、図4および図5は距離計測処理部の各バッファの構成を示す図、図6は作用を説明するフローチャートの第1分図、図7は作用を説明するフローチャートの第2分図、図8は作用を説明するフローチャートの第3分図、図9はターゲットの移動軌跡の検知結果を示す図である。
【0025】
図1〜図3に示すように、例えば前走車よりなるターゲットの距離および方位を検知するための物体検知装置は、送光部1と、送光走査部2と、受光部3と、受光走査部4と、距離計測処理部5とから構成される。送光部1は、送光レンズを一体に備えたレーザーダイオード11と、レーザーダイオード11を駆動するレーザーダイオード駆動回路12とを備える。送光走査部2は、レーザーダイオード11が出力したレーザーを反射させる送光ミラー13と、送光ミラー13を上下軸14周りに往復回動させるモータ15と、モータ15の駆動を制御するモータ駆動回路16とを備える。送光ミラー13から出るレーザービームは左右幅が制限されて上下方向に細長いパターンを持ち、それが所定周期で左右方向に走査される。
【0026】
受光部3は、受光レンズ17と、受光レンズ17で収束させた反射波を受けて電気信号に変換するフォトダイオード18と、フォトダイオード18の出力信号を増幅する受光アンプ回路19とを備える。受光走査部4は、ターゲットからの反射波を反射させて前記フォトダイオード18に導く受光ミラー20と、受光ミラー20を左右軸21周りに往復回動させるモータ22と、モータ22の駆動を制御するモータ駆動回路23とを備える。受光ミラー20によって前記所定周期よりも短い周期で上下方向に走査される受光エリアは、上下幅が制限されて左右方向に細長いパターンを持つ。
【0027】
距離計測処理部5は、送信されたビームの反射波のそれぞれの受信結果から距離および方位のデータを得る検知手段24と、検知手段24で得た複数のデータを後述する手法で取捨選択して統合する受信結果統合手段25と、受信結果統合手段25で統合したデータに基づいて目的とするターゲットの距離および方位を算出する演算手段26と、前記送光部1、送光走査部2、受光部3、受光走査部4、検知手段24、受信結果統合手段25および演算手段26を制御する制御回路27とを備える。
【0028】
而して、前記図16に示したように、走査範囲は自車の正面の方向を基準として左右に各140mradの角度を持ち、その走査範囲は各5mradの角度を有して左右方向に分割された56個の検知エリアからなり、各々の検知エリアには各々30本のビームが含まれる。従って、走査範囲を1回走査する間に1680本のビームによる距離測定が行われることになる。
【0029】
前述したように、走査範囲の最も左側に位置する検知エリア1において、30本のビームにより得られたターゲットのデータが表1に示される。本実施例では、「従来の技術」の欄で説明した手法と異なる手法で表1のデータを処理することにより、ターゲットの方位を一層精密に検知するようになっている。
【0030】
即ち、従来と同様に9個の距離データのうち第25ビームおよび第29ビームの距離データは距離データが得られた他のデータと相互に離散した単独の距離データであるため、それらはノイズデータであると判断して除外する。また同様にして、纏まった第4、第5、第6、第8、第9、第10、第11ビームの7個の距離データの平均値を算出し、その平均値を自車位置からターゲットまでの距離(80.34m)とする。
【0031】
続いて、ターゲットの方位を検知する。第4、第5、第6、第8、第9、第10、第11ビームの7本のビームの番号の加算値は、4+5+6+8+9+10+11=53であり、これをビーム数7で除算した7.57がターゲットの中央に対応するビームの番号になる。ビーム1本の幅は5/30mradであるため、ビーム7.57本分の幅は(5/30)×7.57=1.3mradになり、従って、自車位置の前方を基準としたターゲットの方位は走査範囲の左端から右側に1.3mrad離れた方位、つまり自車の前方から左側に138.7mradの方位がターゲットの正確な方位になる。
【0032】
このようにして得られたターゲットの極座標T(R,θ)=(80.34m,138.7mrad)を直交座標T(X,Y)に変換すると、ターゲットの位置はX=80.34×cos(138.7mrad)=79.57mとなり、Y=80.34×sin(138.7mrad)=11.11mとなる。これらの小数点以下第2桁を切り捨てると、ターゲットの最終的な位置座標Tは、T(X,Y)=(79.5m,11.1m)で与えられる。
【0033】
而して、自車位置を原点としたターゲットの極座標T(R,θ)は、
T(R,θ)=(80.34m,138.7mrad) …(3)
で与えられ、これを変換した直交座標T(X,Y)は、
T(X,Y)=(79.5m,11.1m) …(4)
で与えられる。
【0034】
(1)式および(3)式を比較すると明らかなように、従来の手法を採用した(1)式のθ座標は単に検知エリア1の中央位置をターゲットの方位としているのに対し、(3)式のθ座標は検知エリア1内の実際のターゲットの方位を表しているため、その精度が1.2mrad向上していることが分かる。そして(1)式および(3)式の極座標を直交座標に変換した(2)式および(4)式を比較すると明らかなように、Y座標の値が0.1m異なっていて本実施例の手法の方が高い精度が得られることが分かる。
【0035】
次に、距離計測処理部5において行われる前記ターゲットの位置座標Tの算出過程を、図4および図5に基づいて説明する。
【0036】
受光部3から距離計測処理部5の検知手段24に入力された検知エリア1の第1ビーム、第2ビーム、第3ビーム…の距離データは、受信結果統合手段25の「エリアNo. 」の欄に「1」として記憶され、「エリア起点角」の欄には走査領域の左端位置である「−0.14rad」が入力され、「エリア分解能」の欄には1つの検知エリアの幅である「0.005rad」が記憶され、「最後の距離データNo. 」の欄には検知エリア1の30本のビームの最後のビームNo. である「30」が入力される。「最後の距離データNo. 」である30は本実施例では固定値である。
【0037】
また距離計測処理部5の受信結果統合手段25には複数の距離算出バッファが設けられており、最初に検知された「距離データ」がその「距離データNo. 」(つまりビームの番号4)と共に「バッファ1」に記憶される。その次に得られた距離データ(ここではNo. 5のデータ)が、既に距離データが記憶されたバッファ(ここではバッファ1)の距離データに対して±2m以内の場合は同一のバッファ(ここではバッファ1)に距離データNo. と共に距離データが記憶される。即ち、距離データNo. 5,6,8,9,10,11の距離データは距離データNo. 4の距離データに対して全て±2m以内であるので、バッファ1に記憶されることになる。
【0038】
また得られた距離データが既に距離データが記憶されたバッファ(ここではバッファ1)内の距離データに対して±2m以内になければ、新しいバッファに距離データNo. と共に距離データが記憶される。即ち、距離データNo. 25の距離データは距離データNo. と共にバッファ2に記憶される。このように既に記憶されている距離データに対して±2m以内ではないデータが得られる度に新しいバッファに記憶されることになる。よって、距離データNo. 29の距離データは、既にデータが記憶されているバッファ1,2の距離データの何れとも±2m以内のデータではないので、新しいバッファ3に記憶されることとなる。
【0039】
図4の実施例ではバッファ1〜Nのうち、距離データが記憶されたバッファについて、先ず距離データが1つしかない単独データのバッファ(ここではバッファ2,3)のデータをノイズデータと見なして削除する。そして距離計測処理部5の演算手段26は残ったバッファのうち、自車から距離が最も近いデータが記憶されたバッファ(ここではバッファ1)のデータを「ターゲット候補バッファ」として採用してターゲットの距離および方位の検知を行う(図5参照)。その理由、自車に最も近いターゲットが自車と接触する可能性が最も高いため、その挙動を充分に把握する必要があるためである。
【0040】
続いて、図5においてターゲットの方位を検知する。距離計測処理部5の受信結果統合手段25は、「距離データNo. 加算バッファ」で「ターゲット候補バッファ」に記憶された距離データNo. を加算して加算値53を得、更に「距離データ数カウンタ」で距離データ数を加算して加算値7を得、更に距離データNo. の加算値53を距離データ数の加算値7で除算して距離データNo. 平均値7.57を得る。そして実際のターゲットの検知エリア1内の位置である前記7.57を検知エリア1内のビーム数30で除算することにより、ターゲットの検知エリア1内の相対的な位置0.25を得る。この値「0.25」は、検知エリア1の左右方向の幅の左端から25%位置(左端から1.25mradの位置)にターゲットが存在していることを示しており、従ってターゲットの方位θは自車の前方から左側に140−1.25=138.75mrad(小数点以下第2桁を切り捨てて138.7mrad)となる。
【0041】
続いて、図5においてターゲットの距離を検知する。「ターゲット候補バッファ」に記憶された7つの距離データを「距離データ加算バッファ」で加算して加算値562.4を得、これを距離データ数の加算値7で除算して距離データ平均値80.34を得る。而して、距離計測処理部5の演算手段26は、ターゲットの局座標T(R,θ)=(80.34m,138.7mrad)を直交座標に変換し、小数点以下第2桁を切り捨てることにより、ターゲットの前後位置X=79.5m、左右位置Y=11.1mを得る。
【0042】
次に、上記作用を図6〜図8のフローチャートを参照しながら更に詳細に説明する。
【0043】
先ず、ステップS1で、検知エリア1の30本のビーム毎に距離データNo. および距離データを読み込む。続いてステップS2で、読み込んだ距離データの値が存在するか否かを判断し、ターゲットからの反射波が受信されたために距離データの値が存在すれば、ステップS3で、読み込んだ距離データの±2m以内の距離データがある距離算出バッファがあるか否かを判断し、該当する距離算出バッファがあれば、ステップS4で、読み込んだ距離データNo. と距離データとを、±2m以内の距離データがある距離算出バッファに追加する。一方、前記ステップS3で、該当する距離算出バッファがなければ、ステップS5で、読み込んだ距離データNo. と距離データとを、新しい距離算出バッファに追加する。そしてステップS6で、検知エリア1内の30本のビームの全てについてのデータの読み込みを完了すると、ステップS7に移行して最後の距離データNo. (本実施例では30)を記憶する。
【0044】
続くステップS8で、距離算出バッファ内の距離データを読み込み、続くステップS9で、読み込んだ距離データが2個以上あればステップS10に移行し、そこで今回読み込んだ複数の距離データの最小値がターゲット候補バッファ内の複数の距離データの最小値よりも小さいか否かを判断し、今回読み込んだ距離データの最小値の方が小さければ、ステップS11で、今回読み込んだ距離算出バッファを新たにターゲット候補バッファとして更新する。そしてステップS12で、全ての距離算出バッファ内の距離データを読み込むと、ステップS13に移行する。
【0045】
以上のようにして、距離データが最も小さいターゲットの距離データが含まれるターゲット候補バッファが選択されると、ステップS13で、ターゲット候補バッファ内の距離データNo. を読み込み、更にステップS14で、距離データNo. 加算バッファに距離データNo. を加算した後に、ステップS15で、距離データ数カウンタをインクリメントする。そしてステップS16で、ターゲット候補バッファ内の距離データNo. を全て読み込むと、ステップS17に移行する。
【0046】
続くステップS17で、距離データNo. 加算バッファの加算値を距離データ数カウンタのカウント値で除算することにより、距離データNo. の平均値を算出する。続くステップS18で、距離データNo. の平均値を最後の距離データNo. で除算することにより、検知エリア1内のターゲットの方位を算出する。続くステップS19で、ターゲット候補バッファ内の距離データを読み込み、更にステップS20で、前記読み込んだ距離データを距離データ加算バッファに加算する。そしてステップS21でターゲット候補バッファ内の距離データを全て読み込むと、ステップS22で、距離データ加算バッファで加算した加算値を距離データ数カウンタのカウント値で除算して距離データ平均値を算出する。
【0047】
而して、ステップS23で、前記ステップS22で算出したターゲットの距離データ平均値と、前記ステップS18で算出した検知エリア1内のターゲットの方位とに基づいてターゲットのY座標を算出し、続くステップS24で前記Y座標の小数点以下2桁目を切り捨ててターゲットの最終的なY座標を算出する。またステップS25で、前記ステップS22で算出したターゲットの距離データ平均値と、前記ステップS18で算出した検知エリア1内のターゲットの方位とに基づいてターゲットのX座標を算出し、続くステップS26で前記X座標の小数点以下2桁目を切り捨ててターゲットの最終的なX座標を算出する。
【0048】
【表2】
Figure 0003685970
【0049】
表2および図9には、ターゲットが自車正面方向に対して徐々に左方から右方に移動した場合の4回の走査でターゲットの移動軌跡をトレースした結果が示される。図9から明らかなように、従来の手法(図9(A)参照)ではターゲットが左右に蛇行する不自然な移動軌跡を示しているが、本実施例の手法(図9(B)参照)ではターゲットの移動軌跡が、実際のターゲットの移動を表す自然なものとなっている。
【0050】
次に、図10に基づいて本発明の第2実施例を説明する。
【0051】
図10(A)の三角波は、右下がりのラインが左から右への走査を示し、右上がりのラインが右から左への走査を示しており、両ラインの傾きは走査速度を示している。この場合には走査速度が常に一定であるため、ビームの出力間隔が一定であると仮定すると、例えば検知エリア1でも検知エリア23でも各30回の測定が行われる。一方、図10(B)のサイン波は傾き(つまり走査速度)が周期的に変化しているため、例えば走査速度(ラインの傾き)が小さい検知エリア1で30回の測定が行われても、走査速度(ラインの傾き)が大きい検知エリア23で20回の測定しか行われないことになる。
【0052】
このように1つの検知エリアでの測定回数が変化する場合には、その検知エリアにおける最後の距離データNo. を記憶することにより、検知エリア内のターゲットの位置を正しく測定することができる。
【0053】
即ち、第1実施例を示す図4の「最後の距離データNo. 」の欄、および図6のフローチャートのステップS7で固定値である「30」を記憶する代わりに、本実施例では、距離計測処理部5の受信結果統合手段25が、その検知エリア毎に最後の距離データNo. (例えば、20)を記憶する。そして図7のフローチャートのステップS18で、距離データNo. 平均値7.57を30で除算する代わりにその検知エリア毎に最後の距離データNo. (例えば、20)で除算することにより、該検知エリア内のターゲットの位置を測定することができる。
【0054】
つまり、検知エリア内の最後の距離データNo. が変化しても、その最後の距離データNo. に対する距離データNo. 平均値の関係を計算することにより、検知エリア内のターゲットの位置を測定することができる。
【0055】
次に、図11に基づいて本発明の第3実施例を説明する。
【0056】
並走する複数台の車両が同じ時間間隔でビームを送信する場合、他車が送信したビームの反射波と自車が送信したビームの反射波とを識別できなくなる場合がある。従って、図11(A)の三角波状の走査の場合にも図11(B)のサイン波状の走査の場合にも、ランダムな時間間隔でビームを送信することにより、自車が送信したビームの反射波を識別することができる。
【0057】
【表3】
Figure 0003685970
【0058】
第1実施例の表1と第3実施例の表3とを比較すると明らかなように、表1では左欄の30個の「距離データNo. 」に対応して右欄の「距離データ」を記憶しているが、表3では左欄の30個の「エリア内位置カウンタ値」に対応して右欄の距離データを記憶している。距離計測処理部5の受信結果統合手段25は所定時間間隔でカウントを行うカウンタを持ち、「エリア内位置カウンタ値」の欄には各々のビームの送信が終了した時点でのカウント値が記憶される。本実施例では第1ビームが送信された時点でのカウンタ値は6であり、第2ビームが送信された時点でのカウンタ値は9であり、第3ビームが送信された時点でのカウンタ値は13であり、最後の第30ビームが送信された時点でのカウンタ値は154であり、その間隔はビームが送信される時間間隔に応じてランダムになる。
【0059】
このように1つの検知エリアでビームがランダムな時間間隔で出力される場合には、「距離データNo. 」に代えて「エリア内位置カウンタ値」を記憶することにより、検知エリア内のターゲットの位置を正しく測定することができる。
【0060】
即ち、図7〜図9のフローチャートの「距離データNo. 」を「エリア内位置カウンタ値」で置き換え、「距離データNo. 平均値」を「エリア内位置カウンタ値平均値」で置き換えることにより、第1実施例と同様にして該検知エリア内のターゲットの位置を測定することができる。この場合、第1実施例の「距離データNo. 平均値」の代わりに「エリア内位置カウンタ値平均値」が得られ、この「エリア内位置カウンタ値平均値」はランダムなビームの送信間隔の影響を考慮したものであるため、検知エリア1内のターゲットの方位を正しく示している。
【0061】
そして「エリア内位置カウンタ値」の最大値である154は5mradに相当するため、(5/154)mradに「エリア内位置カウンタ値平均値」を乗算してターゲットの方位を知ることができる。具体的には、表3において7本のビームのエリア内位置カウンタ値の加算値は20+25+29+45+46+49+55=269であり、これをデータ数の7で除算した38.4が「エリア内位置カウンタ値平均値」となる。従って、検知エリア1の幅である5mradに(38.4/154)を乗算した1.2mradが検知エリア1の左端からのターゲットの方位となり、自車の前方を基準としたターゲットの方位は140−1.2=138.8mradとなる。
【0062】
次に、図12に基づいて本発明の第4実施例を説明する。
【0063】
前述したように、車体前方に送信されるビームが100m前方で幅28mに拡散する場合、ターゲットの左右の方位を検知するための検知エリアを左右方向に56等分すると、自車の80m前方では1本の検知エリアの幅が0.4mになってターゲットの左右の方位の分解能が0.4mになる。一方、自車の30m前方では1本の検知エリアの幅が0.15mになってターゲットの左右の方位の分解能が0.15mになり、実用上充分な分解能が確保される。従って、自車とターゲットとの距離の大小に関わらず前記第1〜第3実施例の手法でターゲットの方位の検知精度を高めると、近距離のターゲットに対しては分解能が過剰になり、距離計測処理部5に不必要な演算負荷を強いることになる。そこで、本実施例では、例えば30m未満の近距離のターゲットに対しては、距離計測処理部5の演算手段26が従来の手法、つまり検知エリア内で検知されたターゲットが該検知エリアの中央位置に存在するものと仮定し、例えば30m以上の遠距離のターゲットに対しては前記第1〜第3実施例の手法を採用して検知エリア内のターゲットの位置を精密に検知するようにしている。
【0064】
この実施例によれば、ターゲットの方位の検知精度を実用上支障のない程度に確保しながら、距離計測処理部5の演算負荷を軽減するとともに演算時間を短縮することができる。
【0065】
次に、表1に基づいて本発明の第5実施例を説明する。
【0066】
前記第1実施例では、ターゲットの方位を検知すべく距離データが得られた第4、第5、第6、第8、第9、第10、第11ビームの7個の距離データNo. (ビーム番号)の加算値を、4+5+6+8+9+10+11=53により算出し、これをビーム数7で除算した7.57をターゲットの中央に対応するビームの番号として求めていた。本第5実施例は上記演算過程を簡略化したもので、距離計測処理部5の受信結果統合手段25は、7本のビームの番号を加算する代わりに、最初の距離データNo. である4(最小値)と、最後の距離データNo. である11(最大値)との平均値(4+11)/2=7.5をターゲットの中央に対応する距離データNo. とするものである。この第5実施例と前記第1実施例との間の誤差は、7.57−7.5=0.02であり、検知エリアの幅の僅かに2%に過ぎない。
【0067】
尚、第4、第5、第6、第8、第9、第10、第11ビームの7個の距離データの加算値である80.2+80.8+79.2+81.3+80.1+82.2+78.6=562.4を7で除算してターゲットまでの距離80.34mを算出する代わりに、最初の第4ビームの距離データである80.2と最後の第11ビームの距離データである78.6との平均値79.4mをターゲットまでの距離として算出することも考えられる。しかしながら、この手法を採用すると、最初の距離データあるいは最後の距離データが他の距離データに対して大きく外れているような場合に誤差が大きくなるため、この手法は採用しない。
【0068】
次に、図13に基づいて本発明の第6実施例を説明する。
【0069】
前記第1〜第5実施例によれば、ターゲットの方位の検知精度が高まるため、それまで56分割していた走査範囲を半分の28分割にしても0.1mの分解能を得ることが可能になり、走査範囲の分割数を減少させたことにより距離計測処理部5の演算負荷を軽減することができる。
【0070】
しかしながら、走査範囲を28分割すると1つの検知エリアの幅が5mradから10mradに増加するため、1つの検知エリア内に複数のターゲットが存在する可能性が高くなる。前記第1〜第5実施例では、1つの検知エリア内で自車からの距離が最も小さいターゲットのデータをターゲット候補バッファに記憶しているが、本第6実施例では自車からの距離が近い順に複数(例えば、2個あるいは3個)のターゲットをそれぞれ第1、第2…ターゲット候補バッファに記憶し、それぞれのターゲットについて距離および方位を算出するようにしている。これにより、検知エリア数を減らして演算負荷を軽減しながら複数のターゲットを確実に検知することが可能になる。
【0071】
以上、本発明の実施例を説明したが、本発明はその要旨を逸脱しない範囲で種々の設計変更を行うことが可能である。
【0072】
例えば、実施例の物体検知装置はレーザーを用いているが、レーザーに代えてミリ波等の他の電磁波を用いることができる。
【0073】
また実施例では自車の真っ直ぐ前方と斜め前方とで左右方向の分解能を同一にしているが、自車の真っ直ぐ前方の分解能を高く設定し、自車の斜め前方の分解能を低く設定してもよい。
【0074】
また実施例ではターゲットの左右の方位の分解能を高めるものであるが、上下(高さ方向)の方位の分解能を高めるものにも適用可能である。
【0075】
また実施例ではターゲットの方位を検知する際にビームを1本ずつ独立して扱っているが、複数本のビームを纏めたものとを1単位のビームとして扱うことも可能である。
【0076】
また実施例では検知エリア1内でのターゲットの方位について説明したが、他の検知エリアの方位も既知であるため(図15参照)、その検知エリア内でのターゲットの方位についても同様にして検知可能である。
【0077】
【発明の効果】
以上のように請求項1に記載された発明によれば、電磁波のビーム毎に受信結果を検知し、隣接する受信信号が得られたビームの受信結果を統合した結果に基づいて少なくとも物体の方位を算出するので、受信信号が得られた特定のビームと物体との関係に基づいて該物体の方位の分解能を高めることができる。特に、電磁波の走査範囲を測定回数がそれぞれ異なる複数の検知エリアに分割し、各々の検知エリア毎にビームの受信結果が得られた複数の距離データ番号の平均値を求める際に、検知エリア内における最後の距離データ番号から該検知エリアにおける測定回数を求め、前記平均値を前記測定回数で除算することにより前記統合結果を得るので、各々の検知エリア内における測定回数が変化しても物体の方位を支障なく検知することができる。
【0078】
また請求項2に記載された発明によれば、電磁波のビーム毎に受信結果を検知し、隣接する受信信号が得られたビームの受信結果を統合した結果に基づいて少なくとも物体の方位を算出するので、受信信号が得られた特定のビームと物体との関係に基づいて該物体の方位の分解能を高めることができる。特に、電磁波の走査範囲を複数の検知エリアに分割して各々の検知エリア毎に受信結果を統合する際に、検知エリアにおける走査開始から所定周期でカウントを行うとともにランダムな時間間隔で送信される各々のビームが送信された時点でのカウント値を記憶し、ビームの受信結果と該受信結果に対応する前記カウント値とに基づいて該受信結果を統合するので、ビームを送信する時間間隔が不均一であっても物体の方位を支障なく検知し、他の物体検知装置からのビームを誤検知して検知精度が低下するのを防止することができる。
【0079】
また請求項3に記載された発明によれば、物体の距離が所定値以下のときに、物体が検知された検知エリアの両端の中間位置に基づき物体の方位を求めるので、方位の分解能が既に充分に高い近距離の物体について、方位の演算を簡略化して演算負荷を軽減することができる。
【0080】
また請求項に記載された発明によれば、複数の受信結果の平均値を求めることにより受信結果を統合するので、物体の中心位置の方位を精密に検知することができる。
【0081】
また請求項に記載された発明によれば、受信結果のうちの最小値および最大値の平均値を求めることにより受信結果を統合するので、方位の演算を簡略化して演算負荷を軽減することができる。
【0082】
また請求項に記載された発明によれば、複数の統合結果が得られたときに距離が近い物体から優先的に該物体の少なくとも方位を算出するので、自車との接触の可能性が最も高い物体の方位を確実に検知することができる。
【図面の簡単な説明】
【図1】 物体検知装置のブロック図
【図2】 物体検知装置の斜視図
【図3】 走査方式の説明図
【図4】 距離計測処理部の各バッファの構成を示す図
【図5】 距離計測処理部の各バッファの構成を示す図
【図6】 作用を説明するフローチャートの第1分図
【図7】 作用を説明するフローチャートの第2分図
【図8】 作用を説明するフローチャートの第3分図
【図9】 ターゲットの移動軌跡の検知結果を示す図
【図10】 ビームの送信間隔を異ならせた実施例を説明する図
【図11】 ビームの送信間隔を不等間隔にした実施例を説明する図
【図12】 ターゲットの距離に応じて分解能を変化させた実施例の説明図
【図13】 1つの検知エリア内で複数のターゲットを検知する実施例の説明図
【図14】 検知エリアの分割とターゲットの分解能との関係を説明する図
【図15】 検知エリアとビームの本数との関係を説明する図
【図16】 ターゲットの方位の定義を説明する図
【符号の説明】
5 距離計測処理部
24 検知手段
25 受信結果統合手段
26 演算手段[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an object detection device that detects an object distance and an azimuth by transmitting an electromagnetic wave composed of a laser or millimeter wave toward an object and receiving a reflected wave thereof.
[0002]
[Prior art]
  FIG. 14 shows the functions of an object detection device for detecting the distance and heading of a target vehicle such as a preceding vehicle traveling in front of the host vehicle, a fixed object such as a sign or a footbridge, and a falling object on the road. The distance and direction of the target relative to the vehicle by scanning the target in the vertical and horizontal directions with electromagnetic waves transmitted forward from the radar device provided at the front of the vehicle and receiving the reflected waves reflected by the target Is to be detected.
[0003]
  For example, in the conventional object detection device shown in FIG. 14A, the electromagnetic wave transmitted forward from the radar device is diffused radially in a scanning range of 28 m in front of 100 m, so that the left and right directions of the target are detected. When the detection area is divided into 56 equal parts in the left-right direction, the width of one detection area is 0.2 m in front of the vehicle 40 m and the resolution of the left and right direction of the target is 0.2 m. In front of the vehicle 80 m, the width of one detection area becomes 0.4 m, and the resolution of the right and left azimuths of the target is reduced to 0.4 m. The reason will be described in detail later. Therefore, in order to increase the resolution at a position far from the own vehicle, if the scanning range is divided into 112 detection areas twice as described above as shown in FIG. The resolution can be increased to 0.1 m, and the resolution of the left and right azimuth can be increased to 0.2 m 80 m ahead of the host vehicle.
[0004]
  By the way, as shown in FIG. 15A in which the scanning range of FIG. 14A is expressed in radians, the detection angle of one detection area obtained by dividing the 280 mrad that is the horizontal scanning range into 56 equal parts is 5 mrad. If the distance measurement is performed 1680 times during the scanning of the scanning range once, the distance measurement is performed 30 times for one detection area (see FIG. 15B). However, if the number of detection areas is increased from 56 to 112 without changing the number of the 1680 distance measurements as shown in FIG. 15C, only 15 distance measurements are performed for one detection area. Decrease in target detection capability, decrease in target distance measurement accuracy, increase in calculation load due to increase in the number of detection areas, increase in unnecessary calculation load due to unnecessarily high resolution at short distances, etc. Problems occur.
[0005]
  Next, the reason why the resolution of the right and left azimuths of the target cannot be increased in the prior art shown in FIGS. 14A and 15A and 15B will be described below.
[0006]
[Table 1]
Figure 0003685970
[0007]
  Table 1 shows distance measurement data of the detection area 1 at the left end of the scanning range. The distances of the fourth, fifth, sixth, eighth, ninth, tenth, eleventh, twenty-fifth, and twenty-ninth beams among the first to thirty beams corresponding to the distance data No. of the detection area 1 Suppose that data was obtained. Of these nine distance data, the distance data of the 25th beam and the 29th beam are independent data mutually separated from the other data from which the distance data was obtained, and are therefore judged to be noise data and excluded. The remaining seven distance data of the fourth, fifth, sixth, eighth, ninth, tenth, and eleventh beams are combined with each other, and a range that takes measurement error into account (for example, ± 2 m) These are used as target distance data.
[0008]
  Subsequently, the result of adding all the 7 distance data of the 4th, 5th, 6th, 8th, 9th, 10th and 11th beams is divided by the distance data number 7 to obtain the target from the own vehicle. The distance to is calculated. That is, the added value of the seven distance data is 80.2 + 80.8 + 79.2 + 81.3 + 80.1 + 82.2 + 78.6 = 562.4, and 562.4 ÷ 7 = 80.34 obtained by dividing this by 7 The distance from the vehicle to the target. In FIG. 16, the conventional method assumes that the target is in the center of the detection area 1, the scanning range is 140 mrad from the front of the vehicle body to the left and right, and the width of each detection area is Since it is 5 mrad, the orientation of the target in this case is 140-5 / 2 = 137.5 mrad on the left side with respect to the front of the host vehicle.
[0009]
  Therefore, the polar coordinates T (R, θ) of the target with the vehicle position as the origin is
      T (R, θ) = (80.34 m, 137.5 mrad) (1)
It becomes. When this is converted into Cartesian coordinates (X, Y) where the vehicle position is the origin, the vehicle longitudinal direction is X, and the vehicle lateral direction is Y, the target position is X = 80.34 × cos (137.5 mrad) = 79.58 m, and Y = 80.34 × sin (137.5 mrad) = 11.01 m. When the second decimal place is rounded down, the final position coordinate T of the target is
            T (X, Y) = (79.5 m, 11.0 m) (2)
Given in.
[0010]
[Problems to be solved by the invention]
  However, in the above conventional example, the coordinates of the target are calculated on the assumption that the target detected in one detection area is at the center position in the left-right direction of the detection area. However, it is the limit to obtain a resolution of 0.4 m 80 m ahead of the own vehicle position, and there is a problem that a large error occurs in the left and right directions of the target as the distance from the own vehicle position to the target increases. .
[0011]
  The present invention has been made in view of the above-described circumstances, and an object thereof is to increase the resolution of the azimuth of a target without increasing the number of detection areas and the number of beams.
[0012]
[Means for Solving the Problems]
  In order to achieve the above object, according to the invention described in claim 1, the presence of an object is detected by scanning the object in at least one direction with an electromagnetic wave composed of a set of multiple beams and receiving the reflected wave. In the object detection device, the detection means for detecting the reception result for each beam of electromagnetic waves, the reception result integration means for integrating the reception results of the beams from which the adjacent reception signals are obtained, and the integration result of the reception result integration means Calculation means for calculating at least the orientation of the object,The scanning range of the electromagnetic wave is divided into a plurality of detection areas each having a different number of measurements, and the reception result integrating unit calculates an average value of a plurality of distance data numbers obtained from the beam reception results for each detection area. And obtaining the number of measurements in the detection area from the last distance data number in the detection area, and dividing the average value by the number of measurements. Get integration resultsAn object detection apparatus characterized by this is proposed.
[0013]
  According to the above configuration, the reception result is obtained because the reception result is detected for each beam of electromagnetic waves, and at least the azimuth of the object is calculated based on the result of integrating the reception results of the beams from which the adjacent reception signals are obtained. Based on the relationship between the specific beam and the object, the azimuth resolution of the object can be increased.In particular, when the scanning range of electromagnetic waves is divided into multiple detection areas with different measurement counts, and the average value of multiple distance data numbers from which beam reception results are obtained for each detection area, The number of measurements in the detection area is obtained from the last distance data number in, and the integrated result is obtained by dividing the average value by the number of measurements. Therefore, even if the number of measurements in each detection area changes, The direction can be detected without any problem.
[0014]
  According to the invention described in claim 2,In an object detection device that detects the presence of an object by scanning the object in at least one direction with electromagnetic waves consisting of a set of multiple beams and receiving the reflected waves, for each beam of electromagnetic waves transmitted at random time intervals Detection means for detecting reception results, reception result integration means for integrating reception results of beams from which adjacent reception signals are obtained, and calculation means for calculating at least an object orientation based on the integration results of the reception result integration means; The electromagnetic wave scanning range is divided into a plurality of detection areas, the reception result integration means integrates reception results for each detection area, and the reception result integration means starts scanning in the detection area for a predetermined period. And the count value when each beam is transmitted is stored, and the beam reception result and the count corresponding to the reception result are stored. Object detecting apparatus characterized by integrating the received result is proposed based on and.
[0015]
  According to the above configuration,The reception result is detected for each beam of electromagnetic waves, and the direction of at least the object is calculated based on the result of integrating the reception results of the beams from which the adjacent reception signals were obtained, so the specific beam and object from which the reception signal was obtained Based on the relationship, the resolution of the orientation of the object can be increased. In particular, when the electromagnetic wave scanning range is divided into a plurality of detection areas and reception results are integrated for each detection area, counting is performed at a predetermined period from the start of scanning in the detection area and transmitted at random time intervals. The count value at the time when each beam is transmitted is stored, and the reception result is integrated based on the reception result of the beam and the count value corresponding to the reception result. Even if it is uniform, the direction of the object can be detected without hindrance, and it is possible to prevent the detection accuracy from being lowered by erroneously detecting a beam from another object detection device.
[0016]
  According to the invention described in claim 3,In addition to the configuration of claim 1 or 2,The reception result integrating means obtains an intermediate position between both ends in the scanning direction of the detection area where the object is detected, and the computing means obtains the orientation of the object based on the intermediate position when the distance of the object is equal to or less than a predetermined value. An object detection device featuring the above is proposed.
[0017]
  According to the above configuration,StuffWhen the distance of the body is less than or equal to a predetermined value, the direction of the object is obtained based on the intermediate position of both ends of the detection area where the object is detected. It is possible to simplify and reduce the calculation load.
[0018]
  And claims4According to the invention described in claim2Or3In addition to the above structure, there is proposed an object detection apparatus characterized in that the reception result integration means calculates an average value of a plurality of reception results.
[0019]
  According to the above configuration, since the reception results are integrated by obtaining an average value of a plurality of reception results, the orientation of the center position of the object can be accurately detected.
[0020]
  And claims5According to the invention described in claim2Or3In addition to the configuration described above, an object detection apparatus is proposed in which the reception result integrating unit is configured to obtain an average value of minimum values and maximum values among a plurality of reception results.
[0021]
  According to the above configuration, since the reception results are integrated by obtaining the average value of the minimum value and the maximum value of the reception results, it is possible to simplify the calculation of the azimuth and reduce the calculation load.
[0022]
  And claims6According to the invention described in claim1~5In addition to any of the configurations, when a plurality of integration results of the reception result integration unit are obtained in the detection area, the calculation unit selects a predetermined number of objects from a short distance, and An object detection device is proposed that calculates at least an azimuth.
[0023]
  According to the above configuration, when a plurality of integration results are obtained, at least the orientation of the object is preferentially calculated from the objects that are close to each other, so the orientation of the object with the highest possibility of contact with the host vehicle is ensured. Can be detected.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
  Hereinafter, embodiments of the present invention will be described based on examples of the present invention shown in the accompanying drawings. 1 to 9 show a first embodiment of the present invention. FIG. 1 is a block diagram of an object detection device, FIG. 2 is a perspective view of the object detection device, FIG. 3 is an explanatory diagram of a scanning method, FIG. FIG. 5 is a diagram showing the configuration of each buffer of the distance measurement processing unit, FIG. 6 is a first partial view of a flowchart for explaining the operation, FIG. 7 is a second partial view of the flowchart for explaining the operation, and FIG. FIG. 9 is a diagram illustrating a detection result of a target movement locus.
[0025]
  As shown in FIGS. 1 to 3, for example, an object detection device for detecting the distance and direction of a target made of a preceding vehicle includes a light transmitter 1, a light transmitter / scanner 2, a light receiver 3, and a light receiver. It comprises a scanning unit 4 and a distance measurement processing unit 5. The light transmission unit 1 includes a laser diode 11 integrally provided with a light transmission lens, and a laser diode drive circuit 12 that drives the laser diode 11. The light transmission scanning unit 2 includes a light transmission mirror 13 that reflects the laser output from the laser diode 11, a motor 15 that reciprocally rotates the light transmission mirror 13 around the vertical axis 14, and a motor drive that controls the driving of the motor 15. Circuit 16. The laser beam emitted from the light transmission mirror 13 is limited in the lateral width and has a vertically elongated pattern, which is scanned in the lateral direction at a predetermined cycle.
[0026]
  The light receiving unit 3 includes a light receiving lens 17, a photodiode 18 that receives a reflected wave converged by the light receiving lens 17 and converts it into an electrical signal, and a light receiving amplifier circuit 19 that amplifies an output signal of the photodiode 18. The light receiving scanning unit 4 controls the driving of the light receiving mirror 20 that reflects the reflected wave from the target and guides it to the photodiode 18, the motor 22 that reciprocates the light receiving mirror 20 around the left and right axis 21, and the driving of the motor 22. And a motor drive circuit 23. The light receiving area scanned in the vertical direction by the light receiving mirror 20 at a cycle shorter than the predetermined cycle has a narrow pattern in the horizontal direction with the vertical width limited.
[0027]
  The distance measurement processing unit 5 obtains distance and azimuth data from the reception results of the reflected waves of the transmitted beams, and selects a plurality of data obtained by the detection means 24 by a method described later. The reception result integration unit 25 to be integrated, the calculation unit 26 to calculate the target distance and direction based on the data integrated by the reception result integration unit 25, the light transmission unit 1, the light transmission scanning unit 2, the light reception 3, a light receiving scanning unit 4, a detection unit 24, a reception result integration unit 25, and a control circuit 27 that controls the calculation unit 26.
[0028]
  Thus, as shown in FIG. 16, the scanning range has an angle of 140 mrad to the left and right with respect to the direction of the front of the vehicle, and the scanning range has an angle of 5 mrad and is divided in the left-right direction. 56 detection areas, each of which includes 30 beams. Therefore, the distance measurement by 1680 beams is performed during one scanning of the scanning range.
[0029]
  As described above, Table 1 shows target data obtained by 30 beams in the detection area 1 located on the leftmost side of the scanning range. In the present embodiment, the orientation of the target is detected more precisely by processing the data in Table 1 by a method different from the method described in the “Prior Art” column.
[0030]
  That is, the distance data of the 25th beam and the 29th beam out of the 9 distance data as in the prior art are independent distance data that are discrete from each other data from which the distance data is obtained. It is judged that it is and is excluded. Similarly, the average value of the seven distance data of the collected fourth, fifth, sixth, eighth, ninth, tenth, and eleventh beams is calculated, and the average value is calculated from the own vehicle position. Distance (80.34 m).
[0031]
  Subsequently, the orientation of the target is detected. The added value of the seven beam numbers of the fourth, fifth, sixth, eighth, ninth, tenth, and eleventh beams is 4 + 5 + 6 + 8 + 9 + 10 + 11 = 53, which is divided by the number of beams of 7.57. Becomes the beam number corresponding to the center of the target. Since the width of one beam is 5/30 mrad, the width for 7.57 beams is (5/30) × 7.57 = 1.3 mrad. Therefore, the target is based on the front of the vehicle position. The azimuth of the target is an azimuth that is 1.3 mrad away from the left end of the scanning range to the right side, that is, an azimuth of 138.7 mrad from the front to the left side of the host vehicle.
[0032]
  When the polar coordinates T (R, θ) = (80.34 m, 138.7 mrad) of the target thus obtained are converted into orthogonal coordinates T (X, Y), the target position is X = 80.34 × cos. (138.7 mrad) = 79.57 m and Y = 80.34 × sin (138.7 mrad) = 11.11 m. When these second decimal places are rounded down, the final position coordinate T of the target is given by T (X, Y) = (79.5 m, 11.1 m).
[0033]
  Thus, the polar coordinates T (R, θ) of the target with the vehicle position as the origin is
      T (R, θ) = (80.34 m, 138.7 mrad) (3)
The orthogonal coordinate T (X, Y) obtained by converting
            T (X, Y) = (79.5 m, 11.1 m) (4)
Given in.
[0034]
  As is apparent from the comparison between the expressions (1) and (3), the θ coordinate of the expression (1) adopting the conventional method simply has the center position of the detection area 1 as the orientation of the target, whereas (3 It can be seen that the θ coordinate in equation (1) represents the actual orientation of the target in the detection area 1, and the accuracy is improved by 1.2 mrad. Then, as apparent from comparing the equations (2) and (4) obtained by converting the polar coordinates of the equations (1) and (3) into the orthogonal coordinates, the value of the Y coordinate is different by 0.1 m. It can be seen that the method provides higher accuracy.
[0035]
  Next, the calculation process of the position coordinate T of the target performed in the distance measurement processing unit 5 will be described with reference to FIGS.
[0036]
  The distance data of the first beam, the second beam, the third beam,... Of the detection area 1 input from the light receiving unit 3 to the detection unit 24 of the distance measurement processing unit 5 is the “area No.” of the reception result integration unit 25. The column is stored as “1”, “−0.14 rad” which is the left end position of the scanning area is input in the “Area start angle” column, and the width of one detection area is input in the “Area resolution” column. A certain “0.005 rad” is stored, and “30” which is the last beam number of 30 beams in the detection area 1 is input to the “last distance data No.” column. “Last distance data No.” 30 is a fixed value in this embodiment.
[0037]
  The reception result integrating means 25 of the distance measurement processing unit 5 is provided with a plurality of distance calculation buffers, and the first detected “distance data” is the “distance data No.” (that is, beam number 4). It is stored in “Buffer 1”. If the next distance data (No. 5 data here) is within ± 2 m from the distance data of the buffer (here, buffer 1) in which the distance data has already been stored, the same buffer (here Then, the distance data is stored in the buffer 1) together with the distance data No. That is, the distance data No. 5, 6, 8, 9, 10, and 11 are all within ± 2 m of the distance data No. 4 distance data, and are therefore stored in the buffer 1.
[0038]
  If the obtained distance data is not within ± 2 m with respect to the distance data in the buffer (here, buffer 1) in which the distance data is already stored, the distance data is stored together with the distance data No. in the new buffer. That is, the distance data of the distance data No. 25 is stored in the buffer 2 together with the distance data No. Thus, whenever data that is not within ± 2 m with respect to the distance data already stored is obtained, it is stored in a new buffer. Accordingly, the distance data of distance data No. 29 is stored in the new buffer 3 because neither of the distance data of the buffers 1 and 2 in which the data is already stored is within ± 2 m.
[0039]
  In the embodiment of FIG. 4, among the buffers 1 to N, the distance data is stored. First, the data of the single data buffer (here, the buffers 2 and 3) having only one distance data is regarded as noise data. delete. Then, the calculation means 26 of the distance measurement processing unit 5 adopts the data of the buffer (here, the buffer 1) in which the data closest to the vehicle is stored among the remaining buffers as the “target candidate buffer” and uses the data of the target. Distance and azimuth are detected (see FIG. 5). This is because the target closest to the host vehicle is most likely to come into contact with the host vehicle, and it is necessary to fully understand its behavior.
[0040]
  Subsequently, the orientation of the target is detected in FIG. The reception result integration unit 25 of the distance measurement processing unit 5 adds the distance data No. stored in the “target candidate buffer” in the “distance data No. addition buffer” to obtain an addition value 53, and further, “the number of distance data” The distance data number is added by the “counter” to obtain the added value 7, and the distance data No. added value 53 is divided by the distance data number added value 7 to obtain the distance data No. average value 7.57. Then, the relative position 0.25 in the target detection area 1 is obtained by dividing 7.57, which is the actual position in the detection area 1, by the number of beams 30 in the detection area 1. This value “0.25” indicates that the target is present at a position 25% from the left end of the width in the left-right direction of the detection area 1 (position of 1.25 mrad from the left end). Becomes 140-1.25 = 138.75 mrad (138.7 mrad by rounding down the second digit after the decimal point) from the front to the left side of the vehicle.
[0041]
  Subsequently, the distance of the target is detected in FIG. The seven distance data stored in the “target candidate buffer” are added by the “distance data addition buffer” to obtain an addition value 562.4, which is divided by the addition value 7 of the number of distance data, and the distance data average value 80 .34 is obtained. Thus, the calculation means 26 of the distance measurement processing unit 5 converts the target station coordinates T (R, θ) = (80.34 m, 138.7 mrad) into orthogonal coordinates, and truncates the second digit after the decimal point. Thus, the front-rear position X = 79.5 m and the left-right position Y = 11.1 m of the target are obtained.
[0042]
  Next, the above operation will be described in more detail with reference to the flowcharts of FIGS.
[0043]
  First, in step S1, distance data No. and distance data are read for every 30 beams in the detection area 1. Subsequently, in step S2, it is determined whether or not the read distance data value exists. If the distance data value exists because the reflected wave from the target is received, the read distance data value is read in step S3. It is determined whether or not there is a distance calculation buffer with distance data within ± 2 m. If there is a corresponding distance calculation buffer, the read distance data No. and distance data are converted into a distance within ± 2 m at step S4. Add data to the distance calculation buffer. On the other hand, if there is no corresponding distance calculation buffer in step S3, the read distance data No. and distance data are added to a new distance calculation buffer in step S5. In step S6, when the reading of data for all 30 beams in the detection area 1 is completed, the process proceeds to step S7 to store the last distance data No. (30 in this embodiment).
[0044]
  In the subsequent step S8, the distance data in the distance calculation buffer is read. In the subsequent step S9, if there are two or more read distance data, the process proceeds to step S10, where the minimum values of the plurality of distance data read this time are the target candidates. It is determined whether or not the minimum value of the plurality of distance data in the buffer is smaller. If the minimum value of the distance data read this time is smaller, in step S11, the distance calculation buffer read this time is newly set as a target candidate buffer. Update as. When the distance data in all distance calculation buffers is read in step S12, the process proceeds to step S13.
[0045]
  As described above, when the target candidate buffer including the distance data of the target having the smallest distance data is selected, the distance data No. in the target candidate buffer is read in step S13, and further, the distance data is read in step S14. After adding the distance data No. to the No. addition buffer, the distance data number counter is incremented in Step S15. When all the distance data No. in the target candidate buffer is read in step S16, the process proceeds to step S17.
[0046]
  In the subsequent step S17, the average value of the distance data No. is calculated by dividing the addition value of the distance data No. addition buffer by the count value of the distance data number counter. In the subsequent step S18, the orientation of the target in the detection area 1 is calculated by dividing the average value of the distance data No. by the last distance data No. In subsequent step S19, the distance data in the target candidate buffer is read, and in step S20, the read distance data is added to the distance data addition buffer. When all the distance data in the target candidate buffer is read in step S21, the distance data average value is calculated by dividing the addition value added by the distance data addition buffer by the count value of the distance data number counter in step S22.
[0047]
  Thus, in step S23, the Y coordinate of the target is calculated based on the target distance data average value calculated in step S22 and the target orientation in the detection area 1 calculated in step S18. In S24, the final Y coordinate of the target is calculated by truncating the second decimal place of the Y coordinate. In step S25, the X coordinate of the target is calculated based on the target distance data average value calculated in step S22 and the target orientation in the detection area 1 calculated in step S18. The final X coordinate of the target is calculated by truncating the second decimal place of the X coordinate.
[0048]
[Table 2]
Figure 0003685970
[0049]
  Table 2 and FIG. 9 show the results of tracing the movement trajectory of the target by four scans when the target gradually moves from the left to the right with respect to the front direction of the host vehicle. As is clear from FIG. 9, the conventional method (see FIG. 9A) shows an unnatural movement trajectory in which the target meanders left and right, but the method of this embodiment (see FIG. 9B). Then, the movement trajectory of the target is a natural one that represents the actual movement of the target.
[0050]
  Next, a second embodiment of the present invention will be described with reference to FIG.
[0051]
  In the triangular wave of FIG. 10A, the right-down line indicates left-to-right scanning, the right-up line indicates right-to-left scanning, and the slopes of both lines indicate the scanning speed. . In this case, since the scanning speed is always constant, assuming that the beam output interval is constant, measurement is performed 30 times in each of the detection area 1 and the detection area 23, for example. On the other hand, since the slope (that is, the scanning speed) of the sine wave in FIG. 10B periodically changes, for example, even if the measurement is performed 30 times in the detection area 1 where the scanning speed (the slope of the line) is small. Thus, only 20 measurements are performed in the detection area 23 where the scanning speed (line inclination) is large.
[0052]
  When the number of times of measurement in one detection area changes in this way, the position of the target in the detection area can be correctly measured by storing the last distance data No. in that detection area.
[0053]
  That is, instead of storing “30” which is a fixed value in the “last distance data No.” column of FIG. 4 showing the first embodiment and step S7 of the flowchart of FIG. The reception result integration unit 25 of the measurement processing unit 5 stores the last distance data No. (for example, 20) for each detection area. In step S18 of the flowchart of FIG. 7, instead of dividing the distance data No. average value 7.57 by 30, the detection is performed by dividing the distance data No. by the last distance data No. (for example, 20) for each detection area. The position of the target in the area can be measured.
[0054]
  In other words, even if the last distance data number in the detection area changes, the position of the target in the detection area is measured by calculating the relationship of the distance data number average value to the last distance data number. be able to.
[0055]
  Next, a third embodiment of the present invention will be described with reference to FIG.
[0056]
  When a plurality of vehicles running in parallel transmit beams at the same time interval, it may be impossible to distinguish between the reflected wave of the beam transmitted by the other vehicle and the reflected wave of the beam transmitted by the own vehicle. Therefore, both in the case of the triangular wave scanning in FIG. 11A and in the case of the sine wave scanning in FIG. 11B, the beam transmitted by the vehicle is transmitted at random time intervals. The reflected wave can be identified.
[0057]
[Table 3]
Figure 0003685970
[0058]
  As is clear when Table 1 of the first embodiment is compared with Table 3 of the third embodiment, in Table 1, “distance data” in the right column corresponds to 30 “distance data numbers” in the left column. In Table 3, distance data in the right column is stored in correspondence with 30 “in-area position counter values” in the left column. The reception result integrating unit 25 of the distance measurement processing unit 5 has a counter that counts at a predetermined time interval, and the “in-area position counter value” column stores the count value when transmission of each beam is completed. The In this embodiment, the counter value when the first beam is transmitted is 6, the counter value when the second beam is transmitted is 9, and the counter value when the third beam is transmitted. Is 13, and the counter value at the time when the last 30th beam is transmitted is 154, and the interval is random according to the time interval at which the beam is transmitted.
[0059]
  As described above, when beams are output at random time intervals in one detection area, by storing “in-area position counter value” instead of “distance data No.”, the target in the detection area is stored. The position can be measured correctly.
[0060]
  That is, by replacing “distance data No.” in the flowcharts of FIGS. 7 to 9 with “in-area position counter value” and “distance data No. average value” with “in-area position counter value average value”, Similar to the first embodiment, the position of the target in the detection area can be measured. In this case, an “in-area position counter value average value” is obtained instead of the “distance data No. average value” in the first embodiment, and this “in-area position counter value average value” is a random beam transmission interval. Since the influence is taken into consideration, the orientation of the target in the detection area 1 is correctly shown.
[0061]
  Since the maximum value 154 of the “intra-area position counter value” corresponds to 5 mrad, (5/154) mrad can be multiplied by the “in-area position counter value average value” to know the orientation of the target. Specifically, in Table 3, the added value of the in-area position counter values of the seven beams is 20 + 25 + 29 + 45 + 46 + 49 + 55 = 269, and 38.4 obtained by dividing this by 7 of the number of data is “the average value in the area position counter value”. It becomes. Accordingly, 1.2 mrad obtained by multiplying 5 mrad which is the width of the detection area 1 by (38.4 / 154) becomes the target direction from the left end of the detection area 1, and the target direction based on the front of the host vehicle is 140. −1.2 = 138.8 mrad.
[0062]
  Next, a fourth embodiment of the present invention will be described with reference to FIG.
[0063]
  As described above, when the beam transmitted to the front of the vehicle diffuses to a width of 28 m in front of 100 m, if the detection area for detecting the left and right azimuth of the target is equally divided into 56 in the left and right direction, The width of one detection area is 0.4 m, and the resolution of the left and right directions of the target is 0.4 m. On the other hand, 30 m ahead of the host vehicle, the width of one detection area is 0.15 m, and the resolution of the left and right azimuths of the target is 0.15 m, so that practically sufficient resolution is ensured. Accordingly, regardless of the distance between the vehicle and the target, if the detection accuracy of the target direction is increased by the method of the first to third embodiments, the resolution becomes excessive for a short-range target, and the distance An unnecessary calculation load is imposed on the measurement processing unit 5. Therefore, in this embodiment, for a short distance target of, for example, less than 30 m, the calculation means 26 of the distance measurement processing unit 5 uses the conventional method, that is, the target detected in the detection area is the center position of the detection area. For example, for a long distance target of 30 m or more, the method of the first to third embodiments is adopted to detect the position of the target in the detection area precisely. .
[0064]
  According to this embodiment, the calculation load of the distance measurement processing unit 5 can be reduced and the calculation time can be shortened while ensuring the detection accuracy of the target azimuth to a practically satisfactory level.
[0065]
  Next, a fifth embodiment of the present invention will be described based on Table 1.
[0066]
  In the first embodiment, seven distance data Nos. (4th, 5th, 6th, 8th, 9th, 10th and 11th beams) for which distance data was obtained to detect the orientation of the target. The added value of (beam number) was calculated by 4 + 5 + 6 + 8 + 9 + 10 + 11 = 53, and 7.57 obtained by dividing this by 7 was obtained as the beam number corresponding to the center of the target. In the fifth embodiment, the above calculation process is simplified, and the reception result integrating means 25 of the distance measurement processing unit 5 is the first distance data No. 4 instead of adding the seven beam numbers. The average value (4 + 11) /2=7.5 of (minimum value) and 11 (maximum value) which is the last distance data No. is used as the distance data No. corresponding to the center of the target. The error between the fifth embodiment and the first embodiment is 7.57-7.5 = 0.02, which is only 2% of the width of the detection area.
[0067]
  In addition, 80.2 + 80.8 + 79.2 + 81.3 + 80.1 + 82.2 + 78.6 = added value of seven distance data of the fourth, fifth, sixth, eighth, ninth, tenth and eleventh beams Instead of dividing 562.4 by 7 to calculate the distance to the target 80.34 m, the distance data of the first fourth beam is 80.2 and the distance data of the last eleventh beam is 78.6. It is also conceivable to calculate the average value of 79.4 m as the distance to the target. However, if this method is adopted, the error increases when the first distance data or the last distance data greatly deviates from the other distance data, so this method is not adopted.
[0068]
  Next, a sixth embodiment of the present invention will be described with reference to FIG.
[0069]
  According to the first to fifth embodiments, since the detection accuracy of the target orientation is improved, it is possible to obtain a resolution of 0.1 m even if the scanning range previously divided into 56 is divided into 28, which is half. Thus, the calculation load of the distance measurement processing unit 5 can be reduced by reducing the number of divisions of the scanning range.
[0070]
  However, when the scanning range is divided into 28, the width of one detection area increases from 5 mrad to 10 mrad, so that there is a high possibility that a plurality of targets exist in one detection area. In the first to fifth embodiments, the target data having the shortest distance from the own vehicle within one detection area is stored in the target candidate buffer, but in the sixth embodiment, the distance from the own vehicle is stored. A plurality of (for example, two or three) targets are stored in the first, second,... Target candidate buffers in close order, and the distance and direction are calculated for each target. This makes it possible to reliably detect a plurality of targets while reducing the calculation load by reducing the number of detection areas.
[0071]
  Although the embodiments of the present invention have been described above, various design changes can be made without departing from the scope of the present invention.
[0072]
  For example, the object detection apparatus of the embodiment uses a laser, but other electromagnetic waves such as millimeter waves can be used instead of the laser.
[0073]
  Also, in the embodiment, the left and right resolutions are the same for the vehicle straight ahead and the diagonally forward, but the vehicle's straight forward resolution can be set high and the vehicle diagonally forward resolution can be set low. Good.
[0074]
  In the embodiment, the resolution of the left and right azimuths of the target is increased, but the present invention can also be applied to one that increases the resolution of the vertical (height direction) azimuth.
[0075]
  In the embodiment, when detecting the azimuth of the target, the beams are handled independently one by one. However, it is possible to treat a group of a plurality of beams as one unit beam.
[0076]
  In the embodiment, the orientation of the target in the detection area 1 has been described. However, since the orientations of other detection areas are also known (see FIG. 15), the orientation of the target in the detection area is similarly detected. Is possible.
[0077]
【The invention's effect】
  As described above, according to the first aspect of the invention, the reception result is detected for each beam of electromagnetic waves, and at least the direction of the object is based on the result of integrating the reception results of the beams from which the adjacent reception signals are obtained. Therefore, the resolution of the direction of the object can be increased based on the relationship between the specific beam from which the received signal is obtained and the object.In particular, when the scanning range of electromagnetic waves is divided into multiple detection areas with different measurement counts, and the average value of multiple distance data numbers from which beam reception results are obtained for each detection area, The number of measurements in the detection area is obtained from the last distance data number in, and the integrated result is obtained by dividing the average value by the number of measurements. Therefore, even if the number of measurements in each detection area changes, The direction can be detected without any problem.
[0078]
  According to the invention described in claim 2,The reception result is detected for each beam of electromagnetic waves, and the direction of at least the object is calculated based on the result of integrating the reception results of the beams from which the adjacent reception signals were obtained, so the specific beam and object from which the reception signal was obtained Based on the relationship, the resolution of the orientation of the object can be increased. In particular, when the electromagnetic wave scanning range is divided into a plurality of detection areas and reception results are integrated for each detection area, counting is performed at a predetermined period from the start of scanning in the detection area and transmitted at random time intervals. The count value at the time when each beam is transmitted is stored, and the reception result is integrated based on the reception result of the beam and the count value corresponding to the reception result. Even if it is uniform, the direction of the object can be detected without hindrance, and it is possible to prevent the detection accuracy from being lowered by erroneously detecting a beam from another object detection device.
[0079]
  According to the invention described in claim 3,,StuffWhen the distance of the body is less than or equal to a predetermined value, the direction of the object is obtained based on the intermediate position of both ends of the detection area where the object is detected. It is possible to simplify and reduce the calculation load.
[0080]
  And claims4Since the reception results are integrated by obtaining an average value of a plurality of reception results, the azimuth of the center position of the object can be accurately detected.
[0081]
  And claims5Since the reception results are integrated by obtaining the average value of the minimum value and the maximum value of the reception results, the calculation of the azimuth can be simplified and the calculation load can be reduced.
[0082]
  And claims6According to the invention described in the above, when a plurality of integration results are obtained, at least the azimuth of the object is preferentially calculated from the objects that are close to each other, so that the object having the highest possibility of contact with the own vehicle is calculated. The azimuth can be detected reliably.
[Brief description of the drawings]
FIG. 1 is a block diagram of an object detection device.
FIG. 2 is a perspective view of an object detection device.
FIG. 3 is an explanatory diagram of a scanning method.
FIG. 4 is a diagram showing the configuration of each buffer of the distance measurement processing unit
FIG. 5 is a diagram showing a configuration of each buffer of the distance measurement processing unit.
FIG. 6 is a first partial view of a flowchart for explaining the operation.
FIG. 7 is a second part of a flowchart for explaining the operation.
FIG. 8 is a third part of a flowchart explaining the operation.
FIG. 9 is a view showing a detection result of a target movement trajectory;
FIG. 10 is a diagram for explaining an embodiment in which beam transmission intervals are changed;
FIG. 11 is a diagram for explaining an embodiment in which the beam transmission intervals are set to be unequal intervals;
FIG. 12 is an explanatory diagram of an embodiment in which the resolution is changed in accordance with the target distance.
FIG. 13 is an explanatory diagram of an embodiment for detecting a plurality of targets in one detection area.
FIG. 14 is a diagram for explaining the relationship between detection area division and target resolution;
FIG. 15 is a diagram for explaining the relationship between the detection area and the number of beams.
FIG. 16 is a diagram for explaining the definition of the orientation of a target
[Explanation of symbols]
5 Distance measurement processing section
24 detection means
25 Reception result integration means
26 Calculation means

Claims (6)

多数のビームの集合よりなる電磁波で物体を少なくとも一方向に走査し、その反射波を受信することで物体の存在を検知する物体検知装置において、
電磁波のビーム毎に受信結果を検知する検知手段と、
隣接する受信信号が得られたビームの受信結果を統合する受信結果統合手段と、
受信結果統合手段の統合結果に基づいて少なくとも物体の方位を算出する演算手段と、を備え、
前記電磁波の走査範囲は測定回数がそれぞれ異なる複数の検知エリアに分割されており、前記受信結果統合手段は、検知エリア毎に前記ビームの受信結果が得られた複数の距離データ番号の平均値を求めるとともに、検知エリア内における最後の距離データ番号から該検知エリアにおける測定回数を求め、前記平均値を前記測定回数で除算することにより前記統合結果を得ることを特徴とする物体検知装置。
In an object detection device that detects the presence of an object by scanning the object in at least one direction with an electromagnetic wave consisting of a set of multiple beams and receiving the reflected wave,
Detecting means for detecting the reception result for each beam of electromagnetic waves;
Reception result integration means for integrating the reception results of the beams from which the adjacent reception signals are obtained;
Computing means for calculating at least the orientation of the object based on the integration result of the reception result integration means,
The scanning range of the electromagnetic wave is divided into a plurality of detection areas each having a different number of measurements, and the reception result integrating unit calculates an average value of a plurality of distance data numbers obtained from the beam reception results for each detection area. An object detection apparatus characterized by obtaining the integration result by obtaining the number of measurements in the detection area from the last distance data number in the detection area and dividing the average value by the number of measurements.
多数のビームの集合よりなる電磁波で物体を少なくとも一方向に走査し、その反射波を受信することで物体の存在を検知する物体検知装置において、
ランダムな時間間隔で送信される電磁波のビーム毎に受信結果を検知する検知手段と、
隣接する受信信号が得られたビームの受信結果を統合する受信結果統合手段と、
受信結果統合手段の統合結果に基づいて少なくとも物体の方位を算出する演算手段と、
を備え、
前記電磁波の走査範囲は複数の検知エリアに分割されており、前記受信結果統合手段は検知エリア毎に受信結果を統合し、前記受信結果統合手段は、検知エリアにおける走査開始から所定周期でカウントを行うとともに各々のビームが送信された時点でのカウント値を記憶し、ビームの受信結果と該受信結果に対応する前記カウント値とに基づいて該受信結果を統合することを特徴とする物体検知装置。
In an object detection device that detects the presence of an object by scanning the object in at least one direction with an electromagnetic wave consisting of a set of multiple beams and receiving the reflected wave,
Detection means for detecting a reception result for each beam of electromagnetic waves transmitted at random time intervals;
Reception result integration means for integrating the reception results of the beams from which the adjacent reception signals are obtained;
Arithmetic means for calculating at least the orientation of the object based on the integration result of the reception result integration means;
With
The scanning range of the electromagnetic wave is divided into a plurality of detection areas, the reception result integration unit integrates reception results for each detection area, and the reception result integration unit counts at a predetermined cycle from the start of scanning in the detection area. And an object detection device for storing count values at the time when each beam is transmitted and integrating the reception results based on the beam reception results and the count values corresponding to the reception results. .
記受信結果統合手段は物体が検知された検知エリアの走査方向における両端の中間位置を求め、前記物体の距離が所定値以下のときに前記演算手段は前記中間位置に基づき物体の方位を求めることを特徴とする、請求項1または2に記載の物体検知装置。 Prior Symbol reception result integration unit obtains an intermediate position of the both ends in the scanning direction of the detection area the object is detected, the arithmetic unit distance of the object is at the predetermined value or less is obtained the orientation of the object based on the intermediate position The object detection device according to claim 1, wherein the object detection device is an object detection device. 前記受信結果統合手段は複数の受信結果の平均値を求めるものであることを特徴とする、請求項2または3に記載の物体検知装置。  The object detection apparatus according to claim 2, wherein the reception result integration unit calculates an average value of a plurality of reception results. 前記受信結果統合手段は複数の受信結果のうちの最小値および最大値の平均値を求めるものであることを特徴とする、請求項2または3に記載の物体検知装置。  The object detection apparatus according to claim 2, wherein the reception result integration unit calculates an average value of a minimum value and a maximum value among a plurality of reception results. 前記検知エリア内に前記受信結果統合手段の複数の統合結果が得られたとき、前記演算手段は距離が近いものから所定数の物体を選択し、その物体の少なくとも方位を算出することを特徴とする、請求項1〜5の何れかに記載の物体検知装置。  When a plurality of integration results of the reception result integration unit are obtained in the detection area, the calculation unit selects a predetermined number of objects from a short distance, and calculates at least the orientation of the objects. The object detection device according to any one of claims 1 to 5.
JP37094099A 1999-12-27 1999-12-27 Object detection device Expired - Fee Related JP3685970B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37094099A JP3685970B2 (en) 1999-12-27 1999-12-27 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37094099A JP3685970B2 (en) 1999-12-27 1999-12-27 Object detection device

Publications (2)

Publication Number Publication Date
JP2001183462A JP2001183462A (en) 2001-07-06
JP3685970B2 true JP3685970B2 (en) 2005-08-24

Family

ID=18497859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37094099A Expired - Fee Related JP3685970B2 (en) 1999-12-27 1999-12-27 Object detection device

Country Status (1)

Country Link
JP (1) JP3685970B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3838432B2 (en) * 2002-02-08 2006-10-25 オムロン株式会社 Ranging device
JP3736521B2 (en) * 2002-12-19 2006-01-18 株式会社デンソー Vehicle object recognition device
US7136753B2 (en) 2002-12-05 2006-11-14 Denso Corporation Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
JP4086670B2 (en) * 2003-01-28 2008-05-14 富士通テン株式会社 Radar equipment
JP4504646B2 (en) * 2003-08-29 2010-07-14 古野電気株式会社 Radar device and similar device
US7586436B2 (en) * 2003-09-11 2009-09-08 Mitsubishi Denki Kabushiki Kaisha Radar device
JP5505651B2 (en) * 2011-02-22 2014-05-28 株式会社デンソー Detection device
JP6135120B2 (en) * 2012-12-19 2017-05-31 富士通株式会社 Distance measuring device, distance measuring method and program
CN107211096B (en) 2015-01-22 2020-03-03 三菱电机株式会社 Image pickup apparatus and method, and recording medium
US20180246192A1 (en) * 2015-08-31 2018-08-30 Pioneer Corporation Information processing device, control method, program, and storage medium
WO2018038263A1 (en) * 2016-08-26 2018-03-01 パイオニア株式会社 Measurement device, measurement method and program
US11487002B2 (en) 2016-08-26 2022-11-01 Pioneer Corporation Measurement device, measurement method, and non-transitory storage medium
WO2018079561A1 (en) * 2016-10-24 2018-05-03 パイオニア株式会社 Sensor device, sensing method, program, and storage medium
KR102028453B1 (en) * 2018-01-15 2019-10-04 주식회사 에스원 Infrared Sensing Apparatus by Using retro-reflective Object and Laser signal and Method thereof
KR102205177B1 (en) * 2019-05-28 2021-01-20 주식회사 에스원 System to Prevent Close Sensing of Raser Sensor based on Reflection Board and Method thereof

Also Published As

Publication number Publication date
JP2001183462A (en) 2001-07-06

Similar Documents

Publication Publication Date Title
JP3685970B2 (en) Object detection device
CN108137040B (en) Parking mode determination device
JP5821419B2 (en) Moving object detection apparatus, moving object detection method, and computer program for moving object detection
US6163252A (en) Device for detecting obstacles, for use in vehicles
US9286796B2 (en) Traffic flow measuring apparatus and method, and computer-readable storage medium for judging size of vehicle depending on number of times reflected wave from vehicle is detected within detection time
JP5576727B2 (en) Signal processing device, radar device, vehicle control system, and signal processing method
US20050179581A1 (en) Radar device for obtaining position data
JP4843571B2 (en) Vehicle object detection device
JP5316572B2 (en) Object recognition device
US6125191A (en) Object detecting system for vehicle
JPWO2007015288A1 (en) Axis deviation amount estimation method and axis deviation amount estimation device
JP3649163B2 (en) Object type discrimination device and object type discrimination method
JP3744860B2 (en) Scanning radar signal processing method
JP3314006B2 (en) Vehicle obstacle detection device
JP2012237625A (en) Object distance detection device
JP3690260B2 (en) Vehicle distance measurement method
JP2002006040A (en) Object sensing device
JP4001611B2 (en) Ranging radar equipment
JP4321487B2 (en) Radar equipment for vehicles
JPH11337635A (en) Device for processing signal of fm-cw type radar for scanning
JP4506163B2 (en) Front object detection apparatus and front object detection method
JP4356820B2 (en) Radar equipment
JP3541889B2 (en) Target tracking device
JP3784327B2 (en) Ranging radar equipment
JP3750860B2 (en) Image radar device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050601

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080610

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090610

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090610

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110610

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110610

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130610

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees