JP2004198323A - Object recognition device for vehicle - Google Patents

Object recognition device for vehicle Download PDF

Info

Publication number
JP2004198323A
JP2004198323A JP2002368903A JP2002368903A JP2004198323A JP 2004198323 A JP2004198323 A JP 2004198323A JP 2002368903 A JP2002368903 A JP 2002368903A JP 2002368903 A JP2002368903 A JP 2002368903A JP 2004198323 A JP2004198323 A JP 2004198323A
Authority
JP
Japan
Prior art keywords
distance
vehicle
integrated
intensity
reflected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002368903A
Other languages
Japanese (ja)
Other versions
JP3736521B2 (en
Inventor
Yoshie Sagawa
佳江 寒川
Toyoji Nozawa
豊史 野沢
Keiji Matsuoka
圭司 松岡
Koji Okata
浩司 大方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2002368903A priority Critical patent/JP3736521B2/en
Priority to US10/725,269 priority patent/US7136753B2/en
Priority to DE10356797.6A priority patent/DE10356797B4/en
Publication of JP2004198323A publication Critical patent/JP2004198323A/en
Application granted granted Critical
Publication of JP3736521B2 publication Critical patent/JP3736521B2/en
Priority to US11/543,864 priority patent/US7496449B2/en
Priority to US12/285,199 priority patent/US7761236B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object recognition device for a vehicle for accurately recognizing an object existing forward of the vehicle. <P>SOLUTION: A plurality of laser lights are irradiated in a prescribed angular range forward of the vehicle from a laser radar sensor 5. Distance measuring data consisting of a time interval ΔT until reflective light is detected and an irradiation angle are acquired, makes a vehicle width direction an X axis and is converted into an XZ coordinate for making the forward a Z axis. In the XZ coordinate, since each reflective light is point data indicating a reflective object as a point, the positions of the point data are adjacent, and the point data satisfying a condition that a difference between the intensities of reflective waves is a prescribed value or less are collected to be integrated. Thereby a weak part (for instance, a vehicular body part) of reflective intensity of the laser light and a high part (for instance, a reflector part) of reflective intensity can be discriminated. Thus, a distance and a shape of the reflective object can be exactly calculated on the basis of the high part of the reflective intensity. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、車両前方の所定角度範囲に渡って複数の送信波を照射し、それらの反射波に基づいて、自車両前方の先行車両等の物体を認識する車両用物体認識装置に関する。
【0002】
【従来の技術】
従来より、車両前方の所定角度に渡って、光波,ミリ波などの送信波を照射し、その反射波を検出することによって、車両前方の物体を認識する物体認識装置が考えられている。この種の装置は、例えば、先行車両等との間隔が短くなったことを検出して警報を発生する装置や、先行車両と所定の車間距離を維持するように車速を制御する装置などに適用され、それらの制御対象としての先行車両の認識に利用されている。
【0003】
例えば特許文献1には、レーザレーダセンサによって車両の前方に、車幅方向及び車高方向それぞれの所定角度範囲に渡り複数のレーザ光を照射し、それらの反射光に基づいて先行車両等の物体を認識する車両用物体認識装置が開示されている。この車両用物体認識装置における具体的なレーザ光の照射方法は、まず、車幅方向の所定角度範囲に渡って、所定角度おきに複数のレーザ光を照射する(ライン照射)。そして、このライン照射が終了すると、車高方向における照射角度を変化させて、再度、ライン照射を行なう。このように、ライン照射を複数回実行することにより、レーザ光を用いて車幅方向及び車高方向における所定の2次元エリアをスキャンさせている。
【0004】
【特許文献1】
特開平11−38141号公報
【0005】
【発明が解決しようとする課題】
上述したような方法により、所定の2次元エリアを複数のレーザ光によってスキャンした場合、例えば先行車両等の比較的大きな物体が前方に存在する場合には、その物体によって複数のレーザ光が反射され、その反射光がレーザレーダセンサによって検知される。このように、レーザレーダセンサが複数の反射光を検知した場合、その反射光が同一の物体によって反射されたものであるか、異なる物体によって反射されたものであるかを判別する必要がある。つまり、各物体を正しく認識するためには、反射光を物体毎に区分することが必要なのである。
【0006】
このため、従来の車両用物体認識装置においては、まず、ライン照射を行なうことによって得られた反射光データから、反射物の車幅方向における位置とその反射物までの距離を算出する。そして、照射ラインごとに、反射物の車幅方向における位置及び反射物までの距離が近接している場合には、一体の反射物体と推定して、それらを一体化したプリセグメントデータを作成する。さらに、各ライン照射によって得られたプリセグメントデータ同士を比較して、それらの車高方向における位置及び距離が近接している場合には、それらを一体化した本セグメントデータを作成する。
【0007】
しかしながら、従来の車両用物体認識装置では、反射物の位置(車幅方向位置、車高方向位置、距離)のみに基づいて、一体の反射物体であるか否かを判定しているために、以下に説明するような問題が生じる。
【0008】
例えば、1台の先行車両からの複数の反射光が検知された場合であっても、その車体部分からの反射光の強度は十分でない場合がある。このため、その車体部分からの反射光が検知されたり、されなかったりすることがあり、この場合、その先行車両に関する測距データが不安定になる。
【0009】
また、単に反射物の位置のみに基づいて一体のものかどうかを判定すると、実際は、別個のものであっても、一体のものとみなされてしまう場合がある。例えば、先行車両の上方や側方の近接した位置に看板等の静止物がある場合、その先行車両は静止物と一体のものと認識されてしまう。このような場合、本来認識すべき先行車両が、大きさが異なるため、先行車両と正しく認識されない可能性がある。
【0010】
本発明は、上記の点に鑑みてなされたもので、車両の前方に存在する物体をより正確に認識することが可能な車両用物体認識装置を提供することを目的とするものである。
【0011】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載の車両用物体認識装置は、車両前方へ所定の角度範囲に渡って複数の送信波を照射し、各送信波が反射物によって反射され、その反射波を受信した際に、その反射波の強度に応じた受信信号を出力するレーダ手段と、
レーダ手段による送受信結果に基づいて、車両の前方に存在する物体を認識する認識手段とを備える車両用物体認識装置であって、
レーダ手段は、送信波の照射から反射波の受信までの時間間隔に基づいて、送信波の照射方向における反射物までの距離を算出する距離算出手段と、
受信信号から反射波の強度を求める強度算出手段とを備え、
認識手段は、レーダ手段が複数の反射波を受信した場合に、それら複数の反射波に基づいて前記距離算出手段によって算出される距離の差が所定距離以下であり、かつ、それら複数の反射波は、レーダ手段から近接して照射された送信波によって生じたものであり、さらに、それら複数の反射波に関して強度算出手段によって算出された強度の差が所定値以下であるとの条件がすべて成立した場合に、それら複数の反射波を生じさせた反射物を一体化して同一の反射物体と認識する第1の一体化手段を有することを特徴とする。
【0012】
本車両用物体認識装置における認識対象としての車両は、その後面に、左右対称に取り付けられたリフレクタを備えている。このリフレクタは、送信波に対して車両の車体部分よりも高い反射強度を備えている。従って、そのリフレクタからの反射波は、車体部分からの反射波のように検知が不安定となることがなく、安定的にレーダ手段によって受信することが可能である。
【0013】
本発明では、認識対象としての車両を安定的に検知するために、反射波の強度を利用することとした。すなわち、各反射波により、点として認識される反射物を一体化する条件として、反射物同士の位置が隣接しているとの条件に加えて、反射波の強度の差が所定値以下であるとの条件を採用する。
【0014】
このように、反射波の強度の差が所定値以下であるときに反射物を一体の反射物体と認識することにより、反射強度の弱い部分(例えば車体部分)と反射強度の高い部分(例えばリフレクタ部分)とが区別できる。この結果、一体化された反射物体の内、反射波の強度の高い反射物体を基準に、反射物体との距離の算出や形状の算出を行なうことが可能となるので、物体との距離や物体の形状等を正確に把握することが可能となる。
【0015】
請求項2に記載したように、強度算出手段は、反射波の強度に応じて、反射波を複数のグループに分け、第1の一体化手段は、強度算出手段によって複数の反射波が同じグループに分けられている場合に、強度の差が所定値以下であると判断することが好ましい。このようにすると、各反射波の強度と、その強度差とが容易に判別できる。
【0016】
請求項3に記載したように、認識手段は、距離算出手段によって算出される距離が所定の距離以下である場合に、他の反射物と一体化されない反射物を、認識対象から除外することが好ましい。所定の距離以下に存在する物体からの反射波は、一般的に強度が高くなる傾向にある。このため、実際に物体が存在する場合には、同様の強度を持った複数の反射波がレーダ手段によって受信されるはずである。これを逆の観点から考えると、1個の反射波による反射物が他の反射物と一体化されない場合、その反射波は、何らかの要因で発生したノイズであるとみなすことができる。従って、このような場合は、その反射波による反射物を認識対象から除外することが好ましいのである。
【0017】
請求項4に記載したように、認識手段は、強度算出手段によって算出される反射波の強度が所定レベル以下であり、かつ一体化される反射物の個数が所定個数以下である場合、その反射物を認識対象から除外することが好ましい。反射波の強度が低く、かつ一体化される反射物の個数が所定個数(零を含む)以下である場合にも、その反射波は、何らかの要因で発生したノイズであるとみなすことができるためである。
【0018】
請求項5に記載したように、第1の一体化手段は、距離算出手段が算出する距離が長くなるほど、複数の反射波に基づいて距離算出手段によって算出された距離の差に関する条件である所定距離を長くすることが好ましい。反射物までの距離が長くなるにつれて、反射波の強度が低下する傾向にあり、反射波の強度の低下と距離の測定精度とは相関関係があるためである。すなわち、反射物までの距離がながくなるほど、その距離の測定精度が低下する傾向にあるので、一体化判定するための距離条件も緩和することが好ましい。
【0019】
請求項6に記載したように、第1の一体化手段は、2つの送信波の間に介在する送信波の個数が所定個数以下の場合に、近接して照射された送信波と判断するものであり、距離算出手段が算出する距離が長くなるほど、その個数を減少させることが好ましい。レーダ手段からは、複数の送信波が、所定の角度範囲に渡って照射されるので、物体が自車両から近距離に存在する場合には、より多くの送信波がその物体により反射され、かつ、その物体に到達したときの送信波間の間隔は短い。そして、物体と自車両との距離が長くなるにつれて、送信波間の間隔は長くなる。従って、上述したように、2つの送信波の間に介在する送信波の個数が所定個数以下の場合に、近接して照射された送信波と判断する場合、反射物体との距離が長くなるほど、その個数を減少させることが好ましいのである。
【0020】
請求項7に記載した車両用物体認識装置は、レーダ手段は、車両の車幅方向に沿って、複数の送信波を照射するものであり、認識手段は、第1の一体化手段によって一体化された反射物体が複数ある場合に、それら複数の反射物体間の車幅方向の距離及び送信波の照射方向における距離が、それぞれ所定の一体化判定距離以下である場合に、それら複数の反射物体を一体化して同一の一体化反射物体と認識する第2の一体化手段を有することを特徴とする。
【0021】
このように、請求項7に記載した車両用物体認識装置では、反射波の強度が同じ程度である反射物からなる反射物体を求め、その後、反射物体同士の位置関係からそれらの反射物体が同一物とみなせる場合には、さらに一体化反射物体と認識する。これにより、一体化反射物体を構成する反射物体に関して、反射波の強度が求められているので、例えば、その一体化反射物体までの距離については、反射波の強度が所定レベル以上である反射物体のみに基づいて算出したり、一体化反射物体の大きさが正常範囲から逸脱した場合には、反射波の強度が低い反射物体を除外して一体化反射物体の大きさを求めたりすることが可能になる。これにより、先行車両等の物体をより正確に認識することが可能になる。
【0022】
なお、請求項5において説明したのと同様の理由から、請求項8に記載したように、第2の一体化手段は、送信波の照射方向における反射物体までの距離が長くなるほど、一体化判定距離を長く設定することが好ましい。
【0023】
請求項9に記載したように、認識手段は、第2の一体化手段によって一体化された一体化反射物体までの距離、及びこの一体化反射物体の幅を求める距離・形状算出手段を備え、この距離・形状算出手段は、第1の一体化手段が反射波の強度が所定レベル以上である反射物を一体化した反射物体までの距離に基づいて、第2の一体化手段により一体化された一体化反射物体までの距離を求めることが好ましい。所定レベル以上の強度を有する反射波はレーダ手段によって安定的に受信可能であり、そのような反射波の強度が所定レベル以上である反射物を一体化した反射物体までの距離の測定精度は非常に高い。このため、反射波の強度が所定レベル以上である反射物を一体化した反射物体までの距離に基づいて一体化反射物体までの距離を求めることにより、その距離の精度も向上できる。
【0024】
請求項10に記載したように、距離・形状算出手段は、第2の一体化手段が複数の反射物体を一体化した一体化反射物体を求めた場合に、それら複数の反射物体の反射波の強度が異なっており、かつ、一体化反射物体の幅が所定の長さを超えた場合に、最も反射波の強度が弱い反射物体を除いて、一体化反射物体の幅を求めることが好ましい。車両用物体認識装置の認識対象は車両であり、本来、車両が存在すべき領域に車両の幅を超えるような幅を持つ物体が存在する可能性は極めて低いので、この場合は、反射波の強度が相対的に低い反射物体は、ノイズ等によるものであると推測できるためである。
【0025】
請求項11に記載の車両用物体認識装置は、レーダ手段が、車両の車幅方向における所定の角度範囲に渡る送信波の照射を、車両の車高方向における照射角度を変えて複数回実行するものであり、
車両の車幅方向における送信波の照射ライン毎に、第1の一体化手段及び第2の一体化手段が、それぞれ反射物の一体化、さらに反射物体の一体化を行なって一体化反射物体を求めるものであり、
認識手段は、照射ライン毎に求められた一体化反射物体が近接した位置に存在し、かつそれぞれの移動速度の差が所定速度差以下との条件が満足された場合に、それらの一体化反射物体をさらに一体化して物標として認識する物標化手段を備えることを特徴とする。
【0026】
上述したように、車高方向に複数の送信波の照射ラインを設定した場合、隣接する照射ライン毎に求められた一体化反射物体同士が、同一物体か否かを判断する必要がある。この場合に、従来技術のように、単に一体化反射物体同士の位置関係のみで、同一物体か否かを判断してしまうと、正確に先行車両等の物体を認識することができない場合がある。すなわち、上述したように、先行車両の上方や側方の近接した位置に看板等の静止物がある場合、その先行車両は静止物と一体のものと認識されてしまう可能性がある。
【0027】
そこで、請求項11に記載の車両用物体認識装置においては、照射ライン毎に求められた一体化反射物体の移動速度の差が所定速度差以下との条件が成立した場合のみ、それらを同一物体とみなして、一体化した物標として認識する。これにより、上述したような問題、すなわち、移動物と静止物とが同一物体と誤認識される事態を回避することができる。
【0028】
請求項12に記載したように、一体化反射物体の移動速度は、自車両との車幅方向における相対速度及び前記送信波の照射方向における相対速度として算出され、物標化手段は、複数の一体化反射物体の両相対速度がともに所定速度差以下である場合に、それら複数の一体化反射物体を一体化した物標とすることが好ましい。このように、車幅方向及び送信波の照射方向における両相対速度を用いることにより、自車両前方に存在する移動物の移動状態を正しく把握することができる。従って、移動物と静止物とはもちろんのこと、移動物同士であっても、謝って同一物体であると認識されることを防止することができる。
【0029】
請求項13に記載したように、物標化手段は、距離・形状算出手段が算出した一体化反射物体までの距離及び一体化反射物体の幅と、この一体化反射物体の相対速度から、レーダ手段の検知時間間隔毎に当該一体化反射物体の存在する推定領域を算出し、その推定領域内に他の一体化反射物体が属する場合に、それらの一体化反射物体が近接した位置に存在すると判断することができる。
【0030】
【発明の実施の形態】
以下、本発明の実施形態における車間制御装置について説明する。なお、本実施形態においては、車間制御装置1に車両用物体認識装置が適用されており、かつ車間制御装置1は、警報すべき領域に障害物が存在する場合に警報を出力する機能も備えるものである。
【0031】
図1は、車間制御装置1のシステムブロック図である。車間制御装置1は認識・車間制御ECU3を中心に構成されている。認識・車間制御ECU3はマイクロコンピュータを主な構成として、入出力インターフェース(I/O)等を備えている。これらのハード構成は一般的なものであるので詳細な説明は省略する。
【0032】
認識・車間制御ECU3は、レーザレーダセンサ5、車速センサ7、ブレーキスイッチ9、スロットル開度センサ11から各々検出信号を入力しており、警報音発生器13、距離表示器15、センサ異常表示器17、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に駆動信号を出力する。また認識・車間制御ECU3には、警報音量を設定する警報音量設定器24、警報判定処理における感度を設定する警報感度設定器25、クルーズコントロールスイッチ26、図示しないステアリングホイールの操作量を検出するステアリングセンサ27、及び自動車に発生したヨーレートを検出するヨーレートセンサ28が接続されている。また認識・車間制御ECU3は、電源スイッチ29を備え、電源スイッチ29がオンされることにより、所定の処理を開始する。
【0033】
レーザレーダセンサ5は、図2(a)に示すように、発光部、受光部及びレーザレーダCPU70などを主要部として構成されている。発光部は、パルス状のレーザ光を、発光レンズ71、スキャナ72及びガラス板77を介して放射する半導体レーザダイオード(以下、単にレーザダイオードと記載)75を備えている。そして、レーザダイオード75は、レーザダイオード駆動回路76を介してレーザレーダCPU70に接続され、レーザレーダCPU70からの駆動信号によりレーザ光を放射(発光)する。また、スキャナ72にはポリゴンミラー73が鉛直軸を中心に回転可能に設けられ、レーザレーダCPU70からの駆動信号がモータ駆動部74を介して入力されると、このポリゴンミラー73は図示しないモータの駆動力により回転する。なお、このモータの回転位置は、モータ回転位置センサ78によって検出され、レーザレーダCPU70に出力される。
【0034】
本実施形態のポリゴンミラー73は、面倒れ角が異なる6つのミラーを備えているため、車幅方向及び車高方向それぞれの所定角度の範囲で不連続にレーザ光を掃引照射(スキャン)して出力する。このようにレーザ光を2次元的に走査するのであるが、その走査パターンを図3を参照して説明する。なお、図3において、出射されたレーザビームのパターン92は測定エリア91内の右端と左端に出射された場合のみを示しており、途中は省略している。また、出射レーザビームパターン92は、図3では一例として楕円形のものを示しているが、この形に限られるものではなく長方形等でもよい。さらに、レーザ光を用いるものの他に、ミリ波等の電波や超音波等を用いるものであってもよい。また、スキャン方式にこだわる必要はなく、距離以外に2方位を測定できる方式であればよい。
【0035】
図3に示すように、測定エリアの中心方向をZ軸としたとき、レーザ光は、Z軸に垂直なXY平面内の所定エリアを順次走査する。本実施形態では、高さ方向であるY軸を基準方向、車幅方向であるX軸を走査方向とし、スキャンエリアは、X軸方向には0.08deg×450点=20degであり、Y軸方向には1.4deg×3ライン=4degである。また、スキャン方向はX軸方向については図3において左から右へ、Y軸方向については図3において上から下へである。具体的には、まずY軸方向に見た最上部に位置する第1走査ラインについてX軸方向に0.08°おきに450個のレーザ光を照射する。これで1走査ライン分の検出がなされるので、次に、Y軸方向に見た次の位置にある第2走査ラインにおいても同様にX軸方向に0.08°おきに450個のレーザ光を照射する。このようにして第3走査ラインまで同様のレーザ光の照射を繰り返す。従って、左上から右下に向かって、走査ラインごとにレーザ光が走査がされ、450点×3ライン=1350点分のデータが得られることとなる。
【0036】
このような2次元的なスキャンにより、走査ラインごとに、走査方向を示すスキャン角度θxと反射物までの距離に相当するレーザ光の照射から受光までの時間差とが得られる。なお、距離スキャン角度θxは、出射されたレーザ光をXZ平面に投影した線とZ軸との角度として定義する。
【0037】
レーザレーダセンサ5の受光部は、図示しない物体に反射されたレーザ光を受光レンズ81を介して受光し、その強度に対応する電圧を出力する受光素子83を備えている。そして、この受光素子83の出力電圧は、増幅器85にて増幅された後に、コンパレータ87に出力される。コンパレータ87は増幅器85の出力電圧を基準電圧と比較し、出力電圧>基準電圧となったとき所定の受光信号を時間計測回路89へ出力する。
【0038】
時間計測回路89には、レーザレーダCPU70からレーザダイオード駆動回路76へ出力される駆動信号も入力される。そして図2(b)に示すように、上記駆動信号をスタートパルスPA、上記受光信号をストップパルスPBとし、2つのパルスPA,PB間の位相差(すなわち、レーザ光を出射した時刻T0と反射光を受光した時刻T1との時間差ΔT)を2進デジタル信号に符号化する。また、ストップパルスPBが、基準電圧以上となっている時間を、ストップパルスPBのパルス幅として計測する。そして、それらの値を2進デジタル信号に符号化してレーザレーダCPU70へ出力する。レーザレーダCPU70は、時間計測回路89から入力された2つのパルスPA,PB間の入力時間差ΔT、レーザ光のスキャン角度θx、及び受光強度データ(ストップパルスPBのパルス幅が相当する)を測距データとして認識・車間制御ECU3へ出力する。
【0039】
ここで、受光強度データについて説明する。図2(c)は受光強度が異なる2つの反射光のストップパルスPBを表している。図2(c)において、曲線L1は、受光強度が比較的強い反射光のストップパルスPBに対応し、曲線L2は、受光強度が比較的弱い反射光のストップパルスPBに対応する。
【0040】
同図の曲線L1の立ち上がり過程における、コンパレータ87に入力される基準電圧V0と交差する時刻をt11、曲線L1の立ち下がり過程に基準電圧V0と交差する時刻をt12、時刻t11と時刻t12との時間差をΔt1とする。また、曲線L2の立ち上がり過程に基準電圧V0と交差する時刻をt21、曲線L2の立ち下がり過程に基準電圧V0と交差する時刻をt22、時刻t21と時刻t22との時間差をΔt2とする。なお、基準電圧V0は、ノイズ成分による影響を避けることができる大きさに設定されている。
【0041】
図2(c)から明らかなように、強い受光強度を持った反射光のストップパルスPBのパルス幅である時間差Δt1と、弱い受光強度を持った反射光のストップパルスPBのパルス幅である時間差Δt2とを対比すると、Δt1>Δt2の関係が成立する。すなわち、反射光のストップパルスPBのパルス幅は、受光強度と対応し、受光強度が小さい時にはパルス幅が短くなり、受光強度が大きい時にはパルス幅が長くなる。従って、このパルス幅である時間差(Δt1、Δt2)は、受光した反射光の強度を特徴付ける指標となる。
【0042】
なお、受光強度は、反射物体の反射強度とその反射物体までの距離によって変化する。すなわち、反射物体の反射強度が高い場合、もしくは反射物体までの距離が短い場合には、反射光の受光強度は大きくなり、反射強度が低い、もしくは反射物体までの距離が長い場合には、反射光の受光強度は小さくなる。
【0043】
認識・車間制御ECU3は、レーザレーダセンサ5からの測距データを基にして物体を認識し、その認識物体から得た先行車の状況に合わせて、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に駆動信号を出力することにより車速を制御する、いわゆる車間制御を実施する。また、認識物体が所定の警報領域に所定時間存在した場合等に警報する警報判定処理も同時に実施する。この場合の物体としては、自車の前方を走行する前車やまたは停止している前車等が該当する。
【0044】
続いて認識・車間制御ECU3の内部構成について、制御ブロックとして説明する。レーザレーダセンサ5から出力された測距データは物体認識ブロック43に送られる。物体認識ブロック43では、走査ライン毎に、測距データとして得た時間差ΔTとスキャン角度θxとをレーザレーダセンサ5中心を原点(0,0)とし、車幅方向をX軸、車両前方方向をZ軸とするXZ直交座標に変換する。そして、XZ直交座標に変換された測距データは、後述するプリセグメントデータ化、本セグメントデータ化、及び物標化という3種類の一体化処理がなされ、車両の前方に存在する物体毎に集約される。
【0045】
そして、物体毎に集約された測距データに基づいて、物体の中心位置(X,Z)、大きさ(W,D)を求める。さらに、物体の中心位置(X,Z)の時間的変化に基づいて自車位置を基準とする先行車両等の物体の相対速度(Vx,Vz)を求める。さらに物体認識ブロック43では、車速センサ7の検出値に基づいて車速演算ブロック47から出力される車速(自車速)と上記求められた相対速度(Vx,Vz)とから物体が停止物体であるか移動物体であるかの識別が行なわれる。なお、物体の大きさを示す(X,D)は、それぞれ(横幅、奥行き)である。このようなデータを持つ物体のモデルを「物標モデル」と呼ぶ。
【0046】
この物体認識ブロック43にて求めたデータが異常な範囲の値かどうかがセンサ異常検出ブロック44にて検出され、異常な範囲の値である場合には、センサ異常表示器17にその旨の表示がなされる。
【0047】
また、ステアリングセンサ27からの信号に基づいて操舵角演算ブロック49にて操舵角が求められ、ヨーレートセンサ28からの信号に基づいてヨーレート演算ブロック51にてヨーレートが演算される。そしてカーブ半径(曲率半径)算出ブロック57では、車速演算ブロック47からの車速と操舵角演算ブロック49からの操舵角とヨーレート演算ブロック51からのヨーレートとに基づいて、カーブ半径(曲率半径)Rを算出する。そして先行車判定ブロック53では、このカーブ半径Rと、物体認識ブロック43にて求められた中心位置座標(X,Z)、物体の大きさ(W,D)、及び相対速度(Vx,Vz)とに基づいて、自車両との距離が最も短い先行車両を選択し、その先行車両との距離Z及び相対速度Vzを求める。
【0048】
そして、車間制御部及び警報判定部ブロック55が、この先行車との距離Z、相対速度Vz、クルーズコントロールスイッチ26の設定状態およびブレーキスイッチ9の踏み込み状態、スロットル開度センサ11からの開度および警報感度設定器25による感度設定値に基づいて、警報判定ならば警報するか否かを判定し、クルーズ判定ならば車速制御の内容を決定する。その結果を、警報が必要ならば、警報発生信号を警報音発生器13に出力する。また、クルーズ判定ならば、自動変速機制御器23、ブレーキ駆動器19およびスロットル駆動器21に制御信号を出力して、必要な制御を実施する。そして、これらの制御実行時には、距離表示器15に対して必要な表示信号を出力して、状況をドライバーに告知する。
【0049】
このような車間制御や警報判定に際しては、その前提となる物体認識、さらに詳しく言えば、ここでの認識対象物体である車両の認識が適切に行われていることが重要である。そこで、その車両認識を適切に行なうため、認識・車間制御ECU3の物体認識ブロック43において実行される物体認識に関する処理について説明する。
【0050】
図4は、物体認識に係るメイン処理を示すフローチャートである。まず、図4のステップS10では、レーザレーダセンサ5から1走査ライン分ずつ測距データの読み込みを行なう。なお、レーザレーダセンサ5での3走査ライン全体の測定周期は100msecである。
【0051】
ステップS20では、読み込まれた測距データから、受光強度の弱いデータを削除する。すなわち、測距データには、反射波の受光強度を示すストップパルスPBのパルス幅が含まれており、そのパルス幅を削除基準値と比較することにより、所定値以下のパルス幅しか持たない測距データを削除する。さらに、このステップS20では、ストップパルスPBのパルス幅に基づいて、測距データを受光強度大のグループ、受光強度中のグループ、受光強度小のグループにグループ分けしておく。具体的には、パルス幅の長さと比較される基準値を3種類用意し、最も大きな第1基準値以上のパルス幅を持つ測距データを受光強度大のグループにグループ分けする。そして、パルス幅が、第1の基準値と、その第1の基準値よりも小さな第2の基準値との間に属する測距データを受光強度中のグループにグループ分けし、第2の基準値と第3の基準値(<第2の基準値)との間に属する測距データを受光強度小のグループにグループ分けする。なお、この第3の基準値が、上記した削除基準値に相当し、パルス幅が第3の基準値以下の測距データは削除される。
【0052】
ステップS30では、測距データのプリセグメント化処理を行ない、さらにステップS40ではプリセグメント化された測距データの本セグメント化処理を行なう。このプリセグメント化処理及び本セグメント化処理について、以下、詳細に説明する。なお、プリセグメント化処理が本発明における第1の一体化手段に相当し、本セグメント化処理が第2の一体化手段に相当する。
【0053】
図5は、プリセグメント化処理及び本セグメント化処理の流れ、及びその概要を示す説明図である。まず、プリセグメント化処理及び本セグメント化処理の流れについて説明する。図5に示すように、第1走査ラインの測距データに対して、プリセグメント化処理を行なう。すなわち、所定のプリセグメント化条件(一体化条件)を満たす測距データを集めてプリセグメントを形成する。次に、プリセグメント化された第1走査ラインの測距データに対して本セグメント化処理を行なう。この本セグメント化処理では、プリセグメント化処理によって形成されたプリセグメント同士が、所定の本セグメント化条件(一体化条件)を満たす場合、それらのプリセグメントを接続して本セグメントを形成する。なお、プリセグメント化条件及び本セグメント化条件については後述する。
【0054】
続いて、第2走査ラインの測距データに対して、プリセグメント化処理、本セグメント化処理を行ない、最後に、第3走査ラインの測距データに対して、プリセグメント化処理、本セグメント化処理を行なう。このように、プリセグメント化処理及び本セグメント化処理は、走査ライン毎に順次実行される。
【0055】
次に、図6(a)、(b)に基づいて、プリセグメント化処理、特にプリセグメント化条件に関して詳細に説明する。なお、図6(a)は、XZ直交座標に変換された測距データを示し、図6(b)は、プリセグメント化されたデータを示すものである。
【0056】
図6(a)に示すように、1走査ライン分の測距データがXZ直交座標に変換された場合、各測距データは、車両前方の反射物を点として示すことになる。これらの反射物を点として示す点データが、以下の3つの条件(プリセグメント化条件)を満たす場合に、その点データを一体化してプリセグメントを作成する。
▲1▼Z軸方向の距離の差ΔZが所定の距離以下であること。
▲2▼X軸方向の距離の差ΔXが所定の距離以下であること。
▲3▼受光強度に関して、同じグループにグループ分けされていること。
【0057】
上記した▲1▼〜▲3▼の条件の内、▲1▼及び▲2▼の条件は、複数の点データを一体化する上での基礎的な要件となるものである。すなわち、レーザ光が、同一の反射物体、特に同一の先行車両によって反射される場合、その反射光によって得られる測距データは、Z軸方向においては、ほぼ同じ距離を示し、かつX軸方向においては、車幅に相当する距離範囲内に存在することになる。
【0058】
ただし、上記したZ軸方向の距離の差ΔZと比較される所定距離は、反射物までの距離Zが長くなるほど、長くなるように変更される。例えば、反射物までの距離が70mまでの距離範囲においては、その所定処理を1.5mとし、70mを超える距離範囲においては、所定距離を2.0mに設定する。これは、反射物までの距離Zが長くなるほど、その距離の測定精度が低下する傾向にあるためである。
【0059】
また、X軸方向の距離の差ΔXと比較される所定距離も、反射物までの距離Zが長くなるほど、長くなるように変更される。例えば、反射物までの距離が10mまでの範囲では、所定距離を2cm程度とし、その反射物までの距離Zが長くなるにつれて、序々にその所定距離を20cm程度まで増加させる。レーザレーダセンサ5から、複数のレーザ光が、所定の角度範囲に渡って照射される場合、反射物が自車両から近距離に存在する場合には、より多くのレーザ光がその反射物により反射され、かつ、その反射物に到達したときのレーザ光間の間隔は短くなる。そして、反射物までの距離Zが長くなるにつれて、レーザ光間の間隔が長くなる。従って、このようなレーザ光の分解能の観点から、上述したように、反射物との距離Zが長くなるほど、プリセグメント化条件におけるX軸方向の距離条件を緩和するのである。
【0060】
なお、X軸方向の距離は、測距データをXZ直交座標に変換した後に、各点データのX軸方向の距離の差ΔXを、所定距離と比較しても良いが、一体化の判断対象となっている測距データに対応するレーザ光間に存在するレーザ光の本数から、間接的にX軸方向における距離の差ΔXを判定しても良い。すなわち、2つのレーザ光の間に介在するレーザ光の本数が所定本数以下の場合に、X軸方向における距離条件が満足されたと判定する。このようにすると、X軸の距離条件を判定するための演算処理負荷を軽減できるとのメリットがある。
【0061】
そして、このように、2つのレーザ光の間に介在するレーザ光の本数によってX軸方向の距離条件を判定する場合、反射物との距離Zが長くなるほど、一体化判定するための本数を減少させる。これは、反射物までの距離Zが長くなるほど、レーザ光のX軸方向における間隔が長くなるためである。
【0062】
また、本実施形態では、上述した▲1▼、▲2▼の条件に加えて、各測距データの受光強度に関する条件も判断する。すなわち、受光強度の差が小さい測距データを集めてプリセグメントを作成するために、受光強度に関して同じグループ(受光強度大、中、小)にグループ分けされていることをプリセグメント化の一条件とした。
【0063】
車両用物体認識装置における主な認識対象は、自車両の前方の先行車両であり、その先行車両は、その後面に、左右対称に取り付けられたリフレクタを備えている。このリフレクタは、レーザ光に対して車体部分よりも高い反射強度を持っている。従って、そのリフレクタからの反射光は、車体部分からの反射光のように検知が不安定となることがなく、安定的にレーザレーダセンサ5によって受光することができる。
【0064】
そして、受光強度が同じグループにグループ分けされている測距データを集めてプリセグメントを作成することにより、反射強度の弱い部分(例えば車体部分)と反射強度の高い部分(例えばリフレクタ部分)とが区別できる。この結果、プリセグメント同士を一体化して本セグメントを作成する際に、反射光の強度の高いプリセグメントを基準に、本セグメントの距離の算出や形状の算出を行なうことが可能となる。これにより、本セグメントの距離や形状等を正確に把握することができる。
【0065】
さらに、プリセグメント化処理においては、外来光等のノイズの影響を排除するため、以下の2つの条件▲4▼,▲5▼の内、いずれかが成立した場合には、その測距データをプリセグメントとしては扱わないこととした。
【0066】
▲4▼反射物までの距離が所定距離(例えば100m)以下の場合に、測距データが、他の測距データと一体化されない、すなわち、1本のレーザ光のみ単独で反射光が得られた場合。
【0067】
上記の所定距離範囲において、認識対象物体である車両は、複数本のレーザ光が当たる大きさを備えており、1本のレーザ光のみが、上述した▲1▼,▲2▼の条件である所定距離以上離れて独立して存在したり、他の反射光と異なる受光強度となることは通常ありえない。従って、測距データが他の測距データと一体化されない場合、その反射光は、何らかの要因で発生したノイズであるとみなすことができる。このため、ノイズとみなされる測距データは、その測距データ単独でプリセグメントとして扱わないようにする。
【0068】
▲5▼一体化される測距データの数が所定個数(例えば2)以下で、かつその受光強度が受光強度小のグループにグループ分けされている場合。
【0069】
反射光の強度が低く、かつ一体化される測距データの個数が所定個数(零を含む)以下である場合にも、その反射光は、何らかの要因で発生したノイズであるとみなすことができるためである。
【0070】
上述したプリセグメント化条件に従って、図6(a)に示す測距データをプリセグメント化すると、図6(b)に示すように5つのプリセグメントが形成されることになる。そして、各プリセグメントについて、各測距データの位置(X,Z)を平均化して、中心位置(Xc,Zc)を求めるとともに、各測距データの位置(X、Z)の最小値と最大値とに基づいて、横幅W及び奥行きDを求める。
【0071】
次にステップS30において、本セグメント化処理が行なわれ、1走査ラインの測距データから形成されたプリセグメント同士が、本セグメント化条件を満足する場合、それらを一体化して本セグメントとする。なお、他のプリセグメントと一体化されないプリセグメントは、そのまま、本セグメントとなる。
【0072】
この本セグメント化条件は、プリセグメント同士の中心位置(Xc,Zc)の差(ΔXc、ΔZc)が、それぞれ一体化判定距離(ΔX,ΔZ)以下であることである。この一体化判定距離(ΔX、ΔZ)は、プリセグメントまでの距離Zに応じて変更される。例えば、距離Zが35m以下の距離範囲においては、X軸方向の差ΔXが15cm以下、Z軸方向の差ΔZが1.5m以下、距離Zが35mから70mの範囲においては、ΔXが20cm以下、ΔZが1.5m以下、さらに70m以上の範囲においては、ΔXが25cm以下、ΔZが2m以下のように設定される。このように、一体化判定距離(ΔX,ΔZ)が、プリセグメントまでの距離Zに応じて変更される理由は、レーザ光の測定精度や分解能を考慮したためである。
【0073】
これにより、図7に例示するように、プリセグメントPS1,PS2,PS3までの距離Zに応じて、それぞれ、X軸及びZ軸方向に一体化判定距離(ΔX,ΔZ)に応じた領域が設定される。そして、例えばプリセグメントPS1に対して設定される領域内に他のプリセグメントPS2の中心位置(Xc,Zc)が属するときには、プリセグメントPS1とプリセグメントPS2とが一体化されて、本セグメントが形成される。なお、プリセグメントPS3は、その領域から外れているため、プリセグメントPS1,PS2とは一体化されず、単独で本セグメントとなる。
【0074】
ただし、本セグメント化処理においては、本セグメントとして認識される反射物体までの距離や形状を正しく把握するために、複数のプリセグメントを一体化して本セグメントを形成した場合、本セグメントまでの距離の算出や横幅の算出等を以下のように行なう。
【0075】
まず、本セグメントまでの距離Zを算出するためのプリセグメントを、受光強度に基づいて抽出する。具体的には、受光強度が中以上のプリセグメントを抽出する。ただし、受光強度が中以上のプリセグメントが1つしか存在しなくて、かつそのプリセグメントを構成する測距データの数が1つである場合には、受光強度が小のプリセグメントも抽出する。測距データが1つでは、本セグメントの奥行き等を算出することができないためである。また、受光強度が中以上のプリセグメントがない場合にも、受光強度小のプリセグメントを抽出する。
【0076】
このようにして抽出したプリセグメントに基づいて、本セグメントまでの距離Z等を算出する。具体的には、本セグメントまでの距離Zは、抽出プリセグメントの距離Zの平均値として算出される。さらに、抽出プリセグメントの距離Zの中の最小距離Zmin、及び抽出プリセグメントの距離Zの中の最大距離Zmaxを求め、最小距離Zminと最大距離Zmaxとの差から本セグメントの奥行きDを求める。なお、最小距離Zmin及び最大距離Zmaxは、抽出プリセグメントを構成する各測距データの最小値及び最大値から求められる。
【0077】
このように、原則として、受光強度が中以上のプリセグメントを抽出し、その抽出プリセグメントによって、本セグメントまでの距離Z等を求めることにより、その距離の精度を向上することができる。すなわち、高い強度を有する反射光はレーザレーダセンサ5によって安定的に受光可能であり、そのような反射光による受光信号に基づいて算出される反射物体までの距離の精度は非常に高い。このため、受光強度が中以上のプリセグメントのみに基づいて距離Z等を算出することにより、本セグメントまでの距離Z等を高精度に求めることができる。
【0078】
次に本セグメントの横幅Wの算出方法について説明する。本セグメントの横幅Wは、まず、全てのプリセグメントを使用して算出される。すなわち、全てのプリセグメントの中で、最も右端及び左端に位置する測距データの位置から横幅Wを算出する。その算出した横幅Wが、車両として通常有する横幅の最大値W0(例えば誤差を考慮して2.7m)よりも小さい場合には、そのまま、横幅Wとする。
【0079】
しかしながら、その算出した横幅が最大値W0よりも大きい場合であって、受光強度が異なる複数のプリセグメントによって本セグメントが構成される場合、受光強度小のプリセグメントを除いて、本セグメントの横幅を算出する。認識対象である車両が存在すべき領域に車両の幅を大きく超えるような幅を持つ物体が存在する可能性は極めて低い。従って、この場合は、受光強度が小のプリセグメントは、ノイズ等によるものであると推測できるので、そのプリセグメントを除いて横幅Wを算出するのである。
【0080】
ただし、受光強度が小のプリセグメントを除外した結果、その横幅Wが小さくなりすぎる場合(例えば1m未満)は、プリセグメントの除外を行なわない。同様に、横幅Wが最大値W0を超えた場合であっても、プリセグメントの受光強度がすべて同じである場合にも、プリセグメントの削除を行なわない。そして、本セグメントの横幅Wを算出した後、さらに、その横幅Wに基づいて、本セグメントのX軸における中心位置を算出しておく。
【0081】
このようにして、走査ライン毎に、本セグメントが形成されると、次に、ステップS50に示すように物標化処理が行なわれる。この物標化処理では、図8に示すように、各走査ラインにおける本セグメント同士を一体化すべき否かの判定がなされる。そして、一体化すべきと判定された本セグメント同士が接続され、一体の物標モデルとされる。
【0082】
以下、物標化処理に関して、図9の説明図及び図10のフローチャートに基づいて説明する。物標化処理では、まず、ステップS110において、各本セグメントの推定位置を算出する。すなわち、図9に示すように、本セグメントが前回処理時の位置から前回処理時における相対速度で移動したと仮定した場合、その本セグメントが存在するであろう推定位置を算出する。続いて、ステップS120において、推定位置の周囲に、X軸及びZ軸方向それぞれに所定量の幅を有する推定移動範囲を設定する。そして、ステップS130において、推定移動範囲に少なくとも一部が含まれる本セグメントを選択する。なお、この推定移動範囲と対比される本セグメントの位置の算出には、上述した最小距離Zmin,最大距離Zmax,補正された横幅Wの右端位置及び左端位置が使用される
ステップS140では、ステップS130において選択された本セグメントが複数存在する場合、それぞれの本セグメントのX軸及びZ軸方向における相対速度の差(ΔVx,ΔVz)が、それぞれ所定速度差(ΔVx0、ΔVz0)未満か否かを判定する。そして、ステップS150では、ステップS140にて相対速度差(ΔVx,ΔVz)が所定速度差(ΔVx0、ΔVz0)未満と判定された場合には、それら複数の本セグメントが、一体のものであるとみなし、それら複数の本セグメントを一体化して物標モデルを形成する。すなわち、複数の本セグメントに属する測距データのX軸、Z軸方向における最小値及び最大値から、横幅Wm、奥行きDmを求めるとともに、各本セグメントまでの距離を平均化して、物標モデルまでの距離Zmを求める。なお、上記の所定速度差(ΔVx0,ΔVz0)は一定値でも良いし、自車両の走行速度が上昇するにつれて、増加するように変更しても良い。
【0083】
一方、推定移動範囲に含まれる本セグメントが1つであった場合には、その本セグメント単独で物標モデルを構成することになる。
【0084】
そして、前回求めた本セグメントに対応する本セグメントが特定された場合には、次回の推定位置の算出等を行なうため、本セグメントのデータ更新処理を実行する。更新されるデータは、各本セグメントの中心座標(Xc,Zc)、幅W、奥行きD、X軸方向及びZ軸方向の相対速度(Vx,Vz)、中心座標(Xc,Zc)の過去複数回分のデータなどである。なお、いずれの推定範囲にも属さない本セグメントは、新規本セグメントとして登録する。
【0085】
上述したように、本実施形態における物標化処理によれば、走査ライン毎に求められた本セグメント同士が、同一物体か否かを判断する際に、各本セグメントのX軸及びZ軸方向における相対速度の差を用いている。このため、たまたま先行車両等の移動物と看板等の静止物とが接近した場合や、先行車両同士が接近している場合であっても、それらを確実に別個の物体として区別して認識することができる。
【0086】
なお、本発明はこのような実施形態に何等限定されるものではなく、本発明の主旨を逸脱しない範囲において種々なる形態で実施し得る。
【0087】
上記実施形態では、ストップパルスPBのパルス幅を受光強度を示す指標として採用したが、他の指標を用いても良い。例えば、ストップパルスPBのピーク値を検出するピーク値検出回路を設け、このピーク値を受光強度を示す指標とすることができる。また、ストップパルスPBの立ち上がり角度、すなわち、ストップパルスPBの立ち上がり開始から所定の基準電圧まで達する時間を受光強度を示す指標として採用しても良い。
【0088】
上記実施形態では、レーザ光の2次元スキャンを行うために面倒れ角が異なるポリゴンミラー73を用いたが、例えば車幅方向にスキャン可能なガルバノミラーを用い、そのミラー面の倒れ角を変更可能な機構を用いても同様に実現できる。但し、ポリゴンミラー73の場合には、回転駆動だけで2次元スキャンが実現できるという利点がある。
【0089】
上記実施形態では、物体認識ブロック43において、距離及び対応するスキャン角度θxを極座標系からXZ直交座標系に変換していたが、その処理をレーザレーダセンサ5において行っても良い。
【0090】
上記実施形態では、レーザ光を用いたレーザレーダセンサ5を採用したが、ミリ波等の電波や超音波等を用いるものであってもよい。また、スキャン方式にこだわる必要はなく、距離以外に方位を測定できる方式であればよい。そして、例えばミリ波でFMCWレーダ又はドップラーレーダなどを用いた場合には、反射波(受信波)から先行車までの距離情報と先行車の相対速度情報が一度に得られるため、レーザ光を用いた場合のように、距離情報に基づいて相対速度を算出するという過程は不要となる。
【図面の簡単な説明】
【図1】本発明が適用された車間制御装置の構成を示すブロック図である。
【図2】(a)はレーザレーダセンサの構成を示す構成図であり、(b)はレーザレーダセンサにおける距離検出方法を説明するための説明図であり、(c)は受光強度を示す指標としてのストップパルスのパルス幅について説明する説明図である。
【図3】レーザレーダセンサの照射可能領域を示す斜視図である。
【図4】物体認識に係わる処理を示すフローチャートである。
【図5】プリセグメント化処理と本セグメント化処理の順序を説明するための説明図である。
【図6】(a)は、XZ直交座標に変換された測距データを示し、(b)は、プリセグメント化されたデータを示す説明図である。
【図7】本セグメント化処理の内容を説明するための説明図である。
【図8】物標化処理について説明する説明図である。
【図9】物標化処理における、一体化条件を説明するための説明図である。
【図10】物標化処理を示すフローチャートである。
【符号の説明】
1…車両制御装置、3…認識・車間制御ECU、5…レーザレーダセンサ、7…車速センサ、9…ブレーキスイッチ、11…スロットル開度センサ、13…警報音発生器、15…距離表示器、17…センサ異常表示器、19…ブレーキ駆動器、21…スロットル駆動器、23…自動変速機制御器、24…警報音量設定器、25…警報感度設定器、26…クルーズコントロールスイッチ、27…ステアリングセンサ、28…ヨーレートセンサ、29…電源スイッチ、30…ワイパスイッチ、43…物体認識ブロック、44…センサ異常検出ブロック、47…車速演算ブロック、49…操舵角演算ブロック、51…ヨーレート演算ブロック、53…先行車判定ブロック、55…車間制御部及び警報判定部ブロック、57…カーブ半径算出ブロック、70…レーザレーダCPU、71…発光レンズ、72…スキャナ、73…ミラー、74…モータ駆動回路、75…半導体レーザダイオード、76…レーザダイオード駆動回路、77…ガラス板、81…受光レンズ、83…受光素子、85…アンプ、87…コンパレータ、89…時間計測回路
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle object recognition device that irradiates a plurality of transmission waves over a predetermined angle range in front of a vehicle and recognizes an object such as a preceding vehicle in front of the host vehicle based on the reflected waves.
[0002]
[Prior art]
Conventionally, an object recognition device that recognizes an object in front of a vehicle by irradiating a transmission wave such as a light wave or millimeter wave over a predetermined angle in front of the vehicle and detecting the reflected wave has been considered. This type of device is applied, for example, to a device that generates an alarm by detecting that the distance from a preceding vehicle or the like has become short, or a device that controls the vehicle speed so as to maintain a predetermined distance from the preceding vehicle. And used for recognition of preceding vehicles as control objects thereof.
[0003]
For example, in Patent Document 1, a laser radar sensor irradiates a plurality of laser beams in front of a vehicle over a predetermined angle range in the vehicle width direction and the vehicle height direction, and an object such as a preceding vehicle based on the reflected light. A vehicle object recognition device for recognizing a vehicle is disclosed. In a specific laser beam irradiation method in the vehicle object recognition device, first, a plurality of laser beams are irradiated at predetermined angles over a predetermined angle range in the vehicle width direction (line irradiation). And when this line irradiation is complete | finished, the irradiation angle in a vehicle height direction is changed, and line irradiation is performed again. As described above, by executing the line irradiation a plurality of times, a predetermined two-dimensional area in the vehicle width direction and the vehicle height direction is scanned using the laser beam.
[0004]
[Patent Document 1]
JP-A-11-38141
[0005]
[Problems to be solved by the invention]
When a predetermined two-dimensional area is scanned with a plurality of laser beams by the above-described method, for example, when a relatively large object such as a preceding vehicle is present ahead, the plurality of laser beams are reflected by the object. The reflected light is detected by a laser radar sensor. Thus, when the laser radar sensor detects a plurality of reflected lights, it is necessary to determine whether the reflected lights are reflected by the same object or reflected by different objects. That is, in order to correctly recognize each object, it is necessary to classify the reflected light for each object.
[0006]
For this reason, in the conventional vehicle object recognition device, first, the position of the reflector in the vehicle width direction and the distance to the reflector are calculated from the reflected light data obtained by performing the line irradiation. Then, when the position of the reflecting object in the vehicle width direction and the distance to the reflecting object are close to each irradiation line, it is estimated as an integrated reflecting object, and pre-segment data in which they are integrated is created. . Furthermore, the pre-segment data obtained by irradiation of each line is compared, and when the positions and distances in the vehicle height direction are close to each other, the main segment data in which they are integrated is created.
[0007]
However, in the conventional vehicle object recognition device, since it is determined whether or not it is an integral reflecting object based only on the position of the reflecting object (vehicle width direction position, vehicle height direction position, distance), Problems as described below arise.
[0008]
For example, even when a plurality of reflected lights from one preceding vehicle are detected, the intensity of the reflected light from the vehicle body part may not be sufficient. For this reason, the reflected light from the vehicle body part may or may not be detected. In this case, the distance measurement data regarding the preceding vehicle becomes unstable.
[0009]
In addition, when it is determined whether or not the object is integrated based only on the position of the reflecting object, even if it is actually a separate object, it may be regarded as an integrated object. For example, when there is a stationary object such as a signboard at a position close to or above the side of the preceding vehicle, the preceding vehicle is recognized as being integral with the stationary object. In such a case, the preceding vehicle that should be recognized originally has a different size and may not be correctly recognized as the preceding vehicle.
[0010]
The present invention has been made in view of the above points, and an object of the present invention is to provide a vehicle object recognition device that can more accurately recognize an object existing in front of a vehicle.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, the vehicle object recognition device according to claim 1 irradiates a plurality of transmission waves over a predetermined angle range forward of the vehicle, and each transmission wave is reflected by a reflector, Radar means for outputting a received signal corresponding to the intensity of the reflected wave when the reflected wave is received;
A vehicle object recognition device comprising a recognition means for recognizing an object present in front of the vehicle based on a transmission / reception result by a radar means,
The radar means, based on a time interval from irradiation of the transmission wave to reception of the reflected wave, distance calculation means for calculating the distance to the reflector in the irradiation direction of the transmission wave;
Intensity calculating means for obtaining the intensity of the reflected wave from the received signal,
The recognizing means, when the radar means receives a plurality of reflected waves, the difference in distance calculated by the distance calculating means based on the plurality of reflected waves is not more than a predetermined distance, and the plurality of reflected waves Is caused by a transmission wave irradiated in the vicinity of the radar means, and all the conditions that the difference in intensity calculated by the intensity calculation means for the plurality of reflected waves is equal to or less than a predetermined value are satisfied. In this case, there is provided a first integrating means for recognizing the same reflecting object by integrating the reflecting objects that generate the plurality of reflected waves.
[0012]
A vehicle as a recognition target in the vehicle object recognition device includes reflectors attached to the rear surface thereof in a symmetrical manner. This reflector has a higher reflection strength than the vehicle body portion of the vehicle with respect to the transmitted wave. Therefore, the reflected wave from the reflector does not become unstable like the reflected wave from the vehicle body part, and can be stably received by the radar means.
[0013]
In the present invention, the intensity of the reflected wave is used in order to stably detect the vehicle as the recognition target. That is, in addition to the condition that the positions of the reflecting objects are adjacent to each other, the difference in intensity of the reflected waves is a predetermined value or less as a condition for integrating the reflecting objects recognized as points by each reflected wave. And the conditions are adopted.
[0014]
As described above, when the difference in the intensity of the reflected waves is equal to or less than a predetermined value, the reflecting object is recognized as an integrated reflecting object, thereby allowing a portion having a low reflection intensity (for example, a vehicle body) and a portion having a high reflection intensity (for example, a reflector) Part). As a result, it is possible to calculate the distance to the reflecting object and the shape based on the reflecting object having a high reflected wave intensity among the integrated reflecting objects. It is possible to accurately grasp the shape and the like.
[0015]
As described in claim 2, the intensity calculating means divides the reflected waves into a plurality of groups according to the intensity of the reflected waves, and the first integrating means is a group in which the reflected waves are the same by the intensity calculating means. It is preferable to determine that the difference in intensity is equal to or less than a predetermined value. In this way, the intensity of each reflected wave and the intensity difference can be easily distinguished.
[0016]
As described in claim 3, when the distance calculated by the distance calculating unit is equal to or less than a predetermined distance, the recognizing unit may exclude a reflecting object that is not integrated with another reflecting object from the recognition target. preferable. A reflected wave from an object existing below a predetermined distance generally tends to increase in intensity. For this reason, when an object actually exists, a plurality of reflected waves having the same intensity should be received by the radar means. Considering this from the opposite viewpoint, when a reflector by one reflected wave is not integrated with another reflector, the reflected wave can be regarded as noise generated for some reason. Therefore, in such a case, it is preferable to exclude the reflection object due to the reflected wave from the recognition target.
[0017]
According to a fourth aspect of the present invention, when the intensity of the reflected wave calculated by the intensity calculating unit is equal to or lower than a predetermined level and the number of integrated reflectors is equal to or lower than the predetermined number, the recognizing unit reflects the reflected wave. It is preferable to exclude objects from recognition targets. Even when the intensity of the reflected wave is low and the number of integrated reflectors is equal to or less than the predetermined number (including zero), the reflected wave can be regarded as noise generated for some reason. It is.
[0018]
According to a fifth aspect of the present invention, the first integration means is a predetermined condition that is a condition relating to a difference in distance calculated by the distance calculation means based on a plurality of reflected waves as the distance calculated by the distance calculation means increases. It is preferable to increase the distance. This is because the intensity of the reflected wave tends to decrease as the distance to the reflector increases, and the decrease in the intensity of the reflected wave and the measurement accuracy of the distance have a correlation. That is, since the measurement accuracy of the distance tends to decrease as the distance to the reflecting object becomes shorter, it is preferable to relax the distance condition for determining the integration.
[0019]
As described in claim 6, when the number of transmission waves interposed between two transmission waves is equal to or less than a predetermined number, the first integration means determines that the transmission waves are irradiated in proximity It is preferable to decrease the number as the distance calculated by the distance calculating means becomes longer. Since a plurality of transmission waves are emitted from the radar means over a predetermined angular range, when an object is present at a short distance from the host vehicle, more transmission waves are reflected by the object, and The interval between transmitted waves when reaching the object is short. Then, as the distance between the object and the host vehicle becomes longer, the interval between the transmission waves becomes longer. Therefore, as described above, when the number of transmission waves intervening between two transmission waves is equal to or less than a predetermined number, when determining a transmission wave irradiated in proximity, the longer the distance to the reflective object, It is preferable to reduce the number.
[0020]
According to a seventh aspect of the present invention, the radar means irradiates the plurality of transmission waves along the vehicle width direction of the vehicle, and the recognition means is integrated by the first integration means. When there are a plurality of reflected objects, and the distance in the vehicle width direction and the distance in the irradiation direction of the transmission wave between the plurality of reflected objects are each equal to or less than a predetermined integration determination distance, the plurality of reflected objects And a second integrated means for recognizing the same integrated reflective object.
[0021]
As described above, in the vehicle object recognition device according to the seventh aspect, the reflection object made of the reflection object having the same intensity of the reflected wave is obtained, and thereafter, the reflection object is the same from the positional relationship between the reflection objects. If it can be regarded as an object, it is further recognized as an integrated reflective object. As a result, the intensity of the reflected wave is required for the reflecting object constituting the integrated reflecting object. For example, for the distance to the integrated reflecting object, the reflecting object whose reflected wave intensity is equal to or higher than a predetermined level. If the size of the integrated reflective object deviates from the normal range, the size of the integrated reflective object may be calculated by excluding reflective objects with low reflected wave intensity. It becomes possible. Thereby, it becomes possible to recognize objects, such as a preceding vehicle, more correctly.
[0022]
For the same reason as described in claim 5, as described in claim 8, the second integration unit determines the integration as the distance to the reflecting object in the transmission wave irradiation direction becomes longer. It is preferable to set the distance long.
[0023]
According to a ninth aspect of the present invention, the recognition means includes a distance / shape calculation means for obtaining a distance to the integrated reflective object integrated by the second integrated means and a width of the integrated reflective object, This distance / shape calculating means is integrated by the second integrating means based on the distance to the reflecting object in which the first integrating means integrates the reflecting object whose reflected wave intensity is a predetermined level or more. It is preferable to obtain the distance to the integrated reflective object. A reflected wave having an intensity of a predetermined level or higher can be stably received by the radar means, and the measurement accuracy of the distance to the reflecting object in which the reflected wave whose intensity is higher than the predetermined level is integrated is very high. Very expensive. For this reason, the accuracy of the distance can be improved by obtaining the distance to the integrated reflecting object based on the distance to the reflecting object integrated with the reflecting object whose reflected wave intensity is a predetermined level or more.
[0024]
According to the tenth aspect of the present invention, when the second integration unit obtains an integrated reflection object obtained by integrating the plurality of reflection objects, the distance / shape calculation unit calculates the reflected wave of the plurality of reflection objects. When the intensities are different and the width of the integrated reflecting object exceeds a predetermined length, it is preferable to obtain the width of the integrated reflecting object except for the reflecting object having the weakest reflected wave intensity. The object to be recognized by the vehicle object recognition device is a vehicle, and it is extremely unlikely that an object having a width that exceeds the width of the vehicle in the region where the vehicle should be originally exists. This is because a reflective object having a relatively low intensity can be assumed to be caused by noise or the like.
[0025]
In the vehicle object recognition device according to claim 11, the radar unit performs irradiation of the transmission wave over a predetermined angle range in the vehicle width direction of the vehicle a plurality of times by changing the irradiation angle in the vehicle height direction. Is,
For each transmission wave irradiation line in the vehicle width direction of the vehicle, the first integrating means and the second integrating means respectively integrate the reflecting objects, and further integrate the reflecting objects to form an integrated reflecting object. Is what we want,
The recognizing means detects the integrated reflection object when the integrated reflection object obtained for each irradiation line is present at a close position and the difference between the moving speeds is less than a predetermined speed difference. It is further characterized by comprising target marking means for further integrating the objects and recognizing them as targets.
[0026]
As described above, when a plurality of transmission wave irradiation lines are set in the vehicle height direction, it is necessary to determine whether or not the integrated reflection objects obtained for each adjacent irradiation line are the same object. In this case, as in the prior art, if it is determined whether or not the objects are the same by only the positional relationship between the integrated reflecting objects, it may not be possible to accurately recognize an object such as a preceding vehicle. . That is, as described above, when there is a stationary object such as a signboard above or ahead of the preceding vehicle, it may be recognized that the preceding vehicle is integrated with the stationary object.
[0027]
Therefore, in the vehicle object recognition device according to claim 11, only when the condition that the difference in moving speed of the integrated reflecting object obtained for each irradiation line is equal to or less than the predetermined speed difference is satisfied, the same object is detected. Recognized as an integrated target. Thereby, the problem as described above, that is, a situation where a moving object and a stationary object are erroneously recognized as the same object can be avoided.
[0028]
As described in claim 12, the moving speed of the integrated reflecting object is calculated as a relative speed in the vehicle width direction with respect to the own vehicle and a relative speed in the irradiation direction of the transmission wave, When both relative velocities of the integrated reflective object are equal to or less than a predetermined speed difference, it is preferable that the plurality of integrated reflective objects are integrated into a target. Thus, by using both relative velocities in the vehicle width direction and the irradiation direction of the transmission wave, it is possible to correctly grasp the moving state of the moving object existing in front of the host vehicle. Therefore, it is possible to prevent a moving object and a stationary object as well as moving objects from being recognized as being the same object.
[0029]
According to a thirteenth aspect of the present invention, the target unit calculates the radar based on the distance to the integrated reflecting object calculated by the distance / shape calculating unit, the width of the integrated reflecting object, and the relative velocity of the integrated reflecting object. When an estimated area where the integrated reflective object exists is calculated at each detection time interval of the means, and other integrated reflective objects belong to the estimated area, the integrated reflective objects are present at close positions. Judgment can be made.
[0030]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an inter-vehicle distance control apparatus according to an embodiment of the present invention will be described. In the present embodiment, the vehicle object recognition device is applied to the inter-vehicle distance control device 1, and the inter-vehicle distance control device 1 also has a function of outputting an alarm when there is an obstacle in the area to be alarmed. Is.
[0031]
FIG. 1 is a system block diagram of the inter-vehicle distance control device 1. The inter-vehicle control device 1 is configured around a recognition / inter-vehicle control ECU 3. The recognition / vehicle distance control ECU 3 mainly includes a microcomputer and includes an input / output interface (I / O) and the like. Since these hardware configurations are general, detailed description thereof is omitted.
[0032]
The recognition / vehicle distance control ECU 3 receives detection signals from the laser radar sensor 5, the vehicle speed sensor 7, the brake switch 9, and the throttle opening sensor 11, and outputs an alarm sound generator 13, a distance indicator 15, and a sensor abnormality indicator. 17. Drive signals are output to the brake driver 19, the throttle driver 21 and the automatic transmission controller 23. The recognition / vehicle distance control ECU 3 includes an alarm volume setting unit 24 for setting an alarm volume, an alarm sensitivity setting unit 25 for setting sensitivity in alarm determination processing, a cruise control switch 26, and a steering wheel for detecting an operation amount of a steering wheel (not shown). A sensor 27 and a yaw rate sensor 28 for detecting the yaw rate generated in the automobile are connected. The recognition / vehicle distance control ECU 3 includes a power switch 29. When the power switch 29 is turned on, the recognition / vehicle distance control ECU 3 starts a predetermined process.
[0033]
As shown in FIG. 2A, the laser radar sensor 5 includes a light emitting unit, a light receiving unit, a laser radar CPU 70, and the like as main parts. The light emitting unit includes a semiconductor laser diode (hereinafter simply referred to as a laser diode) 75 that emits pulsed laser light through a light emitting lens 71, a scanner 72, and a glass plate 77. The laser diode 75 is connected to the laser radar CPU 70 via the laser diode drive circuit 76, and emits (emits) laser light by a drive signal from the laser radar CPU 70. In addition, a polygon mirror 73 is provided in the scanner 72 so as to be rotatable around a vertical axis, and when a drive signal from the laser radar CPU 70 is input via a motor drive unit 74, the polygon mirror 73 is connected to a motor (not shown). It is rotated by the driving force. The rotational position of the motor is detected by a motor rotational position sensor 78 and output to the laser radar CPU 70.
[0034]
Since the polygon mirror 73 of the present embodiment includes six mirrors having different plane tilt angles, the laser beam is swept and irradiated (scanned) discontinuously within a predetermined angle range in the vehicle width direction and the vehicle height direction. Output. The laser beam is scanned two-dimensionally in this way, and the scanning pattern will be described with reference to FIG. In FIG. 3, the emitted laser beam pattern 92 is shown only when emitted to the right end and the left end in the measurement area 91, and is omitted in the middle. In addition, the outgoing laser beam pattern 92 is illustrated as an elliptical shape as an example in FIG. 3, but is not limited to this shape, and may be a rectangular shape or the like. Furthermore, in addition to those using laser light, radio waves such as millimeter waves, ultrasonic waves, or the like may be used. Moreover, it is not necessary to stick to the scanning method, and any method that can measure two directions other than the distance may be used.
[0035]
As shown in FIG. 3, when the central direction of the measurement area is the Z axis, the laser beam sequentially scans a predetermined area in the XY plane perpendicular to the Z axis. In the present embodiment, the Y axis that is the height direction is the reference direction, the X axis that is the vehicle width direction is the scanning direction, and the scan area is 0.08 deg × 450 points = 20 deg in the X axis direction. In the direction, 1.4 deg × 3 lines = 4 deg. The scanning direction is from left to right in FIG. 3 for the X-axis direction, and from top to bottom in FIG. 3 for the Y-axis direction. Specifically, first, 450 laser beams are irradiated at intervals of 0.08 ° in the X-axis direction with respect to the first scanning line located at the uppermost portion when viewed in the Y-axis direction. Since one scan line is detected in this way, 450 laser beams are similarly applied to the second scan line at the next position viewed in the Y-axis direction at intervals of 0.08 ° in the X-axis direction. Irradiate. In this way, the same laser light irradiation is repeated up to the third scanning line. Accordingly, laser light is scanned for each scanning line from the upper left to the lower right, and data for 450 points × 3 lines = 1350 points is obtained.
[0036]
By such a two-dimensional scan, for each scanning line, a scan angle θx indicating the scanning direction and a time difference from laser light irradiation to light reception corresponding to the distance to the reflector are obtained. The distance scan angle θx is defined as an angle between a line obtained by projecting the emitted laser light on the XZ plane and the Z axis.
[0037]
The light receiving unit of the laser radar sensor 5 includes a light receiving element 83 that receives laser light reflected by an object (not shown) through a light receiving lens 81 and outputs a voltage corresponding to the intensity. The output voltage of the light receiving element 83 is amplified by the amplifier 85 and then output to the comparator 87. The comparator 87 compares the output voltage of the amplifier 85 with a reference voltage, and outputs a predetermined light receiving signal to the time measuring circuit 89 when the output voltage> the reference voltage.
[0038]
The time measurement circuit 89 also receives a drive signal output from the laser radar CPU 70 to the laser diode drive circuit 76. As shown in FIG. 2B, the drive signal is the start pulse PA, the light reception signal is the stop pulse PB, and the phase difference between the two pulses PA and PB (ie, the time T0 when the laser beam is emitted and the reflection is reflected). The time difference ΔT from the time T1 when the light is received is encoded into a binary digital signal. Further, the time during which the stop pulse PB is equal to or higher than the reference voltage is measured as the pulse width of the stop pulse PB. These values are encoded into binary digital signals and output to the laser radar CPU 70. The laser radar CPU 70 measures the input time difference ΔT between the two pulses PA and PB input from the time measuring circuit 89, the laser beam scan angle θx, and the received light intensity data (corresponding to the pulse width of the stop pulse PB). The data is output to the recognition / vehicle distance control ECU 3 as data.
[0039]
Here, the received light intensity data will be described. FIG. 2C shows two reflected light stop pulses PB having different received light intensities. In FIG. 2C, a curve L1 corresponds to a stop pulse PB of reflected light having a relatively high light reception intensity, and a curve L2 corresponds to a stop pulse PB of reflected light having a relatively low light reception intensity.
[0040]
The time at which the reference voltage V0 input to the comparator 87 crosses the reference voltage V0 in the rising process of the curve L1 in the figure is t11, the time at which the curve L1 crosses the reference voltage V0 is t12, and the time t11 and the time t12 Let the time difference be Δt1. Further, a time when the curve L2 rises with the reference voltage V0 is t21, a time when the curve L2 falls with the reference voltage V0 is t22, and a time difference between the time t21 and the time t22 is Δt2. The reference voltage V0 is set to a magnitude that can avoid the influence of noise components.
[0041]
As apparent from FIG. 2C, the time difference Δt1 which is the pulse width of the stop pulse PB of the reflected light having a strong light reception intensity and the time difference which is the pulse width of the stop pulse PB of the reflected light having a weak light reception intensity. When comparing with Δt2, the relationship Δt1> Δt2 is established. That is, the pulse width of the stop pulse PB of the reflected light corresponds to the received light intensity. When the received light intensity is small, the pulse width is shortened, and when the received light intensity is large, the pulse width is increased. Therefore, the time difference (Δt1, Δt2) which is the pulse width is an index characterizing the intensity of the received reflected light.
[0042]
The received light intensity varies depending on the reflection intensity of the reflecting object and the distance to the reflecting object. That is, when the reflection intensity of the reflection object is high or the distance to the reflection object is short, the received light intensity of the reflected light increases, and when the reflection intensity is low or the distance to the reflection object is long, the reflection The light receiving intensity is reduced.
[0043]
The recognition / vehicle distance control ECU 3 recognizes an object based on the distance measurement data from the laser radar sensor 5, and adjusts the brake driver 19, the throttle driver 21, and the automatic according to the situation of the preceding vehicle obtained from the recognized object. A so-called inter-vehicle distance control is performed in which the vehicle speed is controlled by outputting a drive signal to the transmission controller 23. In addition, an alarm determination process for alarming when a recognized object exists in a predetermined alarm area for a predetermined time is also performed at the same time. As the object in this case, a front vehicle traveling in front of the own vehicle, a front vehicle stopped, or the like is applicable.
[0044]
Next, the internal configuration of the recognition / vehicle distance control ECU 3 will be described as a control block. The distance measurement data output from the laser radar sensor 5 is sent to the object recognition block 43. In the object recognition block 43, for each scanning line, the time difference ΔT and the scanning angle θx obtained as distance measurement data are set with the laser radar sensor 5 center as the origin (0, 0), the vehicle width direction is the X axis, and the vehicle forward direction is Convert to XZ Cartesian coordinates for Z axis. Then, the ranging data converted into XZ rectangular coordinates is subjected to three types of integration processing, which will be described later, pre-segment data, main segment data, and target, and is aggregated for each object existing in front of the vehicle. Is done.
[0045]
Then, based on the distance measurement data collected for each object, the center position (X, Z) and size (W, D) of the object are obtained. Further, a relative speed (Vx, Vz) of an object such as a preceding vehicle based on the vehicle position is obtained based on a temporal change in the center position (X, Z) of the object. Further, in the object recognition block 43, whether the object is a stop object from the vehicle speed (own vehicle speed) output from the vehicle speed calculation block 47 based on the detection value of the vehicle speed sensor 7 and the relative speed (Vx, Vz) obtained above. Identification of whether it is a moving object is performed. Note that (X, D) indicating the size of the object is (lateral width, depth), respectively. An object model having such data is called a “target model”.
[0046]
Whether or not the data obtained in the object recognition block 43 is an abnormal range value is detected by the sensor abnormality detection block 44. If the data is an abnormal range value, the sensor abnormality indicator 17 displays that fact. Is made.
[0047]
Further, the steering angle is calculated by the steering angle calculation block 49 based on the signal from the steering sensor 27, and the yaw rate is calculated by the yaw rate calculation block 51 based on the signal from the yaw rate sensor 28. A curve radius (curvature radius) calculation block 57 calculates a curve radius (curvature radius) R based on the vehicle speed from the vehicle speed calculation block 47, the steering angle from the steering angle calculation block 49, and the yaw rate from the yaw rate calculation block 51. calculate. In the preceding vehicle determination block 53, the curve radius R, the center position coordinates (X, Z) obtained in the object recognition block 43, the object size (W, D), and the relative speed (Vx, Vz). Based on the above, the preceding vehicle having the shortest distance from the host vehicle is selected, and the distance Z and the relative speed Vz from the preceding vehicle are obtained.
[0048]
Then, the inter-vehicle distance control unit and the alarm determination unit block 55 include the distance Z to the preceding vehicle, the relative speed Vz, the setting state of the cruise control switch 26, the depression state of the brake switch 9, the opening degree from the throttle opening sensor 11, and Based on the sensitivity set value by the alarm sensitivity setting unit 25, it is determined whether or not an alarm is issued if the alarm is determined, and the content of the vehicle speed control is determined if the cruise is determined. As a result, if an alarm is required, an alarm generation signal is output to the alarm sound generator 13. If the cruise is determined, a control signal is output to the automatic transmission controller 23, the brake driver 19 and the throttle driver 21 to perform necessary control. When these controls are executed, necessary display signals are output to the distance indicator 15 to notify the driver of the situation.
[0049]
In such inter-vehicle distance control and warning determination, it is important that object recognition as a premise thereof, more specifically, recognition of a vehicle that is a recognition target object here is appropriately performed. Therefore, in order to appropriately perform the vehicle recognition, processing related to object recognition executed in the object recognition block 43 of the recognition / vehicle distance control ECU 3 will be described.
[0050]
FIG. 4 is a flowchart showing main processing related to object recognition. First, in step S10 of FIG. 4, distance measurement data is read from the laser radar sensor 5 for each scanning line. Note that the measurement period of the entire three scanning lines in the laser radar sensor 5 is 100 msec.
[0051]
In step S20, data with low received light intensity is deleted from the read distance measurement data. That is, the distance measurement data includes the pulse width of the stop pulse PB indicating the received light intensity of the reflected wave. By comparing the pulse width with the deletion reference value, the measurement data having a pulse width less than or equal to a predetermined value is obtained. Delete the distance data. Further, in this step S20, the distance measurement data is grouped into a group with a large received light intensity, a group with a light received intensity, and a group with a small received light intensity based on the pulse width of the stop pulse PB. Specifically, three types of reference values to be compared with the length of the pulse width are prepared, and ranging data having a pulse width greater than or equal to the largest first reference value is grouped into a group with a large received light intensity. Then, distance measurement data having a pulse width between the first reference value and a second reference value smaller than the first reference value are grouped into groups of received light intensity, and the second reference value is grouped. Ranging data belonging to the value and the third reference value (<second reference value) are grouped into groups with low received light intensity. The third reference value corresponds to the above-described deletion reference value, and distance measurement data having a pulse width equal to or smaller than the third reference value is deleted.
[0052]
In step S30, distance data is pre-segmented, and in step S40, the pre-segmented distance data is segmented. This pre-segmentation process and this segmentation process will be described in detail below. The pre-segmentation process corresponds to the first integration unit in the present invention, and the segmentation process corresponds to the second integration unit.
[0053]
FIG. 5 is an explanatory diagram showing the flow of the pre-segmentation processing and the main segmentation processing and the outline thereof. First, the flow of pre-segmentation processing and main segmentation processing will be described. As shown in FIG. 5, the pre-segmentation process is performed on the distance measurement data of the first scanning line. That is, ranging data that satisfies a predetermined pre-segmentation condition (integration condition) is collected to form a pre-segment. Next, this segmentation processing is performed on the distance measurement data of the first segmented scan line. In this main segmentation process, when the presegments formed by the presegmentation process satisfy a predetermined main segmentation condition (integration condition), the presegments are connected to form the main segment. The pre-segmentation condition and the present segmentation condition will be described later.
[0054]
Subsequently, pre-segmentation processing and main segmentation processing are performed on the distance measurement data of the second scan line, and finally, pre-segmentation processing and main segmentation are performed on the distance measurement data of the third scan line. Perform processing. As described above, the pre-segmentation process and the main segmentation process are sequentially executed for each scan line.
[0055]
Next, the pre-segmentation process, particularly the pre-segmentation condition will be described in detail based on FIGS. 6A shows distance measurement data converted into XZ rectangular coordinates, and FIG. 6B shows pre-segmented data.
[0056]
As shown in FIG. 6A, when ranging data for one scanning line is converted into XZ orthogonal coordinates, each ranging data indicates a reflector in front of the vehicle as a point. When the point data indicating these reflecting objects as points satisfies the following three conditions (pre-segmentation conditions), the point data is integrated to create a pre-segment.
(1) The distance difference ΔZ in the Z-axis direction is not more than a predetermined distance.
(2) The distance difference ΔX in the X-axis direction is not more than a predetermined distance.
(3) The received light intensity is grouped into the same group.
[0057]
Of the above conditions (1) to (3), the conditions (1) and (2) are basic requirements for integrating a plurality of point data. That is, when the laser light is reflected by the same reflecting object, particularly the same preceding vehicle, the distance measurement data obtained by the reflected light shows substantially the same distance in the Z-axis direction, and in the X-axis direction. Exists within a distance range corresponding to the vehicle width.
[0058]
However, the predetermined distance compared with the above-described distance difference ΔZ in the Z-axis direction is changed so as to increase as the distance Z to the reflector increases. For example, the predetermined processing is set to 1.5 m in the distance range up to 70 m, and the predetermined distance is set to 2.0 m in the distance range exceeding 70 m. This is because the measurement accuracy of the distance tends to decrease as the distance Z to the reflector increases.
[0059]
Further, the predetermined distance compared with the distance difference ΔX in the X-axis direction is also changed so as to increase as the distance Z to the reflector increases. For example, when the distance to the reflector is up to 10 m, the predetermined distance is about 2 cm, and the predetermined distance is gradually increased to about 20 cm as the distance Z to the reflector increases. When a plurality of laser beams are irradiated from the laser radar sensor 5 over a predetermined angle range, when a reflecting object exists at a short distance from the host vehicle, more laser beams are reflected by the reflecting object. In addition, the interval between the laser beams when reaching the reflector becomes short. As the distance Z to the reflector increases, the interval between the laser beams increases. Therefore, from the viewpoint of the resolution of such laser light, as described above, the distance condition in the X-axis direction under the pre-segmentation condition is relaxed as the distance Z to the reflector increases.
[0060]
Note that the distance in the X-axis direction may be compared with a predetermined distance after the distance measurement data is converted into XZ rectangular coordinates, and the difference ΔX in the X-axis direction of each point data may be compared with a predetermined distance. The distance difference ΔX in the X-axis direction may be indirectly determined from the number of laser beams existing between the laser beams corresponding to the distance measurement data. That is, it is determined that the distance condition in the X-axis direction is satisfied when the number of laser beams interposed between the two laser beams is equal to or less than the predetermined number. In this way, there is an advantage that the processing load for determining the distance condition of the X axis can be reduced.
[0061]
As described above, when determining the distance condition in the X-axis direction based on the number of laser beams interposed between the two laser beams, the number for determining the integration decreases as the distance Z to the reflector increases. Let This is because the distance in the X-axis direction of the laser light increases as the distance Z to the reflector increases.
[0062]
In the present embodiment, in addition to the above-described conditions (1) and (2), a condition relating to the received light intensity of each distance measurement data is also determined. In other words, in order to collect distance measurement data with a small difference in received light intensity and create a pre-segment, one condition for pre-segmentation is that the received light intensity is grouped into the same group (high received light intensity, medium, small) It was.
[0063]
The main recognition target in the vehicle object recognition device is a preceding vehicle in front of the host vehicle, and the preceding vehicle includes reflectors attached symmetrically on the rear surface. This reflector has a higher reflection intensity than the vehicle body portion with respect to the laser light. Accordingly, the reflected light from the reflector does not become unstable like the reflected light from the vehicle body portion, and can be received by the laser radar sensor 5 stably.
[0064]
Then, by collecting the distance measurement data grouped into the same group of received light intensity and creating a pre-segment, a portion having a low reflection intensity (for example, a vehicle body portion) and a portion having a high reflection intensity (for example, a reflector portion) are obtained. Can be distinguished. As a result, when creating the main segment by integrating the pre-segments, it is possible to calculate the distance and shape of the main segment with reference to the pre-segment having high reflected light intensity. Thereby, the distance, shape, etc. of this segment can be grasped correctly.
[0065]
Further, in the pre-segmentation processing, in order to eliminate the influence of noise such as extraneous light, if any of the following two conditions (4) and (5) is satisfied, the distance measurement data is It was decided not to treat it as a pre-segment.
[0066]
(4) When the distance to the reflecting object is a predetermined distance (for example, 100 m) or less, the distance measurement data is not integrated with other distance measurement data, that is, only one laser beam can be reflected alone. If
[0067]
In the predetermined distance range, the vehicle that is the object to be recognized has a size that allows a plurality of laser beams to hit, and only one laser beam satisfies the conditions (1) and (2) described above. It is usually impossible to exist independently at a predetermined distance or more, or to have a received light intensity different from that of other reflected light. Therefore, when the distance measurement data is not integrated with other distance measurement data, the reflected light can be regarded as noise generated for some reason. For this reason, ranging data regarded as noise is not handled as a pre-segment by the ranging data alone.
[0068]
(5) The number of distance measurement data to be integrated is a predetermined number (for example, 2) or less, and the received light intensity is grouped into groups with a small received light intensity.
[0069]
Even when the intensity of the reflected light is low and the number of distance measurement data to be integrated is equal to or less than a predetermined number (including zero), the reflected light can be regarded as noise generated for some reason. Because.
[0070]
When the distance measurement data shown in FIG. 6A is pre-segmented according to the pre-segmentation conditions described above, five pre-segments are formed as shown in FIG. 6B. Then, for each pre-segment, the position (X, Z) of each distance measurement data is averaged to obtain the center position (Xc, Zc), and the minimum value and maximum value of the position (X, Z) of each distance measurement data are obtained. The width W and the depth D are obtained based on the values.
[0071]
Next, in step S30, the segmentation process is performed, and when the pre-segments formed from the distance measurement data of one scanning line satisfy the segmentation conditions, they are integrated into the segment. Note that a pre-segment that is not integrated with another pre-segment is the main segment as it is.
[0072]
This segmentation condition is that the difference (ΔXc, ΔZc) between the pre-segment center positions (Xc, Zc) is equal to or less than the integration determination distance (ΔX, ΔZ). This integration determination distance (ΔX, ΔZ) is changed according to the distance Z to the pre-segment. For example, when the distance Z is 35 m or less, the X-axis direction difference ΔX is 15 cm or less, the Z-axis direction difference ΔZ is 1.5 m or less, and when the distance Z is 35 m to 70 m, ΔX is 20 cm or less. In the range where ΔZ is 1.5 m or less and 70 m or more, ΔX is set to 25 cm or less and ΔZ is set to 2 m or less. Thus, the reason why the integration determination distance (ΔX, ΔZ) is changed according to the distance Z to the pre-segment is because the measurement accuracy and resolution of the laser beam are taken into consideration.
[0073]
Accordingly, as illustrated in FIG. 7, areas corresponding to the integration determination distances (ΔX, ΔZ) are set in the X-axis and Z-axis directions, respectively, according to the distance Z to the pre-segments PS1, PS2, PS3. Is done. For example, when the center position (Xc, Zc) of another pre-segment PS2 belongs to an area set for the pre-segment PS1, the pre-segment PS1 and the pre-segment PS2 are integrated to form this segment. Is done. Note that, since the pre-segment PS3 is out of the region, it is not integrated with the pre-segments PS1 and PS2, and becomes the main segment alone.
[0074]
However, in this segmentation process, in order to correctly grasp the distance and shape to the reflective object recognized as the main segment, if this segment is formed by integrating multiple pre-segments, the distance to the main segment Calculation and width calculation are performed as follows.
[0075]
First, a pre-segment for calculating the distance Z to this segment is extracted based on the received light intensity. Specifically, a pre-segment having a medium received light intensity or higher is extracted. However, if there is only one pre-segment having a light reception intensity of medium or higher and the number of distance measurement data constituting the pre-segment is one, a pre-segment having a low light reception intensity is also extracted. . This is because the depth and the like of this segment cannot be calculated with a single distance measurement data. Further, even when there is no pre-segment having a light reception intensity of medium or higher, a pre-segment having a low light reception intensity is extracted.
[0076]
Based on the pre-segment extracted in this way, the distance Z to the main segment is calculated. Specifically, the distance Z to this segment is calculated as an average value of the distances Z of the extracted pre-segments. Further, the minimum distance Zmin in the extracted pre-segment distance Z and the maximum distance Zmax in the extracted pre-segment distance Z are obtained, and the depth D of this segment is obtained from the difference between the minimum distance Zmin and the maximum distance Zmax. Note that the minimum distance Zmin and the maximum distance Zmax are obtained from the minimum value and the maximum value of each distance measurement data constituting the extraction pre-segment.
[0077]
Thus, in principle, by extracting a pre-segment having a light reception intensity of medium or higher and obtaining the distance Z to the present segment by the extracted pre-segment, the accuracy of the distance can be improved. That is, the reflected light having high intensity can be stably received by the laser radar sensor 5, and the accuracy of the distance to the reflecting object calculated based on the received light signal by such reflected light is very high. For this reason, the distance Z etc. to this segment can be calculated | required with high precision by calculating the distance Z etc. based only on the pre-segment whose light reception intensity is medium or more.
[0078]
Next, a method for calculating the width W of this segment will be described. The horizontal width W of this segment is first calculated using all pre-segments. That is, the horizontal width W is calculated from the position of the distance measurement data located at the right end and the left end of all the pre-segments. If the calculated lateral width W is smaller than the maximum lateral width W0 normally possessed by the vehicle (for example, 2.7 m in consideration of errors), the lateral width W is used as it is.
[0079]
However, when the calculated horizontal width is larger than the maximum value W0 and this segment is composed of a plurality of pre-segments having different received light intensities, the horizontal width of the present segment is reduced except for the pre-segments with low received light intensity. calculate. It is very unlikely that an object having a width that greatly exceeds the width of the vehicle exists in an area where the vehicle to be recognized should be present. Therefore, in this case, since it can be estimated that the pre-segment with a small received light intensity is caused by noise or the like, the lateral width W is calculated excluding the pre-segment.
[0080]
However, when the pre-segment having a low light receiving intensity is excluded and the width W is too small (for example, less than 1 m), the pre-segment is not excluded. Similarly, even when the lateral width W exceeds the maximum value W0, the pre-segment is not deleted even when the received light intensity of all the pre-segments is the same. Then, after calculating the horizontal width W of this segment, based on the horizontal width W, the center position of the present segment on the X axis is calculated.
[0081]
Thus, when this segment is formed for each scanning line, the target processing is then performed as shown in step S50. In the target processing, as shown in FIG. 8, it is determined whether or not the present segments in each scanning line should be integrated. Then, the segments determined to be integrated are connected to form an integrated target model.
[0082]
Hereinafter, the target processing will be described based on the explanatory diagram of FIG. 9 and the flowchart of FIG. In the target processing, first, in step S110, an estimated position of each main segment is calculated. That is, as shown in FIG. 9, when it is assumed that this segment has moved from the position at the time of the previous process at the relative speed at the time of the previous process, the estimated position where the present segment will exist is calculated. Subsequently, in step S120, an estimated movement range having a predetermined amount of width in each of the X-axis and Z-axis directions is set around the estimated position. In step S130, a segment that includes at least part of the estimated movement range is selected. Note that the above-described minimum distance Zmin, maximum distance Zmax, and the right end position and the left end position of the corrected lateral width W are used to calculate the position of this segment compared with the estimated movement range.
In step S140, when there are a plurality of main segments selected in step S130, the relative speed differences (ΔVx, ΔVz) of the main segments in the X-axis and Z-axis directions are respectively predetermined speed differences (ΔVx0, ΔVz0). Judge whether or not it is less than In step S150, if it is determined in step S140 that the relative speed difference (ΔVx, ΔVz) is less than the predetermined speed difference (ΔVx0, ΔVz0), the plurality of main segments are regarded as one. These target segments are integrated to form a target model. That is, the horizontal width Wm and the depth Dm are obtained from the minimum and maximum values in the X-axis and Z-axis directions of ranging data belonging to a plurality of main segments, and the distance to each main segment is averaged to obtain a target model. The distance Zm is obtained. The predetermined speed difference (ΔVx0, ΔVz0) may be a constant value or may be changed so as to increase as the traveling speed of the host vehicle increases.
[0083]
On the other hand, when there is one main segment included in the estimated movement range, the target model is configured by the single segment alone.
[0084]
When the present segment corresponding to the present segment obtained last time is specified, the data update process of the present segment is executed in order to calculate the next estimated position and the like. The updated data includes the past coordinates of the center coordinates (Xc, Zc), width W, depth D, relative speeds (Vx, Vz) in the X-axis direction and Z-axis direction, and center coordinates (Xc, Zc) of each segment. For example, batch data. In addition, this segment that does not belong to any estimated range is registered as a new actual segment.
[0085]
As described above, according to the target processing in the present embodiment, the X-axis and Z-axis directions of each segment are determined when determining whether the segments obtained for each scanning line are the same object. The relative speed difference is used. For this reason, even when a moving object such as a preceding vehicle and a stationary object such as a signboard approach, or even when preceding vehicles approach each other, they are reliably distinguished and recognized as separate objects. Can do.
[0086]
In addition, this invention is not limited to such embodiment at all, and can be implemented with various forms in the range which does not deviate from the main point of this invention.
[0087]
In the above embodiment, the pulse width of the stop pulse PB is adopted as an index indicating the received light intensity, but other indexes may be used. For example, a peak value detection circuit for detecting the peak value of the stop pulse PB can be provided, and this peak value can be used as an index indicating the received light intensity. Further, the rising angle of the stop pulse PB, that is, the time from the start of rising of the stop pulse PB to the predetermined reference voltage may be adopted as an index indicating the received light intensity.
[0088]
In the above embodiment, the polygon mirror 73 having a different surface tilt angle is used to perform two-dimensional scanning of laser light. However, for example, a galvanometer mirror that can scan in the vehicle width direction can be used, and the tilt angle of the mirror surface can be changed. This can be realized in the same manner even if a simple mechanism is used. However, the polygon mirror 73 has an advantage that a two-dimensional scan can be realized only by rotational driving.
[0089]
In the above embodiment, the object recognition block 43 converts the distance and the corresponding scan angle θx from the polar coordinate system to the XZ orthogonal coordinate system, but the processing may be performed by the laser radar sensor 5.
[0090]
In the above embodiment, the laser radar sensor 5 using laser light is employed, but radio waves such as millimeter waves, ultrasonic waves, and the like may be used. Moreover, it is not necessary to stick to the scanning method, and any method that can measure the direction other than the distance may be used. For example, when FMCW radar or Doppler radar is used with a millimeter wave, the distance information from the reflected wave (received wave) to the preceding vehicle and the relative speed information of the preceding vehicle can be obtained at one time. The process of calculating the relative speed based on the distance information as in the case of the case becomes unnecessary.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an inter-vehicle distance control device to which the present invention is applied.
2A is a configuration diagram showing a configuration of a laser radar sensor, FIG. 2B is an explanatory diagram for explaining a distance detection method in the laser radar sensor, and FIG. 2C is an index showing received light intensity; It is explanatory drawing explaining the pulse width of the stop pulse as.
FIG. 3 is a perspective view showing an irradiable area of the laser radar sensor.
FIG. 4 is a flowchart illustrating processing related to object recognition.
FIG. 5 is an explanatory diagram for explaining the order of pre-segmentation processing and main segmentation processing;
6A shows distance measurement data converted into XZ orthogonal coordinates, and FIG. 6B is an explanatory diagram showing pre-segmented data.
FIG. 7 is an explanatory diagram for explaining the contents of the segmentation process;
FIG. 8 is an explanatory diagram for explaining a targetization process.
FIG. 9 is an explanatory diagram for explaining integration conditions in the target processing.
FIG. 10 is a flowchart showing target processing.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Vehicle control apparatus, 3 ... Recognition / vehicle distance control ECU, 5 ... Laser radar sensor, 7 ... Vehicle speed sensor, 9 ... Brake switch, 11 ... Throttle opening sensor, 13 ... Alarm sound generator, 15 ... Distance indicator, DESCRIPTION OF SYMBOLS 17 ... Sensor abnormality indicator, 19 ... Brake drive, 21 ... Throttle drive, 23 ... Automatic transmission controller, 24 ... Alarm volume setting device, 25 ... Alarm sensitivity setting device, 26 ... Cruise control switch, 27 ... Steering Sensor: 28 ... Yaw rate sensor, 29 ... Power switch, 30 ... Wiper switch, 43 ... Object recognition block, 44 ... Sensor abnormality detection block, 47 ... Vehicle speed calculation block, 49 ... Steering angle calculation block, 51 ... Yaw rate calculation block, 53 ... preceding vehicle determination block, 55 ... inter-vehicle distance control unit and alarm determination unit block, 57 ... curve radius calculation block DESCRIPTION OF SYMBOLS 70 ... Laser radar CPU, 71 ... Light emitting lens, 72 ... Scanner, 73 ... Mirror, 74 ... Motor drive circuit, 75 ... Semiconductor laser diode, 76 ... Laser diode drive circuit, 77 ... Glass plate, 81 ... Light receiving lens, 83 ... Light receiving element, 85 ... Amplifier, 87 ... Comparator, 89 ... Time measuring circuit

Claims (13)

車両前方へ所定の角度範囲に渡って複数の送信波を照射し、各送信波が反射物によって反射され、その反射波を受信した際に、その反射波の強度に応じた受信信号を出力するレーダ手段と、
前記レーダ手段による送受信結果に基づいて、車両の前方に存在する物体を認識する認識手段とを備える車両用物体認識装置であって、
前記レーダ手段は、前記送信波の照射から前記反射波の受信までの時間間隔に基づいて、前記送信波の照射方向における前記反射物までの距離を算出する距離算出手段と、
前記受信信号から前記反射波の強度を求める強度算出手段とを備え、
前記認識手段は、前記レーダ手段が複数の反射波を受信した場合に、それら複数の反射波に基づいて前記距離算出手段によって算出される距離の差が所定距離以下であり、かつ、それら複数の反射波は、前記レーダ手段から近接して照射された送信波によって生じたものであり、さらに、それら複数の反射波に関して前記強度算出手段によって算出された強度の差が所定値以下であるとの条件がすべて成立した場合に、それら複数の反射波を生じさせた反射物を一体化して同一の反射物体と認識する第1の一体化手段を有することを特徴とする車両用物体認識装置。
A plurality of transmission waves are irradiated in front of the vehicle over a predetermined angle range, and when each transmission wave is reflected by a reflector and the reflected wave is received, a reception signal corresponding to the intensity of the reflected wave is output. Radar means;
Recognizing means for recognizing an object existing in front of the vehicle based on a transmission / reception result by the radar means,
The radar means, based on a time interval from irradiation of the transmission wave to reception of the reflected wave, distance calculation means for calculating a distance to the reflector in the irradiation direction of the transmission wave;
Intensity calculating means for obtaining the intensity of the reflected wave from the received signal,
The recognizing means, when the radar means receives a plurality of reflected waves, a difference in distance calculated by the distance calculating means based on the plurality of reflected waves is a predetermined distance or less, and the plurality of the plurality of reflected waves The reflected wave is generated by a transmission wave irradiated in the vicinity from the radar unit, and the difference in intensity calculated by the intensity calculating unit with respect to the plurality of reflected waves is not more than a predetermined value. An object recognition apparatus for a vehicle, comprising: first integrated means for recognizing a reflection object that generates a plurality of reflected waves as a single reflection object when all the conditions are satisfied.
前記強度算出手段は、前記反射波の強度に応じて、前記反射波を複数のグループに分け、
前記第1の一体化手段は、前記強度算出手段によって複数の反射波が同じグループに分けられている場合に、強度の差が所定値以下であると判断することを特徴とする請求項1に記載の車両用物体認識装置。
The intensity calculation means divides the reflected wave into a plurality of groups according to the intensity of the reflected wave,
The said 1st integration means judges that the difference in intensity | strength is below a predetermined value, when the several reflected wave is divided into the same group by the said intensity | strength calculation means. The object recognition apparatus for vehicles as described.
前記認識手段は、前記距離算出手段によって算出される距離が所定の距離以下である場合に、他の反射物と一体化されない反射物を、認識対象から除外することを特徴とする請求項1又は請求項2に記載の車両用物体認識装置。2. The recognition unit according to claim 1, wherein when the distance calculated by the distance calculation unit is equal to or less than a predetermined distance, the recognition unit excludes a reflection object that is not integrated with another reflection object from the recognition target. The vehicle object recognition device according to claim 2. 前記認識手段は、前記強度算出手段によって算出される反射波の強度が所定レベル以下であり、かつ一体化される反射物の個数が所定個数以下である場合、その反射物を認識対象から除外することを特徴とする請求項1または請求項2に記載の車両用物体認識装置。The recognizing means excludes the reflected object from the recognition target when the intensity of the reflected wave calculated by the intensity calculating means is not more than a predetermined level and the number of integrated reflecting objects is not more than a predetermined number. The object recognition apparatus for vehicles according to claim 1 or 2 characterized by things. 前記第1の一体化手段は、前記距離算出手段が算出する距離が長くなるほど、複数の反射波に基づいて前記距離算出手段によって算出された距離の差に関する条件である所定距離を長くすることを特徴とする請求項1乃至請求項4のいずれかに記載の車両用物体認識装置。The first integration unit increases the predetermined distance, which is a condition regarding the difference in distance calculated by the distance calculation unit based on a plurality of reflected waves, as the distance calculated by the distance calculation unit increases. The vehicle object recognition device according to claim 1, wherein the vehicle object recognition device is a vehicle object recognition device. 前記第1の一体化手段は、2つの送信波の間に介在する送信波の個数が所定個数以下の場合に、近接して照射された送信波と判断するものであり、前記距離算出手段が算出する距離が長くなるほど、その個数を減少させることを特徴とする請求項1乃至請求項4のいずれかに記載の車両用物体認識装置。The first integration means determines that the transmission wave is irradiated in proximity when the number of transmission waves interposed between two transmission waves is equal to or less than a predetermined number, and the distance calculation means The vehicle object recognition device according to any one of claims 1 to 4, wherein the number decreases as the calculated distance increases. 前記レーダ手段は、前記車両の車幅方向に沿って、複数の送信波を照射するものであり、前記認識手段は、前記第1の一体化手段によって一体化された反射物体が複数ある場合に、それら複数の反射物体間の車幅方向の距離及び前記送信波の照射方向における距離が、所定の一体化判定距離以下である場合に、それら複数の反射物体を一体化して同一の一体化反射物体と認識する第2の一体化手段を有することを特徴とする請求項1乃至請求項6のいずれかに記載の車両用物体認識装置。The radar means irradiates a plurality of transmission waves along the vehicle width direction of the vehicle, and the recognition means has a plurality of reflecting objects integrated by the first integration means. When the distance in the vehicle width direction between the plurality of reflecting objects and the distance in the irradiation direction of the transmission wave are equal to or less than a predetermined integration determination distance, the plurality of reflecting objects are integrated to form the same integrated reflection. The vehicle object recognition device according to any one of claims 1 to 6, further comprising second integration means for recognizing an object. 前記第2の一体化手段は、前記送信波の照射方向における前記反射物体までの距離が長くなるほど、前記一体化判定距離を長く設定することを特徴とする請求項7に記載の車両用物体認識装置。The vehicle object recognition according to claim 7, wherein the second integration unit sets the integration determination distance to be longer as the distance to the reflection object in the irradiation direction of the transmission wave is longer. apparatus. 前記認識手段は、前記第2の一体化手段によって一体化された一体化反射物体までの距離、及びこの一体化反射物体の幅を求める距離・形状算出手段を備え、
前記距離・形状算出手段は、前記第1の一体化手段が前記反射波の強度が所定レベル以上である反射物を一体化した反射物体までの距離に基づいて、前記第2の一体化手段による一体化反射物体までの距離を求めることを特徴とする請求項7または請求項8に記載の車両用物体認識装置。
The recognizing means includes distance / shape calculating means for obtaining a distance to the integrated reflecting object integrated by the second integrating means, and a width of the integrated reflecting object,
The distance / shape calculating means is based on the distance to the reflecting object obtained by integrating the reflecting object whose reflected wave intensity is equal to or higher than a predetermined level by the first integrating means. 9. The vehicle object recognition device according to claim 7, wherein a distance to the integrated reflective object is obtained.
前記距離・形状算出手段は、前記第2の一体化手段が複数の反射物体を一体化した一体化反射物体を求めた場合に、それら複数の反射物体の反射波の強度が異なっており、かつ、前記一体化反射物体の幅が所定の長さを超えた場合に、最も反射波の強度が弱い反射物体を除いて、当該一体化反射物体の幅を求めることを特徴とする請求項7乃至請求項9のいずれかに記載の車両用物体認識装置。The distance / shape calculating means, when the second integrating means obtains an integrated reflecting object obtained by integrating a plurality of reflecting objects, the reflected waves of the plurality of reflecting objects have different intensities, and The width of the integrated reflective object is obtained when the width of the integrated reflective object exceeds a predetermined length, except for the reflective object having the weakest reflected wave intensity. The vehicle object recognition device according to claim 9. 前記レーダ手段は、前記車両の車幅方向における所定の角度範囲に渡る送信波の照射を、前記車両の車高方向における照射角度を変えて複数回実行するものであり、
前記車両の車幅方向における送信波の照射ライン毎に、前記第1の一体化手段及び前記第2の一体化手段が、それぞれ反射物の一体化、さらに反射物体の一体化を行なって一体化反射物体を求めるものであり、
前記認識手段は、照射ライン毎に求められた一体化反射物体が近接した位置に存在し、かつそれぞれの移動速度の差が所定速度差以下との条件が満足された場合に、それらの一体化反射物体をさらに一体化して物標として認識する物標化手段を備えることを特徴とする請求項7乃至請求項10のいずれかに記載の車両用物体認識装置。
The radar means performs the irradiation of the transmission wave over a predetermined angle range in the vehicle width direction of the vehicle a plurality of times by changing the irradiation angle in the vehicle height direction of the vehicle,
For each transmission wave irradiation line in the vehicle width direction of the vehicle, the first integration means and the second integration means are integrated by integrating the reflecting objects and the reflecting objects, respectively. To find a reflective object,
The recognizing means is integrated when the integrated reflecting object obtained for each irradiation line is present at a close position and the condition that the difference between the moving speeds is a predetermined speed difference or less is satisfied. The vehicle object recognition apparatus according to claim 7, further comprising a target converting unit that further recognizes the reflective object as a target.
前記一体化反射物体の移動速度は、自車両との車幅方向における相対速度及び前記送信波の照射方向における相対速度として算出され、前記物標化手段は、複数の一体化反射物体の両相対速度がともに所定速度差以下である場合に、それら複数の一体化反射物体を一体化した物標とすることを特徴とする請求項11に記載の車両用物体認識装置。The moving speed of the integrated reflecting object is calculated as a relative speed in the vehicle width direction with respect to the host vehicle and a relative speed in the irradiation direction of the transmission wave, and the target means is configured to detect both relatives of the plurality of integrated reflecting objects. The vehicle object recognition device according to claim 11, wherein when both speeds are equal to or less than a predetermined speed difference, the plurality of integrated reflective objects are integrated into a target. 前記物標化手段は、前記距離・形状算出手段が算出した一体化反射物体までの距離及び一体化反射物体の幅と、この一体化反射物体の相対速度から、前記レーダ手段の検知時間間隔毎に当該一体化反射物体の存在する推定領域を算出し、その推定領域内に他の一体化反射物体が属する場合に、それらの一体化反射物体が近接した位置に存在すると判断することを特徴とする請求項11または請求項12に記載の車両用物体認識装置。The target unit is configured to calculate the distance from the distance to the integrated reflecting object calculated by the distance / shape calculating unit, the width of the integrated reflecting object, and the relative speed of the integrated reflecting object for each detection time interval of the radar unit. Calculating an estimated area where the integrated reflective object is present, and determining that the integrated reflective object exists in a close position when other integrated reflective objects belong to the estimated area. The vehicle object recognition device according to claim 11 or 12.
JP2002368903A 2002-12-05 2002-12-19 Vehicle object recognition device Expired - Lifetime JP3736521B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2002368903A JP3736521B2 (en) 2002-12-19 2002-12-19 Vehicle object recognition device
US10/725,269 US7136753B2 (en) 2002-12-05 2003-12-02 Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
DE10356797.6A DE10356797B4 (en) 2002-12-05 2003-12-04 Object recognition device for a vehicle, vehicle-to-vehicle control device and distance measuring device
US11/543,864 US7496449B2 (en) 2002-12-05 2006-10-06 Inter-vehicle control apparatus and distance measurement apparatus
US12/285,199 US7761236B2 (en) 2002-12-05 2008-09-30 Object recognition apparatus for vehicle and distance measurement apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002368903A JP3736521B2 (en) 2002-12-19 2002-12-19 Vehicle object recognition device

Publications (2)

Publication Number Publication Date
JP2004198323A true JP2004198323A (en) 2004-07-15
JP3736521B2 JP3736521B2 (en) 2006-01-18

Family

ID=32765339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002368903A Expired - Lifetime JP3736521B2 (en) 2002-12-05 2002-12-19 Vehicle object recognition device

Country Status (1)

Country Link
JP (1) JP3736521B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006118958A (en) * 2004-10-21 2006-05-11 Alpine Electronics Inc Another vehicle detection machine and another vehicle detection method
JP2006194617A (en) * 2005-01-11 2006-07-27 Ishikawajima Harima Heavy Ind Co Ltd Object detection method and device
JP2006337295A (en) * 2005-06-06 2006-12-14 Omron Corp Range finder for vehicle
WO2007055215A1 (en) * 2005-11-09 2007-05-18 Toyota Jidosha Kabushiki Kaisha Object detection device
US7468791B2 (en) 2004-04-09 2008-12-23 Denso Corporation Object recognition system for vehicle
JP2011122851A (en) * 2009-12-08 2011-06-23 Ihi Corp Method and device for detecting object
JP2011202982A (en) * 2010-03-24 2011-10-13 Honda Motor Co Ltd Object detector
US8218816B2 (en) 2007-08-24 2012-07-10 Kabushiki Kaisha Toshiba Moving object detecting device and mobile robot
CN102789698A (en) * 2011-05-19 2012-11-21 富士重工业株式会社 Environment recognition device and environment recognition method
KR101305695B1 (en) 2012-08-06 2013-09-09 현대자동차주식회사 Method for producing classification for recognizing object
KR20140019501A (en) * 2012-08-06 2014-02-17 현대자동차주식회사 Method for producing classification for recognizing object
US8724093B2 (en) 2010-03-26 2014-05-13 Denso Corporation Apparatus and method for detecting division lines depicted on road
US8724094B2 (en) 2010-04-09 2014-05-13 Denso Corporation Apparatus and method of recognizing presence of objects
JP2014206411A (en) * 2013-04-11 2014-10-30 株式会社デンソー Target detection device and vehicle control system
KR101534927B1 (en) * 2013-10-08 2015-07-07 현대자동차주식회사 Apparatus and method for recognizing of vehicle
KR20160071162A (en) * 2014-12-11 2016-06-21 현대자동차주식회사 Apparatus for tracking multi object using lidar and method thereof
CN108139477A (en) * 2015-12-25 2018-06-08 日立建机株式会社 Cross-country dump truck and barrier judgment device
WO2018150998A1 (en) * 2017-02-17 2018-08-23 北陽電機株式会社 Object capturing device, capture target, and object capturing system
WO2019065440A1 (en) * 2017-09-29 2019-04-04 ミツミ電機株式会社 Radar device
KR20200002463A (en) * 2018-06-29 2020-01-08 삼성전자주식회사 Method and device to operate radar
CN111226132A (en) * 2019-03-18 2020-06-02 深圳市大疆创新科技有限公司 Target detection method and device, millimeter wave radar and movable platform
JP2020128887A (en) * 2019-02-07 2020-08-27 株式会社デンソー Vehicle detection device
JP2021032848A (en) * 2019-08-29 2021-03-01 株式会社東芝 Distance measuring device, distance measuring method, and speed measuring device
WO2023276321A1 (en) * 2021-06-29 2023-01-05 株式会社Ihi Road surface state determination system, road surface state determination device, vehicle driving control device, and road surface state determination method
WO2023033040A1 (en) * 2021-09-06 2023-03-09 株式会社デンソー Flare detection system, flare detection device, flare detection method, and flare detection program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180540A (en) * 1998-12-10 2000-06-30 Toyota Motor Corp Vehicle-mounted radar device
JP2001183462A (en) * 1999-12-27 2001-07-06 Honda Motor Co Ltd Object-detecting device
JP2002014165A (en) * 2000-06-29 2002-01-18 Fujitsu Ten Ltd Method for processing signal of scanning radar
JP2002022827A (en) * 2000-07-13 2002-01-23 Denso Corp Method and apparatus for recognizing object, recording medium
JP2002040139A (en) * 2000-07-28 2002-02-06 Denso Corp Method and device for body recognition, and recording medium
JP2002099907A (en) * 2000-09-22 2002-04-05 Mazda Motor Corp Object recognizing apparatus
JP2002341021A (en) * 2001-03-15 2002-11-27 Fujitsu Ten Ltd Signal processing method of scan type fm-cw radar
JP2002341020A (en) * 2001-03-15 2002-11-27 Fujitsu Ten Ltd Signal processing method of scan type fm-cw radar
JP2003177178A (en) * 2001-12-11 2003-06-27 Fujitsu Ten Ltd Data processing device for millimeter wave radar
JP2003185738A (en) * 2001-12-13 2003-07-03 Murata Mfg Co Ltd Radar

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180540A (en) * 1998-12-10 2000-06-30 Toyota Motor Corp Vehicle-mounted radar device
JP2001183462A (en) * 1999-12-27 2001-07-06 Honda Motor Co Ltd Object-detecting device
JP2002014165A (en) * 2000-06-29 2002-01-18 Fujitsu Ten Ltd Method for processing signal of scanning radar
JP2002022827A (en) * 2000-07-13 2002-01-23 Denso Corp Method and apparatus for recognizing object, recording medium
JP2002040139A (en) * 2000-07-28 2002-02-06 Denso Corp Method and device for body recognition, and recording medium
JP2002099907A (en) * 2000-09-22 2002-04-05 Mazda Motor Corp Object recognizing apparatus
JP2002341021A (en) * 2001-03-15 2002-11-27 Fujitsu Ten Ltd Signal processing method of scan type fm-cw radar
JP2002341020A (en) * 2001-03-15 2002-11-27 Fujitsu Ten Ltd Signal processing method of scan type fm-cw radar
JP2003177178A (en) * 2001-12-11 2003-06-27 Fujitsu Ten Ltd Data processing device for millimeter wave radar
JP2003185738A (en) * 2001-12-13 2003-07-03 Murata Mfg Co Ltd Radar

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7468791B2 (en) 2004-04-09 2008-12-23 Denso Corporation Object recognition system for vehicle
JP4541101B2 (en) * 2004-10-21 2010-09-08 アルパイン株式会社 Other vehicle detector and other vehicle detection method
JP2006118958A (en) * 2004-10-21 2006-05-11 Alpine Electronics Inc Another vehicle detection machine and another vehicle detection method
JP2006194617A (en) * 2005-01-11 2006-07-27 Ishikawajima Harima Heavy Ind Co Ltd Object detection method and device
JP2006337295A (en) * 2005-06-06 2006-12-14 Omron Corp Range finder for vehicle
WO2007055215A1 (en) * 2005-11-09 2007-05-18 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2007132748A (en) * 2005-11-09 2007-05-31 Toyota Motor Corp Object detector
US7777669B2 (en) 2005-11-09 2010-08-17 Toyota Jidosha Kabushiki Kaisha Object detection device
US8218816B2 (en) 2007-08-24 2012-07-10 Kabushiki Kaisha Toshiba Moving object detecting device and mobile robot
JP2011122851A (en) * 2009-12-08 2011-06-23 Ihi Corp Method and device for detecting object
JP2011202982A (en) * 2010-03-24 2011-10-13 Honda Motor Co Ltd Object detector
US8724093B2 (en) 2010-03-26 2014-05-13 Denso Corporation Apparatus and method for detecting division lines depicted on road
US8724094B2 (en) 2010-04-09 2014-05-13 Denso Corporation Apparatus and method of recognizing presence of objects
CN102789698A (en) * 2011-05-19 2012-11-21 富士重工业株式会社 Environment recognition device and environment recognition method
KR101305695B1 (en) 2012-08-06 2013-09-09 현대자동차주식회사 Method for producing classification for recognizing object
KR20140019501A (en) * 2012-08-06 2014-02-17 현대자동차주식회사 Method for producing classification for recognizing object
JP2014206411A (en) * 2013-04-11 2014-10-30 株式会社デンソー Target detection device and vehicle control system
KR101534927B1 (en) * 2013-10-08 2015-07-07 현대자동차주식회사 Apparatus and method for recognizing of vehicle
US9296393B2 (en) 2013-10-08 2016-03-29 Hyundai Motor Company Apparatus and method for recognizing vehicle
KR101655606B1 (en) 2014-12-11 2016-09-07 현대자동차주식회사 Apparatus for tracking multi object using lidar and method thereof
KR20160071162A (en) * 2014-12-11 2016-06-21 현대자동차주식회사 Apparatus for tracking multi object using lidar and method thereof
CN108139477A (en) * 2015-12-25 2018-06-08 日立建机株式会社 Cross-country dump truck and barrier judgment device
JP7214195B2 (en) 2017-02-17 2023-01-30 北陽電機株式会社 Object capture device, captured object, and object capture system
KR102235227B1 (en) * 2017-02-17 2021-04-02 호쿠요덴키 가부시키가이샤 Object capture device, target object, and object capture system
KR20190113935A (en) * 2017-02-17 2019-10-08 호쿠요덴키 가부시키가이샤 Object capture device, object to be captured, and object capture system
JPWO2018150998A1 (en) * 2017-02-17 2019-12-12 北陽電機株式会社 Object capturing device, capturing object, and object capturing system
US11592556B2 (en) 2017-02-17 2023-02-28 Hokuyo Automatic Co., Ltd. Object capturing device, capture target, and object capturing system
WO2018150998A1 (en) * 2017-02-17 2018-08-23 北陽電機株式会社 Object capturing device, capture target, and object capturing system
JP2019066288A (en) * 2017-09-29 2019-04-25 ミツミ電機株式会社 Radar device
WO2019065440A1 (en) * 2017-09-29 2019-04-04 ミツミ電機株式会社 Radar device
CN111033309A (en) * 2017-09-29 2020-04-17 三美电机株式会社 Radar apparatus
KR20200002463A (en) * 2018-06-29 2020-01-08 삼성전자주식회사 Method and device to operate radar
KR102628655B1 (en) 2018-06-29 2024-01-24 삼성전자주식회사 Method and device to operate radar
JP7185547B2 (en) 2019-02-07 2022-12-07 株式会社デンソー vehicle detector
JP2020128887A (en) * 2019-02-07 2020-08-27 株式会社デンソー Vehicle detection device
CN111226132A (en) * 2019-03-18 2020-06-02 深圳市大疆创新科技有限公司 Target detection method and device, millimeter wave radar and movable platform
JP2021032848A (en) * 2019-08-29 2021-03-01 株式会社東芝 Distance measuring device, distance measuring method, and speed measuring device
JP7379021B2 (en) 2019-08-29 2023-11-14 株式会社東芝 Distance measuring device, distance measuring method, and speed measuring device
WO2023276321A1 (en) * 2021-06-29 2023-01-05 株式会社Ihi Road surface state determination system, road surface state determination device, vehicle driving control device, and road surface state determination method
WO2023033040A1 (en) * 2021-09-06 2023-03-09 株式会社デンソー Flare detection system, flare detection device, flare detection method, and flare detection program

Also Published As

Publication number Publication date
JP3736521B2 (en) 2006-01-18

Similar Documents

Publication Publication Date Title
JP3736521B2 (en) Vehicle object recognition device
JP3941795B2 (en) Leading vehicle recognition device
JP4428208B2 (en) Vehicle object recognition device
JP3915742B2 (en) Vehicle object recognition device
US7158217B2 (en) Vehicle radar device
US7761236B2 (en) Object recognition apparatus for vehicle and distance measurement apparatus
JP3736520B2 (en) Obstacle recognition device for vehicles
JP3639190B2 (en) Object recognition device, recording medium
US7468791B2 (en) Object recognition system for vehicle
US8810445B2 (en) Method and apparatus for recognizing presence of objects
JP3405327B2 (en) Object recognition method and apparatus, recording medium
US20050219506A1 (en) Object recognition device for vehicle
JP2005077379A (en) Radar device
JP2001256600A (en) Method and device for recognizing road condition for vehicle and recording medium
JP2004184331A (en) Object recognition apparatus for motor vehicle
JP2001283392A (en) Method and device for recognizing obstacle of vehicle and recording medium
JP3757937B2 (en) Distance measuring device
JP3841047B2 (en) Vehicle distance control device
US20230094836A1 (en) Method for Detecting Moving Objects in the Surroundings of a Vehicle, and Motor Vehicle
JP5556317B2 (en) Object recognition device
JP2002131433A (en) Method and device for recognizing object
WO2023152871A1 (en) Information processing device, control method, program, and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051017

R150 Certificate of patent or registration of utility model

Ref document number: 3736521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091104

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101104

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111104

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121104

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131104

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term