JP2002040139A - Method and device for body recognition, and recording medium - Google Patents

Method and device for body recognition, and recording medium

Info

Publication number
JP2002040139A
JP2002040139A JP2000229234A JP2000229234A JP2002040139A JP 2002040139 A JP2002040139 A JP 2002040139A JP 2000229234 A JP2000229234 A JP 2000229234A JP 2000229234 A JP2000229234 A JP 2000229234A JP 2002040139 A JP2002040139 A JP 2002040139A
Authority
JP
Japan
Prior art keywords
vehicle
reflected wave
recognition
area
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000229234A
Other languages
Japanese (ja)
Other versions
JP3405327B2 (en
Inventor
Keiji Matsuoka
圭司 松岡
Yoshie Sagawa
佳江 寒川
Koji Okata
浩司 大方
Toyoji Nozawa
豊史 野澤
Takamasa Shirai
孝昌 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2000229234A priority Critical patent/JP3405327B2/en
Publication of JP2002040139A publication Critical patent/JP2002040139A/en
Application granted granted Critical
Publication of JP3405327B2 publication Critical patent/JP3405327B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To prevent a body which is not a vehicle from being misrecognized as a vehicle in front. SOLUTION: The corresponding area of distance measurement data is decided by using a non-vehicle decision map, and when the distance measurement data are within a non-vehicle range, the data are deleted. This map is a three- dimensional map, where the range of light reception intensity for discriminating between a vehicle and a non-vehicle body is set corresponding to the presence area of a reflecting body, when the vehicle width, vehicle height; and vehicle front direction are defined as X, Y, and Z axes respectively and are separated into three areas, i.e., an area nearby the center, an area at its periphery, and the lowest end area in the XY directions, and the correspondence relation between the Z-directional positions and photodetection intensity is set, as shown in (a) to (c) corresponding to the respective areas. The correspondence relation (b) corresponds to the area nearby the center in the XY directions, the correspondence relation (a) corresponds to the area at its periphery, and the correspondence relation (c) corresponds to the lowest end area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車幅方向及び高さ
方向それぞれの所定角度範囲内に渡り送信波を照射し、
その反射波に基づいて自車両の前方の物体を認識する技
術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention irradiates a transmission wave within a predetermined angle range in each of a vehicle width direction and a height direction,
The present invention relates to a technology for recognizing an object ahead of a host vehicle based on the reflected waves.

【0002】[0002]

【従来の技術】従来より、例えば光波,ミリ波などの送
信波を照射し、その反射波を検出することによって、前
方の物体を認識する物体認識装置が考えられている。こ
の種の装置としては、例えば、前方車両を検出して警報
を発生する装置や、先行車両と所定の車間距離を保持す
るように車速を制御する装置などに適用され、それらの
制御対象としての前方車両の認識に利用されている。こ
のような認識に際しては、前方車両を車幅方向及び高さ
方向それぞれの所定角度範囲内に渡り送信波を照射し、
その反射波に基づいて前方車両を3次元的に認識する手
法が考えられている。この手法であれば、通常の車両で
あれば存在し得ないような高さにおいて反射物体が存在
している場合に、それを車両ではないと認識することが
考えられる。これによって、例えば白線や水しぶき(ス
プラッシュ)、砂塵あるいは排気煙など路面上あるいは
路面からあまり高くない位置で検知される物体を前方車
両と誤って認識しないようにすることができる。
2. Description of the Related Art Conventionally, there has been proposed an object recognizing apparatus which irradiates a transmission wave such as a light wave or a millimeter wave and detects a reflected wave to recognize an object ahead. This type of device is applied to, for example, a device that detects a preceding vehicle and generates an alarm, and a device that controls a vehicle speed so as to maintain a predetermined inter-vehicle distance with a preceding vehicle. It is used for recognition of vehicles ahead. Upon such recognition, the vehicle ahead is irradiated with a transmission wave over a predetermined angle range in each of the vehicle width direction and the height direction,
A method of three-dimensionally recognizing a preceding vehicle based on the reflected wave has been considered. According to this method, when a reflective object exists at a height that cannot be present in a normal vehicle, it may be recognized that the reflective object is not a vehicle. Thus, it is possible to prevent an object detected at a position on the road surface or at a position that is not too high from the road surface, such as a white line, a splash (splash), dust and exhaust smoke, from being erroneously recognized as a preceding vehicle.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、この手
法の場合に得られる高さとは、路面を基準とした高さで
はなく認識装置の取り付け位置を基準としている。その
ため、認識装置を取り付けた車両にピッチングが生じた
場合には、上述の「通常の車両であれば存在し得ないよ
うな高さ」に前方の車両が位置してしまうことも考えら
れ、車両として認識されなくなってしまう。このような
不都合を避けるために、例えば停止物体であることを条
件として車両でないと判定することも考えられる。しか
し、上述した白線や自車の至近距離に浮遊する水しぶき
(スプラッシュ)、砂塵あるいは排気煙、さらには連続
して設置されている路面上のデリニエータ(通称「キャ
ッツアイ」)などは、自車との相対的な位置が変わらな
いため、しばしば移動物体として検知されてしまうこと
がある。そのため、車両であると誤認識し、誤った車間
制御や車間警報などを行ってしまうことになる。
However, the height obtained in this method is not based on the road surface but on the mounting position of the recognition device. Therefore, when pitching occurs in the vehicle to which the recognition device is attached, it is conceivable that the preceding vehicle may be located at the above-mentioned “height that cannot be present in a normal vehicle”. Will not be recognized. In order to avoid such inconvenience, for example, it may be determined that the vehicle is not a vehicle on condition that the vehicle is a stationary object. However, the white lines described above, splashes floating close to the vehicle, dust or exhaust smoke, and delinators (commonly known as “cat's eyes”) on the road surface that are continuously installed are not Are not changed, and are often detected as moving objects. For this reason, the vehicle is erroneously recognized as a vehicle, and erroneous inter-vehicle control or inter-vehicle warning is performed.

【0004】そこで本発明は、このような非車両を誤っ
て前方に存在する車両であると認識してしまわないよう
にすることを目的とする。
Accordingly, an object of the present invention is to prevent such a non-vehicle from being erroneously recognized as a vehicle existing ahead.

【0005】[0005]

【課題を解決するための手段】請求項6に示す発明は、
請求項1に示した物体認識方法を実現するための装置と
しての一例であり、この請求項6記載の物体認識装置に
よれば、レーダ手段にて車幅方向及び高さ方向それぞれ
の所定角度範囲内に渡り送信波を照射し、その反射波に
基づいて検出した反射物体までの距離と車幅方向及び高
さ方向の2方向の角度に基づき、認識手段が自車前方の
物体を認識する。ここで、レーダ手段は、送信波を照射
する2方向の所定角度範囲内において、認識対象とすべ
き物体が存在する可能性が低い領域では、認識対象とす
べき物体が存在する可能性が高い領域に比較して送信波
の出力が相対的に小さくなるように、その可能性の低さ
に応じて調整して送信波を照射する。なお、認識対象物
体としては例えば車両が挙げられ、認識対象物体として
車両を想定した説明が理解が容易であるので、適宜、認
識対象物体の例としての車両を用いて以下の説明を行う
こととする。
Means for Solving the Problems The invention according to claim 6 is:
This is an example of a device for realizing the object recognition method according to the first aspect, and according to the object recognition device according to the sixth aspect, a predetermined angle range in the vehicle width direction and the height direction in the radar means. Then, the recognition means recognizes the object ahead of the own vehicle based on the distance to the reflection object detected based on the reflected wave and the angle in two directions of the vehicle width direction and the height direction. Here, the radar unit has a high possibility that the object to be recognized exists in an area where the object to be recognized is not likely to exist within a predetermined angle range in the two directions of irradiating the transmission wave. The transmission wave is radiated by adjusting according to the low possibility that the output of the transmission wave is relatively small compared to the area. In addition, as the recognition target object, for example, a vehicle is given, and the description assuming the vehicle as the recognition target object is easy to understand. Therefore, the following description may be appropriately made using a vehicle as an example of the recognition target object. I do.

【0006】このような送信波の出力調整をすることの
意図は、上述した路面上の白線やスプラッシュなどの非
車両と車両とを区別して認識し易くするためであるが、
非車両と車両とでは反射強度に違いがあり、さらにその
存在位置に違いがあるという知見に基づいた工夫であ
る。すなわち、通常の車両では存在する可能性があり得
にくい領域において出力を小さくすれば、それだけ反射
強度も小さくなる。これによって、送信波の出力が同じ
であっても元々車両よりも反射強度が小さくなる非車両
については、出力が小さくなることでさらに反射強度が
小さく得られることとなる。したがって、反射強度に基
づいて車両と非車両とを区別して認識し易くなり、路面
上の白線やスプラッシュなどを誤って前方に存在する車
両であると認識してしまう可能性が低くなる。
The purpose of adjusting the output of such a transmission wave is to make it easier to recognize the non-vehicle and the vehicle, such as the white line and the splash on the road surface, as described above.
This is a device based on the knowledge that there is a difference in the reflection intensity between a non-vehicle and a vehicle, and that there is also a difference in the existing position. In other words, if the output is reduced in a region that is unlikely to exist in a normal vehicle, the reflection intensity decreases accordingly. As a result, for non-vehicles whose reflection intensity is originally smaller than that of the vehicle even if the output of the transmission wave is the same, the reflection intensity can be further reduced by reducing the output. Therefore, the vehicle and the non-vehicle can be easily distinguished and recognized based on the reflection intensity, and the possibility that a white line or a splash on the road surface is erroneously recognized as a vehicle existing in front is reduced.

【0007】なお、「(認識対象物体としての)車両で
は存在する可能性が低い領域」においても車両が存在す
る可能性は0ではない。上述したように自車両のピッチ
ングによってその「存在する可能性が低い領域」におい
て前方車両からの反射波を得ることもあり得るため、そ
の領域における車両は認識したい。したがって、送信波
出力を相対的に小さくする場合には、車両であれば認識
できるような出力低下度合いにしておくことが好まし
い。つまり、出力を例えば通常の場合の80%や50%
程度にとどめておき、0%にはしないということであ
る。
Note that the possibility that a vehicle is present is not zero even in the "region where the possibility of existence of a vehicle (as a recognition target object) is low". As described above, a reflected wave from a preceding vehicle may be obtained in the “region that is unlikely to exist” due to the pitching of the own vehicle, and therefore, it is desired to recognize the vehicle in that region. Therefore, when making the transmission wave output relatively small, it is preferable to set the output reduction degree to be recognizable by a vehicle. That is, the output is, for example, 80% or 50% of the normal case.
That is, keep it to the extent, and do not set it to 0%.

【0008】また、「送信波の出力が相対的に小さくな
るように、その可能性の低さに応じて調整」する場合、
複数段階に小さくしてもよい。例えば図5に示すよう
に、路面付近の領域においては出力を通常の場合の50
%にし、上端付近や左右端付近の領域においては出力を
通常の場合の80%にする、といったことである。な
お、ここで用いた数値は一例であり、何ら限定されるも
のではないが、路面付近の領域の方を上端あるいは左右
端付近の領域よりも小さな出力としたのは、次の理由か
らである。つまり、上端付近では例えばトンネルの天井
や看板などを検知する可能性があり、左右端においては
ガードレールや植え込みなどを検知する可能性がある。
一方、路面付近においては、自車両から比較的近距離に
おいて発生するスプラッシュや砂塵、あるいは白線など
を検知する可能性がある。したがって、これらを考慮す
ると、路面付近への送信波の出力をより小さくし、得ら
れる反射強度をより小さくした方がよいと考えられるか
らである。
In the case of “adjusting according to the low possibility that the output of the transmission wave becomes relatively small”,
The size may be reduced in a plurality of stages. For example, as shown in FIG. 5, in the area near the road surface, the output is 50
%, And in a region near the upper end or near the left and right ends, the output is set to 80% of a normal case. In addition, the numerical value used here is an example, and it is not limited at all, but the reason that the output near the road surface is smaller than the output near the upper end or the right and left ends is as follows. . That is, for example, near the upper end, there is a possibility of detecting a ceiling or a signboard of a tunnel, and at the left and right ends, there is a possibility of detecting a guardrail, planting, or the like.
On the other hand, near the road surface, there is a possibility of detecting splash, dust, white lines, or the like generated at a relatively short distance from the host vehicle. Therefore, in consideration of these, it is considered that it is better to reduce the output of the transmission wave to the vicinity of the road surface and reduce the obtained reflection intensity.

【0009】請求項6の場合には、送信波の出力を調整
することで対処したが、請求項2に示す物体認識方法を
実現するための装置としての一例である請求項7の場合
のように、レーダ手段の受信感度を調整することで対処
してもよい。つまり、認識対象とすべき物体が存在する
可能性が低い領域から反射波が返ってきた場合には、認
識対象とすべき物体が存在する可能性が高い領域から返
ってきた場合に比較して、反射波の受信感度が相対的に
小さくなるように、且つその可能性の低さに応じて調整
するのである。この受信感度の調整は、例えば請求項8
に示すように、反射波による受信信号の増幅度合いを調
整して実現することが考えられる。
In the case of claim 6, it is dealt with by adjusting the output of the transmission wave. However, as in the case of claim 7, which is an example of an apparatus for realizing the object recognition method described in claim 2, In this case, the reception sensitivity of the radar means may be adjusted. In other words, when the reflected wave returns from the region where the object to be recognized is unlikely to exist, it is compared with the case where the reflected wave returns from the region where the object to be recognized is likely to exist. In this case, the sensitivity is adjusted so that the reception sensitivity of the reflected wave becomes relatively small and the possibility of the reflection wave is low. The adjustment of the receiving sensitivity is performed, for example, in claim 8.
As shown in (1), it is conceivable to adjust the degree of amplification of the received signal by the reflected wave.

【0010】基本的な考え方は請求項6の場合と同じで
あり、認識手段へ検出結果として出力される時点では、
(認識対象物体としての)車両と非車両とが区別して認
識し易い信号強度にされていることとなる。但し、本請
求項7の場合には、車両が存在する可能性の高低を決め
る際の領域として、請求項6と同じように、送信波を照
射する2方向の所定角度範囲内を基準とした反射物体の
「2次元位置」に基づいて特定してもよいし、さらには
反射物体までの距離を加えた「3次元位置」に基づいて
特定してもよい(請求項12参照)。これは、請求項6
の場合には送信波の出力調整であったため、その調整対
象となる領域は、送信波の照射角度でしか特定できず、
車幅方向及び高さ方向それぞれの角度による2次元的な
特定しかできない。それに対して、受信感度を調整する
場合は、反射波に基づいて反射物体までの距離と車幅方
向及び高さ方向の2方向の角度を検出できるため、3次
元的に位置を特定できるためである。もちろん、2次元
的な位置を基準として受信感度を調整してもよいが、3
次元的な位置による「車両では存在する可能性が低い領
域」に応じて受信感度を調整することで、より適切な認
識を実現できる。つまり、受信部における反射波の受信
信号は一般的に微弱であるため、増幅が一般的に行われ
る。そして、検出した物体位置が近い場合には相対的に
弱い増幅を行うことも一般的に行われている。従って、
3次元的な位置に基づいた受信感度調整を行うことが好
ましいのである。
[0010] The basic concept is the same as that of claim 6, and when the detection result is output to the recognition means,
This means that the signal strength is set so that the vehicle (as a recognition target object) and the non-vehicle can be distinguished and recognized easily. However, in the case of the seventh aspect, as in the sixth aspect, the area for determining the level of the possibility of the presence of the vehicle is based on a predetermined angle range in two directions for irradiating the transmission wave. The identification may be performed based on the “two-dimensional position” of the reflective object, or may be further determined based on the “three-dimensional position” obtained by adding the distance to the reflective object (see claim 12). This corresponds to claim 6
In the case of, because the output of the transmission wave was adjusted, the area to be adjusted can be specified only by the irradiation angle of the transmission wave,
Only two-dimensional identification based on the respective angles in the vehicle width direction and the height direction can be performed. On the other hand, when adjusting the receiving sensitivity, the distance to the reflecting object and the angle in two directions of the vehicle width direction and the height direction can be detected based on the reflected wave, so that the position can be specified three-dimensionally. is there. Of course, the receiving sensitivity may be adjusted based on the two-dimensional position.
By adjusting the receiving sensitivity according to the “region that is unlikely to be present in the vehicle” based on the dimensional position, more appropriate recognition can be realized. That is, since the reception signal of the reflected wave at the receiving unit is generally weak, amplification is generally performed. In addition, when the detected object position is close, relatively weak amplification is generally performed. Therefore,
It is preferable to adjust the receiving sensitivity based on the three-dimensional position.

【0011】ところで、非車両と車両とでは反射強度に
違いがあるという知見を説明したが、この知見に基づけ
ば、請求項3に示す物体認識方法を実現するための装置
としての一例である請求項9に示すように、レーダ手段
において出力調整や受信感度調整を行わずに、認識手段
において、レーダ手段による検出結果としての反射波が
返ってきた領域及び反射波による受信信号強度に基づい
て認識対象物体(例えば車両)であるか否かを判定して
もよい。例えば、反射波が返ってきた領域が車両の存在
する可能性が大きな領域であれば、信号強度が相対的に
小さくても車両と判定することができる。逆に、反射波
が返ってきた領域が車両の存在する可能性が小さな領域
であれば、信号強度が相対的に大きくない限り車両と判
定しない、といった適切な判定が可能となる。
By the way, the finding that there is a difference in the reflection intensity between the non-vehicle and the vehicle has been described. Based on this finding, it is an example of an apparatus for realizing the object recognition method according to claim 3. As shown in item 9, the radar means does not perform output adjustment or reception sensitivity adjustment, and the recognition means performs recognition based on the region where the reflected wave is returned as a detection result by the radar means and the received signal strength due to the reflected wave. It may be determined whether or not the object is a target object (for example, a vehicle). For example, if the area where the reflected wave is returned is an area where the possibility of the presence of the vehicle is high, it can be determined that the vehicle is a vehicle even if the signal intensity is relatively small. Conversely, if the area where the reflected wave is returned is an area where the possibility of the presence of the vehicle is small, it is possible to appropriately determine that the vehicle is not determined unless the signal strength is relatively large.

【0012】また、認識対象物体でないとの判定自体は
行わず、請求項4に示す物体認識方法を実現するための
装置としての一例である請求項10に示すように認識対
象物体である確率を低くしてもよい。この場合は、認識
手段が認識対象物体である確率も判定することを前提と
しており、レーダ手段による検出結果としての反射波が
返ってきた領域及び反射波による受信信号強度に基づい
て認識対象物体(例えば車両)である確率を判定するの
である。この場合には、例えば本物体認識装置を用いて
車間制御の対象となる先行車を選択するシステムを構築
する場合において、その(認識対象物体としての)車両
である確率に基づいて先行車選択を行うことが考えられ
る。つまり、車両である確率が小さければ先行車として
選択される可能性が低くなり、結果として誤った車間制
御が実行されることを防止できる。
Further, the determination that the object is not a recognition target object is not performed, and the probability that the object is a recognition target object is determined as described in claim 10 which is an example of an apparatus for realizing the object recognition method according to claim 4. May be lower. In this case, it is assumed that the recognition unit also determines the probability of being a recognition target object, and the recognition target object (based on the region where the reflected wave is returned as a detection result by the radar unit and the received signal strength due to the reflected wave). (For example, a vehicle). In this case, for example, when constructing a system for selecting a preceding vehicle to be subjected to the inter-vehicle control using the present object recognition device, the preceding vehicle is selected based on the probability of being a vehicle (as a recognition target object). It is possible to do. In other words, if the probability of being a vehicle is low, the possibility of being selected as a preceding vehicle is low, and as a result, erroneous headway control can be prevented from being executed.

【0013】また、レーダ手段にて検出した反射物体が
一時的に検出できなくなった場合の対処として、検出で
きなくなった時点から所定時間は、検出できていた際の
状態を保持して存在していると仮定した補完物体を作成
することを前提とする場合には、請求項5に示す物体認
識方法を実現するための装置としての一例である請求項
11に示すように、その補完物体の存在領域が認識対象
物体では存在する可能性が低い領域の場合、補完物体を
作成しないようにすることも考えられる。補完物体を作
成することで一時的に前方物体を見失った場合のフォロ
ーができるが、認識対象物体でない物体についても補完
物体を作成してしまうことは誤認識を助長することにな
るため、そのような可能性が大きい場合には作成しない
ようにすなお、請求項7の説明に際して、車両が存在す
る可能性の高低を決める際の領域として、物体の「2次
元位置」に基づいて特定してもよいし、「3次元位置」
に基づいて特定してもよいことを述べた。これは、請求
項8〜11の場合でも同様である(請求項12参照)。
In order to cope with the case where the reflection object detected by the radar means cannot be detected temporarily, the state at the time when the detection was possible can be maintained for a predetermined time after the detection becomes impossible. If it is assumed that a complementary object is created, it is an example of a device for realizing the object recognition method according to claim 5. If the region is a region that is unlikely to exist in the recognition target object, it may be possible not to create a complementary object. By creating a complementary object, you can follow up if you temporarily lose sight of the forward object, but creating a complementary object for an object that is not the recognition target object will promote erroneous recognition. In the description of the seventh aspect, even if the area is determined based on the “two-dimensional position” of the object, the area is not determined when the possibility that the vehicle exists is determined. Good, "3D position"
It may be specified based on. The same applies to claims 8 to 11 (see claim 12).

【0014】ところで、これまで認識対象物体では存在
する可能性が低い領域を考慮して出力調整や受信感度調
整、あるいは補完物体の作成有無などを判定したが、こ
の領域を固定にするのではなく、請求項13に示すよう
に、自車前方の道路形状に応じて設定してもよい。例え
ば前方の道路がカーブしている場合には、通常の状態で
もカーブの内側に認識対象物体としての車両が存在し得
るため、請求項6のように出力調整するのであれば、カ
ーブしていない場合に比べて、カーブ内側方向への出力
は相対的に大きくし、逆にカーブ外側方向への出力を相
対的に小さくする。また、前方の道路が上り坂になって
いる場合には通常の状態でも上方向に車両が存在するた
め、上り坂になっていない場合に比べて、上方向への出
力は相対的に大きくすることが考えられる。このように
道路形状に基づいて車両の存在する可能性がある領域を
把握することで、より適切な前方車両の認識が実現でき
る。請求項7〜12の場合も同様に、車両前方の道路形
状に応じて可能性の高低を区別する領域を設定すること
が考えられる。
By the way, the output adjustment, the reception sensitivity adjustment, the presence / absence of the creation of the complementary object, and the like are determined in consideration of the area which is unlikely to be present in the object to be recognized, but this area is not fixed. Alternatively, the setting may be made according to the road shape ahead of the own vehicle. For example, when the road ahead is curved, a vehicle as a recognition target object may be present inside the curve even in a normal state, so if the output is adjusted as in claim 6, the vehicle is not curved. As compared with the case, the output toward the inside of the curve is relatively large, and the output toward the outside of the curve is relatively small. In addition, when the road ahead is uphill, the vehicle is present in the upward direction even in a normal state, so that the output in the upward direction is relatively larger than when the road is not uphill. It is possible. As described above, by grasping the area where the vehicle may exist based on the road shape, more appropriate recognition of the preceding vehicle can be realized. Similarly, in the case of claims 7 to 12, it is conceivable to set an area for discriminating the degree of possibility according to the road shape ahead of the vehicle.

【0015】なお、道路形状認識手段としては、例えば
請求項14に示すように、自車両の旋回状態に基づいて
道路形状を認識するものが考えられる。ステアリングセ
ンサから得た操舵角やヨーレートセンサから得た車両旋
回角などに基づいて推定認識する。また、請求項15に
示すように、道路形状を認識するのに有効な物体に対す
るレーダ手段による検出結果に基づいて道路形状を認識
してもよい。例えば路側に複数存在するデリニエータを
検知すれば道路形状を認識できる。さらには、請求項1
6に示すように、道路形状を判定可能な情報を含む地図
情報を記憶しておき、検出した現在地に対応する地図情
報に基づいて道路形状を認識することも考えられる。い
わゆるナビゲーションシステムを搭載している車両であ
れば、そのシステムからこれらの情報を得ることがで
き、道路形状の認識も可能である。
As the road shape recognizing means, for example, a means for recognizing the road shape based on the turning state of the host vehicle can be considered. Estimation and recognition are performed based on a steering angle obtained from a steering sensor, a vehicle turning angle obtained from a yaw rate sensor, and the like. Further, the road shape may be recognized based on the detection result of the radar means for an object effective for recognizing the road shape. For example, the road shape can be recognized by detecting a plurality of delineators on the road side. Furthermore, claim 1
As shown in FIG. 6, it is conceivable to store map information including information that can determine the road shape, and recognize the road shape based on the map information corresponding to the detected current location. If the vehicle is equipped with a so-called navigation system, such information can be obtained from the system, and the road shape can be recognized.

【0016】なお、請求項17に示すように、物体認識
装置の認識手段をコンピュータシステムにて実現する機
能は、例えば、コンピュータシステム側で起動するプロ
グラムとして備えることができる。このようなプログラ
ムの場合、例えば、フロッピー(登録商標)ディスク、
光磁気ディスク、CD−ROM、ハードディスク等のコ
ンピュータ読み取り可能な記録媒体に記録し、必要に応
じてコンピュータシステムにロードして起動することに
より用いることができる。この他、ROMやバックアッ
プRAMをコンピュータ読み取り可能な記録媒体として
前記プログラムを記録しておき、このROMあるいはバ
ックアップRAMをコンピュータシステムに組み込んで
用いても良い。
The function of realizing the recognition means of the object recognition apparatus in a computer system can be provided, for example, as a program activated on the computer system side. In the case of such a program, for example, a floppy (registered trademark) disk,
It can be used by recording it on a computer-readable recording medium such as a magneto-optical disk, CD-ROM, hard disk, etc., loading it into a computer system as needed, and starting up. Alternatively, the program may be recorded in a ROM or a backup RAM as a computer-readable recording medium, and the ROM or the backup RAM may be incorporated in a computer system and used.

【0017】[0017]

【発明の実施の形態】次に、本発明が適用された車両制
御装置1について、図面と共に説明する。この車両制御
装置は、自動車に搭載され、警報すべき領域に障害物が
所定の状況で存在する場合に警報を出力したり、前車
(先行車両)に合わせて車速を制御したりする装置であ
る。
Next, a vehicle control device 1 to which the present invention is applied will be described with reference to the drawings. This vehicle control device is a device that is mounted on an automobile and outputs a warning when an obstacle is present in an area to be warned in a predetermined situation, or controls a vehicle speed in accordance with a preceding vehicle (preceding vehicle). is there.

【0018】図1は、そのシステムブロック図である。
車両制御装置は認識・車間制御ECU3を中心に構成さ
れている。認識・車間制御ECU3はマイクロコンピュ
ータを主な構成として入出力インターフェース(I/
O)および各種の駆動回路や検出回路を備えている。こ
れらのハード構成は一般的なものであるので詳細な説明
は省略する。
FIG. 1 is a system block diagram of the system.
The vehicle control device mainly includes a recognition / interval control ECU 3. The recognition / interval control ECU 3 mainly includes a microcomputer and an input / output interface (I /
O) and various drive circuits and detection circuits. Since these hardware configurations are general, detailed description will be omitted.

【0019】認識・車間制御ECU3は、レーザレーダ
センサ5、車速センサ7、ブレーキスイッチ9、スロッ
トル開度センサ11から各々所定の検出データを入力し
ており、警報音発生器13、距離表示器15、センサ異
常表示器17、ブレーキ駆動器19、スロットル駆動器
21および自動変速機制御器23に所定の駆動信号を出
力している。また認識・車間制御ECU3には、警報音
量を設定する警報音量設定器24、警報判定処理におけ
る感度を設定する警報感度設定器25、クルーズコント
ロールスイッチ26、図示しないステアリングホイール
の操作量を検出するステアリングセンサ27、ヨーレー
トセンサ28及びワイパスイッチ30が接続されてい
る。また認識・車間制御ECU3は、電源スイッチ29
を備え、その「オン」により、所定の処理を開始する。
The recognition / interval control ECU 3 inputs predetermined detection data from the laser radar sensor 5, the vehicle speed sensor 7, the brake switch 9, and the throttle opening sensor 11, respectively, and outputs an alarm sound generator 13, a distance display 15 A predetermined drive signal is output to the sensor abnormality display 17, the brake driver 19, the throttle driver 21, and the automatic transmission controller 23. The recognition / interval control ECU 3 includes an alarm volume setting device 24 for setting an alarm volume, an alarm sensitivity setting device 25 for setting sensitivity in the alarm determination processing, a cruise control switch 26, and a steering for detecting an operation amount of a steering wheel (not shown). The sensor 27, the yaw rate sensor 28, and the wiper switch 30 are connected. The recognition / interval control ECU 3 is provided with a power switch 29.
And a predetermined process is started by the “ON”.

【0020】ここで、レーザレーダセンサ5は、図2に
示すように、発光部、受光部及びレーザレーダCPU7
0などを主要部として次のように構成されている。発光
部は、パルス状のレーザ光を、発光レンズ71及びスキ
ャナ72を介して放射する半導体レーザダイオード(以
下、単にレーザダイオードと記載)75を備えている。
そして、レーザダイオード75は、レーザダイオード駆
動回路76を介してレーザレーダCPU70に接続さ
れ、レーザレーダCPU70からの駆動信号によりレー
ザ光を放射(発光)する。また、スキャナ72にはポリ
ゴンミラー73が鉛直軸を中心に回転可能に設けられ、
レーザレーダCPU70からの駆動信号がモータ駆動部
74を介して入力されると、このポリゴンミラー73は
図示しないモータの駆動力により回転する。なお、この
モータの回転位置は、モータ回転位置センサ78によっ
て検出され、レーザレーダCPU70に出力される。
Here, as shown in FIG. 2, the laser radar sensor 5 includes a light emitting section, a light receiving section, and a laser radar CPU 7.
It is configured as follows, with 0 and the like as main parts. The light emitting unit includes a semiconductor laser diode (hereinafter simply referred to as a laser diode) 75 that emits pulsed laser light via the light emitting lens 71 and the scanner 72.
The laser diode 75 is connected to a laser radar CPU 70 via a laser diode drive circuit 76, and emits (emits) laser light according to a drive signal from the laser radar CPU 70. A polygon mirror 73 is provided on the scanner 72 so as to be rotatable about a vertical axis.
When a driving signal from the laser radar CPU 70 is input via the motor driving unit 74, the polygon mirror 73 is rotated by the driving force of a motor (not shown). The rotational position of the motor is detected by a motor rotational position sensor 78 and output to the laser radar CPU 70.

【0021】本実施形態のポリゴンミラー73は、面倒
れ角が異なる6つのミラーを備えているため、車幅方向
及び車高方向それぞれの所定角度の範囲で不連続にレー
ザ光を掃引照射(スキャン)して出力する。このように
レーザ光を2次元的に走査するのであるが、その走査パ
ターンを図3(a)を参照して説明する。なお、図3
(a)において、出射されたレーザビームのパターン9
2は測定エリア91内の右端と左端に出射された場合の
みを示しており、途中は省略している。また、出射レー
ザビームパターン92は、図3(a)では一例として略
円形のものを示しているが、この形に限られるものでは
なく楕円形、長方形等でもよい。さらに、レーザ光を用
いるものの他に、ミリ波等の電波や超音波等を用いるも
のであってもよい。また、スキャン方式にこだわる必要
はなく、距離以外に2方位を測定できる方式であればよ
い。
Since the polygon mirror 73 of this embodiment has six mirrors having different tilt angles, the laser beam is swept and radiated (scanned) discontinuously within a predetermined angle range in each of the vehicle width direction and the vehicle height direction. ) And output. The laser beam is two-dimensionally scanned as described above. The scanning pattern will be described with reference to FIG. Note that FIG.
In (a), the pattern 9 of the emitted laser beam
2 shows only the case where the light is emitted to the right end and the left end in the measurement area 91, and the middle is omitted. In addition, the emitted laser beam pattern 92 is shown in FIG. 3 (a) as being substantially circular as an example, but is not limited to this shape, and may be elliptical or rectangular. Further, instead of using laser light, radio waves such as millimeter waves or ultrasonic waves may be used. It is not necessary to stick to the scanning method, and any method may be used as long as it can measure two directions other than the distance.

【0022】図3(a)に示すように、測定エリアの中
心方向をZ軸としたとき、これに垂直なXY平面内の所
定エリアを順次走査する。本実施形態では、高さ方向で
あるY軸を基準方向、車幅方向であるX軸を走査方向と
し、スキャンエリアは、X軸方向には0.15deg×
105点=16degであり、Y軸方向には0.7de
g×6ライン=4degである。また、スキャン方向は
X軸方向については図3(a)において左から右へ、Y
軸方向については図3(a)において上から下へであ
る。具体的には、まずY軸方向に見た最上部に位置する
第1走査ラインについてX軸方向に0.15°おきにス
キャンする。これで1走査ライン分の検出がなされるの
で、次に、Y軸方向に見た次の位置にある第2走査ライ
ンにおいても同様にX軸方向に0.15°おきにスキャ
ンする。このようにして第6走査ラインまで同様のスキ
ャンを繰り返す。したがって、左上から右下に向かって
順に走査がされ、105点×6ライン=630点分のデ
ータが得られることとなる。
As shown in FIG. 3A, when the center direction of the measurement area is the Z axis, a predetermined area in the XY plane perpendicular to the Z axis is sequentially scanned. In the present embodiment, the Y axis, which is the height direction, is the reference direction, and the X axis, which is the vehicle width direction, is the scanning direction. The scan area is 0.15 deg × in the X axis direction.
105 points = 16 deg, and 0.7 deg in the Y-axis direction
g × 6 lines = 4 deg. The scanning direction is X-axis from left to right in FIG.
The axial direction is from top to bottom in FIG. Specifically, first, the first scanning line positioned at the uppermost position as viewed in the Y-axis direction is scanned at intervals of 0.15 ° in the X-axis direction. As a result, detection for one scan line is performed, so that the second scan line at the next position as viewed in the Y-axis direction is similarly scanned at intervals of 0.15 ° in the X-axis direction. Thus, the same scan is repeated up to the sixth scan line. Therefore, scanning is performed in order from the upper left to the lower right, and data for 105 points × 6 lines = 630 points is obtained.

【0023】このような2次元的なスキャンにより、走
査方向を示すスキャン角度θx,θyと測距された距離
rとが得られる。なお、2つのスキャン角度θx,θy
は、それぞれ出射されたレーザビームとXZ平面との角
度を縦スキャン角θy、出射されたレーザビームをXZ
平面に投影した線とZ軸との角度を横スキャン角θxと
定義する。
By such a two-dimensional scan, the scan angles θx and θy indicating the scan direction and the measured distance r are obtained. Note that two scan angles θx, θy
Represents the angle between the emitted laser beam and the XZ plane as the vertical scan angle θy, and the emitted laser beam as the XZ plane.
The angle between the line projected on the plane and the Z axis is defined as a horizontal scan angle θx.

【0024】一方、受光部は、図示しない物体に反射さ
れたレーザ光を受光レンズ81を介して受光し、その強
度に対応する電圧を出力する受光素子83とを備えてい
る。そして、この受光素子83の出力電圧は、可変増幅
器85に入力される。可変増幅器85は入力電圧を増幅
してコンパレータ87に出力するのであるが、この増幅
率は時間の経過と共に増大するよう制御される。また、
この増幅率をどのように変化させるかは、レーザレーダ
CPU70によって適宜変更させることができるように
構成されている。コンパレータ87は可変増幅器85の
出力電圧を基準電圧と比較し、出力電圧>基準電圧とな
ったとき所定の受光信号を時間計測回路89へ出力す
る。
On the other hand, the light receiving section is provided with a light receiving element 83 which receives the laser beam reflected by an object (not shown) through a light receiving lens 81 and outputs a voltage corresponding to the intensity. Then, the output voltage of the light receiving element 83 is input to the variable amplifier 85. The variable amplifier 85 amplifies the input voltage and outputs it to the comparator 87. The amplification factor is controlled so as to increase with time. Also,
How to change the amplification factor is configured to be appropriately changed by the laser radar CPU 70. The comparator 87 compares the output voltage of the variable amplifier 85 with the reference voltage, and outputs a predetermined light receiving signal to the time measurement circuit 89 when the output voltage becomes greater than the reference voltage.

【0025】時間計測回路89には、レーザレーダCP
U70からレーザダイオード駆動回路76へ出力される
駆動信号も入力され、図3(c)に示すように、上記駆
動信号をスタートパルスPA、上記受光信号をストップ
パルスPBとし、2つのパルスPA,PB間の位相差
(すなわちレーザ光を出射した時刻T0と反射光を受信
した時刻T1との差ΔT)を2進デジタル信号に符号化
する。また、ストップパルスPBのパルス幅も時間とし
て計測する。そして、それらの値を2進デジタル信号に
符号化してレーザレーダCPU70へ出力する。レーザ
レーダCPU70は、時間計測回路89から入力された
2つのパルスPA,PB間の入力時間差から物体までの
距離を算出し、その距離及び対応するスキャン角度θ
x,θyを基にして位置データを作成する。つまり、レ
ーザレーダ中心を原点(0,0,0)とし、車幅方向を
X軸、車高方向をY軸、車両前方方向をZ軸とするXY
Z直交座標に変換する。そして、この(X,Y,Z)デ
ータ及び受光信号強度データ(ストップパルスPBのパ
ルス幅が相当する)を測距データとして認識・車間制御
ECU3へ出力する。
The time measuring circuit 89 includes a laser radar CP.
A drive signal output from the U70 to the laser diode drive circuit 76 is also input. As shown in FIG. 3C, the drive signal is a start pulse PA, the light reception signal is a stop pulse PB, and two pulses PA and PB. (Ie, the difference ΔT between the time T0 at which the laser light was emitted and the time T1 at which the reflected light was received) is encoded into a binary digital signal. Also, the pulse width of the stop pulse PB is measured as time. Then, these values are encoded into a binary digital signal and output to the laser radar CPU 70. The laser radar CPU 70 calculates the distance to the object from the input time difference between the two pulses PA and PB input from the time measurement circuit 89, and calculates the distance and the corresponding scan angle θ.
Create position data based on x and θy. That is, XY with the origin of the laser radar at the origin (0, 0, 0), the X-axis in the vehicle width direction, the Y-axis in the vehicle height direction, and the Z-axis in the vehicle forward direction.
Convert to Z orthogonal coordinates. Then, the (X, Y, Z) data and the received light signal intensity data (corresponding to the pulse width of the stop pulse PB) are output to the recognition / interval control ECU 3 as distance measurement data.

【0026】なお、本実施形態の可変増幅器85はバイ
ポーラトランジスタを用いて構成されており、次のよう
な特性を持っている。つまり、受光信号の強度が小さい
場合には図2(b)に示すように飽和しないが、受光信
号の強度が大きくなると図2(c)に示すようにアンプ
出力が飽和してしまう(飽和電圧Vsat )。但し、二点
鎖線で示すように、少数キャリヤ蓄積効果により、受光
信号強度が大きければ大きいほど信号パルスの立ち下が
りが遅れる特性を持っている。また、アンプ出力である
信号パルスが所定のしきい値電圧よりも大きくなってい
る時間を示すパルス幅は、受光信号強度と相関関係があ
り、受光信号強度の対数に略比例している。そのため、
たとえ図2(c)のようにアンプ出力が飽和して受光信
号強度が直接得られなくても、パルス幅を基にし、上述
の相関関係を参照すれば、受光信号強度を推定すること
ができる。
Note that the variable amplifier 85 of the present embodiment is constituted by using a bipolar transistor and has the following characteristics. That is, when the intensity of the received light signal is small, the output does not saturate as shown in FIG. 2B, but when the intensity of the received light signal increases, the output of the amplifier is saturated as shown in FIG. Vsat). However, as indicated by the two-dot chain line, due to the minority carrier accumulation effect, the higher the intensity of the received light signal, the longer the fall of the signal pulse is delayed. The pulse width indicating the time during which the signal pulse output from the amplifier is higher than the predetermined threshold voltage has a correlation with the received light signal intensity, and is substantially proportional to the logarithm of the received light signal intensity. for that reason,
Even if the amplifier output is saturated and the received light signal intensity cannot be directly obtained as shown in FIG. 2C, the received light signal intensity can be estimated by referring to the above-described correlation based on the pulse width. .

【0027】認識・車間制御ECU3は、このように構
成されていることにより、レーザレーダセンサ5からの
測距データを基にして物体を認識し、その認識物体から
得た先行車の状況に合わせて、ブレーキ駆動器19、ス
ロットル駆動器21および自動変速機制御器23に駆動
信号を出力することにより車速を制御する、いわゆる車
間制御を実施している。また、認識物体が所定の警報領
域に所定時間存在した場合等に警報する警報判定処理も
同時に実施している。この場合の物体としては、自車の
前方を走行する前車やまたは停止している前車等が該当
する。
With this configuration, the recognition / interval control ECU 3 recognizes an object on the basis of the distance measurement data from the laser radar sensor 5 and adjusts it to the situation of the preceding vehicle obtained from the recognized object. Thus, a so-called inter-vehicle control for controlling the vehicle speed by outputting drive signals to the brake driver 19, the throttle driver 21, and the automatic transmission controller 23 is performed. Further, an alarm determination process for issuing an alarm when a recognition object is present in a predetermined alarm area for a predetermined time is also performed at the same time. In this case, the object corresponds to a preceding vehicle traveling in front of the own vehicle or a preceding vehicle that is stopped.

【0028】続いて認識・車間制御ECU3の内部構成
について制御ブロックとして説明する。レーザレーダセ
ンサ5から出力された測距データは物体認識ブロック4
3に送られる。物体認識ブロック43では、測距データ
として得た3次元位置データに基づいて、物体の中心位
置(X,Y,Z)、大きさ(W,D,H)を求めると共
に、中心位置(X,Y,Z)の時間的変化に基づいて、
自車位置を基準とする前車等の障害物の相対速度(V
x,Vy,Vz)を求める。さらに物体認識ブロック4
3では、車速センサ7の検出値に基づいて車速演算ブロ
ック47から出力される車速(自車速)と上記求められ
た相対速度(Vx,Vy,Vz)とから物体が停止物体
であるか移動物体であるかの認識種別が求められ、この
認識種別と物体の中心位置とに基づいて自車両の走行に
影響する物体が選択され、その距離が距離表示器15に
より表示される。なお、物体の大きさを示す(W,D,
H)は、それぞれ(横幅,奥行き,高さ)である。
Next, the internal configuration of the recognition / interval control ECU 3 will be described as a control block. The distance measurement data output from the laser radar sensor 5 is stored in the object recognition block 4
Sent to 3. In the object recognition block 43, the center position (X, Y, Z) and size (W, D, H) of the object are obtained based on the three-dimensional position data obtained as the distance measurement data, and the center position (X, Y, Z) is obtained. Y, Z) based on the temporal change,
The relative speed (V
x, Vy, Vz). Further object recognition block 4
At 3, the vehicle speed (own vehicle speed) output from the vehicle speed calculation block 47 based on the detection value of the vehicle speed sensor 7 and the relative speed (Vx, Vy, Vz) determined above indicate whether the object is a stationary object or a moving object. Is determined, an object that affects the travel of the host vehicle is selected based on the recognition type and the center position of the object, and the distance is displayed on the distance display 15. Note that the size of the object is indicated (W, D,
H) are (width, depth, height) respectively.

【0029】また、ステアリングセンサ27からの信号
に基づいて操舵角演算ブロック49にて操舵角が求めら
れ、ヨーレートセンサ28からの信号に基づいてヨーレ
ート演算ブロック51にてヨーレートが演算される。そ
してカーブ半径(曲率半径)算出ブロック57では、車
速演算ブロック47からの車速と操舵角演算ブロック4
9からの操舵角とヨーレート演算ブロック51からのヨ
ーレートとに基づいて、カーブ半径(曲率半径)Rを算
出する。そして物体認識ブロック43では、このカーブ
半径Rおよび中心位置座標(X,Z)などに基づいて車
両形状確率や自車線確率を算出する。この車両形状確率
や自車線確率については後述する。
A steering angle is calculated by a steering angle calculation block 49 based on a signal from the steering sensor 27, and a yaw rate is calculated by a yaw rate calculation block 51 based on a signal from the yaw rate sensor 28. In the curve radius (curvature radius) calculation block 57, the vehicle speed and the steering angle calculation block 4 from the vehicle speed calculation block 47 are used.
A curve radius (curvature radius) R is calculated on the basis of the steering angle from No. 9 and the yaw rate from the yaw rate calculation block 51. Then, the object recognition block 43 calculates the vehicle shape probability and the own lane probability based on the curve radius R and the center position coordinates (X, Z). The vehicle shape probability and the own lane probability will be described later.

【0030】このようなデータを持つ物体のモデルを
「物標モデル」と呼ぶこととする。この物体認識ブロッ
ク43にて求めたデータが異常な範囲の値がどうかがセ
ンサ異常検出ブロック44にて検出され、異常な範囲の
値である場合には、センサ異常表示器17にその旨の表
示がなされる。
A model of an object having such data is referred to as a “target model”. The sensor abnormality detection block 44 detects whether or not the data obtained in the object recognition block 43 has an abnormal range value. If the data is within the abnormal range, the sensor abnormality display 17 indicates the fact. Is made.

【0031】一方、先行車判定ブロック53では、物体
認識ブロック43から得た各種データに基づいて先行車
を選択し、その先行車に対する距離Zおよび相対速度V
zを求める。そして、車間制御部及び警報判定部ブロッ
ク55が、この先行車との距離Z、相対速度Vz、クル
ーズコントロールスイッチ26の設定状態およびブレー
キスイッチ9の踏み込み状態、スロットル開度センサ1
1からの開度および警報感度設定器25による感度設定
値に基づいて、警報判定ならば警報するか否かを判定
し、クルーズ判定ならば車速制御の内容を決定する。そ
の結果を、警報が必要ならば、警報発生信号を警報音発
生器13に出力する。また、クルーズ判定ならば、自動
変速機制御器23、ブレーキ駆動器19およびスロット
ル駆動器21に制御信号を出力して、必要な制御を実施
する。そして、これらの制御実行時には、距離表示器1
5に対して必要な表示信号を出力して、状況をドライバ
ーに告知している。
On the other hand, in the preceding vehicle determination block 53, a preceding vehicle is selected based on various data obtained from the object recognition block 43, and the distance Z and the relative speed V to the preceding vehicle are selected.
Find z. Then, the inter-vehicle control unit and the alarm determination unit block 55 determine the distance Z to the preceding vehicle, the relative speed Vz, the setting state of the cruise control switch 26, the depressed state of the brake switch 9, the throttle opening sensor 1
Based on the opening from 1 and the sensitivity set value by the alarm sensitivity setting unit 25, it is determined whether or not an alarm is issued if the alarm is determined, and the content of the vehicle speed control is determined if the cruise is determined. The result is output to the alarm sound generator 13 if an alarm is required. If the cruise is determined, a control signal is output to the automatic transmission controller 23, the brake driver 19, and the throttle driver 21 to perform necessary control. When these controls are executed, the distance display 1
A necessary display signal is output to the driver 5 to notify the driver of the situation.

【0032】このような車間制御や警報判定に際して
は、その前提となる物体認識、さらに詳しく言えば、こ
こでの認識対象物体である車両の認識が適切に行われて
いることが重要である。そこで、その車両認識を適切に
行うための工夫について、いくつかの態様を説明する。
In such an inter-vehicle control or an alarm judgment, it is important that the object recognition as a premise thereof, more specifically, the recognition of the vehicle which is the object to be recognized is properly performed. Therefore, some aspects of the device for appropriately performing the vehicle recognition will be described.

【0033】[態様1]本態様1は、レーザレーダセン
サ5における測距データを得る時点において工夫するも
のであり、具体的には、レーザダイオード75からの出
力調整によって対応するものである。
[Aspect 1] This aspect 1 is devised at the time of obtaining the distance measurement data in the laser radar sensor 5, and specifically responds by adjusting the output from the laser diode 75.

【0034】図4はレーザレーダセンサ5にて実行され
る処理を示すフローチャートであり、モータ回転位置セ
ンサ78からの出力に基づいてモータ回転位置を検出し
(S11)、その回転位置に対応するレーザダイオード
75からのレーザ光の照射方向を検出する(S12)。
そして、レーザダイオード75を発光させてレーザ光を
出力する際の出力レベルを調整した後(S13)、レー
ザダイオード駆動回路76を制御して、レーザダイオー
ド75を発光させる(S14)。その発光に対応し、図
示しない前方物体に反射されたレーザ光を受光素子83
にて受光して電圧に変換し、その変換した電圧を可変増
幅器85にて増幅する(S15)。そして、コンパレー
タ87を介して出力された上述のスタートパルスPA及
びストップパルスPBに基づき、時間計測回路89にて
反射時間を計測し(S16)、さらにストップパルスP
Bのパルス幅に基づいて受光信号強度を検出する(S1
7)。そして、上述したように、直交座標に変換した位
置データ及び反射強度(受光信号強度)を測距データと
して認識・車間制御ECU3へ出力する(S18)。
FIG. 4 is a flowchart showing the processing executed by the laser radar sensor 5. The motor rotational position is detected based on the output from the motor rotational position sensor 78 (S11), and the laser corresponding to the rotational position is detected. The irradiation direction of the laser beam from the diode 75 is detected (S12).
Then, after adjusting the output level when the laser diode 75 emits light to output laser light (S13), the laser diode driving circuit 76 is controlled to emit light (S14). In response to the light emission, a laser beam reflected by a forward object (not shown)
Is received and converted into a voltage, and the converted voltage is amplified by the variable amplifier 85 (S15). Then, based on the above-mentioned start pulse PA and stop pulse PB output via the comparator 87, the reflection time is measured by the time measurement circuit 89 (S16).
The light receiving signal intensity is detected based on the pulse width of B (S1).
7). Then, as described above, the position data converted into the rectangular coordinates and the reflection intensity (light reception signal intensity) are output to the recognition / inter-vehicle distance control ECU 3 as distance measurement data (S18).

【0035】このように、従来であれば、スキャンエリ
ア内のいずれの方向においても同じ出力レベルでレーザ
光を照射していたが、本態様では、照射方向に応じて出
力レベルを変更するようにした(S11〜S13)。S
13における出力調整は、図5に示すLD発光出力調整
マップを参照して行う。
As described above, in the related art, the laser light is irradiated at the same output level in any direction in the scan area. However, in the present embodiment, the output level is changed according to the irradiation direction. (S11 to S13). S
The output adjustment at 13 is performed with reference to the LD emission output adjustment map shown in FIG.

【0036】このマップは、車幅方向及び車高方向をそ
れぞれX軸及びY軸とした場合のレーザ光の照射方向範
囲内において、どの方向領域を何%の出力レベルでレー
ザ光を発光出力させるかを示すものである。具体的に
は、照射方向範囲の中心付近は100%の出力レベル領
域であり、その周囲に80%の出力レベル領域が設定さ
れている。そのため、照射方向範囲の上端領域及び左右
端領域は80%の出力レベルとなっている。また、下方
領域に関しては、最下端に50%の出力レベル領域があ
り、下方から上方に向かって、50%→80%→100
%→80%という領域設定になっている。
In this map, the laser beam is emitted at a certain output level in any direction area within the range of the laser beam irradiation direction when the vehicle width direction and the vehicle height direction are set to the X axis and the Y axis, respectively. It shows whether or not. Specifically, a 100% output level area is set near the center of the irradiation direction range, and an 80% output level area is set around the 100% output level area. Therefore, the upper end area and the left and right end areas of the irradiation direction range have an output level of 80%. As for the lower region, there is a 50% output level region at the lowermost end, and from the bottom upward, 50% → 80% → 100
The area is set from% to 80%.

【0037】このような領域設定にする意図は、認識対
象としている物体、つまりここでは前方に存在する車両
では存在する可能性の高低に応じ、可能性が低い領域方
向へは、送信波の出力が相対的に小さくなるようにして
いる。例えば路面上の白線や自車の至近距離に浮遊する
水しぶきなどは、図5で言えば最下端領域に存在すると
考えられるため、その部分は50%にする。また、上端
付近では例えばトンネルの天井や看板などを検知する可
能性があり、左右端においてはガードレールや植え込み
などを検知する可能性があるため、これらの領域では出
力レベルを80%としている。
The intention of setting such an area is that the output of the transmission wave is performed in the direction of the area where the possibility is low, depending on the possibility of the presence of the object to be recognized, that is, in the case of the vehicle present ahead. Is relatively small. For example, a white line on the road surface or a splash floating at a short distance from the own vehicle is considered to be present in the lowermost region in FIG. 5, so that the portion is set to 50%. Further, for example, there is a possibility that a ceiling or a signboard of a tunnel is detected near the upper end, and there is a possibility that a guardrail or a plant is detected at the left and right ends. Therefore, the output level is set to 80% in these regions.

【0038】このようにすることで、当然ながら反射強
度も小さくなる。出力レベルが同じであっても元々車両
よりも反射強度が小さくなるこれら白線などについて
は、発光出力を小さくなることでさらに反射強度が小さ
く得られることとなり、この反射強度に基づいて車両と
非車両とを区別して認識し易くなる。なお、この「車両
と非車両との区別」に関しては、例えば区別反射強度が
小さくなってコンパレータ87の基準電圧自体を上回ら
なくなり、時間計測回路89にストップパルスPB自体
が出力されないことで区別可能となる状態が得られても
よいし、ストップパルスPB自体は出力されるが、その
パルス幅(受光信号強度)が小さいため、認識・車間制
御ECU3において受光信号強度が所定のしきい値未満
のデータは削除することで区別可能となる状態が得られ
ても良い。
By doing so, the reflection intensity naturally decreases. Regarding these white lines and the like whose reflection intensity is originally smaller than that of the vehicle even if the output level is the same, the reflection intensity can be further reduced by reducing the light emission output, and the vehicle and the non-vehicle are determined based on the reflection intensity. And it becomes easier to recognize. It should be noted that the “discrimination between the vehicle and the non-vehicle” can be distinguished, for example, by the fact that the distinction reflection intensity does not exceed the reference voltage itself of the comparator 87 and the stop pulse PB itself is not output to the time measurement circuit 89. Or the stop pulse PB itself is output, but since the pulse width (light receiving signal intensity) is small, the data of the recognition / interval control ECU 3 in which the light receiving signal intensity is less than a predetermined threshold value is obtained. May be deleted to obtain a distinguishable state.

【0039】なお、「車両では存在する可能性が小さな
領域」においても車両が存在する可能性は0ではない。
例えば自車両のピッチングによってその「可能性が小さ
な領域」において前方車両からの反射波を得ることもあ
り得るため、その領域における車両は認識したい。した
がって、発光出力を相対的に小さくするとはいっても、
車両であれば認識できるような出力低下度合いにしてお
くために、80%や50%といった値を採用し、0%に
はしない。
Note that the possibility that a vehicle is present is not zero even in the "region where the vehicle is unlikely to be present".
For example, a reflected wave from a preceding vehicle may be obtained in the “region with a small possibility” by pitching of the own vehicle, and therefore, it is desired to recognize a vehicle in that region. Therefore, although the light emission output is relatively small,
A value such as 80% or 50% is adopted, and not 0%, in order to keep the output reduction degree that can be recognized by a vehicle.

【0040】本態様1は、このようにレーザレーダセン
サ5から認識・車間制御ECU3へ出力されるデータの
時点で、車両と非車両とが区別可能な状態にされている
ことが特徴であるが、認識・車間制御ECU3の物体認
識ブロック43において実行される物体認識にかかる動
作についても、説明をしておく。
The first mode is characterized in that the vehicle and the non-vehicle can be distinguished at the time of the data output from the laser radar sensor 5 to the recognition / interval control ECU 3 as described above. The operation related to the object recognition executed in the object recognition block 43 of the recognition / interval control ECU 3 will also be described.

【0041】図6(a)のフローチャートに物体認識に
係るメイン処理を示す。図6(a)の最初のステップで
あるS110では、レーザレーダセンサ5から1スキャ
ン分の測距データの読み込みを行う。レーザレーダセン
サ5でのスキャン周期は100msecとし、100m
sec毎にデータを取り込むこととする。
FIG. 6A is a flowchart showing main processing relating to object recognition. In step S110, which is the first step in FIG. 6A, distance data for one scan is read from the laser radar sensor 5. The scan cycle at the laser radar sensor 5 is 100 msec,
Data is taken in every second.

【0042】続くS120では、データのセグメント化
を行う。上述したように、測距データとして得た3次元
位置データをグルーピングしてセグメントを形成する。
このセグメント化においては、所定の接続条件(一体化
条件)に合致するデータ同士を集めて1つのプリセグメ
ントデータを生成し、さらにそのプリセグメントデータ
同士の内で所定の接続条件(一体化条件)に合致するも
のを集めて1つの本セグメントデータとするというもの
である。プリセグメントデータは、例えば点認識された
データ同士のX軸方向の距離△Xが0.2m以下、Z軸
方向の距離△Zが2m以下という2条件を共に満たす場
合に、その点集合を一体化して求める。本実施形態で
は。Y軸方向に6つの走査ラインがあるが、プリセグメ
ント化によって各ライン毎にプリセグメントデータが生
成されている。そのため、本セグメント化では、3次元
(X,Y,Z)空間で近接するプリセグメントデータ同
士を一体化(本セグメント化)する。本セグメントデー
タは、X軸,Y軸及びZ軸にそれぞれ平行な3辺を持つ
直方体の領域であり、その中心座標(X,Y,Z)と大
きさを示すための3辺の長さ(W,H,D)をデータ内
容とする。なお、特に断らない限り、本セグメント(デ
ータ)のことを単にセグメント(データ)と称すること
とする。
At S120, data segmentation is performed. As described above, the segments are formed by grouping the three-dimensional position data obtained as the distance measurement data.
In this segmentation, data that matches a predetermined connection condition (integration condition) is collected to generate one piece of pre-segment data, and further, a predetermined connection condition (integration condition) is included in the pre-segment data. Are collected into one main segment data. For example, when the pre-segment data satisfies both the condition that the distance △ X in the X-axis direction between point-recognized data in the X-axis direction is 0.2 m or less and the distance △ Z in the Z-axis direction is 2 m or less, the point set is integrated. And ask for it. In the present embodiment. Although there are six scan lines in the Y-axis direction, pre-segmentation generates pre-segment data for each line. Therefore, in this segmentation, presegment data adjacent in a three-dimensional (X, Y, Z) space are integrated (main segmentation). This segment data is a rectangular parallelepiped region having three sides parallel to the X axis, the Y axis, and the Z axis, and the center coordinates (X, Y, Z) and the length of the three sides (X, Y, Z) for indicating the size ( W, H, D) are data contents. Unless otherwise specified, this segment (data) is simply referred to as a segment (data).

【0043】続くS130では、認識対象の個々の車両
などを物標化する物標化処理を行う。物標とは、一まと
まりのセグメントに対して作成される物体のモデルであ
る。この物標化処理を図6(b)のフローチャートなど
を参照して説明する。物標化処理においてはまず、物標
モデルの対応セグメントを検索する(S131)。これ
は、前回までに得た物標モデルが、今回検出したセグメ
ントの内のいずれと一致するかを検索する処理であり、
物標に対応するセグメントとは次のように定義する。ま
ず、物標が前回処理時の位置から前回処理時における相
対速度で移動したと仮定した場合、現在物標が存在する
であろう推定位置を算出する。続いて、その推定位置の
周囲に、X軸,Y軸,Z軸方向それぞれに所定量の幅を
有する推定移動範囲を設定する。そして、その推定移動
範囲に少なくとも一部が含まれるセグメントを対応する
セグメントとする。
At S130, target recognition processing is performed to target individual vehicles and the like to be recognized. A target is a model of an object created for a set of segments. This target conversion processing will be described with reference to the flowchart of FIG. In the target conversion process, first, a corresponding segment of the target model is searched (S131). This is a process of searching for which of the segments detected this time the target model obtained so far matches,
The segment corresponding to the target is defined as follows. First, assuming that the target has moved from the position at the time of the previous processing at the relative speed at the time of the previous processing, an estimated position where the target is likely to be present is calculated. Subsequently, an estimated moving range having a predetermined width in each of the X-axis, Y-axis, and Z-axis directions is set around the estimated position. Then, a segment at least partially included in the estimated moving range is set as a corresponding segment.

【0044】続くS132では、物標のデータ更新処理
を実行する。この処理は、対応するセグメントがあれば
物標モデルの過去データの更新及び現在位置データの更
新を行うもので、更新されるデータは、中心座標(X,
Y,Z)、幅W、高さH、奥行きD、X軸方向,Y軸方
向、Z軸方向の相対速度(Vx,Vy,Vz)、中心座
標(X,Y,Z)の過去4回分のデータ、自車線確率な
どである。なお、対応するセグメントがない場合は、物
標モデルのデータ更新は行わず、新規物標モデルの登録
を行う。
In the following S132, a data update process of the target is executed. In this process, if there is a corresponding segment, the past data of the target model and the current position data are updated. The data to be updated is the center coordinates (X,
Y, Z), width W, height H, depth D, relative speeds (Vx, Vy, Vz) in the X-axis direction, Y-axis direction, and Z-axis direction, and center coordinates (X, Y, Z) for the past four times Data, own lane probability, etc. If there is no corresponding segment, the data of the target model is not updated, and a new target model is registered.

【0045】その後、車両形状確率の算出(S133)
及び自車線確率の算出(S134)を行う。 車両形状確率の算出 路側にデリニエータが狭い間隔で多数設置されているよ
うな場合やガードレールを検出しているような場合に
は、これらの停止物を移動物であると誤認識してしまう
可能性がある。これは、同一位置に常に何かを検出する
ことにより、その位置に自車と同速度で走行している車
両が存在すると判断してしまうからである。そこで、こ
のように移動物であると誤認識した物標が先行車判定ブ
ロック53において誤って先行車と判断されてしまわな
いように、この車両形状確率に基づくことで走行車両で
ないと判断できるようにする。例えば先行車判定ブロッ
ク53においてこの車両形状確率が50%未満の場合に
路側物であると判定する。
Thereafter, the calculation of the vehicle shape probability (S133).
Then, the own lane probability is calculated (S134). Calculation of vehicle shape probability In the case where a large number of delineators are installed at narrow intervals on the road side or when guardrails are detected, it is possible that these stationary objects may be erroneously recognized as moving objects. There is. This is because, by always detecting something at the same position, it is determined that a vehicle running at the same speed as the own vehicle exists at that position. Therefore, based on the vehicle shape probability, it can be determined that the target vehicle is not a traveling vehicle so that the target that is erroneously recognized as a moving object is not erroneously determined as the preceding vehicle in the preceding vehicle determination block 53. To For example, if the vehicle shape probability is less than 50% in the preceding vehicle determination block 53, it is determined that the vehicle is a roadside object.

【0046】車両形状確率の取り得る範囲は0〜100
%であり、瞬間的なノイズやバラツキによる影響を低減
するために、下式のように加重平均して求める。まで取
り柄ルーチンそして、各物標ごとに自車線確率瞬時値を
算出したら、次に、下式を用いて、フィルタ処理をす
る。ここで、αは距離Zに依存するパラメータであり、
図7(b)のマップを用いて求める。自車線確率の初期
値は、0%とする。 今回の車両形状確率←前回値×α+今回の瞬時値×(1
−α) なお、初期値は50%とし、αは例えば0.8といった
値を採用する。また、車両形状確率の瞬時値は、相対加
速度、縦横の長さD,W、検出時間などに基づいて算出
する。
The possible range of the vehicle shape probability is 0 to 100.
% In order to reduce the influence of instantaneous noise and variations, the weighted average is calculated as in the following equation. After calculating the instantaneous value of the own lane probability for each target, a filtering process is performed using the following equation. Here, α is a parameter depending on the distance Z,
It is determined by using the map shown in FIG. The initial value of the own lane probability is set to 0%. Current vehicle shape probability ← Previous value × α + Current instant value × (1
-Α) Note that the initial value is 50%, and α is, for example, 0.8. The instantaneous value of the vehicle shape probability is calculated based on the relative acceleration, the lengths D and W, the detection time, and the like.

【0047】相対加速度については、例えば|αj|>
α0+αn/j2が成立すれば−50%とし、不成立の場
合はそのまま(プラスもマイナスもしない)とすること
が考えられる。なお、αj は算出した相対加速度であ
り、α0 は許容相対加速度、αnは測距誤差によるノイ
ズサンプリング周期のときの値である。この式に関して
は、特開平9−178848号の図7のステップ307
にて示した式と同じであるため、詳しい説明は省略す
る。
Regarding the relative acceleration, for example, | αj |>
If α0 + αn / j 2 is satisfied, it is considered that the value is −50%, and if it is not satisfied, it is considered as it is (no plus or minus). Here, αj is the calculated relative acceleration, α0 is the allowable relative acceleration, and αn is the value at the time of the noise sampling period due to the distance measurement error. Regarding this expression, step 307 in FIG. 7 of JP-A-9-178848 is used.
Since the expression is the same as that shown in FIG.

【0048】また、縦横の長さD,Wについては、車両
らしい横長物であれば+30%とし、ガードレールのよ
うな縦長物であれば−50%とし、点物体あるいは上記
以外の形状の物体であれば+10%とすることが考えら
れる。なお、横長物とは、XZ平面上の形状が横幅W大
の長方形であるものを指し、縦長物とは、奥行きD大の
長方形であるものを指す。そして、車両らしい横長物の
具体例としては、1.2m≦横幅W<2.5m、且つ奥
行きD<5.0m、且つ縦横比D/W<5という条件を
満たすものが挙げられる。また、ガードレールのような
縦長物の具体例としては、奥行きD≧5.0m、且つ縦
横比D/W≧5という条件を満たすものが挙げられる。
さらに点物体としては、横幅W<1.2m、且つ奥行き
D<5.0m、且つ縦横比D/W<5という条件を満た
すものが挙げられる。
The vertical and horizontal lengths D and W are set to + 30% for a horizontally long object like a vehicle, and to -50% for a vertically long object such as a guardrail. If so, it can be considered to be + 10%. Note that a horizontally long object refers to a rectangle whose shape on the XZ plane is large in width W, and a vertically long object refers to a rectangle whose size is large in depth D. As a specific example of the horizontally long object like a vehicle, one that satisfies the conditions of 1.2 m ≦ width W <2.5 m, depth D <5.0 m, and aspect ratio D / W <5 is given. Further, as a specific example of a vertically long object such as a guardrail, one that satisfies the conditions of a depth D ≧ 5.0 m and an aspect ratio D / W ≧ 5 is cited.
Further, as the point object, an object satisfying the conditions of a width W <1.2 m, a depth D <5.0 m, and an aspect ratio D / W <5 is exemplified.

【0049】また、検出時間については、例えば検出時
間が2秒以上のものは+20%とし、検出時間が5秒以
上のものは+50%とすることが考えられる。先行車に
追従走行している場合は、先行車を長時間安定して検出
することができるのに対し、路側のデリニエータ群やガ
ードレールを検出している場合には、同じ検出状態が長
時間は続かないので、多数の物標が消えて無くなった
り、新たに現れたりする。したがって、長時間検出して
いる物標は走行車両である可能性が高いと言えるため、
検出時間に応じて車両形状確率の瞬時値をアップさせて
いる。
For the detection time, for example, if the detection time is 2 seconds or more, the detection time may be + 20%, and if the detection time is 5 seconds or more, the detection time may be + 50%. When following the preceding vehicle, the preceding vehicle can be detected stably for a long time, whereas when detecting roadside delineators or guardrails, the same detection state is not detected for a long time. Many targets disappear and disappear or appear again because they do not last. Therefore, it can be said that the target detected for a long time is likely to be a traveling vehicle,
The instantaneous value of the vehicle shape probability is increased according to the detection time.

【0050】自車線確率の算出 自車線確率とは、物標が自車と同一レーンを走行してい
る車両である確からしさを表すパラメータである。本実
施形態では、自車線確率瞬時値(その瞬間の検出データ
に基づいて算出された値)を算出した後、所定のフィル
タ処理を施して自車線確率を求める。
Calculation of Own Lane Probability The own lane probability is a parameter indicating the likelihood that the target is a vehicle running on the same lane as the own vehicle. In the present embodiment, after calculating the instantaneous value of the own lane probability (the value calculated based on the detection data at that instant), a predetermined filter process is performed to obtain the own lane probability.

【0051】まず、物標の位置を、直線路走行時の位置
に換算する。もともとの物標の中心位置を(Xo,Z
o)としたとき、次の変換式により、直線路変換位置
(X,Z)が得られる(図7(a)参照)。 X ← Xo−Zo2/2R …[式1] Z ← Zo …[式2] R:カーブ半径算出ブロック57で得た推定R 右カーブ:符号正 左カーブ:符号負 なお、円の方程式は、|X|≪|R|,Zという仮定の
もとで、近似した。また、レーザレーダセンサ5が車両
中心から離れたところに取り付けられている場合には、
そのオフセット量を加味し、車両中心が原点になるよう
にX座標を補正するものとする。すなわち、ここでは実
質的にはX座標のみ変換している。
First, the position of the target is converted into the position when traveling on a straight road. The center position of the original target is (Xo, Z
When o), a straight road conversion position (X, Z) is obtained by the following conversion formula (see FIG. 7A). X ← Xo−Zo 2 / 2R (Equation 1) Z ← Zo (Equation 2) R: Estimated R obtained by the curve radius calculation block 57 Right curve: Positive sign Left curve: Negative sign Approximation was made under the assumption that | X | ≪ | R |, Z. When the laser radar sensor 5 is mounted at a position away from the center of the vehicle,
In consideration of the offset amount, the X coordinate is corrected so that the center of the vehicle becomes the origin. That is, here, only the X coordinate is substantially converted.

【0052】このように直進路に変換して得られた中心
位置(X,Z)を、図8に示す自車線確率マップ上に配
置して、各物体の瞬時自車線確率、すなわち、その時点
で自車線に存在する確率を求める。確率として存在する
のは、カーブ半径算出ブロック57(図1参照)にて求
めた曲率半径Rは認識物標あるいは操舵角などから推定
した値であり、実際のカーブの曲率半径との間に誤差が
存在するからである。その誤差を考慮した制御をするた
め、ここで各物体の瞬時自車線確率を求める。
The center position (X, Z) obtained as a result of the conversion into a straight road is placed on the own lane probability map shown in FIG. 8, and the instantaneous own lane probability of each object, that is, Calculates the probability of being in the own lane. Existing as the probability is the radius of curvature R obtained in the curve radius calculation block 57 (see FIG. 1), which is a value estimated from the recognized target or the steering angle, and has an error between the radius of curvature R of the actual curve. Because there is. In order to perform control in consideration of the error, an instantaneous own lane probability of each object is obtained here.

【0053】図8において、横軸はX軸、すなわち自車
の左右方向であり、縦軸はZ軸、すなわち自車の前方を
示している。本実施形態では、左右5m、前方100m
までの領域を示している。ここで領域は、領域a(自車
線確率80%)、領域b(自車線確率60%)、領域c
(自車線確率30%)、領域d(自車線確率100
%)、それ以外の領域(自車線確率0%)に別れてい
る。この領域の設定は、実測により定めたものである。
特に、領域dは自車直前への割込も考慮することにより
設定された領域である。
In FIG. 8, the horizontal axis is the X axis, that is, the horizontal direction of the own vehicle, and the vertical axis is the Z axis, that is, the front of the own vehicle. In the present embodiment, left and right 5 m, front 100 m
The area up to is shown. Here, the area is area a (own lane probability 80%), area b (own lane probability 60%), area c
(Own lane probability 30%), area d (own lane probability 100)
%), And other areas (own lane probability 0%). The setting of this area is determined by actual measurement.
In particular, the area d is an area set by taking into consideration the interruption immediately before the own vehicle.

【0054】領域a,b,c,dを区切る境界線La、
Lb,Lc,Ldは、例えば次の式3〜6で与えられる
ものである。なお、境界線La′、Lb′,Lc′,L
d′は、それぞれ境界線La、Lb,Lc,LdとはY
軸で対称の関係にある。 La: X=0.7+(1.75-0.7)・(Z/100)^2 …[式3] Lb: X=0.7+( 3.5-0.7)・(Z/100)^2 …[式4] Lc: X=1.0+( 5.0-1.0)・(Z/100)^2 …[式5] Ld: X=1.5・(1-Z/60) …[式6] これを一般式で表すと次式7〜10のようになる。 La: X=A1+B1・(Z/C1)^2 …[式7] Lb: X=A2+B2・(Z/C2)^2 …[式8] Lc: X=A3+B3・(Z/C3)^2 …[式9] Ld: X=A4・(B4-Z/C4) …[式10] この式7〜10から一般的には、次の式11〜13を満
足させるように領域を設定する。実際の数値の決定は、
実験にて決定する。 A1≦A2≦A3<A4 …[式11] B1≦B2≦B3 および B4=1 …[式12] C1=C2=C3 (C4に制約無し) …[式13] なお、図8の境界線La、Lb,Lc,La′、L
b′,Lc′は、計算処理速度の点から、放物線として
いるが、処理速度が許すならば、円弧にて表す方が良
い。境界線Ld,Ld′についても処理速度が許すなら
ば外側に膨らんだ放物線または円弧にて表す方が良い。
Boundaries La, which separate the areas a, b, c, d,
Lb, Lc, and Ld are given by, for example, the following equations 3 to 6. The boundary lines La ', Lb', Lc ', L
d ′ is Y with the boundary lines La, Lb, Lc, and Ld, respectively.
They are symmetrical about the axis. La: X = 0.7 + (1.75-0.7) · (Z / 100) ^ 2 [Equation 3] Lb: X = 0.7 + (3.5-0.7) · (Z / 100) ^ 2 ... [Equation 4] Lc: X = 1.0 + (5.0-1.0) · (Z / 100) ^ 2 [Equation 5] Ld: X = 1.5 · (1-Z / 60) [Equation 6] When this is expressed by a general equation, the following equation 7 is obtained. It becomes like ~ 10. La: X = A1 + B1 · (Z / C1) ^ 2 [Expression 7] Lb: X = A2 + B2 · (Z / C2) ^ 2 [Expression 8] Lc: X = A3 + B3 · (Z / C3) ^ 2 [Equation 9] Ld: X = A4 · (B4-Z / C4) [Equation 10] From Equations 7 to 10, generally, the following Equations 11 to 13 should be satisfied. Set the area. The actual number is determined by
Determined by experiment. A1 ≦ A2 ≦ A3 <A4 [Equation 11] B1 ≦ B2 ≦ B3 and B4 = 1 [Equation 12] C1 = C2 = C3 (C4 is not limited) [Equation 13] The boundary line La in FIG. , Lb, Lc, La ', L
Although b 'and Lc' are parabolic from the viewpoint of calculation processing speed, if processing speed permits, it is better to represent them with arcs. The boundary lines Ld and Ld 'are preferably represented by parabolas or arcs bulging outward if the processing speed permits.

【0055】次に、各物標の直線路換算位置を図8の自
車線確率マップと照合する。下記要領で、マップと照合
することで、自車線確率瞬時値P0 が得られる。 領域dを少しでも有する物体 → P0=100% 領域a内に中心が存在する物体 → P0= 80% 領域b内に中心が存在する物体 → P0= 60% 領域c内に中心が存在する物体 → P0= 30% 上記〜を全て満たさない物体 → P0= 0% そして、各物標ごとに自車線確率瞬時値を算出したら、
次に、下式を用いて、フィルタ処理をする。 自車線確率←自車線確率前回値×α+自車線確率瞬時値
×(1−α) ここで、αは距離Zに依存するパラメータであり、図7
(b)のマップを用いて求める。自車線確率の初期値
は、0%とする。
Next, the straight road conversion position of each target is compared with the own lane probability map of FIG. By collating with the map in the following manner, the own lane probability instantaneous value P0 can be obtained. An object having any area d → P0 = 100% An object having a center in area a → P0 = 80% An object having a center in area b → P0 = 60% An object having a center in area c → P0 = 30% An object that does not satisfy all of the above-> P0 = 0% Then, when the own lane probability instantaneous value is calculated for each target,
Next, filter processing is performed using the following equation. Own lane probability ← previous lane probability previous value × α + own lane probability instantaneous value × (1-α) Here, α is a parameter depending on the distance Z, and FIG.
It is determined using the map of (b). The initial value of the own lane probability is set to 0%.

【0056】なお、本自車線確率は、上述した車両形状
確率の値によっても影響を受ける。具体的には、車両形
状確率が50%未満のときは自車線確率を35%で上限
リミットする。これは、車両形状確率が50%未満のと
きは路側物である可能性が高いので、自車線確率を低く
抑える意図である。また、35%でリミットしている理
由は、車両形状確率が50%未満から50%以上になっ
たとき、自車線確率マップの100%領域に2回連続存
在したら、自車線確率が50%以上になるような上限リ
ミット値を選んだからである。
The own lane probability is also affected by the value of the vehicle shape probability described above. Specifically, when the vehicle shape probability is less than 50%, the upper limit of the own lane probability is 35%. When the vehicle shape probability is less than 50%, there is a high possibility that the vehicle is a roadside object. Also, the reason for limiting at 35% is that if the vehicle shape probability changes from less than 50% to 50% or more, if the vehicle lane probability exists twice consecutively in the 100% area of the own lane probability map, the own lane probability becomes 50% or more. This is because the upper limit value was selected such that

【0057】そして、このように算出した車両形状確率
及び自車線確率も含めた物標モデルのデータが、図1に
示す物体認識ブロック43から先行車判定ブロック53
へ出力される。なお、先行車判定ブロック53では、例
えば車両形状確率が所定のしきい値(例えば50%)以
上、且つ自車線確率が所定のしきい値(例えば50%)
以上の物標の中で、距離Zが最小のものを先行車と判断
する。この判断結果は車間制御部及び警報判定部ブロッ
ク55に出力されることとなる。
Then, the data of the target model including the vehicle shape probability and the own lane probability calculated in this way is converted from the object recognition block 43 shown in FIG.
Output to In the preceding vehicle determination block 53, for example, the vehicle shape probability is equal to or more than a predetermined threshold value (for example, 50%) and the own lane probability is a predetermined threshold value (for example, 50%).
Among the above targets, the one with the minimum distance Z is determined to be the preceding vehicle. This determination result is output to the headway control unit and the alarm determination unit block 55.

【0058】このように、本態様1においては、レーザ
レーダセンサ5から認識・車間制御ECU3へ出力され
るデータの時点で、車両と非車両とが区別可能な状態に
されているため、非車両を誤って前方に存在する車両で
あると認識することが防止でき、適切な車間制御や警報
制御が実行できる。
As described above, in the first embodiment, the vehicle and the non-vehicle can be distinguished at the time of the data output from the laser radar sensor 5 to the recognition / interval control ECU 3. Can be prevented from being erroneously recognized as a vehicle existing ahead, and appropriate headway control and alarm control can be executed.

【0059】[態様2]本態様2も、態様1と同様にレ
ーザレーダセンサ5における測距データを得る時点にお
いて工夫するものであるが、態様1がレーザダイオード
75からの出力調整によって対応するものであったのに
対して、本態様2は可変増幅器85における増幅率を変
更して受信感度を調整することで対処する。
[Embodiment 2] This embodiment 2 is also devised at the time of obtaining the distance measurement data in the laser radar sensor 5 as in the case of the embodiment 1, but the embodiment 1 responds by adjusting the output from the laser diode 75. In contrast to this, the second embodiment deals with this by changing the gain of the variable amplifier 85 to adjust the reception sensitivity.

【0060】図9は本態様2の場合のレーザレーダセン
サ5にて実行される処理を示すフローチャートである
が、これは、上述した態様1の場合の図4のフローチャ
ートにおけるS13の「発光出力調整」処理がなくな
り、代わりに図9のS24の「受光増幅率調整」処理が
追加されたものである。その他の処理内容は同じであ
り、図4のS11,S12,S14,S15,S16,
S17,S18は、それぞれ図9のS21,S22,S
23,S25,S26,S27,S28と対応する。し
たがって、それら同じ部分についての説明は省略し、S
24の処理について説明する。
FIG. 9 is a flowchart showing the processing executed by the laser radar sensor 5 in the case of the second embodiment, which is described in the light emission output adjustment of S13 in the flowchart of FIG. "Process has been eliminated, and instead, the" light reception amplification factor adjustment "process of S24 in FIG. 9 has been added. The other processing contents are the same, and S11, S12, S14, S15, S16,
S17 and S18 are respectively S21, S22 and S in FIG.
23, S25, S26, S27, and S28. Therefore, description of those same parts is omitted, and S
The process 24 will be described.

【0061】図3(c)に示すように、可変増幅器85
における増幅率は時間の経過と共に増大するようレーザ
レーダCPU70によって制御されるのであるが、従来
は、スキャンエリア内のいずれの方向から返ってきた反
射光であっても、この増幅率の時間的変化は同じであっ
た。それに対して、本態様2では、反射物体の3次元位
置が認識対象物体では存在する可能性が低い領域の場
合、その可能性の低さに応じて反射波の受信感度が相対
的に小さくなるようにする。具体的には、反射物体の位
置に応じて増幅率を調整するようにした。この増幅率調
整は、図10に示す増幅率判定マップを参照して行う。
As shown in FIG. 3C, the variable amplifier 85
Is controlled by the laser radar CPU 70 so as to increase as time passes. Conventionally, however, even if the reflected light returns from any direction in the scan area, the change in the amplification factor with time changes. Was the same. On the other hand, in the second aspect, in the case where the three-dimensional position of the reflection object is a region that is unlikely to be present in the recognition target object, the reception sensitivity of the reflected wave becomes relatively small according to the low possibility. To do. Specifically, the amplification factor is adjusted according to the position of the reflection object. This amplification factor adjustment is performed with reference to the amplification factor determination map shown in FIG.

【0062】このマップは、車幅方向及び車高方向をそ
れぞれX軸及びY軸とした場合の反射物体の存在領域に
対応して、どのような増幅率の時間的変化にするかを示
すものである。具体的には、図10中に(a)〜(c)
で示すような3種類の増幅率変化が設定されており、そ
れぞれがどの領域に対応するかが設定されている。
This map shows how the amplification factor changes over time corresponding to the area where the reflective object exists when the vehicle width direction and the vehicle height direction are set to the X axis and the Y axis, respectively. It is. Specifically, (a) to (c) in FIG.
The three types of amplification factor changes are set as shown by, and the region to which each corresponds is set.

【0063】領域設定に関しては、中心付近の領域、そ
の周囲の領域、最下端領域の3つにわけられており、中
心付近の領域は(b)の増幅率変化が対応し、その周囲
の領域は(a)の増幅率変化が対応し、下方領域に関し
ては、最下端に(c)の増幅率変化が対応している。な
お、この(a),(b),(c)が対応する領域は、そ
れぞれ図5に示した80%の出力レベル領域、100%
の出力レベル領域、50%の出力レベル領域に対応する
ものである。
The region setting is divided into a region near the center, a region around the center, and a lowermost region. The region near the center corresponds to the change in the amplification factor shown in FIG. (A) corresponds to the change in the gain, and the lower end corresponds to the change in the gain (c) at the lower end. The areas corresponding to (a), (b) and (c) correspond to the 80% output level area and the 100%
And an output level region of 50%.

【0064】そして、増幅率の変化度合いに関しては、
(b)の増幅率変化は従来と同様のものであり、(a)
の増幅率変化は、(b)の増幅率変化に対してその変化
度合いを全体的に小さくしたものである。また、(c)
の増幅率変化は、時刻0から所定の時刻t1まではほと
んど増加率を上げずに低レベルに維持し、その後、
(b)の増幅率変化に対してその変化度合いを全体的に
小さくしたような変化をさせるものである。このような
変化度合いに設定した意図は次の通りである。態様1に
おける図5の領域設定に関しても説明した通り、路面上
の白線や自車の至近距離に浮遊する水しぶきなどは、図
10で言えば最下端領域に存在すると考えられ、また、
上端付近では例えばトンネルの天井や看板などを検知す
る可能性があり、左右端においてはガードレールや植え
込みなどを検知する可能性があるため、これらの領域で
は増幅率の変化度合いが、中央付近の領域に対応する
(b)の増幅率変化度合いに対して全体的に低くなるよ
うにされている。
As for the degree of change of the amplification factor,
The change in the amplification factor in (b) is the same as in the conventional case, and (a)
The change in the amplification factor of (a) is obtained by reducing the degree of change as a whole with respect to the change of the amplification factor of (b). (C)
Is maintained at a low level with little increase from time 0 to a predetermined time t1, and thereafter,
With respect to the change in the amplification factor of (b), a change is made such that the degree of change is reduced as a whole. The intention of setting such a change degree is as follows. As described with reference to the region setting of FIG. 5 in the first embodiment, the white line on the road surface or the water splashing at a short distance from the vehicle is considered to exist in the lowermost region in FIG.
In the vicinity of the upper end, for example, there is a possibility of detecting the ceiling or signboard of the tunnel, and in the left and right ends, there is a possibility of detecting a guardrail or planting. (B) corresponding to the degree of change of the amplification factor.

【0065】このようにすることで、これら路面上の白
線や水しぶき、トンネルの天井や看板、ガードレールや
植え込みなどによる反射光は増幅度合いが小さくなり、
この増幅後の信号強度に基づいて車両と非車両とを区別
して認識し易くなる。また、上述したように、(c)の
増幅率変化は、単に増幅率の変化度合いが(b)の増幅
率変化度合いに対して低くなるだけでなく、時刻0から
所定の時刻t1まではほとんど増加率を上げずに低レベ
ルに維持している。これは、例えば路面上の白線などは
自車から極近距離に存在することとなり、そこからの反
射光を車両からの反射光と適切に区別するための工夫で
ある。つまり、極近距離にあれば反射光を得るまでの時
間も短くなるため、測距開始から短時間に得た反射光に
対しては増幅率を相当小さくしておくのである。一方、
時刻t以降は増幅率をそれなりに上げているのは、次の
理由からである。この最下端の領域は、通常であれば車
両は存在する可能性の小さな領域であるが、例えば自車
のピッチングによって車両前端が相対的に上昇している
場合には、この領域においても車両からの反射光を得る
可能性がある。但し、極近距離に車両が存在する可能性
は小さく、t以上の時間をかけて反射光を得た場合には
ある程度自車から離れた物体からの反射光であるため、
このような範囲においては検出した反射光に対してはそ
れなりの増幅率を確保するようにしたのである。このよ
うに、本態様2の場合には、XY方向の位置だけでな
く、Z方向の位置についても加味した設定となってい
る。
By doing so, the degree of amplification of the reflected light due to white lines and splashes on the road surface, the ceiling and signboards of the tunnel, guardrails and plants, etc. is reduced,
The vehicle and the non-vehicle can be easily distinguished and recognized based on the signal strength after the amplification. Further, as described above, the change in the amplification factor in (c) is not only the degree of change in the amplification factor that is lower than the degree of change in the amplification factor in (b), but also almost completely from time 0 to the predetermined time t1. It keeps the low level without increasing the rate of increase. This is, for example, a white line on the road surface present at a very short distance from the vehicle, and is a device for appropriately distinguishing the reflected light from the vehicle from the reflected light from the vehicle. That is, if the distance is very short, the time required to obtain the reflected light is also shortened. Therefore, the amplification factor is set to be considerably small for the reflected light obtained in a short time after the start of the distance measurement. on the other hand,
The reason why the amplification factor is increased after time t is as follows. The lowermost region is a region where the vehicle is normally unlikely to be present, but, for example, when the front end of the vehicle relatively rises due to the pitching of the own vehicle, the vehicle is also in this region. Reflected light may be obtained. However, the possibility that the vehicle exists at a very short distance is small, and if the reflected light is obtained over a time of t or more, it is reflected light from an object that is distant to some extent from the own vehicle.
In such a range, a certain amplification factor is ensured for the detected reflected light. As described above, in the case of the second embodiment, the setting is made in consideration of not only the position in the XY direction but also the position in the Z direction.

【0066】このように、本態様2においても、態様1
の場合と同じように、レーザレーダセンサ5から認識・
車間制御ECU3へ出力されるデータの時点で、車両と
非車両とが区別可能な状態にされているため、非車両を
誤って前方に存在する車両であると認識することが防止
でき、適切な車間制御や警報制御が実行できる。
As described above, also in the second embodiment, the first embodiment
In the same way as in the case of
Since the vehicle and the non-vehicle are in a distinguishable state at the time of the data output to the inter-vehicle control ECU 3, it is possible to prevent the non-vehicle from being erroneously recognized as a vehicle existing ahead, and Inter-vehicle control and alarm control can be performed.

【0067】[態様3]上述した態様1,2は、レーザ
レーダセンサ5における出力調整や受信感度調整によっ
て測距データ自体を車両と非車両と区別し易い(あるい
は非車両のデータを削除した)状態にした。これは、非
車両と車両とでは反射強度に違いがあるという知見に基
づくものであるが、この知見に基づけば、レーザレーダ
センサ5においては特段の工夫を加えず、その測距デー
タを得た認識・車間制御ECU3において対処してもよ
い。そのような対処の一つとして態様3を説明する。
[Embodiment 3] In Embodiments 1 and 2 described above, the ranging data itself can be easily distinguished from the vehicle and the non-vehicle by adjusting the output and the reception sensitivity of the laser radar sensor 5 (or the data of the non-vehicle is deleted). State. This is based on the finding that there is a difference in the reflection intensity between the non-vehicle and the vehicle, but based on this finding, the laser radar sensor 5 obtained the distance measurement data without any particular contrivance. The recognition / interval control ECU 3 may take measures. Embodiment 3 will be described as one of such measures.

【0068】図11(a)のフローチャートに本態様3
に係る物体認識に係るメイン処理を示す。S210にお
いてレーザレーダセンサ5から読み込んだ測距データに
対して、S220において非車両判定を行う。この非車
両判定処理は、図11(b)のフローチャートに示すよ
うに、非車両判定マップを用いて測距データの対応領域
を判定し(S221)、測距データが非車両の範囲であ
れば(S222:YES)、データ削除を行い(S22
3)、非車両でない(つまり車両である)範囲であれば
(S222:NO)、そのまま本処理を終了するという
内容である。
This embodiment 3 is shown in the flowchart of FIG.
2 shows a main process related to object recognition according to the first embodiment. In S220, non-vehicle determination is performed on the distance measurement data read from the laser radar sensor 5 in S210. In the non-vehicle determination process, as shown in the flowchart of FIG. 11B, a corresponding area of the ranging data is determined using a non-vehicle determination map (S221). (S222: YES), data is deleted (S22).
3) If the range is not a non-vehicle (that is, it is a vehicle) (S222: NO), the processing is terminated as it is.

【0069】S221にて用いている非車両判定マップ
は、図12に示すように、車幅方向、車高方向及び車両
前方方向をそれぞれX軸、Y軸及びZ軸とした場合の反
射物体の存在領域に対応して、車両と非車両を区別する
ための受光強度の範囲が設定された3次元マップであ
る。具体的には、XY方向については、中心付近の領
域、その周囲の領域、最下端領域の3つにわけられてお
り、それら各領域に対応してZ方向位置と受光強度との
対応関係が(a)〜(c)のように設定されている。X
Y方向についての中心付近の領域は(b)の対応関係が
対応し、その周囲の領域は(a)の対応関係が対応し、
最下端領域は(c)の対応関係が対応している。なお、
この(a),(b),(c)が対応するXY方向につい
ての領域は、それぞれ図5に示した80%の出力レベル
領域、100%の出力レベル領域、50%の出力レベル
領域に対応するものである。
As shown in FIG. 12, the non-vehicle determination map used in S221 shows the reflection object when the vehicle width direction, the vehicle height direction, and the vehicle front direction are the X axis, the Y axis, and the Z axis, respectively. FIG. 9 is a three-dimensional map in which a range of received light intensity for discriminating between a vehicle and a non-vehicle is set in accordance with the existence region. Specifically, the X and Y directions are divided into three regions: a region near the center, a region around the center, and a lowermost region, and the correspondence between the position in the Z direction and the received light intensity corresponding to each of these regions. (A) to (c) are set. X
The area near the center in the Y direction corresponds to the correspondence of (b), and the surrounding area corresponds to the correspondence of (a).
The lowermost region corresponds to the correspondence shown in FIG. In addition,
The areas in the XY directions to which (a), (b), and (c) correspond correspond to the 80% output level area, the 100% output level area, and the 50% output level area shown in FIG. 5, respectively. Is what you do.

【0070】続いて、Z方向位置と受光強度との対応関
係について説明する。まず、(b)の対応関係は、所定
のZ方向しきい値Z1までの範囲であって且つ受光強度
が所定範囲内のものが非車両、それ以外が車両と設定さ
れている。XY方向については中心付近の領域であるた
め、Z方向に極近距離でない限り、受光強度に関係なく
車両が存在する可能性が高いと考えられる。一方、Z方
向に極近距離においても車両が存在する可能性はなくは
ないが、その場合には、受光強度がある程度以上に大き
くなるため、全体として(b)に示すような対応関係に
設定することで、車両・非車両の区別が付くと考えられ
る。
Next, the correspondence between the Z direction position and the received light intensity will be described. First, the correspondence in (b) is set as a non-vehicle in a range up to a predetermined Z-direction threshold value Z1 and a light reception intensity within a predetermined range, and as a vehicle in the other range. Since the XY direction is a region near the center, it is considered that there is a high possibility that the vehicle exists regardless of the received light intensity unless the distance is extremely short in the Z direction. On the other hand, it is not unlikely that a vehicle exists even at a very short distance in the Z direction, but in this case, the received light intensity is increased to a certain degree or more, so that the correspondence is set as shown in (b) as a whole. It is considered that the distinction between the vehicle and the non-vehicle can be made.

【0071】次に、(a)の対応関係について説明す
る。この場合、XY方向については上端あるいは左右端
であり、トンネルの天井や看板あるいはガードレールや
植え込みなどを検知する可能性がある。そのため、
(b)の場合はZ方向しきい値Z1より遠くにおいては
実質的に受光強度による判定をしなくても問題ないが、
(a)の場合には、そのような範囲においても非車両で
ある可能性が相対的に高いので、受光強度による実質的
な判定をする。したがって、(b)の場合のZ方向しき
い値Z1に比べてより遠くのZ方向しきい値Z2まで
は、受光強度によるしきい値が設定されている。なお、
近距離の場合に同じ物体であっても相対的に受光強度が
大きくなるため、受光強度のしきい値も相対的に大きく
なっている。
Next, the correspondence (a) will be described. In this case, it is the upper end or the left and right ends in the XY directions, and there is a possibility of detecting a tunnel ceiling, a signboard, a guardrail, an implant, or the like. for that reason,
In the case of (b), there is no problem if the determination based on the received light intensity is not substantially performed at a position farther than the threshold value Z1 in the Z direction.
In the case of (a), the possibility of the vehicle being non-vehicle is relatively high even in such a range. Therefore, up to the Z-direction threshold value Z2, which is farther than the Z-direction threshold value Z1 in the case (b), a threshold value based on the received light intensity is set. In addition,
In the case of a short distance, the received light intensity is relatively high even for the same object, so that the threshold value of the received light intensity is also relatively high.

【0072】次に、(c)の対応関係について説明す
る。この場合、XY方向については最下端であり、路面
上の白線などを検知する可能性がある。逆に車両を検知
する可能性は、他の領域に比べて最も少ないと考えられ
る。そこで、(a)の場合と比較していうならば、受光
強度によるしきい値が大きい範囲が、より遠くまで適用
されている。これは、白線などはそれなりの反射強度を
持つため、それらを適切に非車両であると判定するに受
光強度によるしきい値を上げたことと、元々車両が存在
する可能性が非常に低いため、このようにしきい値を上
げても問題が少ないからである。もちろん、上述したよ
うに、この最下端の領域であっても例えば自車のピッチ
ングによって前方車両からの反射光を得る可能性があ
る。但し、その場合も、受光強度は相対的に高くなるた
め、ここでは、白線などを排除することを主眼にして受
光強度のしきい値を上げることを優先した。
Next, the correspondence (c) will be described. In this case, it is the lowermost end in the XY directions, and there is a possibility that a white line or the like on the road surface is detected. Conversely, the possibility of detecting a vehicle is considered to be the least in comparison with other areas. Therefore, in comparison with the case of (a), the range in which the threshold based on the received light intensity is large is applied farther. This is because the white line has a certain reflection intensity, so the threshold value based on the received light intensity was raised in order to properly judge them as non-vehicles, and the possibility that the vehicle originally existed was very low. This is because there is little problem even if the threshold value is increased in this way. Of course, as described above, even in the lowermost region, there is a possibility that reflected light from the preceding vehicle may be obtained by, for example, pitching of the own vehicle. However, also in this case, the received light intensity becomes relatively high. Therefore, here, priority is given to increasing the threshold value of the received light intensity with a primary focus on eliminating white lines and the like.

【0073】以上が図11(a)のS220の処理説明
であったが、続くS230では、データのセグメント
化、S240では物標化を行う。これらの処理は、態様
1の場合に説明した図6(a)のS120及びS130
の処理内容を同様じなので、ここでは説明は繰り返さな
い。要は、このようなセグメント化や物標化(S23
0,S240)の前に、非車両であると判定された測距
データを削除しておくため(S220)、非車両を誤っ
て前方に存在する車両であると認識することが防止で
き、適切な車間制御や警報制御が実行できるのである。
The processing in S220 in FIG. 11A has been described above. In S230, data segmentation is performed, and in S240, target segmentation is performed. These processes are performed in steps S120 and S130 of FIG.
Is the same as the above, and the description will not be repeated here. The point is that such segmentation and targetization (S23
Before (0, S240), the distance measurement data determined to be a non-vehicle is deleted (S220), so that it is possible to prevent the non-vehicle from being erroneously recognized as a vehicle existing in front of the vehicle. This makes it possible to execute precise headway control and alarm control.

【0074】なお、図11(b)の非車両判定処理で
は、非車両の場合にデータ削除(S223)をしたが、
あえてデータ削除までしない手法も採用できる。つま
り、車両として認識しにくい状態にすればよく、例えば
態様1において説明した図6(b)のS133における
車両形状確率を、非車両である場合には一律に所定%下
げる(例えば−30%)といった対処も考えられる。
In the non-vehicle determination process shown in FIG. 11B, data is deleted (S223) for a non-vehicle.
It is also possible to adopt a method that does not delete data. In other words, it is sufficient to make the vehicle difficult to recognize as a vehicle. For example, if the vehicle is a non-vehicle, the vehicle shape probability in S133 of FIG. Such a measure is also conceivable.

【0075】[態様4]態様4は、態様3と同様に、レ
ーザレーダセンサ5においては特段の工夫を加えず、そ
の測距データを得た認識・車間制御ECU3において対
処する場合の一例である。本態様4は、レーザレーダセ
ンサ5にて検出した反射物体が一時的に検出できなくな
った場合の対処として、検出できなくなった時点から所
定時間は、検出できていた際の状態を保持して存在して
いると仮定した補完物体を作成することを前提とするも
のである。
[Embodiment 4] As in the case of the embodiment 3, the laser radar sensor 5 does not take any special measures and the recognition / inter-vehicle control ECU 3 that obtains the distance measurement data deals with it, as in the case of the embodiment 3. . In the present aspect 4, as a countermeasure when the reflection object detected by the laser radar sensor 5 cannot be detected temporarily, the state at the time when the detection was detected can be maintained for a predetermined time after the detection becomes impossible. It is assumed that a complementary object assumed to be created is created.

【0076】図13(a)のフローチャートに本態様4
に係る物体認識に係るメイン処理を示す。S310にお
いてレーザレーダセンサ5から読み込んだ測距データに
対して、データのセグメント化(S320)及び物標化
(S330)を行う。これらの処理は、態様1の場合に
説明した図6(a)のS110〜S130の処理内容を
同様なので、ここでは説明は繰り返さない。そして、こ
の物標化(S330)の後に、補完(S340)を行
う。
FIG. 13A shows a flowchart of the fourth embodiment.
2 shows a main process related to object recognition according to the first embodiment. In S310, data segmentation (S320) and targetization (S330) are performed on the distance measurement data read from the laser radar sensor 5. Since these processes are the same as the process contents of S110 to S130 in FIG. 6A described in the case of mode 1, the description will not be repeated here. Then, after this targetization (S330), complementation (S340) is performed.

【0077】この補完処理は、図13(b)のフローチ
ャートに示すように、まず、物標が前回の処理において
「車両」として認識されていたか否かを判断する(S3
41)。そして、車両として認識されていない場合には
(S341:NO)、何ら処理することなく本処理を終
了するが、車両として認識されていた場合には(S34
1:YES)、物標が前回処理時の位置から前回処理時
における相対速度で移動したと仮定した場合の推定位置
に現在もその「車両」は認識されているか否かを判断す
る(S342)。現在も車両が認識されているのであれ
ば(S342:YES)、補完の必要がないため、その
まま本処理を終了する。
As shown in the flowchart of FIG. 13B, this complementing process first determines whether or not the target has been recognized as "vehicle" in the previous process (S3).
41). If it is not recognized as a vehicle (S341: NO), the process ends without any processing, but if it is recognized as a vehicle (S34).
1: YES), it is determined whether or not the “vehicle” is still recognized at the estimated position assuming that the target moved from the position at the previous processing at the relative speed at the previous processing (S342). . If the vehicle is still recognized at this time (S342: YES), there is no need for complementation, and thus this process ends.

【0078】一方、現在は車両が認識されていないので
あれば(S342:NO)、前回の測距データを読み込
み(S343)、前回位置が補完許可エリアであれば
(S344:YES)、補完物体を作成し(S34
5)、補完許可エリアでなければ(S344:NO)、
そのまま本処理を終了する。
On the other hand, if the vehicle is not recognized at present (S342: NO), the previous distance measurement data is read (S343). If the previous position is the complement permission area (S344: YES), the supplemental object is read. Is created (S34).
5) If the area is not the complement permission area (S344: NO),
This processing ends as it is.

【0079】ここで、S344の補完許可エリアか否か
は、図14に示す補完許可エリアマップを用いて判定す
る。このマップは、車幅方向、車高方向及び車両前方方
向をそれぞれX軸、Y軸及びZ軸とした場合の反射物体
の存在領域に対応して、車両と非車両を区別するための
受光強度の範囲が設定された3次元マップである。具体
的には、XY方向については、中心付近の領域、その周
囲の領域、最下端領域の3つにわけられており、それら
各領域に対応してZ方向位置と受光強度との対応関係が
(a)〜(c)のように設定されている。XY方向につ
いての中心付近の領域は(b)の対応関係が対応し、そ
の周囲の領域は(a)の対応関係が対応し、最下端領域
は(c)の対応関係が対応している。なお、この
(a),(b),(c)が対応するXY方向についての
領域は、それぞれ図5に示した80%の出力レベル領
域、100%の出力レベル領域、50%の出力レベル領
域に対応するものである。
Here, whether or not the area is the complement permitted area in S344 is determined using the complement permitted area map shown in FIG. This map shows the light receiving intensity for discriminating between a vehicle and a non-vehicle, corresponding to the area where the reflective object exists when the vehicle width direction, the vehicle height direction, and the vehicle front direction are set to the X axis, Y axis, and Z axis, respectively. Is a three-dimensional map in which a range is set. Specifically, the X and Y directions are divided into three regions: a region near the center, a region around the center, and a lowermost region, and the correspondence between the position in the Z direction and the received light intensity corresponding to each of these regions. (A) to (c) are set. The area near the center in the XY directions corresponds to the correspondence shown in FIG. 8B, the surrounding area corresponds to the correspondence shown in FIG. 10A, and the lowermost area corresponds to the correspondence shown in FIG. The regions in the XY directions to which (a), (b), and (c) correspond are the 80% output level region, the 100% output level region, and the 50% output level region shown in FIG. It corresponds to.

【0080】続いて、Z方向位置と補完の許可・非許可
との対応関係について説明する。まず、(b)の対応関
係は、Z=0から所定のZ方向しきい値Z1までの範囲
が補完非許可であり、Z1よりも遠い範囲は補完許可で
ある。同様に、(a)の対応関係は、Z=0から所定の
Z方向しきい値Z2までの範囲が補完非許可であり、Z
2よりも遠い範囲は補完許可、(c)の対応関係は、Z
=0から所定のZ方向しきい値Z3までの範囲が補完非
許可であり、Z3よりも遠い範囲は補完許可である。そ
して、これら3つのZ方向しきい値Z1,Z2,Z3の
大小関係は、Z1<Z2<Z3と設定されている。つま
り、XY方向についての中心付近の領域では、(b)に
示すように、Z方向によほど至近距離でなければ補完を
許可し、(a)→(c)に行くにつれて、補完を許可し
ない範囲を長くしていく。
Next, the correspondence between the Z-direction position and the permission / non-permission of complement will be described. First, in the correspondence relationship of (b), complement is not permitted in a range from Z = 0 to a predetermined Z-direction threshold value Z1, and complement is permitted in a range farther than Z1. Similarly, in the correspondence relationship (a), the range from Z = 0 to a predetermined Z-direction threshold value Z2 is not complemented, and Z
Completion permission is set in a range farther than 2, and the correspondence in (c) is Z
A range from = 0 to a predetermined Z-direction threshold value Z3 is non-supplied, and a range farther than Z3 is permitted. The magnitude relation of these three Z-direction thresholds Z1, Z2, Z3 is set as Z1 <Z2 <Z3. In other words, in the area near the center in the XY directions, as shown in (b), complementation is permitted unless the distance is very close to the Z direction, and complementation is not permitted as going from (a) to (c). To be longer.

【0081】このように、本態様4においては、レーザ
レーダセンサ5にて検出した反射物体が一時的に検出で
きなくなった場合に、車両であった可能性の高い領域に
おいて検出できなくなったのであれば(S344:YE
S)補完物体を作成し(S345)、車両であった可能
性が低く非車両である可能性が高い領域において検出で
きなくなったのであれば(S344:NO)補完物体を
作成しないため、非車両を誤って前方に存在する車両で
あると継続して認識することが防止でき、適切な車間制
御や警報制御が実行できる。
As described above, according to the fourth aspect, if the reflection object detected by the laser radar sensor 5 cannot be detected temporarily, it cannot be detected in an area which is likely to have been a vehicle. BA (S344: YE
S) A supplementary object is created (S345). If detection is not possible in an area where the possibility of being a vehicle is low and the possibility of being a non-vehicle is high (S344: NO), a supplementary object is not created. Can be prevented from being erroneously recognized as a vehicle existing ahead, and appropriate headway control and alarm control can be executed.

【0082】本実施形態においては、レーザレーダセン
サ5がレーダ手段に相当し、認識・車間制御ECU3の
物体認識ブロック43が認識手段に相当する。また、図
4,図9に示す処理がレーダ手段としての処理の実行に
相当し、図6、図11、図13に示す処理が認識手段と
しての処理の実行に相当する。
In the present embodiment, the laser radar sensor 5 corresponds to radar means, and the object recognition block 43 of the recognition / interval control ECU 3 corresponds to recognition means. The processing shown in FIGS. 4 and 9 corresponds to execution of processing as radar means, and the processing shown in FIGS. 6, 11 and 13 corresponds to execution of processing as recognition means.

【0083】なお、本発明はこのような実施形態に何等
限定されるものではなく、本発明の主旨を逸脱しない範
囲において種々なる形態で実施し得る。 (1)上述した各態様(1〜4)においては、それぞれ
LD発光出力調整マップ(図5)、増幅率判定マップ
(図10)、非車両判定マップ(図12)、補完許可エ
リアマップ(図14)を用いて所定の処理を行った。こ
のマップにおけるXY方向の領域に関しては、いずれも
中央付近の領域、その周囲の領域、最下端領域という3
種類の領域設定をした。これらは、その順番で車両が存
在する可能性が高いと想定されることに基づいた設定で
あるが、その領域設定を固定にするのではなく、道路形
状に応じて可変にしてもよい。
The present invention is not limited to such an embodiment, and can be implemented in various forms without departing from the gist of the present invention. (1) In each of the above-described embodiments (1 to 4), the LD emission output adjustment map (FIG. 5), the amplification factor determination map (FIG. 10), the non-vehicle determination map (FIG. 12), and the complement permission area map (FIG. 14) ) Was performed. Regarding the regions in the XY directions in this map, all of them are a region near the center, a region around the center, and a lowermost region.
The type of area was set. These settings are based on the assumption that there is a high possibility that a vehicle will be present in that order. However, instead of fixing the area setting, the area setting may be changed according to the road shape.

【0084】例えば図15(b)に示すように、前方の
道路が左カーブしている場合には、通常の状態でもカー
ブの内側に車両が存在し得るため、図15(a)に示す
ようなカーブしていない場合に比べて、図15(b)に
示すように、マップ内の各領域をカーブ内側方向へ全体
的に移動させることが好ましい。もちろん、右カーブで
あれば右側に移動させればよい。これによって、例えば
態様1であれば、カーブ内側方向領域への出力を相対的
に大きくし、逆にカーブ外側方向への出力を相対的に小
さくすることができる。他の態様においても同様に、実
状にあった対処が可能となる。
For example, as shown in FIG. 15 (b), when the road ahead is curved to the left, vehicles can be present inside the curve even in a normal state. As shown in FIG. 15B, it is preferable to move each region in the map as a whole toward the inside of the curve, as compared to the case where no curve is formed. Of course, if it is a right curve, it may be moved to the right. Thus, for example, in the case of the first aspect, the output to the area inside the curve can be relatively increased, and the output to the outside of the curve can be relatively reduced. Similarly, in other aspects, it is possible to cope with the actual situation.

【0085】また、例えば図16(b)に示すように、
前方の道路が上り坂になっている場合には、通常の状態
でも上方向に車両が存在するため、図16(a)に示す
ような上り坂になっていない場合に比べて、図16
(b)に示すように、マップ内の各領域を上側へ全体的
に移動させることが好ましい。もちろん、下り坂であれ
ば下側に移動させればよい。
Further, for example, as shown in FIG.
When the road ahead is uphill, the vehicle is present in an upward direction even in a normal state, and therefore, compared to the case where the vehicle is not uphill as shown in FIG.
As shown in (b), it is preferable to move each region in the map upward as a whole. Of course, if the vehicle is going downhill, it may be moved downward.

【0086】このように道路形状に基づいて車両の存在
する可能性がある領域を把握することで、より適切な前
方車両の認識が実現できる。なお、道路形状を認識する
ための手段としては、例えば自車両の旋回状態に基づい
て道路形状を認識するものが考えられ、図1に示したカ
ーブ半径算出ブロック57にて算出したカーブ半径に基
づいて推定認識することができる。また、例えば路側に
複数存在するデリニエータを検知することで道路形状を
認識してもよい。さらには、車両がナビゲーションシス
テムを搭載しており、そのシステムが道路形状を判定可
能な情報を含む地図情報を記憶しる場合には、そのシス
テムから現在位置の前方に存在する道路の形状を得ても
よい。
As described above, by grasping the area where the vehicle may be present based on the road shape, more appropriate recognition of the preceding vehicle can be realized. As means for recognizing the road shape, for example, a means for recognizing the road shape based on the turning state of the own vehicle is considered, and based on the curve radius calculated by the curve radius calculation block 57 shown in FIG. Can be estimated and recognized. Further, the road shape may be recognized by detecting a plurality of delineators on the road side, for example. Further, when the vehicle is equipped with a navigation system and the system stores map information including information that can determine the road shape, the system obtains the shape of the road existing ahead of the current position from the system. You may.

【0087】(2)上記実施形態では、レーザ光の2次
元スキャンを行うために面倒れ角が異なるポリゴンミラ
ー73を用いたが、例えば車幅方向にスキャン可能なガ
ルバノミラーを用い、そのミラー面の倒れ角を変更可能
な機構を用いても同様に実現できる。但し、ポリゴンミ
ラー73の場合には、回転駆動だけで2次元スキャンが
実現できるという利点がある。
(2) In the above embodiment, the polygon mirror 73 having a different tilt angle is used for two-dimensional scanning of the laser beam. However, for example, a galvanometer mirror that can scan in the vehicle width direction is used, and the mirror surface is used. The same can be realized by using a mechanism capable of changing the tilt angle of the camera. However, in the case of the polygon mirror 73, there is an advantage that a two-dimensional scan can be realized only by rotational driving.

【0088】(3)上記実施形態では、レーザレーダセ
ンサ5内部において、距離及び対応するスキャン角度θ
x,θyを極座標系からXYZ直交座標系に変換してい
たが、その処理を物体認識ブロック43において行って
も良い。 (4)上記実施形態では「レーダ手段」としてレーザ光
を用いたレーザレーダセンサ5を採用したが、ミリ波等
の電波や超音波等を用いるものであってもよい。また、
スキャン方式にこだわる必要はなく、距離以外に方位を
測定できる方式であればよい。そして、例えばミリ波で
FMCWレーダ又はドップラーレーダなどを用いた場合
には、反射波(受信波)から先行車までの距離情報と先
行車の相対速度情報が一度に得られるため、レーザ光を
用いた場合のように、距離情報に基づいて相対速度を算
出するという過程は不要となる。
(3) In the above embodiment, the distance and the corresponding scan angle θ inside the laser radar sensor 5
Although x and θy are converted from the polar coordinate system to the XYZ orthogonal coordinate system, the processing may be performed in the object recognition block 43. (4) In the above embodiment, the laser radar sensor 5 using a laser beam is used as the "radar means", but a radio wave such as a millimeter wave or an ultrasonic wave may be used. Also,
It is not necessary to stick to the scanning method, and any method that can measure the azimuth other than the distance may be used. For example, when an FMCW radar or a Doppler radar is used for millimeter waves, the distance information from the reflected wave (received wave) to the preceding vehicle and the relative speed information of the preceding vehicle can be obtained at one time. It is not necessary to perform the process of calculating the relative speed based on the distance information, as in the case where there is an error.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明が適用された車両制御装置の構成を示す
ブロック図である。
FIG. 1 is a block diagram showing a configuration of a vehicle control device to which the present invention is applied.

【図2】 レーザレーダセンサに関する説明図である。FIG. 2 is an explanatory diagram relating to a laser radar sensor.

【図3】 (a)はレーザレーダセンサの走査パターン
を示す概略斜視図であり、(b)は物体Wを直方体とし
て認識する際の説明図であり、(c)は測距動作に関す
るタイムチャートである。
3A is a schematic perspective view showing a scanning pattern of a laser radar sensor, FIG. 3B is an explanatory diagram when an object W is recognized as a rectangular parallelepiped, and FIG. 3C is a time chart relating to a distance measuring operation. It is.

【図4】 態様1の場合のレーザレーダセンサにて実行
される処理を示すフローチャートである。
FIG. 4 is a flowchart illustrating a process executed by the laser radar sensor according to the first embodiment.

【図5】 LD発光出力調整マップの説明図である。FIG. 5 is an explanatory diagram of an LD emission output adjustment map.

【図6】(a)は物体認識に係る処理を示すフローチャ
ートであり、(b)は(a)の処理中で実行される物標
化処理を示すフローチャートである。
FIG. 6A is a flowchart illustrating a process relating to object recognition, and FIG. 6B is a flowchart illustrating a target conversion process executed during the process of FIG.

【図7】(a)は各物標位置を直線路走行時の位置に変
換する際の説明図であり、(b)は自車線確率を求める
ためのパラメータαのマップの説明図である。
FIG. 7A is an explanatory diagram when converting each target position to a position on a straight road, and FIG. 7B is an explanatory diagram of a map of a parameter α for obtaining the own lane probability.

【図8】 自車線確率マップの説明図である。FIG. 8 is an explanatory diagram of an own lane probability map.

【図9】 態様2の場合のレーザレーダセンサにて実行
される処理を示すフローチャートである。
FIG. 9 is a flowchart showing a process executed by the laser radar sensor in the case of mode 2;

【図10】 増幅率判定マップの説明図である。FIG. 10 is an explanatory diagram of an amplification factor determination map.

【図11】 (a)は態様3の場合の物体認識に係る処理
を示すフローチャートであり、(b)は(a)の処理中
で実行される非車両判定処理を示すフローチャートであ
る。
11A is a flowchart illustrating a process related to object recognition in the case of aspect 3, and FIG. 11B is a flowchart illustrating a non-vehicle determination process performed during the process of FIG.

【図12】 非車両判定マップの説明図である。FIG. 12 is an explanatory diagram of a non-vehicle determination map.

【図13】 (a)は態様4の場合の物体認識に係る処理
を示すフローチャートであり、(b)は(a)の処理中
で実行される補完処理を示すフローチャートである。
13A is a flowchart illustrating a process related to object recognition in the case of aspect 4, and FIG. 13B is a flowchart illustrating a supplementary process performed during the process of FIG.

【図14】 補完許可エリアマップの説明図である。FIG. 14 is an explanatory diagram of a supplementary permission area map.

【図15】 道路形状に応じて車両が存在する可能性の高
低に対応する領域を変更する際の説明図である。
FIG. 15 is an explanatory diagram when a region corresponding to the level of possibility that a vehicle is present is changed according to the road shape.

【図16】 道路形状に応じて車両が存在する可能性の高
低に対応する領域を変更する際の説明図である。
FIG. 16 is an explanatory diagram when a region corresponding to the level of the possibility that a vehicle is present is changed according to the road shape.

【符号の説明】[Explanation of symbols]

1…車両制御装置、3…認識・車間制御ECU、5…レ
ーザレーダセンサ、7…車速センサ、9…ブレーキスイ
ッチ、11…スロットル開度センサ、13…警報音発生
器、15…距離表示器、17…センサ異常表示器、19
…ブレーキ駆動器、21…スロットル駆動器、23…自
動変速機制御器、24…警報音量設定器、25…警報感
度設定器、26…クルーズコントロールスイッチ、27
…ステアリングセンサ、28…ヨーレートセンサ、29
…電源スイッチ、30…ワイパスイッチ、43…物体認
識ブロック、44…センサ異常検出ブロック、47…車
速演算ブロック、49…操舵角演算ブロック、51…ヨ
ーレート演算ブロック、53…先行車判定ブロック、5
5…車間制御部及び警報判定部ブロック、57…カーブ
半径算出ブロック、70…レーザレーダCPU、71…
発光レンズ、72…スキャナ、73…ミラー、74…モ
ータ駆動回路、75…半導体レーザダイオード、76…
レーザダイオード駆動回路、77…ガラス板、81…受
光レンズ、83…受光素子、85…アンプ、87…コン
パレータ、89…時間計測回路
DESCRIPTION OF SYMBOLS 1 ... Vehicle control apparatus, 3 ... Recognition and headway control ECU, 5 ... Laser radar sensor, 7 ... Vehicle speed sensor, 9 ... Brake switch, 11 ... Throttle opening degree sensor, 13 ... Warning sound generator, 15 ... Distance display, 17 ... Sensor abnormality display, 19
... Brake driver, 21 ... Throttle driver, 23 ... Automatic transmission controller, 24 ... Alarm volume setting device, 25 ... Alarm sensitivity setting device, 26 ... Cruise control switch, 27
... Steering sensor, 28 ... Yaw rate sensor, 29
... power switch, 30 ... wiper switch, 43 ... object recognition block, 44 ... sensor abnormality detection block, 47 ... vehicle speed calculation block, 49 ... steering angle calculation block, 51 ... yaw rate calculation block, 53 ... preceding vehicle determination block, 5
5: inter-vehicle control unit and alarm determination unit block, 57: curve radius calculation block, 70: laser radar CPU, 71 ...
Emitting lens, 72 scanner, 73 mirror, 74 motor drive circuit, 75 semiconductor laser diode, 76
Laser diode driving circuit, 77: glass plate, 81: light receiving lens, 83: light receiving element, 85: amplifier, 87: comparator, 89: time measuring circuit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 628 G01S 13/93 Z G01S 13/93 G08G 1/16 C G08G 1/16 E G01S 17/88 A (72)発明者 大方 浩司 愛知県刈谷市昭和町1丁目1番地 株式会 社デンソー内 (72)発明者 野澤 豊史 愛知県刈谷市昭和町1丁目1番地 株式会 社デンソー内 (72)発明者 白井 孝昌 愛知県刈谷市昭和町1丁目1番地 株式会 社デンソー内 Fターム(参考) 5H180 AA01 CC03 CC11 CC12 CC14 CC15 LL01 LL04 LL07 LL09 5J070 AC02 AC11 AE01 AF03 AH14 AH19 AH39 AK13 BF02 BF10 BF19 5J084 AA05 AA10 AA14 AB01 AC02 AD01 BA04 BA36 BA50 BB01 BB26 CA23 CA26 CA31 CA32 EA22 EA29 FA03 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) B60R 21/00 628 G01S 13/93 Z G01S 13/93 G08G 1/16 C G08G 1/16 E G01S 17 / 88 A (72) Inventor Koji Ogata 1-1-1, Showa-cho, Kariya-shi, Aichi Prefecture Inside Denso Corporation (72) Inventor Toyofumi Nozawa 1-1-1, Showa-cho, Kariya City, Aichi Prefecture Inside Denso Corporation (72) Invention Person Takamasa Shirai 1-1-1 Showa-cho, Kariya-shi, Aichi F-term in Denso Co., Ltd. (Reference) 5H180 AA01 CC03 CC11 CC12 CC14 CC15 LL01 LL04 LL07 LL09 5J070 AC02 AC11 AE01 AF03 AH14 AH19 AH39 AK13 BF10 A14 A05 5A05 AB01 AC02 AD01 BA04 BA36 BA50 BB01 BB26 CA23 CA26 CA31 CA32 EA22 EA29 FA03

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】車幅方向及び高さ方向それぞれの所定角度
範囲内に渡り送信波を照射し、その反射波に基づいて車
両前方の物体を認識する物体認識方法であって、 前記送信波を照射する前記2方向の所定角度範囲内にお
いて、認識対象とすべき物体が存在する可能性が低い領
域に前記送信波を照射する場合には、認識対象とすべき
物体が存在する可能性が高い領域に照射する場合に比較
して、前記送信波の出力が相対的に小さくなるように、
且つその可能性の低さに応じて調整することを特徴とす
る物体認識方法。
1. An object recognition method for irradiating a transmission wave within a predetermined angle range in each of a vehicle width direction and a height direction and recognizing an object ahead of a vehicle based on a reflected wave thereof, When irradiating the transmission wave in a region where the object to be recognized is unlikely to exist within the predetermined angle range in the two directions to be irradiated, there is a high possibility that the object to be recognized exists. As compared to the case of irradiating the area, so that the output of the transmission wave is relatively small,
An object recognizing method characterized by performing adjustment according to the low possibility.
【請求項2】車幅方向及び高さ方向それぞれの所定角度
範囲内に渡り送信波を照射し、その反射波に基づいて車
両前方の物体を認識する物体認識方法であって、 認識対象とすべき物体が存在する可能性が低い領域から
前記反射波が返ってきた場合には、認識対象とすべき物
体が存在する可能性が高い領域から返ってきた場合に比
較して、前記反射波の受信感度が相対的に小さくなるよ
うに、且つその可能性の低さに応じて調整することを特
徴とする物体認識方法。
2. An object recognition method for irradiating a transmission wave over a predetermined angle range in each of a vehicle width direction and a height direction, and recognizing an object ahead of the vehicle based on the reflected wave, wherein the object is a recognition target. When the reflected wave is returned from the region where the probability that the object to be present is low is lower than the case where the reflected wave is returned from the region where the object to be recognized is more likely to be present, the reflected wave of the reflected wave is returned. An object recognizing method characterized in that the receiving sensitivity is adjusted so as to be relatively small and the possibility is low.
【請求項3】車幅方向及び高さ方向それぞれの所定角度
範囲内に渡り送信波を照射し、その反射波に基づいて車
両前方の物体を認識する物体認識方法であって、 認識対象とすべき物体が存在する可能性の高低を前記反
射波が返ってきた領域に対して設定しておくと共に、各
領域において認識対象とすべき物体からの反射波であれ
ば取り得る受信信号強度を設定しておき、 前記反射波が返ってきた領域及び前記反射波の受信信号
強度に基づいて、前記認識対象物体であるか否かを判定
することを特徴とする物体認識方法。
3. A method for recognizing an object ahead of a vehicle based on reflected waves by irradiating a transmission wave over a predetermined angle range in each of a vehicle width direction and a height direction. The level of the possibility that an object to be present exists is set for the region where the reflected wave is returned, and the received signal strength that can be taken if the reflected wave from the object to be recognized in each region is set. In addition, an object recognition method is characterized in that it is determined whether or not the object is the recognition target object based on a region in which the reflected wave has returned and a received signal strength of the reflected wave.
【請求項4】車幅方向及び高さ方向それぞれの所定角度
範囲内に渡り送信波を照射し、その反射波に基づいて車
両前方の物体を認識すると共に、認識した物体が認識対
象としている所定の物体である確率も判定する物体認識
方法であって、 認識対象とすべき物体が存在する可能性の高低を前記反
射波が返ってきた領域に対して設定しておくと共に、各
領域において認識対象とすべき物体からの反射波であれ
ば取り得る受信信号強度を設定しておき、 前記反射波が返ってきた領域及び前記反射波の受信信号
強度に基づいて、前記認識対象物体である確率を判定す
ることを特徴とする物体認識方法。
4. A transmission wave is radiated within a predetermined angle range in each of a vehicle width direction and a height direction, an object in front of the vehicle is recognized based on the reflected wave, and the recognized object is a recognition target. An object recognition method that also determines the probability that an object to be recognized is present in a region where the reflected wave is returned, and also performs recognition in each region. The received signal strength that can be taken if it is a reflected wave from the object to be targeted is set, and the probability of being the recognition target object is determined based on the area where the reflected wave is returned and the received signal strength of the reflected wave. An object recognition method characterized by determining
【請求項5】車幅方向及び高さ方向それぞれの所定角度
範囲内に渡り送信波を照射し、その反射波に基づいて車
両前方の物体を認識する物体認識方法であって、 前記反射物体が一時的に検出できなくなった場合の対処
として、検出できなくなった時点から所定時間は、検出
できていた際の状態を保持して存在していると仮定した
補完物体を作成するが、前記反射波に基づいて得られる
反射物体の存在領域が認識対象としている所定の車両で
は存在する可能性があり得にくい領域の場合、前記補完
物体を作成しないことを特徴とする物体認識方法。
5. An object recognition method for irradiating a transmission wave over a predetermined angle range in each of a vehicle width direction and a height direction, and recognizing an object ahead of the vehicle based on the reflected wave, wherein the reflection object is As a countermeasure for the case where detection is temporarily stopped, a complementary object is created for a predetermined time from the time when detection is stopped, assuming that the object exists while maintaining the state at the time when detection was possible. An object recognition method, wherein the complementary object is not created in a case where the existence area of the reflection object obtained based on the object is an area that is unlikely to exist in a predetermined vehicle to be recognized.
【請求項6】車幅方向及び高さ方向それぞれの所定角度
範囲内に渡り送信波を照射し、その反射波に基づいて反
射物体までの距離と前記車幅方向及び高さ方向の2方向
の角度とを検出するレーダ手段と、 該レーダ手段による検出結果である距離及び前記2方向
の角度に基づき、自車前方の物体を認識する認識手段と
を備えた物体認識装置であって、 前記レーダ手段は、 前記送信波を照射する前記2方向の所定角度範囲内にお
いて、認識対象とすべき物体が存在する可能性が低い領
域では、認識対象とすべき物体が存在する可能性が高い
領域に比較して前記送信波の出力が相対的に小さくなる
ように、その可能性の低さに応じて調整することを特徴
とする物体認識装置。
6. A transmission wave is radiated within a predetermined angle range in each of a vehicle width direction and a height direction, and a distance to a reflection object and two directions of the vehicle width direction and the height direction are determined based on the reflected waves. An object recognition device comprising: radar means for detecting an angle; and recognition means for recognizing an object ahead of the vehicle based on a distance detected by the radar means and the angle in the two directions. The means, within a predetermined angle range of the two directions for irradiating the transmission wave, in a region where the possibility that the object to be recognized is present is low, and in a region where the possibility that the object to be recognized is present is high. An object recognizing device, wherein the output is adjusted in accordance with the possibility that the output of the transmission wave is relatively small as compared with the output.
【請求項7】車幅方向及び高さ方向それぞれの所定角度
範囲内に渡り送信波を照射し、その反射波に基づいて反
射物体までの距離と前記車幅方向及び高さ方向の2方向
の角度とを検出するレーダ手段と、 該レーダ手段による検出結果である距離及び前記2方向
の角度に基づき、自車前方の物体を認識する認識手段と
を備えた物体認識装置であって、 前記レーダ手段は、 認識対象とすべき物体が存在する可能性が低い領域から
前記反射波が返ってきた場合には、認識対象とすべき物
体が存在する可能性が高い領域から返ってきた場合に比
較して、前記反射波の受信感度が相対的に小さくなるよ
うに、且つその可能性の低さに応じて調整することを特
徴とする物体認識装置。
7. A transmission wave is irradiated within a predetermined angle range in each of a vehicle width direction and a height direction, and a distance to a reflection object and two directions of the vehicle width direction and the height direction are determined based on the reflected wave. An object recognition device comprising: radar means for detecting an angle; and recognition means for recognizing an object ahead of the vehicle based on a distance detected by the radar means and the angle in the two directions. The means may be configured such that when the reflected wave returns from an area where the object to be recognized is not likely to be present, the reflected wave is compared with a case where the reflected wave is returned from an area where the object to be recognized is likely to be present. The object recognition device is characterized in that the reception sensitivity of the reflected wave is adjusted to be relatively small and the reception sensitivity is adjusted according to the possibility of the reception being low.
【請求項8】請求項7記載の物体認識装置において、 前記受信感度の調整は、前記反射波による受信信号の増
幅度合いを調整して実現することを特徴とする物体認識
装置。
8. The object recognition apparatus according to claim 7, wherein the adjustment of the reception sensitivity is realized by adjusting a degree of amplification of a reception signal by the reflected wave.
【請求項9】車幅方向及び高さ方向それぞれの所定角度
範囲内に渡り送信波を照射し、その反射波に基づいて反
射物体までの距離と前記車幅方向及び高さ方向の2方向
の角度とを検出するレーダ手段と、 該レーダ手段による検出結果である距離及び前記2方向
の角度に基づき、自車前方の物体を認識する認識手段と
を備えた物体認識装置であって、 前記認識手段は、 認識対象とすべき物体が存在する可能性の高低を前記反
射波が返ってきた領域に対して設定しておくと共に、各
領域において認識対象とすべき物体からの反射波であれ
ば取り得る受信信号強度を設定しておき、 前記レーダ手段による検出結果としての前記反射波が返
ってきた領域及び前記反射波の受信信号強度に基づい
て、前記認識対象物体であるか否かを判定することを特
徴とする物体認識装置。
9. A transmission wave is irradiated within a predetermined angle range in each of a vehicle width direction and a height direction, and a distance to a reflection object and two directions of the vehicle width direction and the height direction are determined based on the reflected wave. An object recognition device comprising: radar means for detecting an angle; and recognition means for recognizing an object ahead of the vehicle based on a distance detected by the radar means and the angle in the two directions. The means sets the level of the possibility that the object to be recognized exists, with respect to the area where the reflected wave has returned, and if the reflected wave is from the object to be recognized in each area. A possible received signal strength is set, and it is determined whether or not the object is the recognition target object based on a region where the reflected wave is returned as a detection result by the radar means and a received signal strength of the reflected wave. Specially An object recognition device to be a feature.
【請求項10】車幅方向及び高さ方向それぞれの所定角
度範囲内に渡り送信波を照射し、その反射波に基づいて
反射物体までの距離と前記車幅方向及び高さ方向の2方
向の角度とを検出するレーダ手段と、 該レーダ手段による検出結果である距離及び前記2方向
の角度に基づき、自車前方の物体を認識すると共に、車
両である確率も判定する認識手段とを備えた物体認識装
置であって、前記認識手段は、 認識対象とすべき物体が存在する可能性の高低を前記反
射波が返ってきた領域に対して設定しておくと共に、各
領域において認識対象とすべき物体からの反射波であれ
ば取り得る受信信号強度を設定しておき、 前記レーダ手段による検出結果としての前記反射波が返
ってきた領域及び前記反射波の受信信号強度に基づい
て、前記認識対象物体である確率を判定することを特徴
とする物体認識装置。
10. A transmission wave is radiated over a predetermined angle range in each of a vehicle width direction and a height direction, and a distance to a reflection object and two directions of the vehicle width direction and the height direction are determined based on the reflected wave. Radar means for detecting an angle, and recognition means for recognizing an object ahead of the host vehicle and also determining a probability of being a vehicle based on the distance detected in the radar means and the angle in the two directions. In the object recognition device, the recognition unit sets the level of possibility that an object to be recognized exists, for the area where the reflected wave is returned, and sets the level as the recognition target in each area. The received signal strength that can be taken in the case of a reflected wave from the object should be set, and the recognition is performed based on the area where the reflected wave is returned as a detection result by the radar unit and the received signal strength of the reflected wave. Target Object recognition apparatus characterized by determining a probability of the body.
【請求項11】車幅方向及び高さ方向それぞれの所定角
度範囲内に渡り送信波を照射し、その反射波に基づいて
反射物体までの距離と前記車幅方向及び高さ方向の2方
向の角度とを検出するレーダ手段と、 該レーダ手段による検出結果である距離及び前記2方向
の角度に基づき、自車前方の物体を認識する認識手段と
を備えた物体認識装置であって、 前記認識手段は、 前記レーダ手段にて検出した反射物体が一時的に検出で
きなくなった場合の対処として、検出できなくなった時
点から所定時間は、検出できていた際の状態を保持して
存在していると仮定した補完物体を作成するが、前記反
射波に基づいて得られる反射物体の存在領域が認識対象
とすべき物体では存在する可能性が低い領域の場合、前
記補完物体を作成しないことを特徴とする物体認識装
置。
11. A transmission wave is radiated within a predetermined angle range in each of a vehicle width direction and a height direction, and a distance to a reflection object and two directions of the vehicle width direction and the height direction are determined based on the reflected wave. An object recognition device comprising: radar means for detecting an angle; and recognition means for recognizing an object in front of the vehicle based on a distance detected by the radar means and the angle in the two directions. The means exists as a countermeasure for the case where the reflection object detected by the radar means cannot be detected temporarily, for a predetermined time from the time when the reflection object cannot be detected, and retains the state at the time when the detection was possible. It is assumed that a complementary object is created, but the existence of the reflection object obtained based on the reflected wave is a region that is unlikely to be present in the object to be recognized, and the complementary object is not created. When That object recognition device.
【請求項12】請求項7〜11のいずれか記載の物体認
識装置において、 前記領域は、前記検出結果である距離及び前記2方向の
角度から定まる3次元の領域であることを特徴とする物
体認識装置。
12. The object recognition device according to claim 7, wherein the area is a three-dimensional area determined from the distance as the detection result and the angle in the two directions. Recognition device.
【請求項13】請求項6〜12のいずれか記載の物体認
識装置において、 さらに、自車前方の道路形状を認識する道路形状認識手
段を備え、 前記認識対象とすべき物体が存在する可能性の高低を区
別する領域が、それぞれ前記道路形状認識手段にて認識
された車両前方の道路形状に応じて設定されていること
を特徴とする物体認識装置。
13. The object recognizing device according to claim 6, further comprising a road shape recognizing means for recognizing a road shape in front of the own vehicle, wherein the object to be recognized may be present. An object recognition device characterized in that regions for distinguishing the height of the vehicle are set in accordance with the road shape ahead of the vehicle recognized by the road shape recognition means.
【請求項14】請求項13記載の物体認識装置におい
て、 前記道路形状認識手段は、 自車両の旋回状態に基づいて前記道路形状を認識するこ
とを特徴とする物体認識装置。
14. An object recognition apparatus according to claim 13, wherein said road shape recognition means recognizes the road shape based on a turning state of the own vehicle.
【請求項15】請求項13記載の物体認識装置におい
て、 前記道路形状認識手段は、 道路形状を認識するのに有効な物体に対する前記レーダ
手段による検出結果に基づいて前記道路形状を認識する
ことを特徴とする物体認識装置。
15. The object recognizing device according to claim 13, wherein the road shape recognizing means recognizes the road shape based on a detection result of the radar means for an object effective for recognizing the road shape. An object recognition device that features.
【請求項16】請求項13記載の物体認識装置におい
て、 前記道路形状認識手段は、 道路形状を判定可能な情報を含む地図情報を記憶してい
ると共に、現在地を検出可能であり、その検出した現在
地に対応する地図情報に基づいて前記道路形状を認識す
ることを特徴とする物体認識装置。
16. The object recognizing device according to claim 13, wherein the road shape recognizing means stores map information including information from which a road shape can be determined, and is capable of detecting a current position. An object recognition device for recognizing the road shape based on map information corresponding to a current location.
【請求項17】請求項6〜16のいずれか記載の物体認
識装置の認識手段としてコンピュータシステムを機能さ
せるためのプログラムを記録したコンピュータ読み取り
可能な記録媒体。
17. A computer-readable recording medium in which a program for causing a computer system to function as a recognition unit of the object recognition device according to claim 6 is recorded.
JP2000229234A 2000-07-28 2000-07-28 Object recognition method and apparatus, recording medium Expired - Fee Related JP3405327B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000229234A JP3405327B2 (en) 2000-07-28 2000-07-28 Object recognition method and apparatus, recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000229234A JP3405327B2 (en) 2000-07-28 2000-07-28 Object recognition method and apparatus, recording medium

Publications (2)

Publication Number Publication Date
JP2002040139A true JP2002040139A (en) 2002-02-06
JP3405327B2 JP3405327B2 (en) 2003-05-12

Family

ID=18722392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000229234A Expired - Fee Related JP3405327B2 (en) 2000-07-28 2000-07-28 Object recognition method and apparatus, recording medium

Country Status (1)

Country Link
JP (1) JP3405327B2 (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004138479A (en) * 2002-10-17 2004-05-13 Honda Motor Co Ltd Object detecting apparatus of vehicle
JP2004184331A (en) * 2002-12-05 2004-07-02 Denso Corp Object recognition apparatus for motor vehicle
JP2004198323A (en) * 2002-12-19 2004-07-15 Denso Corp Object recognition device for vehicle
JP2004206267A (en) * 2002-12-24 2004-07-22 Fujitsu Ten Ltd Target detection device and target detection method
JP2005030935A (en) * 2003-07-07 2005-02-03 Honda Motor Co Ltd Object detector for vehicle
US6882303B2 (en) 2002-12-19 2005-04-19 Denso Corporation Obstacle detection system for automotive vehicle
JP2005107693A (en) * 2003-09-29 2005-04-21 Denso Corp Device and program for detecting travel position of one's own vehicle
US6927699B2 (en) 2002-12-05 2005-08-09 Denso Corporation Object recognition apparatus for vehicle, and inter-vehicle distance control unit
US6999024B2 (en) 2002-12-10 2006-02-14 Denso Corporation Method and apparatus for discriminating a target objective, and related program
US7136753B2 (en) 2002-12-05 2006-11-14 Denso Corporation Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
US7158217B2 (en) 2002-11-28 2007-01-02 Denso Corporation Vehicle radar device
US7158075B2 (en) 2004-04-07 2007-01-02 Denso Corporation Vehicle radar apparatus
JP2008040819A (en) * 2006-08-07 2008-02-21 Toyota Motor Corp Obstacle recognition device
JP2008046117A (en) * 2006-08-14 2008-02-28 Ulis Infrared radiation detector and driving or steering assistance device equipped with such a device
US7463185B2 (en) 2005-06-15 2008-12-09 Murata Manufacturing Co., Ltd. Radar apparatus having wide-angle detection
JP2009187351A (en) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd Obstacle detecting device and obstacle detecting method
US7602477B2 (en) 2004-03-10 2009-10-13 Denso Corporation Radar device
JP2012002637A (en) * 2010-06-16 2012-01-05 Toyota Central R&D Labs Inc Radar apparatus
JP2012225732A (en) * 2011-04-19 2012-11-15 Mazda Motor Corp Obstacle detection device for vehicle
JP2013096915A (en) * 2011-11-02 2013-05-20 Toyota Motor Corp Pedestrian detection device for vehicle and pedestrian protection system for vehicle
JP2013113684A (en) * 2011-11-28 2013-06-10 Fujitsu Ltd Distance measuring apparatus
DE102005054674B4 (en) * 2004-11-16 2015-02-12 Denso Corporation Object recognition device for a motor vehicle
KR20150019926A (en) * 2013-08-16 2015-02-25 엘지전자 주식회사 Distance detecting apparatus capable of deriving distance information having changed space resolution
WO2016189811A1 (en) * 2015-05-22 2016-12-01 パナソニックIpマネジメント株式会社 Road information sensing device and road information sensing method
US9792510B2 (en) 2011-03-28 2017-10-17 Toyota Jidosha Kabushiki Kaisha Object recognition device
CN108205133A (en) * 2016-12-20 2018-06-26 罗伯特·博世有限公司 The method and apparatus for deleting at least one landmark locations of the terrestrial reference in radarmap
WO2020018908A1 (en) 2018-07-19 2020-01-23 Luminar Technologies, Inc. Adjustable pulse characteristics for ground detection in lidar systems
JP2021001787A (en) * 2019-06-21 2021-01-07 三菱電機株式会社 Laser distance measuring apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH052071A (en) * 1990-02-20 1993-01-08 General Motors Corp <Gm> Method and device for adjusting car sensor
JPH06150195A (en) * 1992-11-02 1994-05-31 Toyota Central Res & Dev Lab Inc Object detector
JPH07257301A (en) * 1994-03-24 1995-10-09 Mitsubishi Electric Corp Obstruction alarm system
JPH07270535A (en) * 1994-03-31 1995-10-20 Omron Corp Photoelectric sensor, laser equipment for measuring distance and vehicle mounting laser equipment for measuring distance
JPH08201520A (en) * 1995-01-24 1996-08-09 Alps Electric Co Ltd Distance measuring instrument
JPH08249598A (en) * 1995-03-14 1996-09-27 Mitsubishi Electric Corp Vehicle front monitoring device
JPH08304535A (en) * 1995-05-12 1996-11-22 Mitsubishi Electric Corp Device and method for measuring distance between vehicles
JP2000180537A (en) * 1998-12-15 2000-06-30 Fujitsu Ten Ltd Method for identifying target to be controlled of scan- type radar

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH052071A (en) * 1990-02-20 1993-01-08 General Motors Corp <Gm> Method and device for adjusting car sensor
JPH06150195A (en) * 1992-11-02 1994-05-31 Toyota Central Res & Dev Lab Inc Object detector
JPH07257301A (en) * 1994-03-24 1995-10-09 Mitsubishi Electric Corp Obstruction alarm system
JPH07270535A (en) * 1994-03-31 1995-10-20 Omron Corp Photoelectric sensor, laser equipment for measuring distance and vehicle mounting laser equipment for measuring distance
JPH08201520A (en) * 1995-01-24 1996-08-09 Alps Electric Co Ltd Distance measuring instrument
JPH08249598A (en) * 1995-03-14 1996-09-27 Mitsubishi Electric Corp Vehicle front monitoring device
JPH08304535A (en) * 1995-05-12 1996-11-22 Mitsubishi Electric Corp Device and method for measuring distance between vehicles
JP2000180537A (en) * 1998-12-15 2000-06-30 Fujitsu Ten Ltd Method for identifying target to be controlled of scan- type radar

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004138479A (en) * 2002-10-17 2004-05-13 Honda Motor Co Ltd Object detecting apparatus of vehicle
US7158217B2 (en) 2002-11-28 2007-01-02 Denso Corporation Vehicle radar device
US7136753B2 (en) 2002-12-05 2006-11-14 Denso Corporation Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
DE10356797B4 (en) * 2002-12-05 2017-02-09 Denso Corporation Object recognition device for a vehicle, vehicle-to-vehicle control device and distance measuring device
US6927699B2 (en) 2002-12-05 2005-08-09 Denso Corporation Object recognition apparatus for vehicle, and inter-vehicle distance control unit
US7496449B2 (en) 2002-12-05 2009-02-24 Denso Corporation Inter-vehicle control apparatus and distance measurement apparatus
JP2004184331A (en) * 2002-12-05 2004-07-02 Denso Corp Object recognition apparatus for motor vehicle
US7761236B2 (en) 2002-12-05 2010-07-20 Denso Corporation Object recognition apparatus for vehicle and distance measurement apparatus
US6999024B2 (en) 2002-12-10 2006-02-14 Denso Corporation Method and apparatus for discriminating a target objective, and related program
US6882303B2 (en) 2002-12-19 2005-04-19 Denso Corporation Obstacle detection system for automotive vehicle
JP2004198323A (en) * 2002-12-19 2004-07-15 Denso Corp Object recognition device for vehicle
JP2004206267A (en) * 2002-12-24 2004-07-22 Fujitsu Ten Ltd Target detection device and target detection method
JP2005030935A (en) * 2003-07-07 2005-02-03 Honda Motor Co Ltd Object detector for vehicle
JP2005107693A (en) * 2003-09-29 2005-04-21 Denso Corp Device and program for detecting travel position of one's own vehicle
US7602477B2 (en) 2004-03-10 2009-10-13 Denso Corporation Radar device
DE102005010623B4 (en) 2004-03-10 2018-08-02 Denso Corporation radar device
US7158075B2 (en) 2004-04-07 2007-01-02 Denso Corporation Vehicle radar apparatus
DE102005015836B4 (en) * 2004-04-07 2014-02-27 Denso Corporation Vehicle radar system
DE102005054674B4 (en) * 2004-11-16 2015-02-12 Denso Corporation Object recognition device for a motor vehicle
US7463185B2 (en) 2005-06-15 2008-12-09 Murata Manufacturing Co., Ltd. Radar apparatus having wide-angle detection
JP2008040819A (en) * 2006-08-07 2008-02-21 Toyota Motor Corp Obstacle recognition device
JP2008046117A (en) * 2006-08-14 2008-02-28 Ulis Infrared radiation detector and driving or steering assistance device equipped with such a device
JP2009187351A (en) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd Obstacle detecting device and obstacle detecting method
JP2012002637A (en) * 2010-06-16 2012-01-05 Toyota Central R&D Labs Inc Radar apparatus
US10614322B2 (en) 2011-03-28 2020-04-07 Toyota Jidosha Kabushiki Kaisha Object recognition device
US9792510B2 (en) 2011-03-28 2017-10-17 Toyota Jidosha Kabushiki Kaisha Object recognition device
JP2012225732A (en) * 2011-04-19 2012-11-15 Mazda Motor Corp Obstacle detection device for vehicle
JP2013096915A (en) * 2011-11-02 2013-05-20 Toyota Motor Corp Pedestrian detection device for vehicle and pedestrian protection system for vehicle
JP2013113684A (en) * 2011-11-28 2013-06-10 Fujitsu Ltd Distance measuring apparatus
KR20150019926A (en) * 2013-08-16 2015-02-25 엘지전자 주식회사 Distance detecting apparatus capable of deriving distance information having changed space resolution
KR102124930B1 (en) * 2013-08-16 2020-06-19 엘지전자 주식회사 Distance detecting apparatus capable of deriving distance information having changed space resolution
JPWO2016189811A1 (en) * 2015-05-22 2018-03-29 パナソニックIpマネジメント株式会社 Road information detection device and road information detection method
WO2016189811A1 (en) * 2015-05-22 2016-12-01 パナソニックIpマネジメント株式会社 Road information sensing device and road information sensing method
CN108205133A (en) * 2016-12-20 2018-06-26 罗伯特·博世有限公司 The method and apparatus for deleting at least one landmark locations of the terrestrial reference in radarmap
WO2020018908A1 (en) 2018-07-19 2020-01-23 Luminar Technologies, Inc. Adjustable pulse characteristics for ground detection in lidar systems
CN112955776A (en) * 2018-07-19 2021-06-11 卢米诺有限责任公司 Adjustable pulse characteristics for ground detection in a lidar system
JP2021532379A (en) * 2018-07-19 2021-11-25 ルミナー,エルエルシー Adjustable pulse characteristics for ground detection in the rider system
EP3824312A4 (en) * 2018-07-19 2022-03-23 Luminar, LLC Adjustable pulse characteristics for ground detection in lidar systems
JP7108789B2 (en) 2018-07-19 2022-07-28 ルミナー,エルエルシー Adjustable pulse characteristics for ground detection in lidar systems
JP2021001787A (en) * 2019-06-21 2021-01-07 三菱電機株式会社 Laser distance measuring apparatus
US11567178B2 (en) 2019-06-21 2023-01-31 Mitsubishi Electric Corporation Laser distance measuring device

Also Published As

Publication number Publication date
JP3405327B2 (en) 2003-05-12

Similar Documents

Publication Publication Date Title
JP3405327B2 (en) Object recognition method and apparatus, recording medium
US8781644B2 (en) Method and apparatus for recognizing shape of road for vehicles
US6018308A (en) Obstacle recognition system for automotive vehicle
JP4428208B2 (en) Vehicle object recognition device
JP3736520B2 (en) Obstacle recognition device for vehicles
JP3639191B2 (en) Object recognition method and apparatus, and recording medium
JP3639190B2 (en) Object recognition device, recording medium
JP3891011B2 (en) Cruise control device, program
JP3427815B2 (en) Method and apparatus for selecting preceding vehicle, recording medium
US7136753B2 (en) Object recognition apparatus for vehicle, inter-vehicle control apparatus, and distance measurement apparatus
JP3941795B2 (en) Leading vehicle recognition device
JP4837755B2 (en) Object detection device
US20020044080A1 (en) Road-shape recognition system
US8810445B2 (en) Method and apparatus for recognizing presence of objects
JP2002040137A (en) Obstacle-recognizing device for vehicle
JPWO2005091015A1 (en) Radar
JP2005291788A (en) Object recognition device for vehicle
JP3841047B2 (en) Vehicle distance control device
JP2004184331A (en) Object recognition apparatus for motor vehicle
JP3941791B2 (en) Vehicle object recognition apparatus and program
JP3757937B2 (en) Distance measuring device
JPH1096775A (en) Collision warning system for vehicle
JP2002131433A (en) Method and device for recognizing object
JP2002022827A (en) Method and apparatus for recognizing object, recording medium
JP2001319299A (en) Road curvature estimating device for vehicle and preceding vehicle selecting device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100307

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100307

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120307

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees