JP2012242937A - Vehicular road shape recognition method and device, and recording medium - Google Patents

Vehicular road shape recognition method and device, and recording medium Download PDF

Info

Publication number
JP2012242937A
JP2012242937A JP2011110224A JP2011110224A JP2012242937A JP 2012242937 A JP2012242937 A JP 2012242937A JP 2011110224 A JP2011110224 A JP 2011110224A JP 2011110224 A JP2011110224 A JP 2011110224A JP 2012242937 A JP2012242937 A JP 2012242937A
Authority
JP
Japan
Prior art keywords
vehicle
data
roadside
connection condition
road shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011110224A
Other languages
Japanese (ja)
Other versions
JP5321640B2 (en
Inventor
Yoshie Sagawa
佳江 寒川
Mai Sakamoto
麻衣 坂本
Toyoji Nozawa
豊史 野沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011110224A priority Critical patent/JP5321640B2/en
Priority to DE102012204441A priority patent/DE102012204441A1/en
Priority to US13/424,735 priority patent/US8781644B2/en
Priority to CN201210076608.3A priority patent/CN102693645B/en
Publication of JP2012242937A publication Critical patent/JP2012242937A/en
Application granted granted Critical
Publication of JP5321640B2 publication Critical patent/JP5321640B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicular road shape recognition method and device capable of frequently calculating a more accurate road shape, and a recording medium.SOLUTION: The vehicular road shape recognition method includes: determining the recognition classification as to whether an object is a moving object or a stationary object on the basis of relative speed of the object and self-vehicle speed; extracting object unit data effective to recognize a road shape on the basis of a determination result of the recognition classification; extracting a horizontal position of a stationary object with the shortest distance, in the vehicle width direction, to the self-vehicle side from among the extracted object unit data and determining a stationary object, which is positioned within a range apart from the horizontal position of the stationary object closest to the self-vehicle in the vehicle width direction by a predetermined distance and has the shortest direct distance from the self-vehicle, as an original point; then forming data on a road side object group by connecting data pieces where the distance monotonously increases as a connection condition from the original point and grouping them; and recognizing a road edge on the basis of the formed data on the road side object group.

Description

本発明は、車両用道路形状認識方法及び装置、記録媒体に関する。   The present invention relates to a vehicle road shape recognition method and apparatus, and a recording medium.

従来より、自車が走行する道路を認識する方法が、例えば特許文献1で提案されている。具体的に、特許文献1では、セグメント化した計測データを角度順にソートし、セグメントの形状や移動物体の近傍という条件にて余分なデータを排除した上で、その道路形状認識に有効なセグメントを左角度方向から右角度方向及び右角度方向から左角度方向についてグルーピングし、さらに最遠セグメントについて疑わしいものは排除した上で得た路側物群(左)及び路側物群(右)に基づいて、道路端を認識する。   Conventionally, for example, Patent Document 1 proposes a method for recognizing a road on which the vehicle travels. Specifically, in Patent Document 1, segmented measurement data is sorted in the order of angle, and after eliminating excess data under the condition of the shape of the segment and the vicinity of the moving object, a segment effective for road shape recognition is selected. Based on the roadside object group (left) and the roadside object group (right) obtained after grouping from the left angle direction to the right angle direction and from the right angle direction to the left angle direction, and further excluding suspicious things about the farthest segment, Recognize the road edge.

特許第3427809号公報Japanese Patent No. 3427809

しかしながら、上記従来の技術では、路側物をグループ化する基点が正しくない場合があり、路側物群のグループピングを精度良くできない場合がある。その結果、道路端をより正確に頻度良く算出できず、ひいてはより正確な道路形状を認識することが望まれる。   However, in the above conventional technique, the base point for grouping roadside objects may not be correct, and the grouping of roadside objects may not be accurately performed. As a result, it is not possible to calculate the road edge more accurately and frequently, and it is desirable to recognize a more accurate road shape.

本発明は上記点に鑑み、より正確な道路形状を頻度良く算出することができる車両用道路形状認識方法及び装置、記録媒体を提供することを目的とする。   In view of the above points, an object of the present invention is to provide a vehicular road shape recognition method and apparatus, and a recording medium that can calculate a more accurate road shape frequently.

上記目的を達成するため、請求項1に記載の発明では、車幅方向の所定角度範囲内に渡り送信波を照射し、その反射波に基づいて車両周囲の道路形状を認識するにあたり、次のように認識を行う。つまり、反射波に基づいて、少なくとも物体までの距離を含む物体単位データを車幅方向角度に対応して取得すると共に、反射波に基づいて得た物体の相対速度及び自車速に基づいて移動物体か停止物体という認識種別を判定する。そして、この認識種別の判定結果に基づいて、道路形状を認識するために有効な物体単位データを抽出する。この後、抽出した物体単位データの中から、車幅方向の距離が最も自車側に位置する停止物体の横位置を抽出すると共に、車幅方向において最も自車側の停止物体の横位置から所定距離だけ離れた範囲内に位置し、かつ、自車からの直接の距離が最も小さい停止物体を起点に決定する。そして、左角度方向から右角度方向及び右角度方向から左角度方向の両方向についてそれぞれ、接続条件として距離が単調増加であるデータ同士を起点から接続してグルーピングして路側物群のデータを形成し、その形成された路側物群のデータに基づき道路端を認識する。   In order to achieve the above object, according to the first aspect of the present invention, when transmitting a transmission wave over a predetermined angle range in the vehicle width direction and recognizing the road shape around the vehicle based on the reflected wave, To recognize. That is, based on the reflected wave, object unit data including at least the distance to the object is acquired corresponding to the vehicle width direction angle, and the moving object is obtained based on the relative speed of the object obtained based on the reflected wave and the own vehicle speed. Or the recognition type of stop object. Then, based on the determination result of the recognition type, object unit data effective for recognizing the road shape is extracted. After that, from the extracted object unit data, the lateral position of the stopped object whose distance in the vehicle width direction is closest to the own vehicle side is extracted, and the lateral position of the stopped object closest to the own vehicle side in the vehicle width direction is extracted. A stop object that is located within a predetermined distance and that has the smallest direct distance from the vehicle is determined as a starting point. Then, in both directions from the left angle direction to the right angle direction and from the right angle direction to the left angle direction, the data for which the distance is monotonously increasing as connection conditions are connected from the starting point and grouped to form roadside object group data. The road edge is recognized based on the data of the formed roadside object group.

これにより、車幅方向を基準とした角度が最も小さくさらに自車から離れた場所に位置する停止物体を起点とした群接続の開始を防止することができる。また、路側が二重に見えている場合に遠くの停止物体を起点とせずに内側の停止物体から優先的にグルーピングして路側物群を形成することができる。このため、道路端の認識の精度が向上し、ひいてはより正確な道路形状を頻度良く算出することができる。   As a result, it is possible to prevent the start of group connection starting from a stopped object having the smallest angle with respect to the vehicle width direction as a reference and further located away from the host vehicle. In addition, when the roadside is seen double, it is possible to form a roadside object group by preferentially grouping from an inner stop object without starting from a distant stop object. For this reason, the accuracy of recognition of the road edge is improved, and as a result, a more accurate road shape can be calculated frequently.

請求項2に記載の発明では、路側物群のデータを形成する際、第1接続条件範囲(a)と、この第1接続条件範囲に含まれると共に範囲が当該第1接続条件範囲よりも小さい第2接続条件範囲(b)と、を設定し、起点を出発点として当該起点を基点とした第1接続条件範囲および第2接続条件範囲の両方に含まれる停止物体を起点に接続する。そして、この接続後の停止物体を次の基点として第1接続条件範囲および第2接続条件範囲の両方に含まれる停止物体を接続し、これを繰り返して停止物体をグルーピングすることにより路側物群のデータを形成する。   In the invention according to claim 2, when forming the data of the roadside object group, it is included in the first connection condition range (a) and the first connection condition range, and the range is smaller than the first connection condition range. The second connection condition range (b) is set, and the stop object included in both the first connection condition range and the second connection condition range starting from the starting point is connected to the starting point. Then, by connecting the stopped objects included in both the first connection condition range and the second connection condition range with the stopped object after the connection as the next base point, and repeating this to group the stopped objects, Form data.

このように、グルーピングの際には第1接続条件範囲および第2接続条件範囲を設定しているので、第1接続条件範囲に含まれたとしても第2接続条件範囲に含まれない停止物体は接続されない。このため、停止物体の角度順で比較することにより距離差は大きいが角度差が小さい停止物体が先に比較および接続されてしまうのを防ぐことができる。したがって、群接続をより実際の道路形状に近づけることができ、ひいては道路端認識の精度を向上させることができる。   As described above, since the first connection condition range and the second connection condition range are set at the time of grouping, even if the stop objects are not included in the second connection condition range even if included in the first connection condition range, Not connected. For this reason, it is possible to prevent the stationary object having a large distance difference but a small angular difference from being compared and connected in advance by comparing the angular order of the stationary objects. Therefore, the group connection can be made closer to the actual road shape, and as a result, the accuracy of road edge recognition can be improved.

請求項3に記載の発明では、路側物群のデータに基づいて道路端を認識する際、路側物群のデータを複数形成した後、路側物群を通る円と車幅方向の軸との交点を複数の路側物群毎にそれぞれ求め、車幅方向において最も自車側の交点から所定の閾値だけ離れた範囲内に位置する交点に対応した路側物群のみを用いて道路端の認識を行う。   In the invention according to claim 3, when recognizing a road edge based on roadside object group data, after forming a plurality of roadside object group data, an intersection of a circle passing through the roadside object group and an axis in the vehicle width direction Is recognized for each of a plurality of roadside object groups, and road edges are recognized using only roadside object groups corresponding to intersections located within a predetermined threshold distance from the intersection on the own vehicle side in the vehicle width direction. .

これにより、車幅方向において自車から遠く離れた路側物群を道路端認識から対象外とすることができる。したがって、算出される平均の道路端は自車側の各路側部群を通るように認識されるので、道路端認識の精度を向上させることができる。   Thereby, the roadside object group far from the own vehicle in the vehicle width direction can be excluded from the road end recognition. Therefore, since the calculated average road edge is recognized so as to pass through each road side group on the own vehicle side, the accuracy of road edge recognition can be improved.

一方、請求項4に記載の発明は請求項1に示した車両用道路形状認識方法を実現するための装置としての一例である。また、請求項5に記載の発明は請求項2に示した車両用道路形状認識方法を実現するための装置としての一例であり、請求項6に記載の発明は請求項3に示した車両用道路形状認識方法を実現するための装置としての一例である。これら車両用道路形状認識装置においても、上述したものと同様の効果を発揮できる。   On the other hand, the invention according to claim 4 is an example of an apparatus for realizing the vehicle road shape recognition method according to claim 1. The invention according to claim 5 is an example of an apparatus for realizing the vehicle road shape recognition method according to claim 2, and the invention according to claim 6 is an object for the vehicle according to claim 3. It is an example as an apparatus for implement | achieving a road shape recognition method. These vehicle road shape recognition apparatuses can also exhibit the same effects as described above.

そして、請求項7に記載の発明のように、車両用道路形状認識装置の認識手段をコンピュータシステムにて実現する機能は、例えば、コンピュータシステム側で起動するプログラムとして備えることができる。このようなプログラムの場合、例えば、光磁気ディスク、CD−ROM、ハードディスク、フラッシュメモリ等のコンピュータ読み取り可能な記録媒体に記録し、必要に応じてコンピュータシステムにロードして起動することにより用いることができる。この他、ROMやバックアップRAMをコンピュータ読み取り可能な記録媒体として前記プログラムを記録しておき、このROMあるいはバックアップRAMをコンピュータシステムに組み込んで用いても良い。   Further, as in the seventh aspect of the invention, the function of realizing the recognition means of the vehicle road shape recognition device by the computer system can be provided as a program that is activated on the computer system side, for example. In the case of such a program, for example, it is recorded on a computer-readable recording medium such as a magneto-optical disk, a CD-ROM, a hard disk, a flash memory, etc., and is used by being loaded into a computer system and started as required. it can. In addition, the ROM or backup RAM may be recorded as a computer-readable recording medium, and the ROM or backup RAM may be incorporated into a computer system and used.

なお、この欄および特許請求の範囲で記載した各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。   In addition, the code | symbol in the bracket | parenthesis of each means described in this column and the claim shows the correspondence with the specific means as described in embodiment mentioned later.

本発明が適用された車両制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle control apparatus with which this invention was applied. 道路形状認識処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of a road shape recognition process. (a)は計測データのセグメント化の内容を示す説明図であり、(b)はセグメントデータのグルーピング化の内容を示す説明図である。(A) is explanatory drawing which shows the content of segmentation of measurement data, (b) is explanatory drawing which shows the content of grouping of segment data. 起点の停止物体から順に停止物体を接続する内容を示す説明図である。It is explanatory drawing which shows the content which connects a stop object in order from the stop object of a starting point. 路側物群(左)における最遠セグメントへの対処を示す説明図である。It is explanatory drawing which shows the response | compatibility to the farthest segment in a roadside thing group (left). 路側物群(左)と路側物群(右)の最遠セグメントが重複する場合の対処を示す説明図である。It is explanatory drawing which shows a countermeasure when the farthest segment of a roadside thing group (left) and a roadside thing group (right) overlaps. 道路端を線分の集合として認識する内容を示す説明図である。It is explanatory drawing which shows the content which recognizes a road edge as a set of line segments. (a)は全てのセグメントを用いて道路端を認識する内容を示す説明図であり、(b)は閾値以下のセグメントを用いて道路端を認識する内容を示す説明図である。(A) is explanatory drawing which shows the content which recognizes a road edge using all the segments, (b) is explanatory drawing which shows the content which recognizes a road edge using the segment below a threshold value.

(第1実施形態)
次に、本発明が適用された車両制御装置1について、図面と共に説明する。この車両制御装置1は、自動車に搭載され、警報すべき領域に障害物が所定の状況で存在する場合に警報を出力したり、前車(先行車両)に合わせて車速を制御したりする装置である。
(First embodiment)
Next, a vehicle control device 1 to which the present invention is applied will be described with reference to the drawings. This vehicle control device 1 is mounted on an automobile and outputs a warning when an obstacle exists in a predetermined area in a predetermined situation, or controls the vehicle speed according to the preceding vehicle (preceding vehicle). It is.

図1は、そのシステムブロック図である。車両制御装置1はコンピュータ3を中心に構成されている。コンピュータ3はマイクロコンピュータを主な構成として入出力インターフェース(I/O)および各種の駆動回路や検出回路を備えている。これらのハード構成は一般的なものであるので詳細な説明は省略する。   FIG. 1 is a block diagram of the system. The vehicle control device 1 is configured around a computer 3. The computer 3 mainly includes a microcomputer and includes an input / output interface (I / O) and various drive circuits and detection circuits. Since these hardware configurations are general, detailed description thereof is omitted.

コンピュータ3は、車両用障害物検出装置としての距離・角度測定器5、車速センサ7、ブレーキスイッチ9、スロットル開度センサ11から各々所定の検出データを入力している。またコンピュータ3は、警報音発生器13、距離表示器15、センサ異常表示器17、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に所定の駆動信号を出力している。   The computer 3 inputs predetermined detection data from a distance / angle measuring device 5, a vehicle speed sensor 7, a brake switch 9, and a throttle opening sensor 11 as an obstacle detection device for a vehicle. Further, the computer 3 outputs predetermined drive signals to the alarm sound generator 13, the distance indicator 15, the sensor abnormality indicator 17, the brake driver 19, the throttle driver 21 and the automatic transmission controller 23.

更にコンピュータ3は、警報音量を設定する警報音量設定器24、後述の警報判定処理における感度を設定する警報感度設定器25、クルーズコントロールスイッチ26、図示しないステアリングホイールの操作量を検出するステアリングセンサ27及びヨーレートセンサ28を備えている。またコンピュータ3は、電源スイッチ29を備え、その「オン」により、所定の処理を開始する。   The computer 3 further includes an alarm volume setting unit 24 for setting an alarm volume, an alarm sensitivity setting unit 25 for setting sensitivity in an alarm determination process to be described later, a cruise control switch 26, and a steering sensor 27 for detecting an operation amount of a steering wheel (not shown). And a yaw rate sensor 28. Further, the computer 3 includes a power switch 29, and starts predetermined processing when the power switch 29 is turned on.

ここで、距離・角度測定器5は、送受信部5aおよび距離・角度演算部5bを備え、送受信部5aからは所定の光軸(中心軸)を中心にして車両前方へレーザ光を車幅方向の所定角度の範囲で不連続に掃引照射(スキャン)して出力し、かつ反射光を検出すると共に、距離・角度演算部5bにて反射光を捉えるまでの時間に基づき、前方の物体までの距離rを検出する装置である。なお、レーザ光を用いるものの他に、ミリ波等の電波や超音波等を用いるものであってもよいし、走査方法についても、送信部をスキャンさせるものに限られるものではなく、例えば受信部をスキャンするものであってもよい。   Here, the distance / angle measuring device 5 includes a transmission / reception unit 5a and a distance / angle calculation unit 5b. From the transmission / reception unit 5a, laser light is transmitted forward of the vehicle around a predetermined optical axis (center axis). Based on the time until the reflected light is detected by the distance / angle calculation unit 5b, the distance to the object ahead is detected based on the discontinuous sweep irradiation (scanning) in the predetermined angle range and output. It is a device that detects the distance r. In addition to those using laser light, radio waves such as millimeter waves, ultrasonic waves, or the like may be used. Also, the scanning method is not limited to scanning the transmission unit. For example, the reception unit It may be one that scans.

コンピュータ3は、このように構成されていることにより、障害物が所定の警報領域に所定時間存在した場合等に警報する警報判定処理を実施している。障害物としては、自車の前方を走行する前車やまたは停止している前車あるいは路側にある物体(ガードレールや支柱物体等)等が該当する。また、コンピュータ3は、ブレーキ駆動器19、スロットル駆動器21および自動変速機制御器23に駆動信号を出力することにより、前車の状況に合わせて車速を制御する、いわゆる車間制御も同時に実施している。   With this configuration, the computer 3 performs an alarm determination process for alarming when an obstacle exists in a predetermined alarm area for a predetermined time. Examples of the obstacle include a front vehicle traveling in front of the host vehicle, a front vehicle that is stopped, or an object on the roadside (such as a guardrail or a column object). The computer 3 also performs so-called inter-vehicle control, which controls the vehicle speed according to the situation of the preceding vehicle by outputting drive signals to the brake driver 19, the throttle driver 21, and the automatic transmission controller 23. ing.

続いてコンピュータ3の内部構成について制御ブロックとして説明する。距離・角度測定器5の距離・角度演算部5bから出力された距離rとスキャン角度θとのデータは、データのグルーピングブロック41に送られ、レーザレーダ中心を原点(0,0)とし、車幅方向をX軸、車両前方方向をZ軸とするXZ直交座標に変換された後、その変換後のデータをグルーピングしてセグメントを形成する。このセグメント化の様子は後述する。なお、データのグルーピングブロック41にてセグメント化された物体単位のデータは、物体認識ブロック43及び道路形状認識ブロック45へ出力される。   Next, the internal configuration of the computer 3 will be described as a control block. The data of the distance r and the scan angle θ output from the distance / angle calculator 5b of the distance / angle measuring device 5 is sent to the data grouping block 41, and the center of the laser radar is set to the origin (0, 0), and the vehicle After being converted into XZ Cartesian coordinates where the width direction is the X axis and the vehicle forward direction is the Z axis, the converted data is grouped to form a segment. This segmentation will be described later. The data of the object unit segmented by the data grouping block 41 is output to the object recognition block 43 and the road shape recognition block 45.

物体認識ブロック43では、上記データのグルーピングブロック41から出力された上記物体の中心位置の時間的変化に基づいて、自車位置を基準とする前車等の障害物の相対速度(Vx,Vz)が求められる。さらに物体認識ブロック43では、車速センサ7の検出値に基づいて車速演算ブロック47から出力される車速(自車速)Vと上記求められた相対速度(Vx,Vz)とから物体が停止物体であるか移動物体であるかの認識種別が求められ、この認識種別と物体の中心位置とに基づいて自車両の走行に影響する物体が選択され、その距離が距離表示器15により表示される。なお、物体の大きさを示す(W,D)は、それぞれ(横幅,奥行き)である。   In the object recognition block 43, the relative speed (Vx, Vz) of the obstacle such as the front vehicle based on the own vehicle position based on the temporal change of the center position of the object output from the data grouping block 41. Is required. Further, in the object recognition block 43, the object is a stop object from the vehicle speed (own vehicle speed) V output from the vehicle speed calculation block 47 based on the detection value of the vehicle speed sensor 7 and the above obtained relative speed (Vx, Vz). A recognition type as to whether the vehicle is a moving object is obtained, and an object that affects the traveling of the host vehicle is selected based on the recognition type and the center position of the object, and the distance indicator 15 displays the distance. Note that (W, D) indicating the size of the object is (width, depth), respectively.

この物体認識ブロック43にて求めたデータが異常な範囲の値かどうかがセンサ異常検出ブロック44にて検出され、異常な範囲の値である場合には、センサ異常表示器17にその旨の表示がなされる。一方、道路形状認識ブロック45では、グルーピングブロック41から出力された上記物体の中心位置のデータと、物体認識ブロック43にて求めたデータとに基づいて道路形状の認識を行う。この道路形状の認識処理の詳細は後述する。なお、道路形状認識ブロック45にて得られたデータは先行車判定ブロック53へ出力される。   Whether or not the data obtained in the object recognition block 43 is an abnormal range value is detected by the sensor abnormality detection block 44. If the data is an abnormal range value, the sensor abnormality indicator 17 displays that fact. Is made. On the other hand, the road shape recognition block 45 recognizes the road shape based on the data of the center position of the object output from the grouping block 41 and the data obtained in the object recognition block 43. Details of this road shape recognition processing will be described later. The data obtained in the road shape recognition block 45 is output to the preceding vehicle determination block 53.

また、ステアリングセンサ27からの信号に基づいて操舵角演算ブロック49にて操舵角が求められ、ヨーレートセンサ28からの信号に基づいてヨーレート演算ブロック51にてヨーレートが演算される。カーブ半径(曲率半径)算出ブロック63では、車速演算ブロック47からの車速と操舵角演算ブロック49からの操舵角とヨーレート演算ブロック51からのヨーレートとに基づいて、カーブ半径(曲率半径)Rを算出する。先行車判定ブロック53では、このカーブ半径Rおよび物体認識ブロック43にて求められた認識種別、中心位置座標(X,Z)、物体の大きさ(W,D)、相対速度(Vx,Vz)及び道路形状認識ブロック45にて得られた道路形状データに基づいて先行車を選択し、その先行車に対する距離Zおよび相対速度Vzを求める。   Further, the steering angle is calculated by the steering angle calculation block 49 based on the signal from the steering sensor 27, and the yaw rate is calculated by the yaw rate calculation block 51 based on the signal from the yaw rate sensor 28. In a curve radius (curvature radius) calculation block 63, a curve radius (curvature radius) R is calculated based on the vehicle speed from the vehicle speed calculation block 47, the steering angle from the steering angle calculation block 49, and the yaw rate from the yaw rate calculation block 51. To do. In the preceding vehicle determination block 53, the curve radius R and the recognition type obtained in the object recognition block 43, the center position coordinates (X, Z), the object size (W, D), and the relative speed (Vx, Vz). And the preceding vehicle is selected based on the road shape data obtained in the road shape recognition block 45, and the distance Z and relative speed Vz for the preceding vehicle are obtained.

そして、車間制御部及び警報判定部ブロック55が、この先行車との距離Z、相対速度Vz、自車速Vn、先行車加速度、物体中心位置、物体幅、認識種別、クルーズコントロールスイッチ26の設定状態およびブレーキスイッチ9の踏み込み状態、スロットル開度センサ11からの開度および警報感度設定器25による感度設定値に基づいて、警報判定ならば警報するか否かを判定し、クルーズ判定ならば車速制御の内容を決定する。その結果、警報が必要ならば、警報発生信号を警報音発生器13に出力する。また、クルーズ判定ならば、自動変速機制御器23、ブレーキ駆動器19およびスロットル駆動器21に制御信号を出力して、必要な制御を実施する。そして、これらの制御実行時には、距離表示器15に対して必要な表示信号を出力して、状況をドライバーに告知している。   Then, the inter-vehicle distance control unit and the alarm determination unit block 55 include the distance Z to the preceding vehicle, the relative speed Vz, the host vehicle speed Vn, the preceding vehicle acceleration, the object center position, the object width, the recognition type, and the setting state of the cruise control switch 26. On the basis of the depression state of the brake switch 9, the opening from the throttle opening sensor 11, and the sensitivity set value by the alarm sensitivity setting unit 25, it is determined whether or not to issue an alarm if it is an alarm determination, and vehicle speed control if it is a cruise determination. Determine the contents. As a result, if an alarm is required, an alarm generation signal is output to the alarm sound generator 13. If the cruise is determined, a control signal is output to the automatic transmission controller 23, the brake driver 19 and the throttle driver 21 to perform necessary control. When these controls are executed, necessary display signals are output to the distance indicator 15 to notify the driver of the situation.

次に、以上のように構成される車両制御装置1において実行される道路形状の認識にかかる動作について、図2のフローチャートに従って説明する。図2の最初のステップであるS1000では、距離・角度計測データの読み込みを行う。この処理は距離・角度測定器5にて実行されるのであるが、1スキャン分の距離・角度計測データを取り込む。このスキャン周期は100msecとし、100msec毎にデータを取り込むこととする。   Next, the operation | movement concerning recognition of the road shape performed in the vehicle control apparatus 1 comprised as mentioned above is demonstrated according to the flowchart of FIG. In S1000, which is the first step in FIG. 2, distance / angle measurement data is read. This processing is executed by the distance / angle measuring device 5, but the distance / angle measurement data for one scan is taken in. The scan cycle is 100 msec, and data is taken every 100 msec.

続くS2000では、停止物体のデータ(物体単位データ)のセグメント化を行う。このセグメント化はデータのグルーピングブロック41にて実行されるのであるが、上述したように、距離・角度計測データを極座標系からXZ直交座標系に変換し、その変換後のデータをグルーピングしてセグメント(路側物群)を形成する。   In subsequent S2000, segmentation of stop object data (object unit data) is performed. This segmentation is executed by the data grouping block 41. As described above, the distance / angle measurement data is converted from the polar coordinate system to the XZ orthogonal coordinate system, and the converted data is grouped to create a segment. (Roadside group) is formed.

具体的には、図3(a)の左側に示すように、セグメントである路側物群の生成の起点選択処理を行う。この起点選択処理は、角度順にソートした停止物体のうちのどの停止物体をセグメント形成の起点とするかを選択する処理である。   Specifically, as shown on the left side of FIG. 3A, a starting point selection process for generating a roadside object group as a segment is performed. This starting point selection process is a process of selecting which stop object among the stop objects sorted in the order of angles is to be the starting point of segment formation.

具体的には、角度順にソートした後、左角度方向では、
(1)左側エリア内で自車に対して最も内側(自車側)の停止物体の横位置を抽出する
(2)横位置が(1)に近く、自車との直接の距離が最も小さい停止物体を起点とする
上記の条件(1)については、車幅方向の距離が最も自車側に位置する停止物体の横位置を抽出する。そして、条件(2)については、「自車との直接の距離」は、車幅方向における自車からの距離ではなく、自車から停止物体までの最短の距離である。
Specifically, after sorting in angular order, in the left angle direction,
(1) The lateral position of the innermost (own side) stop object is extracted in the left area. (2) The lateral position is close to (1) and the direct distance to the own vehicle is the shortest. With respect to the above condition (1) starting from the stopped object, the lateral position of the stopped object whose distance in the vehicle width direction is closest to the host vehicle is extracted. As for the condition (2), the “direct distance from the own vehicle” is not the distance from the own vehicle in the vehicle width direction but the shortest distance from the own vehicle to the stop object.

一方、右角度方向は上記の逆の条件となる。すなわち、(1)では、右側エリア内で自車に対して最も内側の路側停止物群の横位置を抽出することとなる。   On the other hand, the right angle direction is the reverse of the above conditions. That is, in (1), the lateral position of the innermost roadside stop group with respect to the own vehicle in the right area is extracted.

図3(a)の左側に示すように、例えば自車の右角度方向においては、自車を中心にZ軸方向に対して6°の傾きよりも右側の範囲において、自車からX軸方向に1m〜8mの幅およびZ軸方向に自車から30mまでの距離の範囲に「0」番から「8」番までの停止物体が存在する。図3(a)の左側ではこの範囲を点ハッチングで示している。   As shown on the left side of FIG. 3 (a), for example, in the right angle direction of the host vehicle, the host vehicle is in the X-axis direction within a range on the right side of the tilt of 6 ° with respect to the Z-axis direction around the host vehicle. In addition, there are stop objects from “0” to “8” in a range of 1 m to 8 m in width and a distance from the own vehicle to 30 m in the Z-axis direction. This range is indicated by point hatching on the left side of FIG.

各停止物体のうち、「0」番の停止物体はX軸に対する角度が最も小さいが、X軸方向の距離が自車から最も離れている。また、「1」番から「8」番までの各停止物体は、X軸方向の距離が最も小さい「8」番の位置(X_min)から例えば2m離れた位置までの範囲内に存在している。   Among the stopped objects, the “0” stopped object has the smallest angle with respect to the X axis, but the distance in the X axis direction is the farthest from the own vehicle. In addition, each stationary object from “1” to “8” exists within a range from the position (X_min) of “8” having the smallest distance in the X-axis direction to a position 2 m away, for example. .

このような状況を、上記の条件(1)および(2)に当てはめると、「8」番の停止物体のX軸方向における横位置(X_min)を抽出する(条件(1))。そして、横位置が「8」番に近く、さらに自車との距離が最も小さい「1」番の停止物体を起点に決定する(条件(2))。これにより、「0」番の停止物体のように自車から離れた場所からの群接続の開始を防止できる。また、路側が二重に見えている場合、内側の路側列から優先的にグルーピングすることができる。   When such a situation is applied to the above conditions (1) and (2), the lateral position (X_min) in the X-axis direction of the “8” stop object is extracted (condition (1)). Then, the stop object of “1” whose lateral position is close to “8” and the distance from the own vehicle is the smallest is determined (condition (2)). As a result, it is possible to prevent the start of group connection from a place away from the host vehicle, such as a “0” stop object. Moreover, when the road side is seen double, it can group preferentially from an inner road side row | line | column.

そして、上記のように決定した起点を出発点として路側物群(セグメント)を形成する。これについて、図4を参照して説明する。なお、図4では自車に対して右角度方向に位置する各停止物体の接続の例を示している。   Then, a roadside group (segment) is formed with the starting point determined as described above as a starting point. This will be described with reference to FIG. FIG. 4 shows an example of connection of each stationary object located in the right angle direction with respect to the own vehicle.

図4に示すように、自車に最も近い停止物体(図3(a)の左側の「1」)を起点として、接続条件範囲aと、この接続条件範囲aに含まれると共にaよりも範囲が小さい接続条件範囲bとの両方に含まれる停止物体を順に接続していく。すなわち、停止物体を角度順に比較し、接続条件範囲aを満たす停止物体が見つかった場合、さらに接続条件範囲bを満たす停止物体を検索し接続する。そして、接続後の停止物体を次の基点として接続条件範囲aおよび接続条件範囲bに含まれる停止物体を検索し接続する。このように、接続後の停止物体を基点として接続条件範囲aおよび接続条件範囲bに含まれる停止物体を順に検索し接続していく。   As shown in FIG. 4, the starting point is the stop object closest to the host vehicle (“1” on the left side of FIG. 3A). The stop objects included in both the connection condition range b having a small value are connected in order. That is, the stopped objects are compared in order of angle, and when a stopped object satisfying the connection condition range a is found, a stopped object satisfying the connection condition range b is further searched and connected. Then, the stopped object included in the connection condition range a and the connection condition range b is searched and connected using the connected stopped object as the next base point. In this way, the stopped objects included in the connection condition range a and the connection condition range b are sequentially searched and connected using the stopped object after connection as a base point.

図4では、接続条件範囲aに2つの停止物体が存在しているが、接続条件範囲bに含まれる停止物体が存在するので、この停止物体を接続する。これを繰り返すことにより、停止物体を次々に接続して路側物群を形成する。   In FIG. 4, there are two stopped objects in the connection condition range a. However, since there are stopped objects included in the connection condition range b, the stopped objects are connected. By repeating this, stationary objects are connected one after another to form a roadside object group.

なお、図4では接続条件範囲bは接続条件範囲aのうちの左側(Z軸側)に位置しているが、これは接続条件範囲aに対する接続条件範囲bの位置の一例である。例えば、接続条件範囲bは接続条件範囲aの車幅方向(X軸方向)の中心に位置していても良い。このように、接続条件範囲bを接続条件範囲aのうちのどこに位置させるかについては適宜設定すれば良い。   In FIG. 4, the connection condition range b is located on the left side (Z-axis side) of the connection condition range a, but this is an example of the position of the connection condition range b with respect to the connection condition range a. For example, the connection condition range b may be located at the center of the connection condition range a in the vehicle width direction (X-axis direction). Thus, what is necessary is just to set suitably about where the connection condition range b is located in the connection condition range a.

上記のようにして停止物体の点集合を一体化してセグメントデータを求める。このセグメントデータは、一体化された点集合を含むような大きさに設定された、X軸及びZ軸に平行な2辺を持つ長方形の領域であり、図3(a)の右側に示すように中心座標(X,Z)と大きさを示すための2辺のデータ(W,D)をデータ内容とする。なお、この領域の左右両端の座標もデータとして持っておく。   As described above, the point data of the stationary object are integrated to obtain the segment data. This segment data is a rectangular area having two sides parallel to the X-axis and the Z-axis and set to a size including an integrated point set, as shown on the right side of FIG. The data content is the data (W, D) of two sides for indicating the center coordinates (X, Z) and the size. Note that the coordinates of the left and right ends of this area are also stored as data.

続くS3000では物体認識を行う。この物体認識は物体認識ブロック43で実行され、その内容は上述した通りである。続くS4000以降の処理は、道路形状認識ブロック45にて実行される処理であり、S4000では、S2000で得られたセグメントの中心位置を極座標に変換して角度順にソートする。   In subsequent S3000, object recognition is performed. This object recognition is executed by the object recognition block 43, and the contents thereof are as described above. The subsequent processing after S4000 is processing executed by the road shape recognition block 45. In S4000, the center position of the segment obtained in S2000 is converted into polar coordinates and sorted in angular order.

続くS5000では、S4100で得た角度に基づいて、左角度方向から右角度方向へと、条件に合うセグメントをグルーピングし、路側物群(左)を形成する。この様子を図3(b)も参照しながら説明する。本実施形態では、道路形状の認識を路側に設置されたデリニエータに基づいて行うため、まず、例えば余計な看板や車両などのデリニエータ以外のセグメントデータを排除するために、次の、いずれか一方の排除条件でも満たすセグメントを看板や車両などと判断して排除する。   In subsequent S5000, based on the angle obtained in S4100, the segments meeting the conditions are grouped from the left angle direction to the right angle direction to form a roadside object group (left). This will be described with reference to FIG. In this embodiment, since the road shape is recognized based on the delineator installed on the roadside, first, for example, in order to eliminate segment data other than the delineator such as an extra signboard or a vehicle, either one of the following: Segments that satisfy the exclusion conditions are judged to be signs or vehicles and are eliminated.

横幅Wが大のセグメント
排除条件:横幅W≧1.2m且つ縦横比D/W<5
認識種別が移動物体の近傍のセグメント
排除条件:中心間距離がΔX≦2m,ΔZ≦2m
次に、この排除条件を用いて排除した後に残ったセグメントに対して、左角度方向から右角度方向へと、距離Zが単調増加で且つ次の接続条件を満たすものを、満たすセグメントが存在する間、順に接続してグルーピングし、路側物群(左)を形成する。
Segment exclusion condition with large width W: width W ≧ 1.2 m and aspect ratio D / W <5
Segment exclusion condition when recognition type is near moving object: center distance is ΔX ≦ 2m, ΔZ ≦ 2m
Next, there is a segment that satisfies the following connection condition that the distance Z is monotonically increasing and satisfies the following connection condition from the left angle direction to the right angle direction with respect to the segment remaining after being excluded using this exclusion condition. In the meantime, they are connected and grouped in order to form a roadside group (left).

接続条件:中心間距離がΔX≦3.5m,ΔZ≦55m
そして、距離が減少した場合、あるいは距離は単調増加であっても上記接続条件を満たさない場合には、別の新たな路側物群(左)を形成していく。なお、ここでは、構成セグメントが1つの場合であっても路側物群(左)とするが、道路端の認識に際しては、構成セグメントが3つ以上の路側物群(左)のみを使用する。したがって、図3(b)に示す状況であれば、上記の排除条件にて排除した後に残ったデータをグルーピングした結果、No.1〜No.4の路側物群(左)が得られたが、構成セグメントが3つ以上の路側物群(左)はNo.1の場合だけであるので、この路側物群(左)No.1を道路端認識に用いる。
Connection conditions: Center-to-center distance is ΔX ≦ 3.5m, ΔZ ≦ 55m
When the distance decreases or when the distance does not satisfy the connection condition even if the distance increases monotonically, another new roadside object group (left) is formed. Here, even if there is only one component segment, the roadside object group (left) is used. However, when the road edge is recognized, only the roadside object group (left) having three or more component segments is used. Therefore, in the situation shown in FIG. 3 (b), as a result of grouping the data remaining after exclusion under the above exclusion conditions, No.1 to No.4 roadside object groups (left) were obtained. Since the roadside object group (left) having three or more constituent segments is only No.1, this roadside object group (left) No.1 is used for road edge recognition.

続くS5100では、路側物群(左)(この場合は当然であるが路側物群(左)No.1を意味する)を構成するセグメントの中で、距離Zが最も大きい、つまり最遠セグメントについては、それが道路の左側のものか右側のものかを判断する。この判断の詳細は後述するが、道路右側のものであると判断した場合には、路側物群(左)から除外する。構成セグメント数が3つ以上の路側物群(左)で、道路右側のセグメントが混じっている例を図5(a)に示す。この図からも判るように、左角度方向から右角度方向へと距離が単調増加の間グルーピングしていくときには、最遠セグメントだけ本当に道路の左側か否かを判断すれば、ほとんどの場合は問題ない。最遠セグメントの一つ手前のセグメント(以下「第2最遠セグメント」と称す。)も右側である状況がほとんど想定できないからである。   In S5100, the distance Z is the largest among the segments constituting the roadside object group (left) (in this case, the roadside object group (left) means No. 1), that is, the farthest segment. Determines if it is on the left or right side of the road. Although details of this determination will be described later, if it is determined that the road is on the right side, it is excluded from the roadside object group (left). FIG. 5A shows an example of a roadside object group (left) having three or more constituent segments and a segment on the right side of the road mixed. As you can see from this figure, when grouping from the left angle direction to the right angle direction while the distance increases monotonically, it is almost always a problem if you determine whether the farthest segment is really the left side of the road. Absent. This is because it is almost impossible to assume a situation in which the segment immediately before the farthest segment (hereinafter referred to as “second farthest segment”) is also on the right side.

そこで、この最遠セグメントについて、次のような判断を行う。図5(b)に示すように、まず、最遠セグメントを除いた残りの構成セグメントを滑らかな曲線で結び、この曲線近傍に最遠セグメントが存在するか否かで判断する。曲線は、ここでは距離Zが最も小さい「最近セグメント」と第2最遠セグメントの2点を通り、X軸に直交する円を求める。X軸に直交するための中心がX軸上に存在し、円周上の2点が判っているので、円の方程式を導くことができる。   Therefore, the following determination is made for this farthest segment. As shown in FIG. 5B, first, the remaining constituent segments excluding the farthest segment are connected by a smooth curve, and it is determined whether or not the farthest segment exists in the vicinity of this curve. Here, the curve passes through two points of the “most recent segment” having the smallest distance Z and the second farthest segment and obtains a circle orthogonal to the X axis. Since the center for orthogonal to the X-axis exists on the X-axis and two points on the circumference are known, a circle equation can be derived.

そして、その円と最遠セグメントのX軸方向への距離ΔXが1.5m未満であれば道路左側のセグメントであると判断して路側物群(左)に含めたままにし、逆に距離ΔXが1.5以上の場合には、道路右側のセグメントであると判断して路側物群(左)から除外する。なお、最遠セグメントと円との最も近い距離、すなわち、最遠セグメントから円に下した垂線の長さで判断してもよいが、現実的には、上述したようにX軸方向への距離ΔXのみ考えれば特段問題はない。   If the distance ΔX between the circle and the farthest segment in the X-axis direction is less than 1.5 m, it is determined that the segment is on the left side of the road and is included in the roadside object group (left). Is 1.5 or more, it is determined that the segment is on the right side of the road, and is excluded from the roadside object group (left). The distance between the farthest segment and the circle, that is, the length of the perpendicular line from the farthest segment to the circle, may be determined, but in reality, the distance in the X-axis direction as described above. There is no particular problem if only ΔX is considered.

続くS6000,S6100では、S5000,S5100にて実行した内容を、左右逆にして実行する。つまり、S6000では、S4000で得た角度に基づいて、右角度方向から左角度方向へと条件に合うセグメントをグルーピングして路側物群(右)を形成する。余計な看板などを排除する条件は左の場合と同じである。そして、排除した後に残ったセグメントに対して、右角度方向から左角度方向へと、距離Zが単調増加で且つ接続条件を満たすものを順に接続してグルーピングし、路側物群(右)を形成する。接続条件も左の場合と同じであり、また構成セグメントが3つ以上の路側物群(右)のものだけを道路端認識に用いる点も同じである。   In subsequent S6000 and S6100, the contents executed in S5000 and S5100 are executed in the left-right direction. That is, in S6000, the roadside object group (right) is formed by grouping segments that meet conditions from the right angle direction to the left angle direction based on the angle obtained in S4000. The conditions for excluding unnecessary signs are the same as those on the left. Then, from the right angle direction to the left angle direction with respect to the segment remaining after exclusion, the distance Z monotonically increasing and sequentially satisfying the connection condition are connected and grouped to form a roadside object group (right) To do. The connection conditions are the same as in the left case, and only the road segment group (right) having three or more constituent segments is used for road edge recognition.

また、S6100では、路側物群(右)中の最遠セグメントについては、左の場合と同様の手法で、道路の左側のものか右側のものかを判断し、左側のセグメントであれば路側物群(右)から除外する。このようにして、路側物群(左)と路側物群(右)とが得られたら、続くS7000では、路側物群(左)における最遠セグメントと路側物群(右)における最遠セグメントが同じ場合、つまり、図6(a)に示すように、1つの最遠セグメントが路側物群(左)にも属し、路側物群(右)にも属するという競合状態にある場合には、図6(b)に示すように、その最遠セグメントは排除する。もちろん、重複していない場合にはこのような処理は行わない。   In S6100, for the farthest segment in the roadside object group (right), the left side or right side of the road is determined in the same manner as in the left side. Exclude from group (right). When the roadside object group (left) and the roadside object group (right) are obtained in this way, in the subsequent S7000, the farthest segment in the roadside object group (left) and the farthest segment in the roadside object group (right) are determined. In the same case, that is, as shown in FIG. 6 (a), when one farthest segment belongs to the roadside object group (left) and also belongs to the roadside object group (right), As shown in 6 (b), the farthest segment is excluded. Of course, if there is no overlap, such processing is not performed.

そして、S8000では、構成セグメントが3つ以上の路側物群(左)と路側物群(右)とに基づいて、道路の左右端をそれぞれ認識する。なお、本実施形態においては、図7に示すように、各路側物群の構成セグメント間を補間することで道路左右端を線分の集合として認識する。さらに、路側物群データ間の補間結果を利用し、X軸との交点を算出し、この交点までの間も補間することによって、自車位置近傍からの道路形状を線分の集合として認識するようにしている。   In S8000, the right and left ends of the road are recognized based on the roadside object group (left) and the roadside object group (right) having three or more constituent segments. In the present embodiment, as shown in FIG. 7, the left and right ends of the road are recognized as a set of line segments by interpolating between the constituent segments of each roadside object group. Furthermore, by calculating the intersection with the X-axis using the interpolation result between roadside object group data, and interpolating to this intersection, the road shape from the vicinity of the vehicle position is recognized as a set of line segments. I am doing so.

以上説明したように、本実施形態の車両制御装置1では、その道路形状認識処理において、抽出した停止物体のうち最も内側(自車側)の停止物体の横位置を抽出し、自車からこの横位置に近くさらに自車との直接の距離が最も小さい停止物体を起点とすることが特徴となっている。これにより、ソートの角度順に最も角度が小さく、自車から離れた場所に位置する停止物体を起点とした群接続の開始を防止することができる。また、路側が二重に見えている場合に内側の路側列から優先的にグルーピングを行うようにすることができる。このため、道路端の認識の精度が向上し、ひいてはより正確な道路形状を頻度良く算出することができる。   As described above, in the vehicle control device 1 of the present embodiment, in the road shape recognition process, the lateral position of the innermost (own vehicle side) stop object is extracted from the extracted stop objects, and this is extracted from the own vehicle. The feature is that the starting point is a stationary object that is close to the lateral position and has the smallest direct distance to the vehicle. This makes it possible to prevent the start of group connection starting from a stopped object that is the smallest in order of the sort angle and is located away from the vehicle. In addition, when the roadside is seen double, the grouping can be performed preferentially from the inner roadside row. For this reason, the accuracy of recognition of the road edge is improved, and as a result, a more accurate road shape can be calculated frequently.

また、上記のように決定した起点となる停止物体を出発点として接続条件範囲aおよびbに含まれる停止物体を接続することが特徴となっている。このように、狭い接続条件範囲bに含まれる停止物体を接続していくので、群接続をより実際の道路形状に近づけることができる。このため、道路端認識の精度を向上させることができる。また、停止物体の角度順で比較することにより距離差は大きいが角度差が小さい停止物体が先に比較および接続されてしまうのを防ぐことができる。もちろん、接続条件範囲を2つ設けて接続条件を二重化しているので、現行の性能は維持できる。   Further, it is characterized in that the stop object included in the connection condition ranges a and b is connected using the stop object as the starting point determined as described above as a starting point. In this way, since the stopped objects included in the narrow connection condition range b are connected, the group connection can be made closer to the actual road shape. For this reason, the accuracy of road edge recognition can be improved. Further, by comparing the stop objects in the order of angles, it is possible to prevent a stop object having a large distance difference but a small angle difference from being compared and connected first. Of course, since two connection condition ranges are provided to double the connection conditions, the current performance can be maintained.

そして、このように良好に認識された道路形状を用いて先行車を判定し、車間制御や車間警報を行うので、これらの制御が良好に実施されることとなる。   And since a preceding vehicle is determined using the road shape recognized well in this way and the inter-vehicle distance control and the inter-vehicle distance warning are performed, these controls will be carried out satisfactorily.

なお、本実施形態においては、距離・角度測定器5がレーダ手段に相当し、コンピュータ3のデータのグルーピングブロック41、物体認識ブロック43及び道路形状認識ブロック45が認識手段に相当する。但し、その内のデータのグルーピングブロック41及び物体認識ブロック43が物体認識手段に相当し、道路形状認識ブロック45が有効データ抽出手段、起点選択手段、路側物群データ形成手段、道路端認識手段に相当する。   In the present embodiment, the distance / angle measuring device 5 corresponds to a radar unit, and the data grouping block 41, the object recognition block 43, and the road shape recognition block 45 of the computer 3 correspond to a recognition unit. However, the grouping block 41 and the object recognition block 43 of the data among them correspond to the object recognition means, and the road shape recognition block 45 serves as the effective data extraction means, the starting point selection means, the roadside object group data formation means, and the road edge recognition means. Equivalent to.

また、接続条件範囲aが第1接続条件範囲に対応し、接続条件範囲bが第2接続条件範囲に対応する。   Further, the connection condition range a corresponds to the first connection condition range, and the connection condition range b corresponds to the second connection condition range.

(第2実施形態)
本実施形態では、第1実施形態と異なる部分について説明する。本実施形態では、自車側のセグメント(停止物群)を優先的に用いてセグメントを接続し、これにより道路端テーブルを生成することが特徴となっている。
(Second Embodiment)
In the present embodiment, parts different from the first embodiment will be described. The present embodiment is characterized in that a segment (stop object group) on the own vehicle side is preferentially used to connect the segments, thereby generating a road edge table.

例えば、全てのセグメントを用いて平均の道路端を求める場合、図8(a)に示すように道路端の平均が車幅方向(X軸方向)にばらついてしまう。そこで、本実施形態では、自車側(内側)のセグメントを用いてグルーピングを行う。なお、本実施形態に係るグルーピングは、第1実施形態のS5000およびS6000の処理に該当する。   For example, when the average road edge is obtained using all the segments, the average of the road edge varies in the vehicle width direction (X-axis direction) as shown in FIG. Therefore, in the present embodiment, grouping is performed using the vehicle side (inner side) segment. Note that the grouping according to the present embodiment corresponds to the processing of S5000 and S6000 of the first embodiment.

具体的には、図8(b)に示すように、各セグメントを通る円とX軸との交点をそれぞれ求め、最も内側の交点から所定の閾値だけ離れた範囲内に交点のあるセグメントのみを用いてグルーピングを行う。これにより、図8(b)においてX軸方向に自車から最も離れたセグメントはグルーピングの対象外となる。したがって、算出される平均の道路端は内側(自車側)の各セグメントを通るように認識される。   Specifically, as shown in FIG. 8 (b), the intersection of the circle passing through each segment and the X axis is obtained, and only the segment having the intersection within a range away from the innermost intersection by a predetermined threshold is obtained. To perform grouping. As a result, the segment farthest from the vehicle in the X-axis direction in FIG. 8B is excluded from grouping. Therefore, the calculated average road edge is recognized so as to pass through each segment on the inner side (vehicle side).

以上のように、本実施形態では、より自車側(内側)で同じ曲線上にある路側物群を優先的にグルーピングに使っている。すなわち、自車側(内側)のセグメントを優先的に使用した道路端テーブルを生成しているので、車幅方向(X軸方向)にセグメントが複数存在して路側が二重に見えているとき等の状況においても道路端の認識の精度が向上する。したがって、より正確な道路形状を頻度良く算出することができる。   As described above, in this embodiment, the roadside object group on the same curve on the own vehicle side (inside) is preferentially used for grouping. In other words, because the road edge table that preferentially uses the vehicle side (inner side) segment is generated, when there are multiple segments in the vehicle width direction (X-axis direction) and the road side looks double Even in such situations, the accuracy of road edge recognition is improved. Therefore, a more accurate road shape can be calculated frequently.

(他の実施形態)
本発明は上記の実施形態に何等限定されるものではなく、本発明の主旨を逸脱しない範囲において種々なる形態で実施し得る。例えば、下記の(1)〜(4)のように変更可能である。
(Other embodiments)
The present invention is not limited to the above embodiment, and can be implemented in various forms without departing from the gist of the present invention. For example, it can be changed as the following (1) to (4).

(1)例えば、上記実施形態では、S7000にて両路側物群に属する最遠セグメントについては除外したが、その重複した最遠セグメントについて、左右両方向の路側物群データのいずれにより属する可能性が高いかを判定し属する可能性が高い側の路側物群データに含めてもよい。このようにすれば、重複した最遠データもできるだけ生かすことができる。なお、判定に際しては、例えばS5100,S6100での手法を援用してもよい。すなわち、最遠セグメントの位置と、両路側物群に対応する各円とのX軸方向への距離ΔXの大小を判定し、距離ΔXが小さい方に含めるといったことである。なお、例えば両方の円の間には不感帯を設け、その不感帯を超えて近い方の路側物群に含めるようにしてもよい。   (1) For example, in the above embodiment, the farthest segment belonging to both roadside object groups is excluded in S7000, but there is a possibility that the overlapping farthest segment may belong to any of the roadside object group data in both the left and right directions. You may determine whether it is high and may include it in the roadside thing group data of the side with the high possibility of belonging. In this way, the duplicated farthest data can be utilized as much as possible. For the determination, for example, the technique in S5100 and S6100 may be used. That is, the magnitude of the distance ΔX in the X-axis direction between the position of the farthest segment and each circle corresponding to both roadside object groups is determined, and included in the smaller distance ΔX. For example, a dead zone may be provided between both circles, and may be included in the roadside object group closer to the dead zone.

(2)上記実施形態あるいは上記(1)の内容は、最遠データをなるべく生かそうという観点からの対処であったが、誤判定をなるべく回避するという観点であれば、S5100,S6100において最遠セグメントを無条件に除外することも考えられる。このようにすれば、その最遠データを用いることによる誤判定は確実に回避できる。   (2) The content of the above embodiment or the above (1) is a countermeasure from the viewpoint of utilizing the farthest data as much as possible. However, from the viewpoint of avoiding erroneous determination as much as possible, the farthest in S5100 and S6100 It is also possible to exclude a segment unconditionally. In this way, erroneous determination due to using the farthest data can be reliably avoided.

(3)上記実施形態では、路側物群を構成するセグメント間を補間することで道路端を線分の集合として認識しているが、補間の方法としてはこれに限られることはなく、例えばセグメント間を曲線によって補間し、道路端を滑らかな曲線として認識してもよい。   (3) In the above embodiment, the road edges are recognized as a set of line segments by interpolating between the segments constituting the roadside object group. However, the interpolation method is not limited to this, for example, the segment It is also possible to interpolate between them with a curve and recognize the road edge as a smooth curve.

(4)上記実施例形態では「レーダ手段」としてレーザ光を用いた距離・角度測定器5を採用したが、ミリ波等を用いてもよいことは既に述べた。そして、例えばミリ波のFMCWレーダやドップラーレーダを用いた場合には、反射波(受信波)から先行車までの距離情報と先行車の相対速度情報が一度に得られるため、レーザ光を用いた場合のように、距離情報に基づいて相対速度を算出するという過程は不要となる。   (4) In the above embodiment, the distance / angle measuring device 5 using laser light is employed as the “radar means”, but it has already been described that a millimeter wave or the like may be used. For example, when a millimeter wave FMCW radar or Doppler radar is used, the distance information from the reflected wave (received wave) to the preceding vehicle and the relative speed information of the preceding vehicle can be obtained at a time. As in the case, the process of calculating the relative speed based on the distance information becomes unnecessary.

1 車両制御装置
3 コンピュータ
5 距離・角度測定器
41 グルーピングブロック
43 物体認識ブロック
45 道路形状認識ブロック
DESCRIPTION OF SYMBOLS 1 Vehicle control apparatus 3 Computer 5 Distance and angle measuring device 41 Grouping block 43 Object recognition block 45 Road shape recognition block

Claims (7)

車幅方向の所定角度範囲内に渡り送信波を照射し、その反射波に基づいて車両周囲の道路形状を認識する車両用道路形状認識方法であって、
前記反射波に基づいて、少なくとも物体までの距離を含む物体単位データを車幅方向角度に対応して取得し、
前記反射波に基づいて得た物体の相対速度及び自車速に基づいて移動物体か停止物体という認識種別を判定し、この認識種別の判定結果に基づいて、道路形状を認識するために有効な前記物体単位データを抽出し、
抽出した物体単位データの中から、前記車幅方向の距離が最も自車側に位置する停止物体の横位置を抽出すると共に、前記車幅方向において前記最も自車側の停止物体の横位置から所定距離だけ離れた範囲内に位置し、かつ、自車からの直接の距離が最も小さい停止物体を起点に決定し、
左角度方向から右角度方向及び右角度方向から左角度方向の両方向についてそれぞれ、接続条件として距離が単調増加であるデータ同士を前記起点から接続してグルーピングして路側物群のデータを形成し、その形成された路側物群のデータに基づき道路端を認識することを特徴とする車両用道路形状認識方法。
A vehicle road shape recognition method for irradiating a transmission wave over a predetermined angle range in the vehicle width direction and recognizing a road shape around the vehicle based on the reflected wave,
Based on the reflected wave, object unit data including at least the distance to the object is acquired corresponding to the vehicle width direction angle,
Effective for recognizing a road shape based on a determination result of the recognition type based on a determination result of the recognition type by determining a recognition type of a moving object or a stopped object based on the relative speed of the object obtained based on the reflected wave and the own vehicle speed. Extract object unit data,
From the extracted object unit data, the lateral position of the stopped object whose distance in the vehicle width direction is located closest to the own vehicle is extracted, and from the lateral position of the stopped object closest to the own vehicle in the vehicle width direction. The starting point is a stationary object that is located within a predetermined distance and has the smallest direct distance from the vehicle.
For both directions from the left angle direction to the right angle direction and from the right angle direction to the left angle direction, the data for the monotonically increasing distance as connection conditions are connected from the starting point to form grouping data of roadside objects, A road shape recognition method for a vehicle, wherein a road edge is recognized based on data of the formed roadside object group.
前記路側物群のデータを形成する際には、第1接続条件範囲(a)と、この第1接続条件範囲に含まれると共に範囲が当該第1接続条件範囲よりも小さい第2接続条件範囲(b)と、を設定し、前記起点を出発点として当該起点を基点とした前記第1接続条件範囲および前記第2接続条件範囲の両方に含まれる停止物体を前記起点に接続し、この接続後の停止物体を次の基点として前記第1接続条件範囲および前記第2接続条件範囲の両方に含まれる停止物体を接続し、これを繰り返して停止物体をグルーピングすることにより前記路側物群のデータを形成することを特徴とする請求項1に記載の車両用道路形状認識方法。   When forming the data of the roadside object group, a first connection condition range (a) and a second connection condition range that is included in the first connection condition range and whose range is smaller than the first connection condition range ( b) is set, the stop object included in both the first connection condition range and the second connection condition range starting from the starting point as a starting point and connected to the starting point is connected to the starting point. By connecting stop objects included in both the first connection condition range and the second connection condition range with the next stop object as the next base point, and repeating this, grouping the stop objects, the data of the roadside object group is obtained. The vehicle road shape recognition method according to claim 1, wherein the vehicle road shape recognition method is formed. 前記路側物群のデータに基づいて前記道路端を認識する際には、前記路側物群のデータを複数形成した後、前記路側物群を通る円と前記車幅方向の軸との交点を前記複数の路側物群毎にそれぞれ求め、前記車幅方向において最も自車側の交点から所定の閾値だけ離れた範囲内に位置する交点に対応した路側物群のみを用いて前記道路端の認識を行うことを特徴とする請求項1または2に記載の車両用道路形状認識方法。   When recognizing the road edge based on the roadside object group data, after forming a plurality of the roadside object group data, the intersection of the circle passing through the roadside object group and the axis in the vehicle width direction is Recognizing the road edge using only a roadside object group corresponding to an intersection located within a range that is a predetermined threshold away from the intersection on the own vehicle side in the vehicle width direction. The vehicle road shape recognition method according to claim 1, wherein the vehicle road shape recognition method is performed. 車幅方向の所定角度範囲内に渡り送信波を照射し、その反射波に基づいて物体を検出するレーダ手段(5)と、
当該レーダ手段(5)による検出結果に基づき、車両前方の道路形状を認識する認識手段(41、43、45)と、を備えた車両用道路形状認識装置であって、
前記レーダ手段(5)は、前記反射波に基づいて、少なくとも物体までの距離を含む物体単位データを車幅方向角度に対応して取得し、
前記認識手段(41、43、45)は、
前記反射波に基づいて得た物体の相対速度及び自車速に基づいて移動物体か停止物体という認識種別を判定する物体認識手段(41、43)と、
当該物体認識手段(41、43)による認識結果に基づき、道路形状を認識するために有効な前記物体単位データを抽出する有効データ抽出手段(45)と、
前記有効データ抽出手段(45)で抽出された物体単位データの中から、前記車幅方向の距離が最も自車側に位置する停止物体の横位置を抽出すると共に、前記車幅方向において前記最も自車側の停止物体の横位置から所定距離だけ離れた範囲内に位置し、かつ、自車からの直接の距離が最も小さい停止物体を起点に決定する起点選択手段(45)と、
左角度方向から右角度方向及び右角度方向から左角度方向の両方向についてそれぞれ、接続条件として距離が単調増加であるデータ同士を前記起点選択手段(45)で決定された前記起点から接続してグルーピングして路側物群のデータを形成する路側物群データ形成手段(45)と、
前記路側物群データ形成手段(45)にて形成された前記両方向の路側物群のデータに基づき道路端を認識する道路端認識手段(41、43、45)と、を備えていることを特徴とする車両用道路形状認識装置。
Radar means (5) for irradiating a transmission wave within a predetermined angle range in the vehicle width direction and detecting an object based on the reflected wave;
Recognizing means (41, 43, 45) for recognizing the road shape ahead of the vehicle based on the detection result by the radar means (5),
The radar means (5) acquires object unit data including at least a distance to the object based on the reflected wave, corresponding to the vehicle width direction angle,
The recognition means (41, 43, 45)
Object recognition means (41, 43) for determining a recognition type of a moving object or a stopped object based on the relative speed of the object obtained based on the reflected wave and the own vehicle speed;
Effective data extraction means (45) for extracting the object unit data effective for recognizing the road shape based on the recognition result by the object recognition means (41, 43);
From the object unit data extracted by the effective data extraction means (45), the lateral position of the stopped object whose distance in the vehicle width direction is located closest to the own vehicle is extracted, and the highest in the vehicle width direction. Start point selection means (45) for determining a stop object that is located within a predetermined distance from the lateral position of the stop object on the own vehicle side and has the smallest direct distance from the own vehicle as a start point;
For both the left angle direction to the right angle direction and the right angle direction to the left angle direction, data whose distances are monotonously increased as connection conditions are connected from the starting point determined by the starting point selecting means (45) and grouped. Roadside object group data forming means (45) for forming roadside object group data,
Road edge recognition means (41, 43, 45) for recognizing the road edge based on the roadside object group data in both directions formed by the roadside object group data formation means (45). A vehicle road shape recognition device.
前記路側物群データ形成手段(45)は、第1接続条件範囲と、この第1接続条件範囲に含まれると共に範囲が当該第1接続条件範囲よりも小さい第2接続条件範囲と、を有し、前記起点選択手段(45)で決定された前記起点を出発点として当該起点を基点とした前記第1接続条件範囲および前記第2接続条件範囲の両方に含まれる停止物体を前記起点に接続し、この接続後の停止物体を次の基点として前記第1接続条件範囲および前記第2接続条件範囲の両方に含まれる停止物体を接続し、これを繰り返して停止物体をグルーピングすることにより前記路側物群のデータを形成することを特徴とする請求項4に記載の車両用道路形状認識装置。   The roadside object group data forming means (45) includes a first connection condition range and a second connection condition range that is included in the first connection condition range and whose range is smaller than the first connection condition range. The stop object included in both the first connection condition range and the second connection condition range starting from the starting point determined by the starting point selecting means (45) and starting from the starting point is connected to the starting point. The roadside object is formed by connecting the stopped objects included in both of the first connection condition range and the second connection condition range by using the stopped object after the connection as the next base point, and grouping the stopped objects by repeating this. The vehicle road shape recognition apparatus according to claim 4, wherein group data is formed. 前記路側物群データ形成手段(45)は、前記路側物群のデータを複数形成し、
前記道路端認識手段(41、43、45)は、前記路側物群を通る円と前記車幅方向の軸との交点を前記複数の路側物群毎にそれぞれ求め、前記車幅方向において最も自車側の交点から所定の閾値だけ離れた範囲内に位置する交点に対応した路側物群のみを用いて前記道路端の認識を行うことを特徴とする請求項4または5に記載の車両用道路形状認識装置。
The roadside object group data forming means (45) forms a plurality of data of the roadside object group,
The road edge recognizing means (41, 43, 45) obtains an intersection between a circle passing through the roadside object group and an axis in the vehicle width direction for each of the plurality of roadside object groups, and most automatically in the vehicle width direction. 6. The vehicle road according to claim 4 or 5, wherein the road edge is recognized using only a roadside object group corresponding to an intersection located within a range away from a vehicle-side intersection by a predetermined threshold. Shape recognition device.
請求項4ないし6に記載の車両用道路形状認識装置の認識手段としてコンピュータシステムを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing a program for causing a computer system to function as recognition means of the vehicle road shape recognition apparatus according to claim 4.
JP2011110224A 2011-03-21 2011-05-17 Vehicular road shape recognition method and apparatus, and recording medium Active JP5321640B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011110224A JP5321640B2 (en) 2011-05-17 2011-05-17 Vehicular road shape recognition method and apparatus, and recording medium
DE102012204441A DE102012204441A1 (en) 2011-03-21 2012-03-20 Method and device for detecting a course of a road for vehicles
US13/424,735 US8781644B2 (en) 2011-03-21 2012-03-20 Method and apparatus for recognizing shape of road for vehicles
CN201210076608.3A CN102693645B (en) 2011-03-21 2012-03-21 Method and apparatus for recognizing shape of road for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011110224A JP5321640B2 (en) 2011-05-17 2011-05-17 Vehicular road shape recognition method and apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2012242937A true JP2012242937A (en) 2012-12-10
JP5321640B2 JP5321640B2 (en) 2013-10-23

Family

ID=47464619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011110224A Active JP5321640B2 (en) 2011-03-21 2011-05-17 Vehicular road shape recognition method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP5321640B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014202709A (en) * 2013-04-09 2014-10-27 スズキ株式会社 Object detection device for vehicle
JP2018066702A (en) * 2016-10-21 2018-04-26 株式会社デンソーテン Radar device and target grouping method
US10001560B2 (en) 2014-04-25 2018-06-19 Fujitsu Ten Limited Radar apparatus
WO2021166893A1 (en) * 2020-02-21 2021-08-26 株式会社デンソー Target object recognition device
US11983937B2 (en) 2018-07-12 2024-05-14 Denso Corporation Intersecting road estimation device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256600A (en) * 2000-03-09 2001-09-21 Denso Corp Method and device for recognizing road condition for vehicle and recording medium
JP2001338398A (en) * 2000-05-25 2001-12-07 Denso Corp Road shape recognizing device, preceding vehicle specifing device and recording medium
JP2003255047A (en) * 2001-12-27 2003-09-10 Nissan Motor Co Ltd Apparatus and method for detecting object in front
JP2006119026A (en) * 2004-10-22 2006-05-11 Nissan Motor Co Ltd Front object sensitive device and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256600A (en) * 2000-03-09 2001-09-21 Denso Corp Method and device for recognizing road condition for vehicle and recording medium
JP2001338398A (en) * 2000-05-25 2001-12-07 Denso Corp Road shape recognizing device, preceding vehicle specifing device and recording medium
JP2003255047A (en) * 2001-12-27 2003-09-10 Nissan Motor Co Ltd Apparatus and method for detecting object in front
JP2006119026A (en) * 2004-10-22 2006-05-11 Nissan Motor Co Ltd Front object sensitive device and method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014202709A (en) * 2013-04-09 2014-10-27 スズキ株式会社 Object detection device for vehicle
US10001560B2 (en) 2014-04-25 2018-06-19 Fujitsu Ten Limited Radar apparatus
JP2018066702A (en) * 2016-10-21 2018-04-26 株式会社デンソーテン Radar device and target grouping method
US11983937B2 (en) 2018-07-12 2024-05-14 Denso Corporation Intersecting road estimation device
WO2021166893A1 (en) * 2020-02-21 2021-08-26 株式会社デンソー Target object recognition device
JP2021135512A (en) * 2020-02-21 2021-09-13 株式会社デンソー Target recognition system
JP7283417B2 (en) 2020-02-21 2023-05-30 株式会社デンソー Target object recognition device

Also Published As

Publication number Publication date
JP5321640B2 (en) 2013-10-23

Similar Documents

Publication Publication Date Title
JP3427809B2 (en) Vehicle road shape recognition method and apparatus, recording medium
US10793162B2 (en) Method and system for predicting driving path of neighboring vehicle
JP5402983B2 (en) Vehicular road shape recognition method and apparatus, and recording medium
JP3427815B2 (en) Method and apparatus for selecting preceding vehicle, recording medium
US8781644B2 (en) Method and apparatus for recognizing shape of road for vehicles
JP6970936B2 (en) Object detector, object detection program, and recording medium
JP6450294B2 (en) Object detection apparatus, object detection method, and program
CN111796286B (en) Brake grade evaluation method and device, vehicle and storage medium
JP5321640B2 (en) Vehicular road shape recognition method and apparatus, and recording medium
JP2001250197A (en) Method and device for road unevenness recognition for vehicle and recording medium
JP3427817B2 (en) Vehicle obstacle recognition method and apparatus, recording medium
JP5402968B2 (en) Vehicular road shape recognition method and apparatus, and recording medium
JPWO2017159639A1 (en) Mining work machine
JP4723220B2 (en) Traffic direction recognition method and apparatus
US11307292B2 (en) ODM information reliability determination system and method and vehicle using the same
US7830242B2 (en) Driver assistance system having a device for detecting special situations
JP6375867B2 (en) On-vehicle object discrimination device
US20230090259A1 (en) Sensor information fusion method and device, and recording medium recording program for executing the method
JP5353946B2 (en) Vehicular road shape recognition method and apparatus, and recording medium
JP4823282B2 (en) Perimeter monitoring sensor
JP2012242936A (en) Vehicular road shape recognition method and device and recording medium
JP2007333615A (en) Radar measurement system
KR102332509B1 (en) Method and apparatus for rear cross collision warning
JP5327272B2 (en) Vehicular road shape recognition method and apparatus, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130701

R151 Written notification of patent or utility model registration

Ref document number: 5321640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250