JP7344744B2 - Roadside edge detection method and roadside edge detection device - Google Patents

Roadside edge detection method and roadside edge detection device Download PDF

Info

Publication number
JP7344744B2
JP7344744B2 JP2019186368A JP2019186368A JP7344744B2 JP 7344744 B2 JP7344744 B2 JP 7344744B2 JP 2019186368 A JP2019186368 A JP 2019186368A JP 2019186368 A JP2019186368 A JP 2019186368A JP 7344744 B2 JP7344744 B2 JP 7344744B2
Authority
JP
Japan
Prior art keywords
roadside
vehicle
roadside edge
road surface
edge detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019186368A
Other languages
Japanese (ja)
Other versions
JP2021060944A (en
Inventor
邦昭 野田
朋子 黒飛
尭史 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019186368A priority Critical patent/JP7344744B2/en
Publication of JP2021060944A publication Critical patent/JP2021060944A/en
Application granted granted Critical
Publication of JP7344744B2 publication Critical patent/JP7344744B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、路側端検出方法、及び、路側端検出装置に関するものである。 The present invention relates to a roadside edge detection method and a roadside edge detection device.

車両の運転支援システムなどにおいては、車両が走行する路面における縁石等の路側物が設けられる位置を路側端として検出し、検出された路側端の内側を走行するように運転支援が行われている。 In vehicle driving support systems, the position of a roadside object such as a curb on the road surface on which the vehicle is traveling is detected as the roadside edge, and driving assistance is provided so that the vehicle drives inside the detected roadside edge. .

例えば、特許文献1に示される運転支援システムによれば、レーザレーダによって路面の幅方向に沿う複数の測定点の位置情報を取得し、車幅方向に並ぶ一郡の測定点における不連続部分を路側端として検出する。 For example, according to the driving support system disclosed in Patent Document 1, position information of a plurality of measurement points along the width direction of the road surface is acquired using a laser radar, and discontinuous portions at a group of measurement points lined up in the vehicle width direction are detected. Detected as roadside end.

特開2016-45507号公報Japanese Patent Application Publication No. 2016-45507

特許文献1において、車幅方向に並ぶ一群の測定点において測定される位置情報に欠損が生じることがある。このような場合には、位置情報の欠損に起因して発生する不連続部分と、実際の路側物との位置の対応がとれなくなり、路側端を正確に検出できないおそれがある。 In Patent Document 1, a loss may occur in the position information measured at a group of measurement points lined up in the vehicle width direction. In such a case, there is a possibility that the discontinuous portion that occurs due to the lack of positional information does not correspond to the position of the actual roadside object, and the roadside end cannot be detected accurately.

本発明においては、上記課題を解決するためになされたものであり、路側端の検出精度の向上を図る、路側端検出方法、及び、路側端検出装置を提供するものである。 The present invention has been made to solve the above problems, and provides a roadside edge detection method and a roadside edge detection device that improve the detection accuracy of roadside edges.

本発明の路側端検出方法は、車両が走行する路面において、路側物が設けられた路側端を路側端検出装置により検出する路側端検出方法である。路側端検出方法は、車両の周囲の所定範囲において、路面の高さを検出する路面高検出ステップと、路面高検出ステップにおいて検出された所定範囲における路面の高さを、車両を基準とする車幅方向の位置に応じて、車両の走行方向に沿って総和を算出する総和算出ステップと、総和算出ステップにおいて算出された総和が閾値を上回る車幅方向の位置が、路側端であると判定する、路側端判定ステップと、を備える。 The roadside edge detection method of the present invention is a roadside edge detection method in which a roadside edge on which a roadside object is provided is detected by a roadside edge detection device on a road surface on which a vehicle travels. The roadside edge detection method includes a road surface height detection step that detects the height of the road surface in a predetermined range around the vehicle, and a road surface height detection step that detects the height of the road surface in the predetermined range detected in the road surface height detection step. A total sum calculation step of calculating the sum along the vehicle running direction according to the position in the width direction, and determining that a position in the vehicle width direction where the sum calculated in the sum calculation step exceeds a threshold value is the roadside edge. , a roadside edge determination step.

本発明の路側端検出方法によれば、路側端の検出精度の向上を図ることができる。 According to the roadside edge detection method of the present invention, it is possible to improve the accuracy of roadside edge detection.

図1は、第1実施形態に係る路側端検出方法を実行する運転支援システムの概略構成図である。FIG. 1 is a schematic configuration diagram of a driving support system that executes the roadside edge detection method according to the first embodiment. 図2は、測距データの取得制御を示す説明図である。FIG. 2 is an explanatory diagram showing acquisition control of ranging data. 図3は、測距データからグリッドマップを生成する方法の説明図である。FIG. 3 is an explanatory diagram of a method for generating a grid map from ranging data. 図4は、占有グリッドマップの一例を示す図である。FIG. 4 is a diagram showing an example of an occupancy grid map. 図5は、路側端検出制御のフローチャートである。FIG. 5 is a flowchart of roadside edge detection control. 図6は、測距データの測定点を上方から示す図である。FIG. 6 is a diagram showing measurement points of distance measurement data from above. 図7は、路側端検出制御における一部の処理の説明図である。FIG. 7 is an explanatory diagram of part of the processing in the roadside edge detection control. 図8は、路側端検出制御の詳細な具体例の一例の説明図である。FIG. 8 is an explanatory diagram of an example of a detailed example of roadside edge detection control. 図9は、第2実施形態に係る路側端検出方法を実行する運転支援システムの概略構成図である。FIG. 9 is a schematic configuration diagram of a driving support system that executes the roadside edge detection method according to the second embodiment. 図10は、第3実施形態に係る路側端検出方法を実行する運転支援システムの概略構成図である。FIG. 10 is a schematic configuration diagram of a driving support system that executes the roadside edge detection method according to the third embodiment. 図11は、走行レーンが直線である場合と、曲がっている場合との比較を示す図である。FIG. 11 is a diagram showing a comparison between a case where the driving lane is straight and a case where the driving lane is curved. 図12は、変形例におけるグリッドマップの分割例を示す図である。FIG. 12 is a diagram showing an example of division of a grid map in a modified example.

以下、図面を用いて、本発明の実施形態に係る路側端検出方法、及び、路側端検出装置について説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS A roadside edge detection method and a roadside edge detection device according to an embodiment of the present invention will be described below with reference to the drawings.

(第1実施形態)
図1は、第1実施形態に係る路側端検出方法を実行する運転支援システムの概略構成図である。
(First embodiment)
FIG. 1 is a schematic configuration diagram of a driving support system that executes the roadside edge detection method according to the first embodiment.

運転支援システム100は、ドライバによる車両の運転を支援することを目的として、車両に搭載されるシステムである。運転支援システム100は、移動物体検出部11と、測距センサ12と、測距データフィルタ部13と、オドメトリ計測部14と、測距データ蓄積部15と、蓄積測距データ16と、占有グリッドマップ生成部17と、占有グリッドマップ18と、占有グリッドマップ加算部19と、不連続境界検出部20と、路側端判定部21と、出力部22と、を有する。 The driving support system 100 is a system installed in a vehicle for the purpose of assisting a driver in driving the vehicle. The driving support system 100 includes a moving object detection section 11, a distance measurement sensor 12, a distance measurement data filter section 13, an odometry measurement section 14, a distance measurement data storage section 15, an accumulated distance measurement data 16, and an occupancy grid. It includes a map generation section 17, an occupancy grid map 18, an occupancy grid map addition section 19, a discontinuous boundary detection section 20, a roadside edge determination section 21, and an output section 22.

これらの構成のうち、測距データフィルタ部13、測距データ蓄積部15、蓄積測距データ16、占有グリッドマップ生成部17、占有グリッドマップ18、占有グリッドマップ加算部19、不連続境界検出部20、路側端判定部21、及び、出力部22は、路側端検出装置10として一体に構成されている。路側端検出装置10において、測距データフィルタ部13、測距データ蓄積部15、蓄積測距データ16~出力部22の構成は、同一のマイクロコンピュータにおいて構成されてもよいし、異なるマイクロコンピュータにより構成されてもよい。また、移動物体検出部11、測距センサ12、及び、オドメトリ計測部14は、路側端検出装置10とは別体のセンサとして設けられる。 Among these components, a distance measurement data filter section 13, a distance measurement data storage section 15, an accumulated distance measurement data 16, an occupancy grid map generation section 17, an occupancy grid map 18, an occupancy grid map addition section 19, and a discontinuous boundary detection section. 20, the roadside edge determination section 21, and the output section 22 are integrally configured as the roadside edge detection device 10. In the roadside edge detection device 10, the distance measurement data filter section 13, the distance measurement data storage section 15, and the accumulated distance measurement data 16 to output section 22 may be configured in the same microcomputer, or may be configured in different microcomputers. may be configured. Further, the moving object detection section 11, the distance measurement sensor 12, and the odometry measurement section 14 are provided as sensors separate from the roadside edge detection device 10.

以下では、運転支援システム100の各構成の詳細について説明する。 Below, details of each configuration of the driving support system 100 will be explained.

移動物体検出部11は、車両の周囲に存在する移動中の物体(移動物体)を検出し、その検出した移動物体の位置を示す情報、測距データフィルタ部13へ出力する。例えば、移動物体検出部11は、カメラを含む画像処理部であって、撮影された時系列の画像を解析することで、移動物体の位置を検出する。 The moving object detection section 11 detects a moving object (moving object) existing around the vehicle, and outputs information indicating the position of the detected moving object to the ranging data filter section 13. For example, the moving object detection unit 11 is an image processing unit including a camera, and detects the position of a moving object by analyzing captured time-series images.

測距センサ12は、車両の周囲にある物体の車両からの距離及び方向、すなわち車両に対する物体位置を測定するセンサであり、路面及び路面上に存在する構造物の表面に複数の測定点を設定し、それらの測定点までの距離を計測する。なお、以下において、測距センサ12による距離の測定対象として示される路面は、路面上に配置される路側物などを含むものとする。そのため、測距センサ12により取得される測距データには、路面が存在する平面方向において構造物などにより生じる起伏が示されることとなる。 The distance sensor 12 is a sensor that measures the distance and direction from the vehicle of objects around the vehicle, that is, the object position with respect to the vehicle, and sets a plurality of measurement points on the surface of the road surface and structures on the road surface. and measure the distance to those measurement points. In addition, in the following, the road surface indicated as a distance measurement target by the distance measuring sensor 12 includes roadside objects arranged on the road surface. Therefore, the ranging data acquired by the ranging sensor 12 shows undulations caused by structures and the like in the plane direction where the road surface exists.

測距センサ12は、レーザレーダ(LiDAR)に限らず、ステレオカメラなどであってもよい。測距センサ12は、複数の測定点のまでの車両に対する相対距離及び方向を計測できるセンサであれば、センサの種類は限定されない。そのため、測距データとしての位置は、車両の位置を基準とする相対座標系である車両座標系で示される。 The distance measuring sensor 12 is not limited to a laser radar (LiDAR), but may be a stereo camera or the like. The type of distance measuring sensor 12 is not limited as long as it can measure relative distances and directions to a plurality of measurement points with respect to the vehicle. Therefore, the position as distance measurement data is indicated by a vehicle coordinate system, which is a relative coordinate system with the vehicle position as a reference.

測距データフィルタ部13には、測距センサ12により取得された測距データと、移動物体検出部11により取得された移動物体の位置情報が入力される。測距データフィルタ部13は、測距センサ12により取得された測距データから、移動物体検出部11により検出された移動物体が存在する領域における測距データを消去し、消去した測距データを、測距データ蓄積部15へと出力する。 The distance measurement data obtained by the distance measurement sensor 12 and the position information of the moving object obtained by the moving object detection section 11 are input to the distance measurement data filter section 13 . The distance measurement data filter section 13 erases the distance measurement data in the area where the moving object detected by the moving object detection section 11 exists from the distance measurement data acquired by the distance measurement sensor 12, and uses the erased distance measurement data. , and output to the distance measurement data storage section 15.

オドメトリ計測部14は、走行する車両に関するオドメトリ情報を取得すると、そのオドメトリ情報を測距データ蓄積部15へと出力する。オドメトリ情報には、車両の走行速度や走行角などが含まれており、走行軌跡の作成等に用いることができる。 When the odometry measurement unit 14 acquires odometry information regarding a running vehicle, the odometry measurement unit 14 outputs the odometry information to the ranging data storage unit 15 . The odometry information includes the vehicle's running speed, running angle, etc., and can be used for creating a running trajectory, etc.

測距データ蓄積部15は、オドメトリ計測部14により取得された車両のオドメトリ情報と、測距データフィルタ部13におけるフィルタ処理を経た測距データとの入力を受け付ける。そして、測距データ蓄積部15は、これらの入力に応じて、車両座標系で観測された測距データをオドメトリ座標系に変換して、オドメトリ座標系に変換した測距データを複数用いて、蓄積測距データ16を作成する。 The distance measurement data storage section 15 receives input of the odometry information of the vehicle acquired by the odometry measurement section 14 and the distance measurement data that has been filtered by the distance measurement data filter section 13 . Then, in response to these inputs, the distance measurement data storage unit 15 converts the distance measurement data observed in the vehicle coordinate system to the odometry coordinate system, and uses a plurality of distance measurement data converted to the odometry coordinate system, Accumulated ranging data 16 is created.

蓄積測距データ16は、所定期間における測距データを蓄積したものであり、それぞれの測距データは、所定期間の開始時における車両が存在する位置を基準とする絶対座標系により示される。そして、蓄積測距データ16は、測距データ蓄積部15によって、占有グリッドマップ生成部17へと出力される。 The accumulated distance measurement data 16 is obtained by accumulating distance measurement data for a predetermined period, and each distance measurement data is represented by an absolute coordinate system based on the position where the vehicle is present at the start of the predetermined period. Then, the accumulated distance measurement data 16 is outputted by the distance measurement data storage section 15 to the occupancy grid map generation section 17.

占有グリッドマップ生成部17は、蓄積測距データ16を用いて所定の2次元領域のグリッドマップを生成し、その一部を切り出すことで占有グリッドマップ18を作成する。そして、占有グリッドマップ生成部17は、作成した占有グリッドマップ18を、占有グリッドマップ加算部19へと送信する。 The occupancy grid map generation unit 17 generates a grid map of a predetermined two-dimensional area using the accumulated distance measurement data 16, and creates an occupancy grid map 18 by cutting out a part of the grid map. Then, the occupancy grid map generation unit 17 transmits the created occupancy grid map 18 to the occupancy grid map addition unit 19.

占有グリッドマップ生成部17により生成されるグリッドマップは、車両の周囲における2次元の所定領域を格子(グリッド)状に区切り、これらのグリッドにおける物体の存在を離散的に示したものである。グリッドのそれぞれにおいては、そのグリッドに存在する物体の高さと対応する占有値が示される。すなわち、グリッドマップとは、縁石などが存在する路面の所定領域において、路面の表面の起伏や路面上に存在する構造物の存在などが離散化されたグリッドの集合として表現されたものである。 The grid map generated by the occupancy grid map generation unit 17 divides a two-dimensional predetermined area around the vehicle into grids, and discretely indicates the presence of objects in these grids. For each grid, the height of objects present in that grid and the corresponding occupancy value are indicated. In other words, a grid map is a set of grids in which the undulations of the road surface, the presence of structures on the road surface, etc. are discretized in a predetermined area of the road surface where curbs and the like exist.

グリッドマップとしては、XYの直交座標系での離散値や、r-θの極座標系での離散値を示すものなどが知られている。本実施形態において占有グリッドマップ生成部17により生成される2次元のグリッドマップは、XYの直交座標系で示されるものである。なお、このグリッドマップの詳細については、後に図3などを用いて説明する。 As grid maps, there are known ones that show discrete values in an XY orthogonal coordinate system and discrete values in an r-θ polar coordinate system. In this embodiment, the two-dimensional grid map generated by the occupancy grid map generation unit 17 is expressed in an XY orthogonal coordinate system. Note that details of this grid map will be explained later using FIG. 3 and the like.

占有グリッドマップ加算部19は、占有グリッドマップ生成部17により生成された占有グリッドマップ18に対して、車幅方向における車両からの位置に応じて、車両の走行方向に延在するグリッドの占有値の総和を算出する。これにより、占有グリッドマップ加算部19は、車幅方向の位置と対応する占有値の走行方向の総和の分布を生成し、不連続境界検出部20に出力する。 The occupancy grid map addition unit 19 adds occupancy values of grids extending in the vehicle running direction to the occupancy grid map 18 generated by the occupancy grid map generation unit 17 according to the position from the vehicle in the vehicle width direction. Calculate the total sum. As a result, the occupancy grid map addition section 19 generates a distribution of the sum of the occupancy values corresponding to the positions in the vehicle width direction in the traveling direction, and outputs the distribution to the discontinuous boundary detection section 20 .

不連続境界検出部20は、占有グリッドマップ加算部19により得られた占有値の総和の分布に対して、総和が所定の閾値を超えている車幅方向における位置を、不連続境界として検出する。そして、不連続境界検出部20は、検出した不連続境界を、路側端判定部21に出力する。なお、総和が所定の閾値を超える位置の検出は、車幅方向において、車両の存在する位置から左右の両側方に向かって行われる。 The discontinuous boundary detection unit 20 detects, as a discontinuous boundary, a position in the vehicle width direction where the total sum exceeds a predetermined threshold in the distribution of the sum of occupancy values obtained by the occupancy grid map addition unit 19. . Then, the discontinuous boundary detection section 20 outputs the detected discontinuous boundary to the roadside edge determination section 21. Note that the detection of the position where the sum exceeds a predetermined threshold value is performed from the position where the vehicle is present to both left and right sides in the vehicle width direction.

路側端判定部21は、不連続境界検出部20により検出された複数の不連続境界の入力を受け付けると、これらの不連続境界のうち、車幅方向において、車両から左右の両側方のそれぞれに最も近い2つの不連続境界を選択し、これらの2つの不連続境界を路側端として判定し、出力部22に出力する。 When receiving input of a plurality of discontinuous boundaries detected by the discontinuous boundary detection unit 20, the roadside edge determination unit 21 determines which of these discontinuous boundaries are located on each of the left and right sides from the vehicle in the vehicle width direction. The two closest discontinuous boundaries are selected, these two discontinuous boundaries are determined to be roadside edges, and the results are output to the output unit 22.

出力部22は、路側端判定部21により判定された路側端の車幅方向の位置を、運転支援システム100外にある自動走行システムなどへと出力する。例えば、自動走行システムは、受信した路側端の位置情報を用いて、路側端の間を車両が走行するように車両の走行を支援する。 The output unit 22 outputs the position of the roadside edge determined by the roadside edge determination unit 21 in the vehicle width direction to an automatic driving system or the like outside the driving support system 100. For example, an automatic driving system uses the received position information of roadside edges to support the driving of a vehicle so that the vehicle travels between roadside edges.

ここで、測距センサ12による測距データの取得制御の概要について説明する。 Here, an outline of the acquisition control of distance measurement data by the distance measurement sensor 12 will be explained.

図2は、測距センサ12による測距データの取得制御を示す説明図である。この図には、xyz軸を有する3次元空間の中を、車両200が走行する状況が示されている。なお、走行方向がx軸で、車幅方向がy軸で、高さ方向がz軸に相当する。 FIG. 2 is an explanatory diagram showing acquisition control of distance measurement data by the distance measurement sensor 12. This figure shows a situation in which the vehicle 200 travels in a three-dimensional space having x, y, and z axes. Note that the traveling direction corresponds to the x-axis, the vehicle width direction corresponds to the y-axis, and the height direction corresponds to the z-axis.

測距センサ12は、所定の周期で、xy平面において矩形状の所定領域において複数の測定点を設定し、これらの測定点までの距離を測定する。この図においては、時刻t-1、t、t+1、t+2の4回のタイミングで、距離を測定する。そして、測距センサ12は、この測定結果を用いて測距データを生成する。測距データには、車両200を基準とする相対座標系において、3次元の所定領域での任意の点の物体の有無が示される。そのため、測距データを用いることで、縁石などの路側物を含む路面の高さを知ることができる。 The distance measurement sensor 12 sets a plurality of measurement points in a predetermined rectangular area on the xy plane at a predetermined period, and measures distances to these measurement points. In this figure, the distance is measured at four timings: time t-1, t, t+1, and t+2. The distance measurement sensor 12 then generates distance measurement data using this measurement result. The distance measurement data indicates the presence or absence of an object at an arbitrary point in a three-dimensional predetermined area in a relative coordinate system with vehicle 200 as a reference. Therefore, by using the distance measurement data, it is possible to know the height of the road surface including roadside objects such as curbstones.

この図によれば、時刻t-1における測距データには、走行方向を前方とした場合における、左後方にある円柱状の障害物の高さ情報が含まれる。時刻tにおける測距データには、左前方にある直方体の障害物の高さ情報が含まれる。また、時刻t+1における測距データには、右前方にある円柱状の障害物の高さ情報が含まれる。このように、測距データによって、路面に存在する構造物についてのxy平面における位置、及び、z方向の高さが示されることになる。 According to this figure, the distance measurement data at time t-1 includes height information of a cylindrical obstacle on the rear left when the traveling direction is set as the front. The distance measurement data at time t includes height information of a rectangular parallelepiped obstacle on the left front. Further, the distance measurement data at time t+1 includes height information of a cylindrical obstacle in the right front. In this way, the distance measurement data indicates the position in the xy plane and the height in the z direction of the structure on the road surface.

なお、測距データは、測距データ蓄積部15によって、座標系が変換される。詳細には、測距データ蓄積部15は、オドメトリ計測部14から入力されるオドメトリ情報を用いて、それぞれの測定タイミング(t-1~t+2)における車両200の位置を、オドメトリ座標を用いて求める。そして、測距データ蓄積部15は、測距データフィルタ部13を経た測距データに対して、車両200を基準とする相対座標系からオドメトリ座標で示された所定の場所を基準とする絶対座標系への変換を行う。 Note that the coordinate system of the distance measurement data is converted by the distance measurement data storage section 15. Specifically, the distance measurement data storage section 15 uses odometry information input from the odometry measurement section 14 to determine the position of the vehicle 200 at each measurement timing (t-1 to t+2) using odometry coordinates. . Then, the distance measurement data storage section 15 converts the distance measurement data that has passed through the distance measurement data filter section 13 into an absolute coordinate system based on a predetermined location indicated by odometry coordinates from a relative coordinate system based on the vehicle 200. Perform the conversion to the system.

最終的に、測距データ蓄積部15は、絶対座標系に変換された複数の測距データを用いて、蓄積測距データ16を生成する。そして、占有グリッドマップ生成部17は、蓄積測距データ16を用いてグリッドマップを生成し、生成したグリッドマップの一部の領域を取り出すことにより、占有グリッドマップ18を生成する。 Finally, the distance measurement data storage section 15 generates accumulated distance measurement data 16 using the plurality of distance measurement data converted into the absolute coordinate system. Then, the occupancy grid map generation unit 17 generates a grid map using the accumulated distance measurement data 16, and generates an occupancy grid map 18 by extracting a part of the area of the generated grid map.

以下では、図3を用いて、測距データからグリッドマップを生成する方法を説明し、図4を用いて、生成されるグリッドマップの一部である占有グリッドマップ18の一例について説明する。 Below, a method for generating a grid map from distance measurement data will be explained using FIG. 3, and an example of the occupancy grid map 18, which is a part of the generated grid map, will be explained using FIG.

図3は、測距データからグリッドマップを生成する方法の説明図である。 FIG. 3 is an explanatory diagram of a method for generating a grid map from ranging data.

上述のように、測距センサ12は、測距センサ12の周囲の所定領域において複数の測定点xjを設定し、これらの複数の測定点xjまでの距離を取得して、測距データを求める。測距データには、1つの測定点xjに対応して、所定の3次元領域における任意の点のそれぞれにおいて、測定点xjを平均(分布の中心)とした共分散Σの正規分布が示される。なお、共分散Σは、物体の存在確率と対応するものである。すなわち、1つの測定点xjに対して、その測定点xjにおいてピークとなるような、3次元領域における共分散Σの正規分布(ガウス分布)が得られる。これは、測定点xjのそれぞれが、自身においてピークとする正規分布を定義しており、3次元空間の任意の点における共分散Σの分布値に影響を与えることを意味する。 As described above, the distance measurement sensor 12 sets a plurality of measurement points x j in a predetermined area around the distance measurement sensor 12, obtains distances to these measurement points x j , and obtains distance measurement data. seek. The distance measurement data has a normal distribution of covariance Σ with the measurement point x j as the average (center of distribution) at each arbitrary point in a predetermined three-dimensional area, corresponding to one measurement point x j . shown. Note that the covariance Σ corresponds to the probability of existence of an object. That is, for one measurement point x j , a normal distribution (Gaussian distribution) of the covariance Σ in the three-dimensional region is obtained, which has a peak at the measurement point x j . This means that each of the measurement points x j defines a normal distribution with a peak at itself, and influences the distribution value of the covariance Σ at any point in the three-dimensional space.

そこで、全ての測定点xjと対応する共分散Σの正規分布を用いて、2次元平面(xy平面)である路面に設けられるグリッド点xiのそれぞれについて、z方向(高さ方向)の共分散Σの総和を算出する。これにより、xy面内のグリッド点xiに存在する構造物のz方向における高さに応じた占有値を求めることができる。なお、占有値の算出においては、測距センサ12から測定点xjまでの距離rj、及び、測定点xjにおけるxy平面からの高さhjが、重み付けとして共分散Σの分布値に乗ざれる。 Therefore, using the normal distribution of covariance Σ corresponding to all measurement points x j , for each grid point x i provided on the road surface which is a two-dimensional plane (xy plane), the z direction (height direction) Calculate the sum of covariance Σ. Thereby, it is possible to obtain an occupancy value corresponding to the height in the z direction of the structure existing at the grid point x i in the xy plane. In addition, in calculating the occupancy value, the distance r j from the ranging sensor 12 to the measurement point x j and the height h j from the xy plane at the measurement point x j are weighted to the distribution value of the covariance Σ. Riding.

測距センサ12から測定点xjまでの距離rjが遠くなるほど、測定点xjの分布が疎になる。そこで、共分散Σの分布値に対して、測定点xjまでの距離rjを乗じて重み付けをすることにより、得られる占有値において、測定点xjの正規分布の影響を大きくできる。これにより、測定点xjの分布が疎になることを補償できる。 The farther the distance r j from the distance measurement sensor 12 to the measurement point x j becomes, the sparser the distribution of the measurement points x j becomes. Therefore, by weighting the distribution value of the covariance Σ by multiplying it by the distance r j to the measurement point x j , it is possible to increase the influence of the normal distribution of the measurement point x j on the obtained occupancy value. Thereby, it is possible to compensate for the sparse distribution of measurement points x j .

測定点xjに対する測定においては、路面において反射されるレーザーが用いられる。しかしながら、高さのある測定点xjに対する測定においては、路面の反射特性によっては正しい分布値よりも小さな値となるおそれがある。そこで、共分散Σの分布値に対して、測定点xjの高さhjを乗じて重み付けをすることにより、測定点xjの高さに起因する正規分布の不正確さを補償することができる。 A laser reflected from the road surface is used to measure the measurement point x j . However, when measuring a measurement point x j at a certain height, the distribution value may be smaller than the correct distribution value depending on the reflection characteristics of the road surface. Therefore, by weighting the distribution value of covariance Σ by multiplying it by the height h j of measurement point x j , the inaccuracy of the normal distribution due to the height of measurement point x j can be compensated for. I can do it.

したがって、任意の点xiにおける占有値Ciは、次式のように示すことができる。ただし、N(・;xj,Σ)はj番目の測距データの測定点xjを平均(分布の中心)とする共分散Σの正規分布を示すものである。また、xiは、グリッドの位置をxy平面において車両を基準とした相対座標で示したものである。iは、相対座標の位置を示すインデックスである。 Therefore, the occupancy value C i at any point x i can be expressed as follows. However , N (.; Moreover, x i indicates the position of the grid in relative coordinates with respect to the vehicle on the xy plane. i is an index indicating the relative coordinate position.

Figure 0007344744000001
Figure 0007344744000001

なお、最終的に測距データを重畳して得られる蓄積測距データ16は、占有値Ciの連続値で表現される。また、それぞれのグリッドにおける占有値Ciについては、一定の閾値より大きいか否かを判定する2値化処理を行ってもよい。 Note that the accumulated distance measurement data 16 finally obtained by superimposing the distance measurement data is expressed as a continuous value of the occupancy value C i . Further, for the occupancy value C i in each grid, a binarization process may be performed to determine whether or not it is larger than a certain threshold value.

測距データの表現形式としては、上述のような測距センサ12からの距離を測定した測定点を3次元空間に分布させるポイントクラウド形式に限られない。ステレオカメラからの出力結果のように、測距センサ12から測定点までの距離分布を2次元平面に投影した距離画像として表現するものであってもよい。 The representation format of the distance measurement data is not limited to the point cloud format in which measurement points that measure the distance from the distance measurement sensor 12 as described above are distributed in a three-dimensional space. The distance distribution from the distance measurement sensor 12 to the measurement point may be expressed as a distance image projected onto a two-dimensional plane, such as an output result from a stereo camera.

図4は、占有グリッドマップ生成部17により生成される占有グリッドマップ18の一例を示す図である。例えば、車両200を中心として、走行方向における前後、及び、車幅方向における左右が所定長の2次元の矩形領域として、この矩形領域を格子状に区切りグリッドを構成する。 FIG. 4 is a diagram showing an example of the occupancy grid map 18 generated by the occupancy grid map generation unit 17. For example, a two-dimensional rectangular area with a predetermined length in the front and rear in the driving direction and left and right in the vehicle width direction is formed with the vehicle 200 at the center, and this rectangular area is divided into a grid to form a grid.

この図によれば、矩形領域は、車両200を中心として、前後10m(+10m~-10m)、及び、左右20m(-20m~+20m)の範囲であるものとする。また、グリッドは、例えば縦横10~20cmの正方領域で設定されるものとする。このように、矩形領域において、所定のグリッド幅で区切られるグリッドが構成される。このような2次元の占有グリッドマップ18には、各グリッドにおいて存在する物体の高さを示す占有値Ciが示される。 According to this figure, the rectangular area is a range of 10 m (+10 m to -10 m) front and back and 20 m (-20 m to +20 m) left and right with the vehicle 200 at the center. Further, the grid is assumed to be set in a square area of, for example, 10 to 20 cm in length and width. In this way, a grid divided by a predetermined grid width is configured in the rectangular area. In such a two-dimensional occupancy grid map 18, an occupancy value C i indicating the height of an object existing in each grid is shown.

以下では、占有値Ciを用いた路側端検出制御について説明する。 Below, roadside edge detection control using the occupancy value C i will be explained.

図5は、運転支援システム100による路側端検出制御のフローチャートである。運転支援システム100の路側端検出装置10は、この図に示された路端端検出制御の一連の処理を所定のタイミングで繰り返し行うようにプログラムされている。なお、以下においては、説明の明確化のために、図1における路側端検出装置10において所定の機能を実現するブロックが、それぞれの処理を行うものとして説明する。なお、路側端検出装置10が、一連の処理を行ってもよい。 FIG. 5 is a flowchart of roadside edge detection control by the driving support system 100. The roadside edge detection device 10 of the driving support system 100 is programmed to repeatedly perform a series of processes for roadside detection control shown in this figure at predetermined timing. In the following, for clarity of explanation, the blocks that implement predetermined functions in the roadside edge detection device 10 in FIG. 1 will be described as performing respective processes. Note that the roadside edge detection device 10 may perform a series of processes.

路端端検出制御は、主に、ステップS10としてまとめて示され、ステップS11~S15からなる蓄積測距データ16の生成制御と、ステップS16としてまとめて示され、ステップS17~S20からなる路側端検出制御との2つの処理を含む。 The road edge detection control is mainly shown collectively as step S10 and includes the generation control of the accumulated distance measurement data 16 consisting of steps S11 to S15, and the road edge detection control is collectively illustrated as step S16 and consists of steps S17 to S20. This includes two processes: detection control and detection control.

まず、ステップS10の蓄積測距データ16の生成処理について説明する。 First, the generation process of the accumulated distance measurement data 16 in step S10 will be explained.

ステップS11において、測距データフィルタ部13は、測距センサ12により生成される測距データを受信する。上述のように、測距データには、車両200の周囲の所定領域におけるグリッド点xiついての占有値Ciが、車両座標系で示されている。 In step S11, the ranging data filter section 13 receives ranging data generated by the ranging sensor 12. As described above, the distance measurement data indicates the occupancy value C i for the grid point x i in a predetermined area around the vehicle 200 in the vehicle coordinate system.

ステップS12においては、測距データフィルタ部13は、測距センサ12から取得された測距データと、移動物体検出部11により検出される移動物体の位置との対応付けを行う。移動物体は路面上に存在するが、路側端を定める路側物とは異なる。そこで、測距データフィルタ部13は、対応付けの結果に基づいて、移動物体検出部11により検出された移動物体の存在する位置の測距データを消去する。 In step S12, the ranging data filter section 13 correlates the ranging data acquired from the ranging sensor 12 with the position of the moving object detected by the moving object detecting section 11. Although moving objects exist on the road surface, they are different from roadside objects that define the roadside edge. Therefore, the distance measurement data filter section 13 deletes the distance measurement data of the position where the moving object detected by the moving object detection section 11 exists, based on the result of the association.

ステップS13において、測距データ蓄積部15は、測距データフィルタ部13からの測距データ、及び、オドメトリ計測部14からのオドメトリ情報を取得する。そして、測距データ蓄積部15は、測距データに対して、オドメトリ情報を用いて車両座標系から絶対座標系への変換を行う。 In step S13, the distance measurement data storage section 15 acquires the distance measurement data from the distance measurement data filter section 13 and the odometry information from the odometry measurement section 14. Then, the distance measurement data storage unit 15 converts the distance measurement data from the vehicle coordinate system to the absolute coordinate system using the odometry information.

上述のように、測距データは、車両200の位置をゼロ点として示されるため、測距データの取得タイミングに応じてゼロ点が変化する相対座標系となる。オドメトリ座標は、例えば、走行開始時などの特定のタイミングにおける車両200の位置をゼロ点とした絶対座標系となる。そこで、オドメトリ情報を用いることで、取得された測距データについて、相対座標系から絶対座標系への変換をすることができる。 As described above, since the distance measurement data is indicated with the position of the vehicle 200 as the zero point, it becomes a relative coordinate system in which the zero point changes depending on the acquisition timing of the distance measurement data. The odometry coordinates are, for example, an absolute coordinate system whose zero point is the position of the vehicle 200 at a specific timing such as when the vehicle starts traveling. Therefore, by using odometry information, it is possible to convert the acquired ranging data from a relative coordinate system to an absolute coordinate system.

ステップS14において、測距データ蓄積部15は、さらに、オドメトリ座標に変換した測距データを時間バッファへと記録する。 In step S14, the distance measurement data storage section 15 further records the distance measurement data converted into odometry coordinates into the time buffer.

ここで、時間バッファとは、所定長の要素を複数記録するメモリ領域であり、一般に配列と称される。この例においては、時間バッファは、所定の個数の測距データを記録することができるように構成されている。また、この時間バッファにおいては、あるタイミングにおいて取得される測距データは、時間バッファの配列を構成する1つの要素として記録され、時間バッファの全体に、所定期間における測距データが記録される。 Here, the time buffer is a memory area that records a plurality of elements of a predetermined length, and is generally referred to as an array. In this example, the time buffer is configured to be able to record a predetermined number of ranging data. Further, in this time buffer, distance measurement data acquired at a certain timing is recorded as one element constituting the array of the time buffer, and distance measurement data for a predetermined period is recorded in the entire time buffer.

より詳細には、測距データ蓄積部15は、測距データフィルタ部13から新たな測距データを受信した場合には、時間バッファの最終要素として新たな測距データを追加するとともに、時間バッファの先頭要素である最も古い測距データを消去する。このようにすることで、時間バッファは、記憶される測距データの数が一定に保持されるため、現在から過去に向かって所定の時間長の測距データを記憶することになる。例えば、時間バッファは、100個(100ステップ)の測距データを記憶することができる。このように新たな要素の追加とともに、最も古い要素が削除されるメモリ構造は、リングバッファと称される。 More specifically, when the ranging data storage unit 15 receives new ranging data from the ranging data filter unit 13, it adds the new ranging data as the final element of the time buffer, and also adds the new ranging data as the final element of the time buffer. The oldest ranging data, which is the first element of , is deleted. By doing so, the time buffer stores the distance measurement data of a predetermined length of time from the present to the past since the number of stored distance measurement data is held constant. For example, the time buffer can store 100 pieces (100 steps) of distance measurement data. A memory structure in which new elements are added and the oldest elements are deleted is called a ring buffer.

ステップS15においては、測距データ蓄積部15は、時間バッファにおいて配列の各要素に記録された絶対座標系の測距データを重畳することで、蓄積測距データ16を生成する。 In step S15, the distance measurement data storage unit 15 generates accumulated distance measurement data 16 by superimposing the distance measurement data in the absolute coordinate system recorded in each element of the array in the time buffer.

ここで、時間バッファに記憶された測距データは、ステップS13においてオドメトリ座標に変換されているため、それらのゼロ点は等しい。そのため、時間バッファに記録された測距データを重畳させることにより、同じゼロ点を基準とした絶対座標系の3次元空間における占有値を示す蓄積測距データ16を生成することができる。このようにして、複数の測距データにより生成される高密度の蓄積測距データ16を生成することができる。 Here, since the ranging data stored in the time buffer has been converted into odometry coordinates in step S13, their zero points are equal. Therefore, by superimposing the distance measurement data recorded in the time buffer, it is possible to generate the accumulated distance measurement data 16 indicating the occupancy value in the three-dimensional space of the absolute coordinate system based on the same zero point. In this way, high-density accumulated distance measurement data 16 generated from a plurality of distance measurement data can be generated.

次に、ステップS16の路側端検出制御について説明する。 Next, the roadside edge detection control in step S16 will be explained.

ステップS17において、占有グリッドマップ生成部17は、測距データ蓄積部15から蓄積測距データ16の入力を受け付ける。占有グリッドマップ生成部17は、3次元空間における共分散Σの正規分布を示す蓄積測距データ16について、高さ方向の分布値を路面に対して投影するように重畳させて分散値Ciを算出することで、グリッドマップを生成する。 In step S17, the occupancy grid map generation section 17 receives input of accumulated distance measurement data 16 from the distance measurement data storage section 15. The occupancy grid map generation unit 17 generates a variance value C i by superimposing the distribution values in the height direction on the accumulated distance measurement data 16 indicating a normal distribution of the covariance Σ in a three-dimensional space so as to project it onto the road surface. By calculating, a grid map is generated.

このグリッドマップにおいては、路面を格子状に区切ることで構成されるグリッド点xiそれぞれにおける占有値Ciが示されている。そして、このグリッドマップに示される占有値Ciは、高さ方向の共分散Σの正規分布の和であるため、そのグリッド点xiに存在しうる物体の高さに相当する。そのため、グリッドマップには、路面や路面に存在する構造物の表面の起伏に応じた、路面の高さが示される。そして、占有グリッドマップ生成部17は、生成されたグリッドマップから図4に示されるような一部を切り出して、占有グリッドマップ18を生成する。 In this grid map, the occupancy value C i at each grid point x i formed by dividing the road surface into a grid is shown. Since the occupancy value C i shown in this grid map is the sum of the normal distribution of the covariance Σ in the height direction, it corresponds to the height of an object that can exist at the grid point x i . Therefore, the grid map shows the height of the road surface according to the undulations of the surface of the road surface and structures on the road surface. Then, the occupancy grid map generation unit 17 cuts out a portion as shown in FIG. 4 from the generated grid map to generate an occupancy grid map 18.

ステップS18において、占有グリッドマップ加算部19は、占有グリッドマップ18において、走行方向のグリッド列のそれぞれにおける占有値Ciの総和を路面高総和vとして算出する。これにより、車幅方向における車両200からの位置と対応する路面高総和vの分布を求めることができる。 In step S18, the occupancy grid map adding unit 19 calculates the sum of the occupancy values C i in each of the grid rows in the traveling direction in the occupancy grid map 18 as the road surface height sum v. Thereby, the distribution of the road surface height sum v corresponding to the position from the vehicle 200 in the vehicle width direction can be determined.

ステップS19において、不連続境界検出部20は、ステップS18において生成された路面高総和vの分布の入力を受け付ける。不連続境界検出部20は、車両200から車幅方向の左右の両側方に向かって、路面高総和vが閾値vthよりも大きいか否かを判定し、路面高総和vが閾値vthよりも大きいと判定した車幅方向の位置が不連続境界であると判断する。なお、不連続境界は、複数検出されてもよい。 In step S19, the discontinuous boundary detection unit 20 receives an input of the distribution of the total road surface height v generated in step S18. The discontinuous boundary detection unit 20 determines whether the total road surface height v is larger than the threshold value v th from the vehicle 200 toward both left and right sides in the vehicle width direction, and determines whether the total road surface height v is larger than the threshold value v th . The position in the vehicle width direction where it is determined that the distance is also large is determined to be a discontinuous boundary. Note that a plurality of discontinuous boundaries may be detected.

ステップS20において、路側端判定部21は,ステップS19において検出された複数の不連続境界のうち、車両200から車幅方向の左右の両側方に向かって最も近い不連続境界を1つずつ選択し、それらの不連続境界のある場所が路側端であると判定する。そして、路側端判定部21は、判定した路側端の車幅方向の位置を、出力部22へと出力する。 In step S20, the roadside edge determination unit 21 selects one by one the closest discontinuous boundaries from the vehicle 200 toward both left and right sides in the vehicle width direction, from among the plurality of discontinuous boundaries detected in step S19. , it is determined that the location of those discontinuous boundaries is the roadside edge. The roadside edge determination unit 21 then outputs the determined position of the roadside edge in the vehicle width direction to the output unit 22 .

このような処理を経て、路側端検出制御が行われる。以下では、図6~8を用いて、路側端検出制御について、具体例を用いて説明する。 Through such processing, roadside edge detection control is performed. The roadside edge detection control will be explained below using a specific example with reference to FIGS. 6 to 8.

図6は、測距センサ12による測定点を上方から示す図である。 FIG. 6 is a diagram showing measurement points by the ranging sensor 12 from above.

この図では、上方から見た路面61が示されており、中央には、図面上方に向かって走行する車両200が示されている。路面61においては、車両200の左方及び右方のそれぞれに、縁石62が設けられている。車両200は、2つの縁石62の間を走行するため、縁石62の延在方向と車両200の走行方向とは略一致する。なお、これらの縁石62の車両200側の側面の位置が、路側端として検出される。 This figure shows a road surface 61 seen from above, and a vehicle 200 traveling toward the top of the drawing is shown in the center. On the road surface 61, curb stones 62 are provided on the left and right sides of the vehicle 200, respectively. Since the vehicle 200 runs between the two curbs 62, the direction in which the curbs 62 extend and the direction in which the vehicle 200 runs substantially coincide. Note that the positions of the side surfaces of these curbstones 62 on the vehicle 200 side are detected as roadside edges.

さらに、この図には、測距センサ12による距離の測定点が、丸印により示されている。測距センサ12から出力されるレーダーなどは、縁石62において遮断されるため、縁石62に対して車両200の反対側において所定幅で縁石62に沿って延在する領域63において測距データを取得できない。一方で、縁石62における車両200の側の壁面の近傍の領域64においては、複数の測定点において測距データが取得される。また、車両200の近傍の路面61においては、車両200の死角となり、測距データを取得できない領域65が存在する。 Further, in this figure, the distance measurement points by the distance measurement sensor 12 are indicated by circles. Since the radar etc. output from the distance measurement sensor 12 are blocked at the curb 62, distance measurement data is acquired in an area 63 extending along the curb 62 with a predetermined width on the opposite side of the vehicle 200 to the curb 62. Can not. On the other hand, in a region 64 near the wall surface of the curb 62 on the side of the vehicle 200, distance measurement data is acquired at a plurality of measurement points. Further, on the road surface 61 near the vehicle 200, there is an area 65 that becomes a blind spot of the vehicle 200 and cannot acquire distance measurement data.

図7は、図5に示された路側端検出制御におけるステップS18~S20の処理の説明図である。 FIG. 7 is an explanatory diagram of the processing of steps S18 to S20 in the roadside edge detection control shown in FIG.

図7(a)には、図6に示された領域と対応する占有グリッドマップ18が示されている。この占有グリッドマップ18においては、占有値Ciが大きく、グリッドに存在する物体の高さが高い領域に、濃いハッチングが付されている。一方、占有値Ciが小さく、グリッドに存在する物体の高さが低い領域に、薄いハッチングが付されている。 FIG. 7(a) shows an occupancy grid map 18 corresponding to the area shown in FIG. 6. In this occupancy grid map 18, regions where the occupancy value C i is large and the height of objects existing in the grid are high are marked with dark hatching. On the other hand, areas where the occupancy value C i is small and the height of objects existing in the grid are low are lightly hatched.

高さ方向において基準となる路面61には、中程度の濃淡のハッチングが付されている。一方で、高さのある縁石62が存在する領域には、濃いハッチングが付されている。なお、縁石62の影となる領域63や、車両200の死角となる領域65においては、測距データが取得できないため、白色で示されている。 A road surface 61 serving as a reference in the height direction is hatched with medium shading. On the other hand, areas where tall curbstones 62 exist are marked with dark hatching. Note that the area 63 that is in the shadow of the curb 62 and the area 65 that is a blind spot of the vehicle 200 are shown in white because distance measurement data cannot be obtained.

図7(b)には、車幅方向における位置に応じた路面高総和vの分布が示されている。 FIG. 7(b) shows the distribution of the total road surface height v depending on the position in the vehicle width direction.

路面高総和vは、ステップS18において算出され、占有グリッドマップ18における車両200の走行方向のグリッド列の占有値Ciの総和である。そのため、車幅方向における縁石62が存在する領域では、路面61だけが存在する領域と比較すると、路面高総和vが大きい。一方、測距データを取得不能な領域63では、路面高総和vがゼロとなる。また、車両200の死角となる領域65が存在する車幅方向の位置においては、路面高総和vが比較的低くなる。 The road surface height sum v is calculated in step S18, and is the sum of the occupancy values C i of the grid rows in the traveling direction of the vehicle 200 in the occupancy grid map 18. Therefore, in the region where the curbstone 62 exists in the vehicle width direction, the total road surface height v is larger than in the region where only the road surface 61 exists. On the other hand, in the area 63 where distance measurement data cannot be acquired, the total road surface height v becomes zero. Further, at a position in the vehicle width direction where a region 65 serving as a blind spot of the vehicle 200 exists, the total road surface height v becomes relatively low.

ステップS19において、不連続境界検出部20は、車両200の中心から車幅方向の両側方(左方及び右方)に向かって、路面高総和vが閾値vthよりも大きいか否かを順に判定し、路面高総和vが閾値vthよりも大きいと判定される車幅方向の位置を不連続境界71として検出する。この例においては、不連続境界71は、2つ検出されているが、3つ以上検出されてもよい。 In step S19, the discontinuous boundary detection unit 20 sequentially checks whether the total road surface height v is larger than the threshold value v th from the center of the vehicle 200 toward both sides (left and right) in the vehicle width direction. Then, the position in the vehicle width direction where the total road surface height v is determined to be larger than the threshold value v th is detected as a discontinuous boundary 71 . In this example, two discontinuous boundaries 71 are detected, but three or more may be detected.

なお、車両200が存在する無視領域72では、路面高総和vと閾値vthとの比較を行わなくてもよい。車両200の形状と測距センサ12の配置場所に起因して、無視領域72は測距センサ12の死角となるため、この領域においては不連続境界71を検出する必要がない。 Note that in the ignored region 72 where the vehicle 200 is present, it is not necessary to compare the total road surface height v with the threshold value v th . Due to the shape of the vehicle 200 and the location of the distance measurement sensor 12, the ignored region 72 becomes a blind spot for the distance measurement sensor 12, so there is no need to detect the discontinuous boundary 71 in this region.

なお、閾値vthは、以下のように定められる。 Note that the threshold value v th is determined as follows.

まず、路面高総和vの車幅方向の全ての位置における分布の平均値は、(1)式で求めた占有値Ciを用いて、vmeanとして次式のように算出することができる。ただし、次式におけるi(1≦i≦N)は、車幅方向におけるグリッド点xiの位置を示すインデックスであり、式(1)におけるものと同じである。 First, the average value of the distribution of the total road surface height v at all positions in the vehicle width direction can be calculated as v mean as shown in the following equation using the occupancy value C i obtained by equation (1). However, i (1≦i≦N) in the following equation is an index indicating the position of the grid point x i in the vehicle width direction, and is the same as in equation (1).

Figure 0007344744000002
Figure 0007344744000002

そして、閾値vthは、平均値vmeanと、路面高総和vにおける最大値vmax及び係数α(0≦α≦1)とを用いて、次式のように算出することができる。 The threshold value v th can be calculated using the average value v mean , the maximum value v max in the total road surface height v, and the coefficient α (0≦α≦1) as shown in the following equation.

Figure 0007344744000003
Figure 0007344744000003

このように、路面高総和vの平均値vmeanによって不連続境界71の検出に用いる閾値vthを決定するため、路面高総和vの分布の変化に応じた閾値vthが用いられる。詳細には、路面高総和vが全体的に大きければ、閾値vthが大きくなり、路面高総和vが全体的に小さければ、閾値vthが小さくなる。このように、動的に閾値vthが変化することにより、不連続境界71の検出感度を変化させることができるので、測距データの取得状況の変化による不連続境界71の検出精度の変化が抑制され、路側端の判定を精度よく行うことが可能になる。 In this way, in order to determine the threshold value v th used for detecting the discontinuous boundary 71 based on the average value v mean of the road surface height total sum v, a threshold value v th that corresponds to a change in the distribution of the road surface height total v is used. Specifically, if the total road surface height v is large overall, the threshold value v th becomes large, and if the total road surface height v is small overall, the threshold value v th becomes small. In this way, by dynamically changing the threshold value v th , the detection sensitivity of the discontinuous boundary 71 can be changed, so that changes in the detection accuracy of the discontinuous boundary 71 due to changes in the acquisition status of ranging data can be prevented. This makes it possible to accurately determine the roadside edge.

また、路面高総和vの平均値vmeanを基準とし、さらに平均値vmeanと最大値vmaxとの差に対して係数αに応じた一定の割合の値によって閾値vthが定められている。そのため、平均値vmeanと最大値vmaxの差分が小さい場合には、閾値vthはより平均値vmeanに近くなり、平均値vmeanと最大値vmaxの差分が大きい場合には,閾値vthはより最大値vmaxに近い値となる。これにより、路面高総和vの分布の変化に加えて、最大値vmaxに応じても、動的に不連続境界71の検出の感度を変化させることができるので、路側端の判定を精度よく行うことが可能になる。 Further, the average value v mean of the total road surface height v is used as a reference, and a threshold value v th is determined by a value of a certain ratio according to the coefficient α for the difference between the average value v mean and the maximum value v max . . Therefore, when the difference between the average value v mean and the maximum value v max is small, the threshold value v th becomes closer to the average value v mean , and when the difference between the average value v mean and the maximum value v max is large, the threshold value v th becomes a value closer to the maximum value v max . This allows the detection sensitivity of the discontinuous boundary 71 to be dynamically changed according to the maximum value v max in addition to changes in the distribution of the total road surface height v, so that the roadside edge can be determined with high accuracy. It becomes possible to do so.

なお、式(3)は、平均値vmeanと最大値vmaxとの加重平均であり、次式のように示すことができる。 Note that equation (3) is a weighted average of the average value v mean and the maximum value v max , and can be expressed as the following equation.

Figure 0007344744000004
Figure 0007344744000004

図8は、路側端検出制御のさらに詳細な具体例の説明図である。 FIG. 8 is an explanatory diagram of a more detailed example of roadside edge detection control.

図8(a)は、車両200の上後方からの見た、蓄積測距データ16を高さ方向において重畳させることにより得られるグリッドマップ、及び、その一部である占有グリッドマップ18が示されている。路面61には、縁石62に加えて白線81などが存在しており、これらの物体がグリッドマップに示されている。 FIG. 8(a) shows a grid map obtained by superimposing accumulated distance measurement data 16 in the height direction, as seen from above and behind the vehicle 200, and an occupancy grid map 18 that is a part of the grid map. ing. In addition to the curb 62, there are white lines 81 and the like on the road surface 61, and these objects are shown on the grid map.

図8(b)には、図8(a)の占有グリッドマップ18を用いて算出された路面高総和vが示されている。この図においては、図7(b)と同様に無視領域72が示されるとともに、路面高総和vが閾値vthよりも大きい箇所が、不連続境界71A~71Dとして検出される。そして、これらの不連続境界71A~71Dのうち、車両200からの距離が近い不連続境界71B及び71Cに縁石62が存在すると判定し、路側端の位置として検出する。 FIG. 8(b) shows the total road surface height v calculated using the occupancy grid map 18 of FIG. 8(a). In this figure, an ignored region 72 is shown as in FIG. 7(b), and locations where the total road surface height v is greater than the threshold value v th are detected as discontinuous boundaries 71A to 71D. Then, among these discontinuous boundaries 71A to 71D, it is determined that the curb 62 exists at the discontinuous boundaries 71B and 71C, which are closer to the vehicle 200, and are detected as the roadside edge positions.

このように、測距データを用いて車両200の周囲の所定範囲における縁石62などの路側端や路面61の高さを示す占有値Ciを算出し、走行方向に沿って占有値Ciの総和を算出することで路面高総和vを算出する。なお、路面高総和vは、車両200の車幅方向における位置に応じた分布として求められる。そして、路面高総和vと閾値vthとを比較することにより、路面高総和vの分布における不連続性を評価し、路側端を検出する。このような構成のため、測距データの測定点の一部が検出できないことがあったとしても、その前後の測定点の情報を用いて路側端を検出することができるので、検出制度の向上を図ることができる。 In this way, the occupancy value C i indicating the height of the roadside edge such as the curb 62 or the road surface 61 in a predetermined range around the vehicle 200 is calculated using the distance measurement data, and the occupancy value C i is calculated along the traveling direction. By calculating the sum, the road surface height sum v is calculated. Note that the total road surface height v is determined as a distribution according to the position of the vehicle 200 in the vehicle width direction. Then, by comparing the total road surface height v and the threshold value v th , discontinuity in the distribution of the total road surface height v is evaluated, and a roadside edge is detected. Because of this configuration, even if some of the measurement points of the distance measurement data cannot be detected, the roadside edge can be detected using information from the measurement points before and after it, improving detection accuracy. can be achieved.

第1実施形態によれば、以下の効果を得ることができる。 According to the first embodiment, the following effects can be obtained.

第1実施形態の路側端検出方法によれば、車両200の周囲の所定範囲において、路面61及び縁石62の高さを検出し、それぞれのグリッドにおける占有値Ciが示された占有グリッドマップ18を生成する路面高検出ステップ(S17)と、占有グリッドマップ18に示される占有値Ciについて、車両200の走行方向に沿って和を算出することで、車幅方向の位置に応じた路面高総和vの分布を算出する総和算出ステップ(S18)と、閾値vthを上回る路面高総和vと対応する車幅方向における位置が、路側端であると判定する路側端判定ステップ(S20)と、を備える。 According to the roadside edge detection method of the first embodiment, the heights of the road surface 61 and the curbstone 62 are detected in a predetermined range around the vehicle 200, and the occupancy grid map 18 shows the occupancy value C i in each grid. By calculating the sum of the road surface height detection step (S17) that generates the occupancy value C i shown in the occupancy grid map 18 along the traveling direction of the vehicle 200, the road surface height corresponding to the position in the vehicle width direction is calculated. a summation calculation step (S18) for calculating the distribution of the summation v; a roadside end determination step (S20) for determining that the position in the vehicle width direction corresponding to the road surface height summation v exceeding a threshold value vth is the roadside end; Equipped with

このような構成となることにより、車両200の周囲の所定範囲においては、車幅方向における位置と対応して路面高総和vの不連続性が評価されて、路側端の位置が判定される。そのため、所定範囲において取得される測距データの一部に欠損や誤りがあり検出できないことがあったとしても、走行方向の前後の測距データを用いて路側端を検出することができる。このように、検出されなかった測距データを補償できるため、路側端の検出精度の向上を図ることができる。 With this configuration, in a predetermined range around the vehicle 200, discontinuities in the total road surface height v are evaluated in correspondence with positions in the vehicle width direction, and the position of the roadside edge is determined. Therefore, even if some of the distance measurement data acquired in a predetermined range is missing or erroneous and cannot be detected, the roadside edge can be detected using the distance measurement data before and after in the traveling direction. In this way, it is possible to compensate for the undetected ranging data, so it is possible to improve the detection accuracy of the roadside edge.

第1実施形態の路側端検出方法によれば、路側端判定ステップ(S20)において、路面高総和vと閾値vthとの比較は、車両200の位置を始点として車幅方向の左右へ向かう外側方に向かって順に行われ、路面高総和vが閾値vthを上回ると判定される車幅方向における位置が、路側端であると判定される。 According to the roadside edge detection method of the first embodiment, in the roadside edge determination step (S20), the total road surface height v and the threshold value v th are compared to the outside toward the left and right in the vehicle width direction starting from the position of the vehicle 200. The position in the vehicle width direction where the total road surface height v is determined to exceed the threshold value v th is determined to be the roadside edge.

このような構成となることで、検出される路側端の位置は、縁石62などの路側物の車両200側の内壁と判断できるため、車両200の走行可能は範囲を定める路側端の位置を精度よく検出することができる。 With this configuration, the detected position of the roadside edge can be determined to be the inner wall of the roadside object such as the curb 62 on the vehicle 200 side. Can be detected well.

第1実施形態の路側端検出方法によれば、路側端判定ステップ(S20)において、路面高総和vが閾値vthを上回るような不連続境界71が複数ある場合には、車幅方向において車両200に近い不連続境界71の位置が、路側端であると判定する。 According to the roadside edge detection method of the first embodiment, in the roadside edge determination step (S20), if there are a plurality of discontinuous boundaries 71 such that the total road surface height v exceeds the threshold value vth , the vehicle The position of the discontinuous boundary 71 close to 200 is determined to be the roadside end.

車両200の走行レーンの側端となる路側端は、複数の不連続境界71のうち、車両200から見て最も内側において観測される不連続境界71となる。そのため、複数の不連続境界71が検出された場合においては、車幅方向において車両200に最も近い不連続境界71が、路側端であると判定する。これにより、車両200の走行可能な範囲を定める路側端の位置を精度よく検出することができる。 The roadside edge that is the side edge of the driving lane of the vehicle 200 is the discontinuous boundary 71 that is observed as the innermost discontinuous boundary among the plurality of discontinuous boundaries 71 when viewed from the vehicle 200 . Therefore, when a plurality of discontinuous boundaries 71 are detected, the discontinuous boundary 71 closest to the vehicle 200 in the vehicle width direction is determined to be the roadside edge. Thereby, the position of the roadside edge that defines the travelable range of vehicle 200 can be detected with high accuracy.

第1実施形態の路側端検出方法によれば、路側端判定ステップ(S20)において、車幅方向の位置に応じた路面高総和vの平均値vmeanが大きいほど、路面高総和vと比較される閾値vthは大きく設定される。 According to the roadside edge detection method of the first embodiment, in the roadside edge determination step (S20), the larger the average value v mean of the road surface height summation v according to the position in the vehicle width direction, the more the road surface height summation v is compared. The threshold value v th is set large.

このような構成となることにより、路面高総和vの分布の変化に応じて、閾値vthが変化する。すなわち、全体として路面高総和vが大きい分布となる場合には、閾値vthが大きくなり、路面高総和vが小さい分布となる場合には、閾値vthが小さくなる。したがって、路面高総和vの分布の状況に応じて、動的に路側端となる不連続境界71の検出の感度を変化させることができるので、天候などによって測距データの測定精度が変化する場合でも、測距データの分布の変化に起因する影響が抑えられ、精度よく路側端を検出することができる。 With such a configuration, the threshold value v th changes in accordance with a change in the distribution of the total road surface height v. That is, when the distribution has a large road surface height sum v as a whole, the threshold value v th becomes large, and when the road surface height sum v has a small distribution, the threshold value v th becomes small. Therefore, the sensitivity for detecting the discontinuous boundary 71 that is the roadside edge can be dynamically changed depending on the distribution of the road surface height sum v, so that when the measurement accuracy of distance measurement data changes due to weather etc. However, the influence caused by changes in the distribution of distance measurement data is suppressed, and the roadside edge can be detected with high accuracy.

第1実施形態の路側端検出方法によれば、閾値vthは、平均値vmean及び最大値vmaxの所定の割合での加重平均となる。 According to the roadside edge detection method of the first embodiment, the threshold value v th is a weighted average of the average value v mean and the maximum value v max at a predetermined ratio.

このような構成となることで、さらに閾値vthを適切に設定することができる。例えば、平均値vmeanと最大値vmaxの差分が小さい場合には、閾値vthは平均値vmeanに近い値を設定することで、路側端の検出がしやすくなる。一方で、平均値vmeanと最大値vmaxの差分が大きい場合には、閾値vthはより最大値vmaxに近い値を設定することで、路側端の誤検出を抑制できる。このように、平均値vmeanに加えて最大値vmaxを用いることで、動的に不連続境界71の検出の感度を変化させることができるので、測距データの分布の変化による影響を抑えて精度よく路側端を検出することが可能になる。 With such a configuration, the threshold value v th can be further appropriately set. For example, when the difference between the average value v mean and the maximum value v max is small, the threshold value v th is set to a value close to the average value v mean , thereby making it easier to detect the roadside edge. On the other hand, when the difference between the average value v mean and the maximum value v max is large, false detection of the roadside edge can be suppressed by setting the threshold value v th to a value closer to the maximum value v max . In this way, by using the maximum value v max in addition to the average value v mean , it is possible to dynamically change the detection sensitivity of the discontinuous boundary 71, thereby suppressing the influence of changes in the distribution of distance measurement data. This makes it possible to detect the roadside edge with high accuracy.

(第2実施形態)
第1実施形態において、路側端判定部21は、不連続境界検出部20により複数の不連続境界71が検出された場合には、これらの不連続境界71のうち、車両に近い不連続境界71の車幅方向の位置に路側端があると検出した。第2実施形態においては、複数の不連続境界71が検出された場合の、路側端の他の検出方法について説明する。
(Second embodiment)
In the first embodiment, when a plurality of discontinuous boundaries 71 are detected by the discontinuous boundary detection unit 20, the roadside edge determination unit 21 selects a discontinuous boundary 71 near the vehicle from among these discontinuous boundaries 71. It was detected that the roadside edge was located at the position in the vehicle width direction. In the second embodiment, another roadside edge detection method will be described when a plurality of discontinuous boundaries 71 are detected.

図9は、第2実施形態に係る路側端検出方法を実行する運転支援システム100の概略構成図である。 FIG. 9 is a schematic configuration diagram of a driving support system 100 that executes the roadside edge detection method according to the second embodiment.

この図によれば、図1に示された第1実施形態の運転支援システム100と比較すると、路側端判定部21には、不連続境界検出部20で検出された複数の不連続境界71に加えて、自己位置推定部30、及び、地図データ31からの入力を受け付ける。 According to this figure, compared to the driving support system 100 of the first embodiment shown in FIG. In addition, input from the self-position estimating unit 30 and map data 31 is accepted.

自己位置推定部30は、GPS等を用いて車両の現在位置を推定し、推定した車両の位置を出力する。また、地図データ31は、縁石62の位置情報などが示される高精細マップ(HDマップ)である。路側端判定部21は、自己位置推定部30から入力される車両の現在位置を、地図データ31の高精細マップと対応つけて縁石の概略位置を推定し、推定された縁石の位置に最も近い不連続境界を、路側端として検出する。 The self-position estimating unit 30 estimates the current position of the vehicle using GPS or the like, and outputs the estimated position of the vehicle. Furthermore, the map data 31 is a high-definition map (HD map) that shows position information of the curb 62 and the like. The roadside edge determining unit 21 estimates the approximate position of the curb by associating the current position of the vehicle input from the self-position estimating unit 30 with the high-definition map of the map data 31, and estimates the approximate position of the curb closest to the estimated position of the curb. A discontinuous boundary is detected as a roadside edge.

このように、縁石の延在方向が地図情報などから取得できる場合には、その縁石の延在方向に沿って占有値Ciの総和を算出して、路面高総和vを算出してもよい。すなわち、路面高総和vの算出は、第1実施形態のように車両から見た相対座標系における進行方向に沿った占有値Ciの総和に限られず、絶対座標系において縁石の位置情報から判断できる走行レーンが示す進行方向に沿った占有値Ciの総和であってもよい。 In this way, if the extending direction of the curb can be obtained from map information, etc., the sum of the occupancy values C i may be calculated along the extending direction of the curb to calculate the total road surface height v. . That is, the calculation of the total road surface height v is not limited to the sum of the occupancy values C i along the traveling direction in the relative coordinate system as seen from the vehicle as in the first embodiment, but can be determined from the position information of the curb in the absolute coordinate system. It may be the sum total of occupancy values C i along the traveling direction indicated by the possible driving lanes.

このような第2実施形態の路側端検出方法によれば、位置情報取得ステップにおいて、路側端の位置情報を含む道路情報、及び、車両の位置情報を用いて、車両の車幅方向の外側方にある路側端の位置を取得する。路側端判定ステップにおいて不連続境界が複数検出された場合においては、それらの不連続境界のうち、位置情報取得ステップにおいて取得された路側端の位置に近い不連続境界を選択し、路側端として検出する。このような処理により、路側端の検出精度の向上を図ることができる。 According to the roadside edge detection method of the second embodiment, in the position information acquisition step, the road information including the position information of the roadside edge and the vehicle position information are used to detect the outer side of the vehicle in the vehicle width direction. Get the location of the roadside edge in . If multiple discontinuous boundaries are detected in the roadside edge determination step, a discontinuous boundary close to the roadside edge position acquired in the position information acquisition step is selected from among those discontinuous boundaries and detected as the roadside edge. do. Through such processing, it is possible to improve the detection accuracy of the roadside edge.

(第3実施形態)
第1及び第2実施形態においては、車両200の走行レーンが直線である場合において路側端検出制御を行ったがこれに限らない。第3実施形態においては、走行レーンが曲がっている場合において路側端検出制御を行う例について説明する。
(Third embodiment)
In the first and second embodiments, the roadside edge detection control is performed when the travel lane of the vehicle 200 is a straight line, but the present invention is not limited to this. In the third embodiment, an example will be described in which roadside edge detection control is performed when the travel lane is curved.

図10は、第3実施形態に係る路側端検出方法を実行する運転支援システム100の概略構成図である。 FIG. 10 is a schematic configuration diagram of a driving support system 100 that executes the roadside edge detection method according to the third embodiment.

この図によれば、図1に示された第1実施形態の運転支援システム100と比較すると、占有グリッドマップ生成部17は、測距データ蓄積部15において算出される蓄積測距データ16に加えて、走路曲率検出部40からの入力をさらに受け付ける。 According to this figure, compared to the driving support system 100 of the first embodiment shown in FIG. Then, input from the road curvature detection section 40 is further accepted.

走路曲率検出部40は、第2実施形態に示された自己位置推定部30や地図データ31など(図10において不図示)からの入力を用いて、車両200の走行レーンの曲率半径rを検出する。また、走路曲率検出部40は、白線認識結果、ヨーレート、及び、現在のステアリング角などの情報を用いて曲率半径rを取得してもよい。 The road curvature detection unit 40 detects the radius of curvature r of the lane in which the vehicle 200 is traveling using input from the self-position estimation unit 30, map data 31, etc. (not shown in FIG. 10) shown in the second embodiment. do. Further, the road curvature detection unit 40 may obtain the radius of curvature r using information such as the white line recognition result, the yaw rate, and the current steering angle.

占有グリッドマップ生成部17は、蓄積測距データ16から生成したグリッドマップを用いて、走行方向の長さがlとなるような占有グリッドマップ18を生成する。なお、占有グリッドマップ18の車両の走行方向長lは、次式に従って決定される。 The occupancy grid map generation unit 17 uses the grid map generated from the accumulated distance measurement data 16 to generate an occupancy grid map 18 whose length in the traveling direction is l. Note that the length l of the occupancy grid map 18 in the traveling direction of the vehicle is determined according to the following equation.

Figure 0007344744000005
Figure 0007344744000005

式(5)に示されるように、走行レーンの曲率半径rに対して、所定の比例定数εを乗ずることで、占有グリッドマップ18の走行方向長lが定められる。そのため、走行レーンの曲率が大きく曲率半径rが小さい場合には、占有グリッドマップ18の走行方向長lが短くなり、曲率が小さく曲率半径rが大きい場合には、走行方向長lが長くなる。なお、lmax及びlminは、それぞれ、不連続境界検出部20が路側端を検出するために必要な占有グリッドマップ18の最大長及び最小長を示すものとする。 As shown in equation (5), the length l of the occupancy grid map 18 in the traveling direction is determined by multiplying the radius of curvature r of the traveling lane by a predetermined proportionality constant ε. Therefore, when the curvature of the driving lane is large and the radius of curvature r is small, the length l of the occupancy grid map 18 in the driving direction becomes short, and when the curvature is small and the radius of curvature r is large, the length l of the driving lane becomes long. Note that l max and l min respectively indicate the maximum length and minimum length of the occupancy grid map 18 necessary for the discontinuous boundary detection unit 20 to detect the roadside edge.

図11は、走行レーンが直線である場合と、走行レーンが曲がっている場合との比較を示す図である。図11(a)には、走行路が直線である場合が、図11(b)には、走行路が曲がっている場合が示されている。なお、両者において、占有グリッドマップ18とともに、車両200、及び、走行レーンの路側端となる縁石62が示されている。なお、図11(b)において、走行レーンの曲率半径がrであるものとする。 FIG. 11 is a diagram showing a comparison between a case where the driving lane is straight and a case where the driving lane is curved. FIG. 11(a) shows the case where the running path is straight, and FIG. 11(b) shows the case where the running path is curved. In both cases, the vehicle 200 and the curb 62 serving as the roadside edge of the driving lane are shown together with the occupancy grid map 18. Note that in FIG. 11(b), it is assumed that the radius of curvature of the driving lane is r.

図11(b)に示されるように走行レーンが曲がっている場合は、図11(a)に示されるような走行レーンが直線である場合と比較すると、縁石62は、車幅方向において幅広い領域に分布されてしまう。そのため、走行方向に沿った占有値Ciの総和である路面高総和vのピークが低くなり、閾値vthとの比較による路側端の検出精度が低下するおそれがある。また、走行レーンの曲率が大きくなり、曲率半径rが小さくなるほど、縁石62は、車幅方向においてさらに幅広の分布となり、路側端の検出精度がさらに低下してしまう。 When the driving lane is curved as shown in FIG. 11(b), the curbstone 62 has a wider area in the vehicle width direction than when the driving lane is straight as shown in FIG. 11(a). It will be distributed in Therefore, the peak of the total road surface height v, which is the total sum of the occupancy values C i along the traveling direction, becomes low, and there is a possibility that the accuracy of detecting the roadside edge by comparison with the threshold value v th decreases. Further, as the curvature of the driving lane increases and the radius of curvature r decreases, the curb stones 62 become wider in the vehicle width direction, further reducing the accuracy of detecting the roadside edge.

そこで、式(4)に示されるように、曲率が大きくなるほど、すなわち、曲率半径rが小さくなるほど、占有グリッドマップ18の車両200の走行方向長lを小さくすることにより、縁石62の車幅方向における分布を幅狭とできる。その結果、路面高総和vのピークの低下を抑制でき、精度よく路側端を検出することが可能となる。 Therefore, as shown in Equation (4), as the curvature increases, that is, as the radius of curvature r decreases, the length l of the vehicle 200 in the traveling direction of the occupancy grid map 18 is decreased, so that the length l of the curbstone 62 in the vehicle width direction is decreased. The distribution of can be made narrower. As a result, it is possible to suppress a decrease in the peak of the total road surface height v, and it is possible to detect the roadside edge with high accuracy.

このように、第3実施形態の路側端検出方法によれば、曲率取得ステップにおいて車両200の走行レーンの曲率半径rを取得し、路面高検出ステップにおいて、曲率半径rが小さいほど、占有グリッドマップ18の車両200の走行方向長lを短く設定する。 As described above, according to the roadside edge detection method of the third embodiment, the radius of curvature r of the travel lane of the vehicle 200 is acquired in the curvature acquisition step, and the smaller the radius of curvature r is, the more the occupancy grid map is determined in the road surface height detection step. The running direction length l of the 18 vehicles 200 is set short.

ここで、走行レーンが曲がっている場合には、占有グリッドマップ18において占有値Ciが大きくなる縁石62が配置される部分は、車幅方向において幅広に領域に分布される。そのため、路面高総和vのピークが小さくなってしまい、閾値vthを上回る路面高総和vを、適切に検出できないおそれがある。 Here, when the driving lane is curved, the portions of the occupancy grid map 18 where the curbstones 62 where the occupancy value C i becomes large are arranged are distributed over a wide area in the vehicle width direction. Therefore, the peak of the total road surface height v becomes small, and there is a possibility that the total road surface height v exceeding the threshold value v th cannot be appropriately detected.

しかしながら、占有グリッドマップ18の車両200の走行方向長lを短くすることにより、縁石62は車幅方向において狭い幅に分布される。これにより、路面高総和vのピークが小さくなることが抑制され、閾値vthを上回る路面高総和vを適切に検出することができるので、路側端の検出精度が向上する。さらに、曲率が大きいほど、すなわち、曲率半径rが小さいほど、占有グリッドマップ18の車両200の走行方向長lを小さくすることで、路側端の検出精度のさらなる向上を図ることができる。 However, by shortening the length l of the occupancy grid map 18 in the traveling direction of the vehicle 200, the curb stones 62 are distributed narrowly in the vehicle width direction. As a result, the peak of the total road surface height v is suppressed from becoming small, and the total road surface height v exceeding the threshold value v th can be appropriately detected, so that the detection accuracy of the roadside edge is improved. Furthermore, the larger the curvature, that is, the smaller the radius of curvature r, the smaller the length l of the occupancy grid map 18 in the traveling direction of the vehicle 200, thereby further improving the roadside edge detection accuracy.

(変形例)
上述の実施形態においては、曲率半径rに応じた走行方向長lの占有グリッドマップ18において路側端を検出する例について示したがこれに限らない。占有グリッドマップ18を複数に分割し、それぞれの分割領域における路側端を検出し、これらの路側端を比較することでてもよい。
(Modified example)
In the above-described embodiment, an example is shown in which a roadside edge is detected in the occupancy grid map 18 having a length l in the traveling direction according to a radius of curvature r, but the present invention is not limited to this. It is also possible to divide the occupancy grid map 18 into a plurality of regions, detect the roadside edges in each divided region, and compare these roadside edges.

図12は、本変形例におけるグリッドマップの分割の一例を示す図である。 FIG. 12 is a diagram showing an example of division of the grid map in this modification.

この例においては、占有グリッドマップ生成部17は、第1実施形態において生成された占有グリッドマップ18をさらにD個に分割して分割領域18-i(0≦i≦D)を生成し、それらの分割領域18-iのそれぞれにおいて路側端を検出する。なお、分割領域18-iは、占有グリッドマップ18を超えない範囲で、走行方向の前方から後方に向かって並設されており、分割領域18-iは、前方からi番目に配置されるものを示すものとする。 In this example, the occupancy grid map generation unit 17 further divides the occupancy grid map 18 generated in the first embodiment into D divided areas 18-i (0≦i≦D), and divides them into D divided areas 18-i (0≦i≦D). The roadside edge is detected in each of the divided regions 18-i. The divided areas 18-i are arranged side by side from the front to the rear in the running direction within a range that does not exceed the occupancy grid map 18, and the divided area 18-i is the i-th one arranged from the front. shall be shown.

この図において、lmaxは、占有グリッドマップ18としてとりうる最大の走行方向長を示す。lは、式(4)を用いて定まる値であり、1つの分割領域18-iの車両200の走行方向長を示す。このような場合において、占有グリッドマップ18の分割数Dは、次式で示すことができる。 In this figure, l max indicates the maximum possible length of the occupancy grid map 18 in the traveling direction. l is a value determined using equation (4), and indicates the length of one divided region 18-i in the traveling direction of the vehicle 200. In such a case, the number of divisions D of the occupancy grid map 18 can be expressed by the following equation.

Figure 0007344744000006
Figure 0007344744000006

ただし、[x]はガウス記号であり、xを超えない最大の整数を示すものとする。 However, [x] is a Gauss symbol and indicates the largest integer not exceeding x.

最大長lmaxの占有グリッドマップ18を、分割数Dで分割することより、D個の分割領域18-iが設けられる。これらの分割領域18-iの前後方向の長さは、liとして示され、liはiによらず、全てlとなる。 By dividing the occupied grid map 18 with the maximum length l max by the number of divisions D, D divided regions 18-i are provided. The lengths of these divided regions 18-i in the front-back direction are shown as l i , and l i is all l regardless of i.

そして、分割領域18-iの前方端の車両200の中心からの距離xiは、次式のように示すことができる。 The distance x i from the center of the vehicle 200 to the front end of the divided region 18-i can be expressed as follows.

Figure 0007344744000007
Figure 0007344744000007

占有グリッドマップ生成部17は、分割領域18-iの走行方向における位置xiと、分割領域18-iにおいて検出される車幅方向の路側端の位置とを対応つけることで、占有グリッドマップ18における路側端の位置を検出することができる。 The occupancy grid map generation unit 17 generates the occupancy grid map 18 by associating the position x i of the divided area 18-i in the traveling direction with the position of the roadside edge in the vehicle width direction detected in the divided area 18-i. The location of the roadside edge can be detected.

なお、走路の曲率半径rによらず、常に一定の分割数Dで占有グリッドマップ18を分割し、複数の分割領域18-iを個別に評価してもよい。このようにすることで、逆に、検出された路側端の車幅方向の位置から走行レーンの曲率を推定することができる。 Note that the occupancy grid map 18 may always be divided by a constant number of divisions D, regardless of the radius of curvature r of the travel route, and the plurality of divided regions 18-i may be evaluated individually. By doing so, conversely, the curvature of the driving lane can be estimated from the detected position of the roadside edge in the vehicle width direction.

このように、変形例の路側端検出方法によれば、占有グリッドマップ18を進行方向に沿ってD個に分割することにより構成される分割領域18-iのそれぞれについて、車幅方向における路側端の位置を検出する。そして、走行方向における分割領域18-iの位置と対応付けて、その分割領域18-iにおける路側端の車幅方向の位置を検出する。このようにすることで、走行レーンが曲がっている場合であっても、占有グリッドマップ18における路側端の位置を走行方向において適切に判定することができる。 As described above, according to the roadside edge detection method of the modified example, the roadside edge in the vehicle width direction is determined for each of the divided areas 18-i that are formed by dividing the occupancy grid map 18 into D pieces along the traveling direction. Detect the position of. Then, the position of the roadside end in the divided area 18-i in the vehicle width direction is detected in association with the position of the divided area 18-i in the traveling direction. By doing so, even if the driving lane is curved, the position of the roadside edge in the occupancy grid map 18 can be appropriately determined in the driving direction.

以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。また、上記実施形態は、適宜組み合わせ可能である。 Although the embodiments of the present invention have been described above, the above embodiments merely show a part of the application examples of the present invention, and are not intended to limit the technical scope of the present invention to the specific configurations of the above embodiments. do not have. Furthermore, the above embodiments can be combined as appropriate.

10 路側端検出装置
12 測距センサ
14 オドメトリ計測部
15 測距データ蓄積部
16 蓄積測距データ
17 占有グリッドマップ生成部
18 占有グリッドマップ
18-i :分割領域
19 占有グリッドマップ加算部
20 不連続境界検出部
21 路側端判定部
30 自己位置推定部
31 地図データ
40 走路曲率検出部
61 路面
62 縁石
71 不連続境界
72 無視領域
100 運転支援システム
200 車両
10 roadside edge detection device 12 distance sensor 14 odometry measurement section 15 distance measurement data storage section 16 accumulated distance measurement data 17 occupancy grid map generation section 18 occupancy grid map 18-i: divided area 19 occupancy grid map addition section 20 discontinuous boundary Detection unit 21 Roadside edge determination unit 30 Self-position estimation unit 31 Map data 40 Road curvature detection unit 61 Road surface 62 Curb 71 Discontinuous boundary 72 Ignored area 100 Driving support system 200 Vehicle

Claims (9)

車両が走行する路面において、路側物が設けられた路側端を路側端検出装置により検出する路側端検出方法であって、
前記車両の周囲の所定範囲において、前記路面の高さを検出する路面高検出ステップと、
前記路面高検出ステップにおいて検出された前記所定範囲における前記路面の高さを、前記車両を基準とする車幅方向の位置に応じて、前記車両の走行方向に沿って総和を算出する総和算出ステップと、
前記総和算出ステップにおいて算出された前記総和が閾値を上回る前記車幅方向の位置が、前記路側端であると判定する、路側端判定ステップと、を備える、路側端検出方法。
A roadside edge detection method for detecting a roadside edge on which a roadside object is provided on a road surface on which a vehicle runs using a roadside edge detection device , the method comprising:
a road surface height detection step of detecting the height of the road surface in a predetermined range around the vehicle;
a total sum calculation step of calculating the sum of the heights of the road surface in the predetermined range detected in the road surface height detection step along the traveling direction of the vehicle according to the position in the vehicle width direction with respect to the vehicle; and,
A roadside edge detection method, comprising: a roadside edge determination step of determining that a position in the vehicle width direction where the summation calculated in the summation calculation step exceeds a threshold is the roadside end.
請求項1に記載の路側端検出方法であって、
前記路側端判定ステップにおいて、前記総和が閾値を上回る位置の検出を、前記車幅方向において、前記車両の存在する位置から側方に向かって順に行い、前記総和が閾値を上回ると最初に検出された前記車幅方向の検出位置が、前記路側端であると判定する、路側端検出方法。
The roadside edge detection method according to claim 1,
In the roadside edge determination step, the positions where the sum exceeds the threshold are sequentially detected in the vehicle width direction from the position where the vehicle is present toward the side, and when the sum exceeds the threshold, the position is detected first. A roadside edge detection method, wherein the detected position in the vehicle width direction is determined to be the roadside edge.
請求項1または2に記載の路側端検出方法であって、
前記路側端判定ステップにおいて、前記総和が閾値を上回る前記車幅方向の位置が複数検出される場合には、前記車幅方向において前記車両から最も近い該位置が、前記路側端であると判定する、路側端検出方法。
The roadside edge detection method according to claim 1 or 2,
In the roadside edge determining step, if a plurality of positions in the vehicle width direction are detected where the sum total exceeds a threshold value, the position closest to the vehicle in the vehicle width direction is determined to be the roadside edge. , Roadside edge detection method.
請求項1または2に記載の路側端検出方法であって、
さらに、前記車両の位置情報、及び、前記路側端の位置情報を含む道路情報に基づいて、前記路側端の位置情報を取得する、位置情報取得ステップを備え、
前記路側端判定ステップにおいて、前記前記総和が閾値を上回る前記車幅方向の位置が複数検出される場合には、前記位置情報取得ステップにおいて取得された前記路側端の位置情報が示す場所に最も近い該位置が、前記路側端であると判定する、路側端検出方法。
The roadside edge detection method according to claim 1 or 2,
Furthermore, a position information acquisition step of acquiring position information of the roadside end based on road information including the position information of the vehicle and the position information of the roadside end,
In the roadside edge determination step, if a plurality of positions in the vehicle width direction are detected where the sum exceeds the threshold, the position closest to the location indicated by the roadside edge position information acquired in the position information acquisition step is detected. A roadside edge detection method that determines that the position is the roadside edge.
請求項1から4のいずれか1項に記載の路側端検出方法であって、
前記路側端判定ステップにおいて、前記総和の平均値が大きいほど、前記閾値が大きい、路側端検出方法。
The roadside edge detection method according to any one of claims 1 to 4,
A roadside edge detection method, wherein in the roadside edge determination step, the larger the average value of the sum is, the larger the threshold value is.
請求項5に記載の路側端検出方法であって、
前記路側端判定ステップにおいて、前記閾値は、前記平均値、及び、前記総和の最大値の、所定の割合での加重平均である、路側端検出方法。
The roadside edge detection method according to claim 5,
In the roadside edge determination step, the threshold value is a weighted average of the average value and the maximum value of the total sum at a predetermined ratio.
請求項1から6のいずれか1項に記載の路側端検出方法であって、
さらに、前記車両の走行レーンの曲率を取得する曲率取得ステップを備え、
前記路面高検出ステップにおいて、前記走行レーンの前記曲率が大きいほど、前記所定範囲における前記車両の走行する方向の長さは短い、路側端検出方法。
The roadside edge detection method according to any one of claims 1 to 6,
Furthermore, a curvature acquisition step of acquiring the curvature of the driving lane of the vehicle,
In the road surface height detection step, the greater the curvature of the travel lane, the shorter the length of the predetermined range in the direction in which the vehicle travels.
請求項1から6のいずれか1項に記載の路側端検出方法であって、
前記路側端判定ステップにおいては、
前記所定範囲を前記車両の走行する方向に沿って複数分割されることにより設けられ、前記車両の走行する方向に並設される分割領域のそれぞれについて、前記車両の走行する方向においては該分割領域までの位置と対応つけて、前記車幅方向における前記路側端の位置を判定し、
前記分割領域のそれぞれについて、前記車幅方向においては前記判定される前記路側端の位置に、前記路側端があると判定する、路側端検出方法。
The roadside edge detection method according to any one of claims 1 to 6,
In the roadside edge determination step,
The predetermined range is divided into a plurality of regions along the direction in which the vehicle travels, and for each of the divided regions arranged in parallel in the direction in which the vehicle travels, the divided region is divided into a plurality of regions along the direction in which the vehicle travels. determining the position of the roadside end in the vehicle width direction in association with the position up to;
A roadside edge detection method, for each of the divided regions, determining that the roadside edge is located at the determined position of the roadside edge in the vehicle width direction.
車両が走行する路面において、路側物が設けられた路側端を検出する路側端検出装置であって、
前記車両の周囲の所定範囲において、前記路面の高さを検出する路面高検出部と、
前記路面高検出部において検出された前記所定範囲における前記路面の高さを、前記車両を基準とする車幅方向の位置に応じて、前記車両の走行方向に沿って総和を算出する総和算出部と、
前記総和算出部において算出された前記総和が閾値を上回る前記車幅方向の位置が、前記路側端であると判定する、路側端判定部と、を備える、路側端検出装置。
A roadside edge detection device that detects a roadside edge on which a roadside object is provided on a road surface on which a vehicle runs,
a road surface height detection unit that detects the height of the road surface in a predetermined range around the vehicle;
a total sum calculation unit that calculates the sum of the heights of the road surface in the predetermined range detected by the road surface height detection unit along the traveling direction of the vehicle according to the position in the vehicle width direction with respect to the vehicle; and,
A roadside edge detection device, comprising: a roadside edge determination unit that determines that a position in the vehicle width direction where the summation calculated by the summation calculating unit exceeds a threshold is the roadside edge.
JP2019186368A 2019-10-09 2019-10-09 Roadside edge detection method and roadside edge detection device Active JP7344744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019186368A JP7344744B2 (en) 2019-10-09 2019-10-09 Roadside edge detection method and roadside edge detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019186368A JP7344744B2 (en) 2019-10-09 2019-10-09 Roadside edge detection method and roadside edge detection device

Publications (2)

Publication Number Publication Date
JP2021060944A JP2021060944A (en) 2021-04-15
JP7344744B2 true JP7344744B2 (en) 2023-09-14

Family

ID=75381445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019186368A Active JP7344744B2 (en) 2019-10-09 2019-10-09 Roadside edge detection method and roadside edge detection device

Country Status (1)

Country Link
JP (1) JP7344744B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113340317A (en) * 2021-05-20 2021-09-03 云度新能源汽车有限公司 Method for assisting passage of flooded area and storage device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001250197A (en) 2000-03-06 2001-09-14 Denso Corp Method and device for road unevenness recognition for vehicle and recording medium
JP2010072807A (en) 2008-09-17 2010-04-02 Hitachi Ltd Device for detecting and determining road boundary
JP2015191372A (en) 2014-03-27 2015-11-02 トヨタ自動車株式会社 Travel path demarcating compartment line detector
JP2016045507A (en) 2014-08-19 2016-04-04 日野自動車株式会社 Driving support system
JP2018022270A (en) 2016-08-02 2018-02-08 日産自動車株式会社 Road shoulder detection method and road shoulder detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001250197A (en) 2000-03-06 2001-09-14 Denso Corp Method and device for road unevenness recognition for vehicle and recording medium
JP2010072807A (en) 2008-09-17 2010-04-02 Hitachi Ltd Device for detecting and determining road boundary
JP2015191372A (en) 2014-03-27 2015-11-02 トヨタ自動車株式会社 Travel path demarcating compartment line detector
JP2016045507A (en) 2014-08-19 2016-04-04 日野自動車株式会社 Driving support system
JP2018022270A (en) 2016-08-02 2018-02-08 日産自動車株式会社 Road shoulder detection method and road shoulder detection device

Also Published As

Publication number Publication date
JP2021060944A (en) 2021-04-15

Similar Documents

Publication Publication Date Title
CN110632921B (en) Robot path planning method and device, electronic equipment and storage medium
US11623644B2 (en) Apparatus and method for controlling vehicle based on cut-in prediction in junction section
JP6606610B2 (en) Runway boundary estimation device and travel support system using the same
US10776634B2 (en) Method for determining the course of the road for a motor vehicle
JP6401140B2 (en) Joint probability modeling and estimation of the structure of intersections
US20200180636A1 (en) Apparatus and method for controlling running of vehicle
JP6440411B2 (en) Object detection device
CN109635816B (en) Lane line generation method, apparatus, device, and storage medium
CN111552284A (en) Method, device, equipment and medium for planning local path of unmanned vehicle
US11898855B2 (en) Assistance control system that prioritizes route candidates based on unsuitable sections thereof
JP6492469B2 (en) Own vehicle travel lane estimation device and program
JP2004531424A (en) Sensing device for cars
US11062153B2 (en) Apparatus and method for converting image
JP6038422B1 (en) Vehicle determination device, vehicle determination method, and vehicle determination program
JP2019096132A (en) Object recognition device
JP7344744B2 (en) Roadside edge detection method and roadside edge detection device
CN115195773A (en) Apparatus and method for controlling vehicle driving and recording medium
CN113887276A (en) Image-based forward main target detection method
JP5888275B2 (en) Road edge detection system, method and program
JP6631226B2 (en) Own lane information estimation device
JP7344743B2 (en) Occupancy map creation method and occupancy map creation device
US20220414386A1 (en) Method for detecting lane line using lidar sensor and lane detection device for performing the method
JPH10187974A (en) Physical distribution measuring instrument
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method
JP2022009231A (en) Determination device, determination method, and determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R150 Certificate of patent or registration of utility model

Ref document number: 7344744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150