JP5820774B2 - Road boundary estimation apparatus and program - Google Patents

Road boundary estimation apparatus and program Download PDF

Info

Publication number
JP5820774B2
JP5820774B2 JP2012140039A JP2012140039A JP5820774B2 JP 5820774 B2 JP5820774 B2 JP 5820774B2 JP 2012140039 A JP2012140039 A JP 2012140039A JP 2012140039 A JP2012140039 A JP 2012140039A JP 5820774 B2 JP5820774 B2 JP 5820774B2
Authority
JP
Japan
Prior art keywords
road surface
line segment
edge line
surface boundary
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012140039A
Other languages
Japanese (ja)
Other versions
JP2014006588A (en
Inventor
誠良 平塚
誠良 平塚
清澄 城殿
清澄 城殿
史也 一野
史也 一野
達也 白石
達也 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2012140039A priority Critical patent/JP5820774B2/en
Publication of JP2014006588A publication Critical patent/JP2014006588A/en
Application granted granted Critical
Publication of JP5820774B2 publication Critical patent/JP5820774B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、路面境界推定装置及びプログラムに関する。   The present invention relates to a road boundary estimation apparatus and program.

従来、道路領域を撮像する2台以上のカメラを有する画像取得部によって得られた画像に基づいて撮像領域の3次元距離情報を取得し、3次元距離情報に基づいて道路領域に存在する立体物の高さを検出して道路境界を検出し、道路境界に相当する立体物の高さを検出できた第1の道路領域と、道路境界に相当する立体物の高さを検出できなかった第2の道路領域について、画像を変換して第1の道路領域の境界に相当する立体物及び第2の道路領域の境界に相当する立体物が同じであるか否かを判断し、同じであると判断した場合には、第2の道路領域を第1の道路領域に再設定する道路境界検出判断装置が提案されている(例えば、特許文献1参照)。   Conventionally, a three-dimensional object existing in a road area based on the three-dimensional distance information obtained by acquiring three-dimensional distance information of the imaging area based on an image obtained by an image acquisition unit having two or more cameras that capture the road area The first road area in which the height of the three-dimensional object corresponding to the road boundary was detected and the height of the three-dimensional object corresponding to the road boundary could not be detected. For the two road areas, the image is converted to determine whether the three-dimensional object corresponding to the boundary of the first road area and the three-dimensional object corresponding to the boundary of the second road area are the same. Has been proposed, a road boundary detection / determination device that resets the second road area to the first road area has been proposed (see, for example, Patent Document 1).

また、撮像部で撮像した自車両前方の画像から特徴点を抽出し、特徴点を表す画素の画像上の移動速度を算出し、移動速度を指標として画素をグループ化し、グループ内の上端と下端に位置する画素の座標を所定の範囲の俯瞰座標における座標に変換し、変換後の画素の座標に基づいて特徴点を平面物または立体物と判定し、下端点の画像上における配置に基づいて走路境界であるか否かを判定する走路境界検出装置が提案されている(例えば、特許文献2参照)。   Also, feature points are extracted from the image in front of the host vehicle captured by the imaging unit, the moving speed of the pixels representing the feature points on the image is calculated, the pixels are grouped using the moving speed as an index, and the upper and lower ends in the group The coordinates of the pixel located at is converted into coordinates in the overhead coordinates of a predetermined range, the feature point is determined to be a plane object or a three-dimensional object based on the coordinates of the pixel after conversion, and based on the arrangement of the lower end point on the image A road boundary detection device that determines whether or not a road boundary is present has been proposed (see, for example, Patent Document 2).

また、車両の進行方向前側を撮像した画像に基づいて道路の道路領域を検出し、その道路領域に基づいて道路の形状を推定する道路形状認識装置が提案されている(例えば、特許文献3参照)。   Further, a road shape recognition device that detects a road area of a road based on an image obtained by capturing the front side of the traveling direction of the vehicle and estimates the shape of the road based on the road area has been proposed (see, for example, Patent Document 3). ).

特開2010−72807号公報JP 2010-72807 A 特開2007−316685号公報Japanese Patent Laid-Open No. 2007-316685 特開2011−28659号公報JP 2011-28659 A

しかしながら、特許文献1記載の技術では、立体物の検出結果に基づいて走路境界を決定しているが、縁石など高さの低い段差をステレオカメラにより得られる3次元距離情報のみで検出することは困難である。特に、カメラからの距離が遠い遠距離領域においては、3次元距離情報の誤差が大きくなるため、その誤差に埋もれて高さの低い立体物を検出することは容易ではなく、路面境界を遠方まで精度良く推定することは困難である、という問題がある。また、切れ間の多いガードレール、垣根、並木等による路面境界では、その切れ間の部分で路面境界の未検出が生じ易く、路面境界を精度良く推定することができない場合がある、という問題がある。   However, in the technique described in Patent Document 1, the road boundary is determined based on the detection result of the three-dimensional object. However, it is possible to detect a low step such as a curb using only three-dimensional distance information obtained by a stereo camera. Have difficulty. In particular, in a long-distance area where the distance from the camera is far, the error of the three-dimensional distance information becomes large. Therefore, it is not easy to detect a three-dimensional object buried in the error and the road boundary is far away. There is a problem that it is difficult to estimate with high accuracy. In addition, there is a problem in that road surface boundaries such as guardrails, fences, row trees, etc. with many gaps are likely to be undetected at the gaps, and the road boundary may not be estimated accurately.

また、特許文献2記載の技術では、単眼カメラによるオプティカルフローを用いて立体物を検出しているが、上記特許文献1記載の技術と同様に、高さの低い立体物を検出することは容易ではなく、また、切れ間の多い立体物に対しても未検出が生じ易いため、上記と同様の問題が生じる。   In the technique described in Patent Document 2, a three-dimensional object is detected by using an optical flow by a monocular camera. However, as in the technique described in Patent Document 1, it is easy to detect a three-dimensional object having a low height. In addition, since a non-detection is likely to occur even for a three-dimensional object having many gaps, the same problem as described above occurs.

また、特許文献3記載の技術では、画像の輝度や色の情報に基づいて道路領域を推定しているが、このような手法は、レーンマークを走路境界として検出する場合には適用可能であるが、立体物や段差などの物理的な路面境界を検出の対象とする場合には適用困難であり、逆に、レーンマークや影などが誤検出の要因となってしまう、という問題がある。   Further, in the technique described in Patent Document 3, the road area is estimated based on information on the luminance and color of the image. However, such a method is applicable when detecting a lane mark as a road boundary. However, it is difficult to apply when a physical road surface boundary such as a three-dimensional object or a step is to be detected, and conversely, there is a problem that a lane mark, a shadow, or the like causes a false detection.

本発明は、上記の問題点を解決するためになされたもので、高さの低い立体物や切れ間の多い立体物が存在する場合でも、路面境界を遠方まで精度良く推定することができる路面境界推定装置及びプログラムを提供することを目的とする。   The present invention was made in order to solve the above-described problems, and even when there is a three-dimensional object with a low height or a large number of cuts, a road surface boundary that can accurately estimate the road surface boundary far away. An object is to provide an estimation device and a program.

上記目的を達成するために、本発明の路面境界推定装置は、移動体周辺に存在する物体上の複数の点各々の前記移動体を基準とする3次元位置、及び前記移動体に搭載された撮像手段により該移動体周辺を撮像して得た画像を取得する取得手段と、前記取得手段により取得された3次元位置に基づいて、前記移動体周辺の立体物領域を抽出する立体物領域抽出手段と、前記取得手段により取得された画像からエッジ線分を抽出するエッジ線分抽出手段と、前記エッジ線分抽出手段により抽出されたエッジ線分から、前記立体物領域抽出手段により抽出された立体物領域との距離が所定値以下のエッジ線分を選択する線分選択手段と、前記線分選択手段により選択されたエッジ線分に基づいて、路面境界を推定する路面境界推定手段と、を含んで構成されている。   In order to achieve the above object, a road surface boundary estimation device of the present invention is mounted on a three-dimensional position based on the moving body at each of a plurality of points on an object existing around the moving body, and mounted on the moving body. An acquisition unit that acquires an image obtained by imaging the periphery of the moving object by an imaging unit, and a three-dimensional object region extraction that extracts a three-dimensional object region around the moving object based on the three-dimensional position acquired by the acquisition unit. Means, an edge line segment extraction means for extracting an edge line segment from the image acquired by the acquisition means, and a solid extracted by the solid object region extraction means from the edge line segment extracted by the edge line segment extraction means Line segment selection means for selecting an edge line segment whose distance from the object area is equal to or smaller than a predetermined value; and road surface boundary estimation means for estimating a road surface boundary based on the edge line segment selected by the line segment selection means. Including It is configured.

本発明の路面境界推定装置によれば、取得手段が、移動体周辺に存在する物体上の複数の点各々の移動体を基準とする3次元位置、及び移動体に搭載された撮像手段により該移動体周辺を撮像して得た画像を取得する。そして、立体物領域抽出手段が、取得手段により取得された3次元位置に基づいて、移動体周辺の立体物領域を抽出する。また、エッジ線分抽出手段が、取得手段により取得された画像からエッジ線分を抽出する。そして、線分選択手段が、エッジ線分抽出手段により抽出されたエッジ線分から、立体物領域抽出手段により抽出された立体物領域との距離が所定値以下のエッジ線分を選択し、路面境界推定手段が、線分選択手段により選択されたエッジ線分に基づいて、路面境界を推定する。   According to the road surface boundary estimation apparatus of the present invention, the acquisition unit includes the three-dimensional position based on the moving body of each of a plurality of points on the object existing around the moving body, and the imaging unit mounted on the moving body. An image obtained by imaging the periphery of the moving body is acquired. Then, the three-dimensional object region extracting unit extracts a three-dimensional object region around the moving body based on the three-dimensional position acquired by the acquiring unit. Further, the edge line segment extraction unit extracts the edge line segment from the image acquired by the acquisition unit. Then, the line segment selection means selects an edge line segment whose distance from the solid object area extracted by the solid object area extraction means is a predetermined value or less from the edge line segment extracted by the edge line segment extraction means, and the road boundary An estimation means estimates a road surface boundary based on the edge line segment selected by the line segment selection means.

このように、画像から抽出されたエッジ線分から、立体物領域との距離が所定値以下のエッジ線分を選択して路面境界を推定するため、高さの低い立体物や切れ間の多い立体物が存在する場合でも、路面境界を遠方まで精度良く推定することができる。   In this way, since the road surface boundary is estimated by selecting an edge line segment whose distance from the solid object region is a predetermined value or less from the edge line segment extracted from the image, a solid object with a low height or a solid object with many gaps is used. Even when the road surface exists, the road surface boundary can be accurately estimated far away.

また、前記路面境界推定手段は、前記立体物領域の外縁または下端が示す路面と立体物との境界点と、前記選択されたエッジ線分とを統合して、前記路面境界を推定することができる。これにより、エッジ線分が抽出されていない箇所、または立体物領域が抽出されていない箇所を互いに補間して、精度良く路面境界を推定することができる。   Further, the road surface boundary estimation means may estimate the road surface boundary by integrating a boundary point between a road surface and a solid object indicated by an outer edge or a lower end of the solid object region and the selected edge line segment. it can. As a result, a road surface boundary can be estimated with high accuracy by interpolating a portion from which no edge line segment is extracted or a portion from which a three-dimensional object region is not extracted.

また、前記立体物領域抽出手段は、前記取得手段により時系列に取得された複数の3次元位置に基づいて、前記立体物領域を抽出することができる。これにより、より精度良く立体物領域を抽出することができる。   Further, the three-dimensional object region extracting unit can extract the three-dimensional object region based on a plurality of three-dimensional positions acquired in time series by the acquiring unit. As a result, the three-dimensional object region can be extracted with higher accuracy.

また、本発明の路面境界推定装置は、前記取得手段により取得された3次元位置に基づいて、前記移動体周辺の路面領域を抽出する路面領域抽出手段を含んで構成することができ、前記線分選択手段は、前記立体物領域及び前記路面領域の所定領域内に含まれるエッジ線分を除外することができる。これにより、より精度良く路面境界の候補となるエッジ線分を選択することができる。   The road surface boundary estimation apparatus of the present invention can include a road surface area extraction unit that extracts a road surface area around the moving body based on the three-dimensional position acquired by the acquisition unit, and the line The minute selecting means can exclude edge line segments included in predetermined areas of the three-dimensional object area and the road surface area. Thereby, the edge line segment which becomes a candidate of a road surface boundary can be selected with higher accuracy.

また、前記路面領域抽出手段は、前記取得手段により時系列に取得された複数の3次元位置に基づいて、前記路面領域を抽出することができる。これにより、より精度良く路面領域を抽出することができる。   Further, the road surface area extracting unit can extract the road surface area based on a plurality of three-dimensional positions acquired in time series by the acquiring unit. Thereby, a road surface area can be extracted with higher accuracy.

また、本発明の路面境界推定装置は、前記立体物領域に基づいて、前記移動体周辺の各点における路面らしさを示す路面確率を算出する路面確率算出手段を含んで構成することができ、前記路面境界推定手段は、前記路面確率算出手段により算出された路面確率と前記選択されたエッジ線分とを統合して、前記路面境界を推定することができる。これにより、より精度良く路面境界を推定することができる。   Further, the road surface boundary estimation device of the present invention can be configured to include road surface probability calculation means for calculating a road surface probability indicating the road surface probability at each point around the moving body based on the solid object region, The road surface boundary estimation means can estimate the road surface boundary by integrating the road surface probability calculated by the road surface probability calculation means and the selected edge line segment. Thereby, a road surface boundary can be estimated more accurately.

また、前記路面境界推定手段は、前記取得手段により取得された画像から得られるテクスチャ情報、前記画像の画素値の変化に基づく動的背景情報、及び路面構造に基づく制約の少なくとも1つを加えて、前記路面境界を推定することができる。このような路面境界の推定に有用な情報を用いることで、より精度良く路面境界を推定することができる。   Further, the road surface boundary estimation unit adds at least one of texture information obtained from the image acquired by the acquisition unit, dynamic background information based on a change in the pixel value of the image, and constraints based on the road surface structure. The road surface boundary can be estimated. By using such information useful for estimating the road surface boundary, the road surface boundary can be estimated with higher accuracy.

また、前記線分選択手段は、前記移動体と前記エッジ線分に対応する位置との距離に応じて、前記所定値を変更することができる。これにより、より適切なエッジ線分を選択することができる。   Further, the line segment selection unit can change the predetermined value according to a distance between the moving body and a position corresponding to the edge line segment. Thereby, a more appropriate edge line segment can be selected.

また、前記線分選択手段は、前記立体物領域と前記エッジ線分との距離が近いほど高くなる評価値を算出し、該評価値と予め定めた閾値とを比較して、線分マップに蓄積するエッジ線分を選択することができる。また、前記線分選択手段は、前記移動体の移動方向ベクトルと前記エッジ線分との類似度が高いほど高くなる係数を乗算して前記評価値を算出することができる、また、前記線分選択手段は、路面構造に基づく境界線と前記エッジ線分との距離及び類似度の少なくとも一方に基づく重みを前記評価値に加えることができる。これらにより、路面境界を示すエッジ線分の候補として、より精度の高いエッジ線分を選択することができる。 Further, the line segment selecting unit calculates an evaluation value distance between the edge line and the three-dimensional object area is higher the closer, and compared with a predetermined threshold value and the evaluation value, the line segments map The edge line segment to be accumulated can be selected. Further, the line segment selection means can calculate the evaluation value by multiplying a coefficient that increases as the similarity between the moving direction vector of the moving object and the edge line segment increases. The selection means can add a weight based on at least one of the distance and the similarity between the boundary line based on the road surface structure and the edge line segment to the evaluation value. As a result, a highly accurate edge line segment can be selected as a candidate for an edge line segment indicating a road surface boundary.

また、前記線分選択手段は、選択したエッジ線分を、過去に選択されたエッジ線分を蓄積した線分マップに蓄積し、前記路面境界推定手段は、前記線分マップに基づいて、前記路面境界を推定することができる。このように、異なる時刻で取得された画像から抽出されたエッジ線分を蓄積していくことで、画像上でのエッジ線分の見え方の違いにより、エッジ線分の欠落を補完することができ、精度良く路面境界を推定することができる。   Further, the line segment selection means accumulates the selected edge line segment in a line segment map in which previously selected edge line segments are accumulated, and the road surface boundary estimation means is based on the line segment map, The road boundary can be estimated. In this way, by accumulating edge line segments extracted from images acquired at different times, it is possible to compensate for missing edge line segments due to differences in the appearance of edge line segments on the image. It is possible to accurately estimate the road surface boundary.

また、前記路面境界推定手段は、前記線分マップに蓄積されたエッジ線分を細線化することにより、前記路面境界を推定することができる。これにより、蓄積されたエッジ線分から最適な路面境界が抽出されるため、精度良く路面境界を推定することができる。   Further, the road surface boundary estimation means can estimate the road surface boundary by thinning the edge line segments accumulated in the line segment map. Thereby, since the optimal road surface boundary is extracted from the accumulated edge line segment, the road surface boundary can be estimated with high accuracy.

また、本発明の路面境界推定プログラムは、コンピュータを、上記の路面境界推定装置を構成する各手段として機能させるためのプログラムである。   Further, the road surface boundary estimation program of the present invention is a program for causing a computer to function as each means constituting the road surface boundary estimation device.

なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。   The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.

以上説明したように、本発明の路面境界推定装置及びプログラムによれば、画像から抽出されたエッジ線分から、立体物領域との距離が所定値以下のエッジ線分を選択して路面境界を推定するため、高さの低い立体物や切れ間の多い立体物が存在する場合でも、路面境界を遠方まで精度良く推定することができる、という効果が得られる。   As described above, according to the road surface boundary estimation apparatus and program of the present invention, the road surface boundary is estimated by selecting an edge line segment whose distance from the three-dimensional object region is a predetermined value or less from the edge line segment extracted from the image. Therefore, even when a three-dimensional object with a low height or a three-dimensional object with many cuts exists, the effect that the road surface boundary can be accurately estimated to a long distance can be obtained.

第1の実施の形態に係る路面境界推定装置を示すブロック図である。It is a block diagram which shows the road surface boundary estimation apparatus which concerns on 1st Embodiment. (a)撮像画像、(b)観測データを画像化した一例を示す図である。It is a figure which shows an example which imaged (a) picked-up image and (b) observation data. 観測データに基づく立体物領域の抽出方法を説明するための図である。It is a figure for demonstrating the extraction method of the solid object area | region based on observation data. 立体物マップの一例を示す図である。It is a figure which shows an example of a solid object map. エッジ線分の抽出結果の一例を示す図である。It is a figure which shows an example of the extraction result of an edge line segment. 立体物マップにエッジ線分を投影した一部の一例を示す図である。It is a figure which shows an example of the part which projected the edge line segment on the solid object map. エッジ線分の評価値算出を説明するための図である。It is a figure for demonstrating evaluation value calculation of an edge line segment. 立体物境界と選択されたエッジ線分との統合を説明するための図である。It is a figure for demonstrating integration with a solid-object boundary and the selected edge line segment. 第1の実施の形態に係る路面境界推定装置における路面境界推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the road surface boundary estimation process routine in the road surface boundary estimation apparatus which concerns on 1st Embodiment. 路面境界の推定結果の一例を示す図である。It is a figure which shows an example of the estimation result of a road surface boundary. エッジ線分の選択の他の方法を説明するための図である。It is a figure for demonstrating the other method of selection of an edge line segment. 第2の実施の形態に係る路面境界推定装置を示すブロック図である。It is a block diagram which shows the road surface boundary estimation apparatus which concerns on 2nd Embodiment. (a)立体物領域、及び(b)路面領域の抽出結果を画像化した一例を示す図である。It is a figure which shows an example which imaged the extraction result of (a) solid object area | region and (b) road surface area | region. 走路モデルの適合に関する座標系を示す図である。It is a figure which shows the coordinate system regarding adaptation of a runway model. 立体物境界と選択されたエッジ線分との統合の他の例を説明するための図である。It is a figure for demonstrating the other example of integration of a solid-object boundary and the selected edge line segment. 第2の実施の形態に係る路面境界推定装置における路面境界推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the road surface boundary estimation process routine in the road surface boundary estimation apparatus which concerns on 2nd Embodiment. 第3の実施の形態に係る路面境界推定装置を示すブロック図である。It is a block diagram which shows the road surface boundary estimation apparatus which concerns on 3rd Embodiment. (a)線分マップ、及び(b)(a)の線分マップから抽出された路面境界を示す線分の一例を示す図である。It is a figure which shows an example of the line segment which shows the road surface boundary extracted from (a) line segment map and the line segment map of (b) and (a). 第3の実施の形態に係る路面境界推定装置における路面境界推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the road surface boundary estimation process routine in the road surface boundary estimation apparatus which concerns on 3rd Embodiment. 第4の実施の形態に係る路面境界推定装置を示すブロック図である。It is a block diagram which shows the road surface boundary estimation apparatus which concerns on 4th Embodiment. 路面確率マップの一例を示す図である。It is a figure which shows an example of a road surface probability map. 距離に応じた重みを用いたエッジ線分の評価値算出を説明するための図である。It is a figure for demonstrating calculation of the evaluation value of the edge line segment using the weight according to distance. 自車運動ベクトルとの類似性を用いたエッジ線分の評価値算出を説明するための図である。It is a figure for demonstrating the evaluation value calculation of the edge line segment using the similarity with the own vehicle motion vector. 第4の実施の形態に係る路面境界推定装置における路面境界推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the road surface boundary estimation process routine in the road surface boundary estimation apparatus which concerns on 4th Embodiment. 立体物境界と選択されたエッジ線分との統合の他の例を説明するための図である。It is a figure for demonstrating the other example of integration of a solid-object boundary and the selected edge line segment.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、車両に搭載され、車両周辺の路面境界を推定する路面境界推定装置に、本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, a case where the present invention is applied to a road surface boundary estimation device that is mounted on a vehicle and estimates a road surface boundary around the vehicle will be described as an example.

<第1の実施の形態> <First Embodiment>

図1に示すように、第1の実施の形態に係る路面境界推定装置10は、自車両周辺に存在する物体上の複数の点の自車両を基準とする3次元位置を観測するレーザレーダ12と、自車両周辺を撮像して取得された画像の画像データを出力する撮像装置14と、路面境界を推定する処理を実行するコンピュータ16と、推定結果が表示される表示装置18とを備えている。   As shown in FIG. 1, a road surface boundary estimation apparatus 10 according to the first embodiment is a laser radar 12 that observes a three-dimensional position with respect to the host vehicle at a plurality of points on an object existing around the host vehicle. An imaging device 14 that outputs image data of an image obtained by imaging the periphery of the host vehicle, a computer 16 that executes processing for estimating a road surface boundary, and a display device 18 that displays an estimation result. Yes.

なお、ここでの路面境界とは、路面と立体物との段差などにより自車両が物理的に走行不可能な領域と走行可能な領域との境界、及び路面に隣接した他の敷地(駐車場等)のように、通常の走行が想定されていないスペースと路面との境界を含む概念である。また、白線等で識別される法規的な走行境界は、本実施の形態における路面境界には含まない。   The road surface boundary here refers to the boundary between the area where the host vehicle cannot physically travel and the area where the vehicle can travel due to the level difference between the road surface and the three-dimensional object, and other sites adjacent to the road surface (parking lots). And the like, including a boundary between a space and a road surface where normal traveling is not assumed. Further, the legal travel boundary identified by a white line or the like is not included in the road surface boundary in the present embodiment.

レーザレーダ12は、車両前方に設置され、車両の車体前後方向を中心とした視野角で、装置を基準とする車両前方に存在する物体の各点における方位及び距離を観測する装置である。レーザレーダ12は、例えば、出力する複数の走査ラインのレーザを水平方向に走査して、自車両前方に存在する物体表面上の複数の点で反射されたレーザ光を受光する。レーザ光を照射してから受光するまでの時間により、レーザ光の反射点までの距離を算出する。また、レーザ光を照射した方向も既知であるため、レーザ光の反射点の3次元位置を観測することができる。   The laser radar 12 is a device that is installed in front of the vehicle and observes the azimuth and distance at each point of an object existing in front of the vehicle with a viewing angle centered on the longitudinal direction of the vehicle. For example, the laser radar 12 scans lasers of a plurality of scanning lines to be output in the horizontal direction, and receives laser beams reflected at a plurality of points on the object surface existing in front of the host vehicle. The distance to the reflection point of the laser beam is calculated based on the time from when the laser beam is irradiated until it is received. Further, since the direction in which the laser beam is irradiated is known, the three-dimensional position of the reflection point of the laser beam can be observed.

レーザレーダ12により観測される観測データは、自車両前方でのレーザ光の反射点の位置を表す3次元座標の集合である。レーザレーダ12による観測処理は一定サイクルで実行され、レーザレーダ12は、各時点での自車両前方におけるレーザ光の反射点の複数の3次元位置を示す観測データをコンピュータ16に出力する。出力される観測データが示す各点の3次元位置は、レーザレーダ12から各反射点までの距離及び方位で表される極座標であってもよいし、レーザレーダ12を中心とする直交座標系上での3次元位置座標であってもよい。   The observation data observed by the laser radar 12 is a set of three-dimensional coordinates representing the position of the laser light reflection point in front of the host vehicle. The observation processing by the laser radar 12 is executed in a constant cycle, and the laser radar 12 outputs observation data indicating a plurality of three-dimensional positions of the reflection point of the laser beam in front of the host vehicle at each time point to the computer 16. The three-dimensional position of each point indicated by the output observation data may be polar coordinates represented by the distance and orientation from the laser radar 12 to each reflection point, or on an orthogonal coordinate system centered on the laser radar 12. It may be a three-dimensional position coordinate.

撮像装置14は、車両前方に設置され、車両の車体前後方向を中心とした視野角で、レーザレーダ12と共通の観測領域において周辺環境を撮像し、撮像して得られた撮像画像を示す画像データをコンピュータ16に出力する。撮像装置14が出力する画像データは、カラー画像であってもよいし、モノクロ画像であってもよい。   The imaging device 14 is installed in front of the vehicle, images the surrounding environment in an observation region common to the laser radar 12 at a viewing angle centered on the longitudinal direction of the vehicle body of the vehicle, and shows a captured image obtained by imaging Data is output to the computer 16. The image data output from the imaging device 14 may be a color image or a monochrome image.

なお、レーザレーダ12と撮像装置14とは、路面境界を推定したい範囲の視野角を有すればよく、センサの数や視野角は特に制限されない。さらに、レーザレーダ12及び撮像装置14の設置位置や角度は既知であるため、レーザレーダ12で観測された物体の位置と、撮像装置14で撮像された撮像画像内での物体の位置とは対応付けが可能である。なお、車両幅方向をX方向、垂直方向をY方向、車両前後方向をZ方向とする。すなわちレーザレーダ12で観測された観測データはXYZ空間の3次元情報であり、撮像装置14で撮像された画像データはXY平面の情報であり、後述する立体物マップ50等のグリッドマップはXZ平面の情報である。   The laser radar 12 and the imaging device 14 need only have a viewing angle in a range in which a road surface boundary is desired to be estimated, and the number of sensors and the viewing angle are not particularly limited. Furthermore, since the installation positions and angles of the laser radar 12 and the imaging device 14 are known, the position of the object observed by the laser radar 12 corresponds to the position of the object in the captured image captured by the imaging device 14. Can be attached. The vehicle width direction is the X direction, the vertical direction is the Y direction, and the vehicle front-rear direction is the Z direction. That is, the observation data observed by the laser radar 12 is three-dimensional information in the XYZ space, the image data captured by the imaging device 14 is information on the XY plane, and a grid map such as a three-dimensional object map 50 described later is an XZ plane. Information.

図2(a)に撮像装置14により撮像された撮像画像の一例を、同図(b)に(a)の撮像画像と同領域を観測したレーザレーダ12の観測データを画像化した一例を示す。   FIG. 2A shows an example of a picked-up image picked up by the image pickup device 14, and FIG. 2B shows an example of imaging observation data of the laser radar 12 that has observed the same region as the picked-up image of FIG. .

コンピュータ16は、CPU、後述する路面境界推定処理ルーチンを実行するためのプログラム等各種プログラム及び各種データを記憶したROM、データ等を一時的に記憶するRAM、各種情報が記憶されたメモリ、及びこれらを接続するバスを含んで構成されている。   The computer 16 includes a CPU, a ROM for storing various programs such as a program for executing a road surface boundary estimation processing routine and a ROM for storing various data, a RAM for temporarily storing data, a memory for storing various information, and the like. It is comprised including the bus which connects.

このコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、レーザレーダ12の観測データから自車両周辺の立体物領域を抽出する立体物領域抽出部20と、立体物領域に基づいて立体物境界を推定する立体物境界推定部22と、撮像装置14により撮像された撮像画像からエッジ線分を抽出するエッジ線分抽出部24と、立体物領域に基づいてエッジ線分を選択する線分選択部26と、推定された立体物境界と選択されたエッジ線分とを統合して、路面境界を推定する路面境界推定部28とを含んだ構成で表すことができる。   If the computer 16 is described with function blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. 1, a three-dimensional object area around the host vehicle is extracted from the observation data of the laser radar 12. A three-dimensional object region extracting unit 20, a three-dimensional object boundary estimating unit 22 that estimates a three-dimensional object boundary based on the three-dimensional object region, and an edge line segment extracting unit that extracts an edge line segment from a captured image captured by the imaging device 14. 24, a line segment selection unit 26 that selects an edge line segment based on the solid object region, and a road surface boundary estimation unit that estimates a road surface boundary by integrating the estimated solid object boundary and the selected edge line segment. 28.

立体物領域抽出部20は、レーザレーダ12で観測された観測データを取得し、観測データから立体物を示す立体物領域を抽出する。具体的には、図3に示すように、路面平面を格子状に分割した2次元のXZ平面のグリッドマップ上に、レーザレーダ12の観測データを、その観測データのXZ平面位置に対応するセルに投影する。そして、各セル内に投影された観測データ群の高さ方向の分散が所定の閾値以上となるセルを、立体物領域として抽出し、図4に示すような立体物マップ50を生成する。図4に示す立体物マップ50では、立体物領域を示すセルを黒、立体物領域ではないセル(高さ方向の分散が所定の閾値未満のセル)を白、及び観測データが得られていないセルをグレーで示している。   The three-dimensional object region extraction unit 20 acquires observation data observed by the laser radar 12 and extracts a three-dimensional object region indicating a three-dimensional object from the observation data. Specifically, as shown in FIG. 3, on the grid map of the two-dimensional XZ plane obtained by dividing the road surface plane in a grid pattern, the observation data of the laser radar 12 is a cell corresponding to the XZ plane position of the observation data. Project to. Then, a cell in which the variance in the height direction of the observation data group projected in each cell is equal to or greater than a predetermined threshold is extracted as a three-dimensional object region, and a three-dimensional object map 50 as shown in FIG. 4 is generated. In the three-dimensional object map 50 shown in FIG. 4, the cells indicating the three-dimensional object region are black, the cells that are not the three-dimensional object region (cells whose dispersion in the height direction is less than the predetermined threshold) are white, and observation data is not obtained. The cell is shown in gray.

立体物境界推定部22は、立体物領域抽出部20により生成された立体物マップ50に基づいて、立体物領域の外縁を立体物と路面との境界を示す立体物境界として推定する。   The three-dimensional object boundary estimation unit 22 estimates the outer edge of the three-dimensional object region as a three-dimensional object boundary indicating the boundary between the three-dimensional object and the road surface based on the three-dimensional object map 50 generated by the three-dimensional object region extraction unit 20.

エッジ線分抽出部24は、撮像装置14から画像データを取得し、画像データが示す撮像画像に対して、既存のSobelオペレータやPrewittオペレータを用いて、各画素のエッジ(輝度勾配の大きさと方向)を抽出する。そして、画像中の位置に応じて抽出するエッジ方向に制限をかけ、消失点方向に連続して伸びるエッジをエッジ線分として抽出する。これにより、垂直方向に伸びる立体物のエッジなどを除去することができる。図5に、撮像画像上で抽出されたエッジ線分の一例を示す。また、図5に示すように、撮像装置14の俯角や車両のピッチ変動量に基づいて、画像の処理範囲(ROI:Region of Interest)を設定してもよい。   The edge line segment extraction unit 24 acquires image data from the imaging device 14, and uses the existing Sobel operator or Prewitt operator on the captured image indicated by the image data, to detect the edge of each pixel (the magnitude and direction of the luminance gradient). ). Then, the edge direction to be extracted is limited according to the position in the image, and the edge continuously extending in the vanishing point direction is extracted as an edge line segment. As a result, the edge of a three-dimensional object extending in the vertical direction can be removed. FIG. 5 shows an example of the edge line segment extracted on the captured image. Further, as shown in FIG. 5, an image processing range (ROI: Region of Interest) may be set based on the depression angle of the imaging device 14 or the amount of vehicle pitch fluctuation.

線分選択部26は、エッジ線分抽出部24で抽出されたエッジ線分の中から、路面境界を構成するエッジ線分の絞り込みを行う。ここでは、路面境界として、段差やバリアなどの物理的な境界を想定しているため、路面境界の候補として、立体物の近傍に存在するエッジ線分を選択する。具体的には、立体物領域抽出部24で抽出されたXY平面情報であるエッジ線分の各々を、XZ平面情報である立体物マップ50に投影する。図6に、立体物マップ50にエッジ線分を投影した一部の一例を示す。立体物領域を示すセルを○印、エッジ線分が投影されたセル(以下、「エッジ線分のセル」という)を網掛けで示している。線分選択部26は、立体物領域との距離が所定値以下のエッジ線分を選択する。図6の例では、中央線に相当するエッジ線分は立体物からの距離が遠いため、路面境界を示すエッジ線分の候補から除外される。   The line segment selection unit 26 narrows down the edge line segments constituting the road surface boundary from the edge line segments extracted by the edge line segment extraction unit 24. Here, since a physical boundary such as a step or a barrier is assumed as the road surface boundary, an edge line segment existing in the vicinity of the three-dimensional object is selected as a candidate for the road surface boundary. Specifically, each of the edge line segments that are XY plane information extracted by the three-dimensional object region extraction unit 24 is projected onto the three-dimensional object map 50 that is XZ plane information. FIG. 6 shows an example of a part of an edge line segment projected on the three-dimensional object map 50. A cell indicating a three-dimensional object region is indicated by a circle, and a cell on which an edge line segment is projected (hereinafter referred to as an “edge line segment cell”) is shaded. The line segment selection unit 26 selects an edge line segment whose distance from the three-dimensional object region is a predetermined value or less. In the example of FIG. 6, since the edge line segment corresponding to the center line is far from the three-dimensional object, it is excluded from the edge line segment candidates indicating the road surface boundary.

立体物領域とエッジ線分との距離の評価は、例えば、図7に示すように、エッジ線分の各セルについて、注目セルを中心としてXの正負方向の近傍セル(ここでは、注目セル自体及び正負各2セル)が立体物領域を示すセルか否かに基づいて、下記(1)式に示す評価値を算出して行う。   For example, as shown in FIG. 7, the evaluation of the distance between the three-dimensional object region and the edge line segment is performed with respect to each cell of the edge line segment as a neighboring cell in the positive / negative direction of X around the target cell (here, the target cell itself). And the evaluation value shown in the following formula (1) is calculated based on whether or not each of the two positive and negative cells is a cell indicating a three-dimensional object region.

ここで、Evalはエッジ線分iの評価値、evalはエッジ線分iのセルnの評価値、mはエッジ線分iに含まれるセルの個数である。図7の例では、eval=0、eval=1、eval=1、eval=1、eval=0であるので、Eeval=3となる。線分選択部26は、このようにして算出されたエッジ線分の評価値Evalが閾値thrより大きいエッジ線分を立体物の足元位置を通過するエッジ線分であると判定して選択する。閾値thrは立体物領域とエッジ線分との距離が所定値以下となるような値を定めておく。なお、各セルの近傍セルは、注目セルの列上のみでなく、Zの正負方向も含めたマトリクス上に評価してもよい。 Here, Eval i is an evaluation value of the edge line segment i, eval n is an evaluation value of the cell n of the edge line segment i, and m is the number of cells included in the edge line segment i. In the example of FIG. 7, since eval 1 = 0, eval 2 = 1, eval 3 = 1, eval 4 = 1, and eval 5 = 0, Eval = 3. The line segment selection unit 26 determines and selects an edge line segment having the evaluation value Eval of the edge line segment calculated in this way larger than the threshold value thr as an edge line segment passing through the foot position of the three-dimensional object. The threshold value thr is set to a value such that the distance between the three-dimensional object region and the edge line segment is a predetermined value or less. The neighboring cells of each cell may be evaluated not only on the target cell column but also on a matrix including the positive and negative directions of Z.

なお、撮像装置14により撮像される撮像画像、及びレーザレーダ12により観測される観測データは、装置から遠方領域になるほど解像度が粗くなるため、エッジ線分及び立体物領域の検出精度が劣化する。すなわち、立体物領域とエッジ線分との相対距離も、遠方領域ではその算出精度が劣化する。そこで、エッジ線分の選択条件(立体物領域との距離の閾値。例えば、上記の閾値thr)を、自車両とエッジ線分に対応する位置との距離に応じて変更するようにしてもよい。例えば、レーザレーダ12で観測された距離に応じて変更したり、エッジ線分の画像中における垂直方向の位置に応じて変更したりすることができる。   Note that the resolution of the captured image captured by the imaging device 14 and the observation data observed by the laser radar 12 becomes coarser as the region is farther from the device, and the detection accuracy of the edge line segment and the three-dimensional object region deteriorates. In other words, the calculation accuracy of the relative distance between the three-dimensional object region and the edge line segment also deteriorates in the far region. Therefore, the selection condition of the edge line segment (the threshold value of the distance to the three-dimensional object region. For example, the threshold value thr) may be changed according to the distance between the host vehicle and the position corresponding to the edge line segment. . For example, it can be changed according to the distance observed by the laser radar 12, or can be changed according to the vertical position in the image of the edge line segment.

また、線分選択部26で選択されるエッジ線分は、必ずしも1つに絞り込む必要はない。立体物領域からの距離の他に、エッジの強度や長さ、傾きを考慮して複数の候補を残し、後述する路面境界推定部28で路面境界を推定する際に、立体物境界との位置関係や、近傍から遠方までの連続性を加味して最適なエッジ線分を選択するようにしてもよい。   Further, the edge line segment selected by the line segment selection unit 26 does not necessarily have to be narrowed down to one. In addition to the distance from the three-dimensional object region, a plurality of candidates are considered in consideration of the edge strength, length, and inclination, and the position of the solid object boundary is estimated when the road surface boundary estimating unit 28 described later estimates the road surface boundary. The optimum edge line segment may be selected in consideration of the relationship and continuity from near to far.

路面境界推定部28は、立体物境界推定部22で推定された立体物境界と、線分選択部26で選択されたエッジ線分とを統合して、路面境界を推定する。統合の際、路面境界が近傍から遠方に向けて連続的に繋がるような拘束条件を設ける。具体的には、図8(a)に示すように、推定された立体物境界と選択されたエッジ線分とを、同一のXZ平面にマッピングする。次に、同図(b)に示すように、自車両の進路の奥行き方向に向かって一定間隔に路面境界を構成するサポート点を抽出する。サポート点は立体物境界及びエッジ線分のうち、自車両の走行予定進路に近い方を選択する。最後に、同図(c)に示すように、抽出したサポート点を通過するような線を路面境界として推定する。   The road surface boundary estimation unit 28 integrates the solid object boundary estimated by the solid object boundary estimation unit 22 and the edge line segment selected by the line segment selection unit 26 to estimate a road surface boundary. At the time of integration, a constraint condition is provided so that road surface boundaries are continuously connected from the vicinity toward the distance. Specifically, as shown in FIG. 8A, the estimated solid object boundary and the selected edge line segment are mapped to the same XZ plane. Next, as shown in FIG. 2B, support points that constitute road surface boundaries are extracted at regular intervals in the depth direction of the course of the host vehicle. The support point is selected from the three-dimensional object boundary and the edge line segment that is closer to the planned traveling route of the host vehicle. Finally, as shown in FIG. 5C, a line passing through the extracted support point is estimated as a road surface boundary.

なお、サポート点を抽出する間隔は一定とする場合に限定されず、各境界候補の種類(立体物境界またはエッジ線分)や自車両からの距離に応じてその間隔を変更してもよい。例えば、近傍領域ではエッジ線分や立体物境界の検出精度が良いので、サポート点を抽出する間隔を密にし、遠方領域では間隔を粗くすることができる。また、立体物境界及びエッジ線分のうち、自車両の走行予定進路に近い方を選択する場合に限定されず、立体物境界またはエッジ線分のいずれかを優先的に選択したり、サポート点候補が複数存在する場合には、それらの中央値や平均値等を選択したりしてもよい。   The interval for extracting the support points is not limited to a fixed interval, and the interval may be changed according to the type of each boundary candidate (solid object boundary or edge line segment) and the distance from the host vehicle. For example, since the detection accuracy of the edge line segment and the three-dimensional object boundary is good in the vicinity region, the interval for extracting the support points can be made dense, and the interval can be made coarse in the far region. In addition, it is not limited to selecting the one close to the planned traveling route of the host vehicle among the three-dimensional object boundary and the edge line segment, and either the three-dimensional object boundary or the edge line segment is preferentially selected or the support point is selected. When there are a plurality of candidates, their median value, average value, or the like may be selected.

次に、第1の実施の形態に係る路面境界推定装置10の作用について説明する。   Next, the operation of the road surface boundary estimation apparatus 10 according to the first embodiment will be described.

まず、レーザレーダ12によって、複数の走査ラインのレーザが自車両の前方を水平方向に走査されて、車両周辺の各反射点の3次元位置を特定する観測データが観測される。また、レーザレーダ12の観測タイミングに同期して、撮像装置14により車両周辺を撮像して得られた画像を示す画像データが出力される。そして、コンピュータ16によって、図9に示す路面境界推定処理ルーチンが実行される。   First, the laser radar 12 scans the laser of a plurality of scanning lines in the horizontal direction in front of the host vehicle, and observes observation data specifying the three-dimensional position of each reflection point around the vehicle. In addition, in synchronization with the observation timing of the laser radar 12, image data indicating an image obtained by imaging the periphery of the vehicle by the imaging device 14 is output. Then, the computer 16 executes a road surface boundary estimation processing routine shown in FIG.

ステップ100で、レーザレーダ12で観測された観測データ、及び撮像装置14から出力された画像データを取得する。   In step 100, observation data observed by the laser radar 12 and image data output from the imaging device 14 are acquired.

次に、ステップ102で、立体物領域抽出部20が、上記ステップ100で取得した観測データを2次元のXZ平面のグリッドマップ上に投影し、各セル内に投影された観測データ群の高さ方向の分散が所定の閾値以上となるセルを立体物領域として抽出した立体物マップ50を生成する。   Next, in step 102, the three-dimensional object region extraction unit 20 projects the observation data acquired in step 100 onto a two-dimensional XZ plane grid map, and the height of the observation data group projected in each cell. A three-dimensional object map 50 is generated by extracting a cell whose direction variance is equal to or greater than a predetermined threshold as a three-dimensional object region.

次に、ステップ104で、立体物境界推定部22が、上記ステップ102で生成された立体物マップ50に基づいて、立体物領域の外縁を立体物と路面との境界を示す立体物境界として推定する。   Next, in step 104, the three-dimensional object boundary estimation unit 22 estimates the outer edge of the three-dimensional object region as a three-dimensional object boundary indicating the boundary between the three-dimensional object and the road surface based on the three-dimensional object map 50 generated in step 102. To do.

次に、ステップ106で、エッジ線分抽出部24が、上記ステップ100で取得した撮像画像に処理範囲ROIを設定し、処理範囲ROI内の画像から、消失点方向に連続して伸びるエッジ線分を抽出する。   Next, in step 106, the edge line segment extraction unit 24 sets the processing range ROI for the captured image acquired in step 100, and the edge line segment continuously extending in the vanishing point direction from the image within the processing range ROI. To extract.

次に、ステップ108で、線分選択部26が、上記ステップ106で抽出されたXY平面情報であるエッジ線分の各々を、上記ステップ102で生成されたXZ平面情報である立体物マップ50に投影する。そして、立体物領域との距離が所定値以下のエッジ線分を、立体物の足元を通過するエッジ線分として選択する。   Next, in step 108, the line segment selection unit 26 converts each edge line segment that is the XY plane information extracted in step 106 to the three-dimensional object map 50 that is the XZ plane information generated in step 102. Project. Then, an edge line segment whose distance from the three-dimensional object region is equal to or smaller than a predetermined value is selected as an edge line segment that passes through the foot of the three-dimensional object.

次に、ステップ110で、路面境界推定部28が、上記ステップ104で推定された立体物境界と、上記ステップ108で選択されたエッジ線分とを同一のXZ平面にマッピングし、自車両の進路の奥行き方向に向かって一定間隔に路面境界を構成するサポート点を抽出し、サポート点を通過するような線を路面境界として推定する。   Next, in step 110, the road surface boundary estimation unit 28 maps the three-dimensional object boundary estimated in step 104 and the edge line segment selected in step 108 to the same XZ plane, and the course of the host vehicle. The support points constituting the road boundary are extracted at regular intervals in the depth direction of the road, and a line passing through the support points is estimated as the road boundary.

次に、ステップ112で、路面境界推定部28は、上記ステップ110の推定結果を撮像画像に対応させたXY平面に投影し、撮像画像に合成して表示装置18に表示するように制御して、路面境界推定処理を終了する。   Next, in step 112, the road surface boundary estimation unit 28 controls the projection result of step 110 to be projected onto the XY plane corresponding to the captured image, combined with the captured image, and displayed on the display device 18. Then, the road surface boundary estimation process ends.

図10に路面境界の推定結果の一例を示す。エッジ線分が抽出されていない領域は立体物境界(立体物領域の下端位置)を路面境界と推定しているため、推定結果はところどころ凹凸があるものの、物理的な路面境界が適切に推定できている。また、対向車線側では植込みが途切れている部分もあるが、エッジ線分を利用することで、立体物に切れ間が生じている領域でも不連続なく路面境界を推定できている。   FIG. 10 shows an example of a road surface boundary estimation result. The area where the edge line segment has not been extracted is assumed to be the solid object boundary (bottom position of the three-dimensional object area) as the road surface boundary, so the estimation result has some irregularities, but the physical road boundary can be estimated appropriately. ing. In addition, although there is a portion where the implantation is interrupted on the opposite lane side, the road surface boundary can be estimated without discontinuity even in the region where the solid object has a gap by using the edge line segment.

以上説明したように、第1の実施の形態に係る路面境界推定装置10によれば、レーザレーダの観測データに基づいて生成した立体物マップを用いて、立体物の足元を通過すると判定されたエッジ線分を選択し、このエッジ線分に基づいて路面境界を判定するため、高さの低い立体物や切れ間の多い立体物が存在する場合でも、路面境界を遠方まで精度良く推定することができる。   As described above, according to the road surface boundary estimation apparatus 10 according to the first embodiment, it is determined that the vehicle passes through the foot of the three-dimensional object using the three-dimensional object map generated based on the observation data of the laser radar. Since an edge line segment is selected and the road surface boundary is determined based on the edge line segment, it is possible to accurately estimate the road surface boundary far away even when there are low-height solid objects or solid objects with many gaps. it can.

なお、第1の実施の形態では、立体物の足元を通過するエッジ線分か否かの選択を、立体物マップ上で行う場合について説明したが、この処理は、撮像画像上で行ってもよい。具体的には、まず、立体物領域抽出部20で生成された立体物マップ50において、立体物領域を示すセルを撮像画像上へ投影することで、図11に示すように、撮像画像中における立体物領域を認識する。次に、立体物境界推定部22で、撮像画像上で認識された立体物領域の下端に沿う点を立体物境界として推定する。そして、エッジ線分抽出部24が、推定された立体物境界との距離が近いエッジ線分を選択するようにするとよい。   In the first embodiment, the case where the selection of whether or not the edge line segment passes through the foot of the three-dimensional object is performed on the three-dimensional object map has been described, but this process may be performed on the captured image. Good. Specifically, first, in the three-dimensional object map 50 generated by the three-dimensional object region extraction unit 20, by projecting a cell indicating the three-dimensional object region onto the captured image, as shown in FIG. Recognizes a three-dimensional object region. Next, the three-dimensional object boundary estimation unit 22 estimates a point along the lower end of the three-dimensional object region recognized on the captured image as a three-dimensional object boundary. And it is good for the edge line segment extraction part 24 to select the edge line segment with the short distance with the estimated solid-object boundary.

<第2の実施の形態> <Second Embodiment>

次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成については、同一符号を付して詳細な説明を省略する。   Next, a second embodiment will be described. In addition, about the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

図12に示すように、第2の実施の形態に係る路面境界推定装置210は、レーザレーダ12と、撮像装置14と、路面境界を推定する処理を実行するコンピュータ216と、表示装置18とを備えている。このコンピュータ216をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図12に示すように、立体物領域抽出部20と、レーザレーダ12の観測データから自車両周辺の路面領域を抽出する路面領域抽出部21と、立体物境界推定部22と、エッジ線分抽出部24と、立体物領域及び路面領域に基づいてエッジ線分を選択する線分選択部226と、推定された立体物境界と選択されたエッジ線分とを統合し、走路モデル52を適合して路面境界を推定する路面境界推定部228とを含んだ構成で表すことができる。   As shown in FIG. 12, a road surface boundary estimation device 210 according to the second embodiment includes a laser radar 12, an imaging device 14, a computer 216 that executes processing for estimating a road surface boundary, and a display device 18. I have. If the computer 216 is described in terms of functional blocks divided for each function realization means determined based on hardware and software, as shown in FIG. 12, the three-dimensional object region extraction unit 20 and the observation data of the laser radar 12 are used. A road surface area extraction unit 21 that extracts a road surface area around the vehicle, a solid object boundary estimation unit 22, an edge line segment extraction unit 24, and a line segment selection unit that selects an edge line segment based on the solid object area and the road surface area 226 and a road surface boundary estimation unit 228 that integrates the estimated solid object boundary and the selected edge line segment and adapts the road model 52 to estimate the road surface boundary.

路面領域抽出部21は、レーザレーダ12で観測された観測データを取得し、観測データから立体物を示す立体物領域を抽出する。具体的には、立体物領域抽出部20と同様に、グリッドマップ上の各セル内に投影された観測データ群の高さ方向の分散が所定の閾値未満となるセルを、路面領域(フリースペース)として抽出する。自車両から見たある方向に立体物が検出された場合、その立体物と自車両との間には他に立体物が存在せず、フリースペースであると言える。そして、抽出した路面領域の情報と、立体物領域抽出部20で抽出された立体物領域の情報とを統合した立体物マップ250を生成する。   The road surface area extraction unit 21 acquires observation data observed by the laser radar 12 and extracts a three-dimensional object area indicating a three-dimensional object from the observation data. Specifically, as in the three-dimensional object region extraction unit 20, a cell in which the variance in the height direction of the observation data group projected in each cell on the grid map is less than a predetermined threshold is designated as a road surface region (free space). ). When a three-dimensional object is detected in a certain direction as viewed from the host vehicle, no other three-dimensional object exists between the three-dimensional object and the host vehicle, and it can be said that this is a free space. And the solid object map 250 which integrated the information of the extracted road surface area | region and the information of the solid object area extracted by the solid object area extraction part 20 is produced | generated.

立体物領域抽出部20及び路面領域抽出部21において、各タイムステップにおける観測から立体物領域と路面領域との分割が可能であるが、時系列に取得された複数の観測データに基づいて、観測間の自車運動を考慮して領域分割の結果を統合することにより、精度の高い立体物マップを生成することができる。例えば、観測データを投影する際に、前回タイムステップまでに生成された立体物マップ250から、自車運動を考慮して対応するセルを選択して投影する。そして、同セルに蓄積された過去の観測データと、今回投影した観測データとの値を総合的に判断して、そのセルが立体物領域であるか否か、または路面領域であるか否かを判定することができる。図13(a)に、抽出した立体物領域、同図(b)に抽出した路面領域を画像化した一例を示す。1回の観測データで生成した立体物マップよりも、複数回の観測データを用いて生成した立体物マップを用いて路面境界を推定することで、より推定精度を向上させることができる。   The three-dimensional object region extraction unit 20 and the road surface region extraction unit 21 can divide the three-dimensional object region and the road surface region from the observation at each time step, but the observation is based on a plurality of observation data acquired in time series. It is possible to generate a highly accurate three-dimensional object map by integrating the results of the region division in consideration of the own vehicle motion between the two. For example, when projecting observation data, a corresponding cell is selected and projected from the three-dimensional object map 250 generated up to the previous time step in consideration of the vehicle motion. Then, comprehensively determine the values of past observation data accumulated in the cell and the observation data projected this time, and whether or not the cell is a three-dimensional object region or a road surface region Can be determined. FIG. 13A shows an example in which the extracted three-dimensional object region and the extracted road surface region are imaged in FIG. The estimation accuracy can be further improved by estimating the road surface boundary using a three-dimensional object map generated using a plurality of observation data, rather than a three-dimensional object map generated using one observation data.

また、上記では、レーザレーダ12の観測データの高さ情報を用いて路面領域を抽出する場合について説明したが、レーザ光のパルス形状や、受光したレーザ光の信号強度に基づいて、各反射点が路面反射点か否かを判定することにより、路面領域を抽出するようにしてもよい。また、各反射点の並び(連続性)により、路面反射点か否かを判定するようにしてもよい。例えば、一般的に路面は平面であるため、同一の走査ラインで観測される路面反射点は円弧状となる。従って、隣接する反射点間で3次元位置の高さ方向の変化量が小さく、かつ反射点を連結した場合に車両前方の進行方向を横切るような円弧を描く反射点を、路面反射点とし、この路面反射点を含む領域を路面領域として抽出することができる。   In the above description, the road surface area is extracted using the height information of the observation data of the laser radar 12. However, each reflection point is determined based on the pulse shape of the laser light and the signal intensity of the received laser light. The road surface area may be extracted by determining whether or not is a road surface reflection point. Further, it may be determined whether or not it is a road surface reflection point based on the arrangement (continuity) of each reflection point. For example, since the road surface is generally a flat surface, the road surface reflection points observed on the same scanning line are arcuate. Therefore, the reflection point that draws an arc that crosses the traveling direction in front of the vehicle when the amount of change in the height direction of the three-dimensional position between adjacent reflection points is small and the reflection points are connected is defined as a road surface reflection point. A region including the road surface reflection point can be extracted as a road surface region.

線分選択部226は、生成された立体物マップ250を用いて、エッジ線分を選択する。ガードレールの稜線を示すエッジ線分は、立体物領域に含まれるため容易に除外することができ、センターラインや路面標示などを示すエッジ線分は、路面領域に含まれるため容易に除外することができる。また、路肩の立体物に近い白線のエッジなども精度良く除外することができる。白線、アスファルト境界、側溝、縁石など、立体物に近い位置に候補となるエッジ線分が複数現れる場合でも、路面境界の候補となるエッジ線分を精度良く絞り込むことができる。このように立体物領域及び路面領域の所定領域内(例えば、各領域の外縁より所定距離分内側の領域)に存在するエッジ線分か否かによってエッジ線分を絞り込んだ上で、第1の実施の形態と同様に、立体物領域からの距離に基づいてエッジ線分を選択する。   The line segment selection unit 226 selects an edge line segment using the generated three-dimensional object map 250. Edge line segments indicating guard rail ridge lines can be easily excluded because they are included in the three-dimensional object region, and edge line segments indicating center lines and road markings can be easily excluded because they are included in the road surface region. it can. Also, white line edges close to a three-dimensional object on the road shoulder can be accurately excluded. Even when a plurality of candidate edge line segments appear at positions close to a three-dimensional object, such as white lines, asphalt boundaries, side grooves, and curbs, the edge line segments that are candidate road surface boundaries can be narrowed down with high accuracy. In this way, after narrowing down the edge line segment based on whether or not it is an edge line segment existing within a predetermined area of the solid object area and the road surface area (for example, an area inside the predetermined distance from the outer edge of each area), Similar to the embodiment, the edge line segment is selected based on the distance from the three-dimensional object region.

路面境界推定部228は、第1の実施の形態と同様に、立体物境界推定部22で推定された立体物境界と、線分選択部226で選択されたエッジ線分とを統合して路面境界を推定する。さらに、推定した路面境界に対して走路モデル52を適合する。路面境界は連続的に繋がっており、時系列方向に変化することはないため、時系列の推定結果に対して走路モデル52を適合することで推定結果の安定性と精度を改善する。ここでは、走路モデル52として、下記(2)式に示す3次関数のクロソイド曲線を用い、抽出した左右のサポート点群と一致するようにパラメータを適合させて路面境界を推定する。   The road surface boundary estimation unit 228 integrates the solid object boundary estimated by the solid object boundary estimation unit 22 and the edge line segment selected by the line segment selection unit 226 in the same manner as in the first embodiment. Estimate the boundary. Further, the traveling road model 52 is adapted to the estimated road surface boundary. Since the road surface boundary is continuously connected and does not change in the time series direction, the stability and accuracy of the estimation result are improved by adapting the road model 52 to the time series estimation result. Here, a clothoid curve of a cubic function shown in the following equation (2) is used as the road model 52, and the road surface boundary is estimated by adapting parameters so as to match the extracted left and right support points.

ここで、C、C、Cはそれぞれヨー角、曲率、曲率変化率を意味するパラメータであり、d、dは左右の境界線に対するオフセットを表す。また、(2)式の座標系を図14に示す。ただし、一般道では道路がクロソイド曲線に沿うという規格はないため、この他の曲線を予め走路モデル52として定めておいてもよい。走路モデル52は、車両周辺の路面構造に基づくものであればよく、地図情報を用いて、GPS等で取得した自車両の位置に応じた走路モデル52を持つようにしてもよい。さらに、上式では左右で同一の曲率やヨー角を想定しているが、左右別々のパラメータをフィッティングしてもよい。また、折れ線モデルのような不連続点を含む走路モデル52を想定してもよい。 Here, C 1 , C 2 , and C 3 are parameters indicating a yaw angle, a curvature, and a curvature change rate, respectively, and d 1 and d 2 represent offsets with respect to the left and right boundary lines. Moreover, the coordinate system of Formula (2) is shown in FIG. However, since there is no standard that roads follow clothoid curves on ordinary roads, other curves may be defined as the runway model 52 in advance. The road model 52 may be based on the road surface structure around the vehicle, and may have a road model 52 corresponding to the position of the host vehicle acquired by GPS or the like using map information. Furthermore, although the same curvature and yaw angle are assumed on the left and right in the above equation, separate parameters on the left and right may be fitted. Moreover, you may assume the runway model 52 containing a discontinuous point like a broken line model.

また、路面境界推定部228は、立体物境界と選択されたエッジ線分とを統合する際のサポート点の抽出を、自車両からの距離に応じて段階的に行うようにしてもよい。例えば図15に示すように、自車両の前方領域を、近距離領域A、中距離領域B、遠距離領域Cに分割する。そして最初に、近距離領域Aからサポート点を抽出して走路モデル52のパラメータを推定する。次に、推定したパラメータを用いて路面境界の候補となる境界線を引いて、中距離領域Bからはこの境界線に近いエッジ線分、または立体物境界からサポート点を抽出する。近距離領域A及び中距離領域Bの各々で抽出されたサポート点を合わせて、再度、走路モデル52のパラメータを推定する。同様の手順で遠距離領域Cからもサポート点を抽出し、最終的に推定されたパラメータにより得られる走路モデル52が示す線分を路面境界として推定する。この手順では、信頼できる近傍のサポート点を手掛かりに遠方のサポート点の取捨選択をするため、誤差が大きくなる可能性が高い遠方のサポート点の影響を抑えて、路面境界の推定精度をより向上することができる。   Further, the road surface boundary estimation unit 228 may extract the support points when integrating the solid object boundary and the selected edge line segment in a stepwise manner in accordance with the distance from the host vehicle. For example, as shown in FIG. 15, the front area of the host vehicle is divided into a short distance area A, a middle distance area B, and a long distance area C. First, a support point is extracted from the short distance area A and the parameters of the road model 52 are estimated. Next, a boundary line that is a candidate for a road surface boundary is drawn using the estimated parameters, and a support point is extracted from an edge line segment close to the boundary line or a solid object boundary from the intermediate distance region B. The parameters of the road model 52 are estimated again by combining the support points extracted in each of the short distance area A and the intermediate distance area B. A support point is extracted from the long-distance region C in the same procedure, and a line segment indicated by the runway model 52 obtained from the finally estimated parameters is estimated as a road surface boundary. In this procedure, since the support points in the distance are selected based on reliable support points in the vicinity, the influence of the distant support points that are likely to increase the error is suppressed, and the estimation accuracy of the road boundary is further improved. can do.

次に、図16を参照して、第2の実施の形態における路面境界推定処理ルーチンについて説明する。なお、第1の実施の形態における路面境界推定処理ルーチンと同様の処理については、同一符号を付して詳細な説明を省略する。   Next, a road surface boundary estimation processing routine in the second embodiment will be described with reference to FIG. In addition, about the process similar to the road surface boundary estimation process routine in 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップ100で、レーザレーダ12で観測された観測データ、及び撮像装置14から出力された画像データを取得する。   In step 100, observation data observed by the laser radar 12 and image data output from the imaging device 14 are acquired.

次に、ステップ200で、立体物領域抽出部20が、上記ステップ100で取得した観測データに基づいて立体物領域を抽出すると共に、路面領域抽出部21が、観測データに基づいて路面領域を抽出し、立体物マップ250を生成する。   Next, in step 200, the three-dimensional object region extraction unit 20 extracts a three-dimensional object region based on the observation data acquired in step 100, and the road surface region extraction unit 21 extracts a road surface region based on the observation data. Then, the three-dimensional object map 250 is generated.

次に、ステップ104で、立体物境界推定部22が立体物境界を推定し、ステップ106で、エッジ線分抽出部24が、撮像画像からエッジ線分を抽出する。   Next, in step 104, the three-dimensional object boundary estimation unit 22 estimates the solid object boundary, and in step 106, the edge line segment extraction unit 24 extracts edge line segments from the captured image.

次に、ステップ202で、線分選択部226が、上記ステップ106で抽出されたエッジ線分の各々を、上記ステップ200で生成された立体物マップ250に投影し、立体物領域及び路面領域の所定領域内のエッジ線分を除外する。そして、残ったエッジ線分のうち、立体物領域との距離が所定値以下のエッジ線分を、立体物の足元を通過するエッジ線分として選択する。   Next, in step 202, the line segment selection unit 226 projects each of the edge line segments extracted in step 106 onto the three-dimensional object map 250 generated in step 200, so that the three-dimensional object region and the road surface region are displayed. Exclude edge line segments in a predetermined area. Then, among the remaining edge line segments, an edge line segment whose distance from the three-dimensional object region is a predetermined value or less is selected as an edge line segment that passes through the foot of the three-dimensional object.

次に、ステップ204で、路面境界推定部228が、上記ステップ104で推定された立体物境界と、上記ステップ202で選択されたエッジ線分とを統合し、統合結果を走路モデル52に適合させて、路面境界を推定し、次に、ステップ112で、推定結果を撮像画像に合成して表示装置18に表示するように制御して、路面境界推定処理を終了する。   Next, at step 204, the road surface boundary estimation unit 228 integrates the solid object boundary estimated at step 104 and the edge line segment selected at step 202, and adapts the integration result to the road model 52. Then, the road boundary is estimated. Next, in step 112, the estimation result is combined with the captured image and displayed on the display device 18, and the road boundary estimation process is terminated.

以上説明したように、第2の実施の形態に係る路面境界推定装置10によれば、立体物マップを生成する際に路面領域も抽出することで、より精度良く立体物の足元を通過するエッジ線分を選択することができ、路面境界の推定精度も向上する。また、立体物領域及び路面領域を抽出する際に、過去に取得された複数の観測データも用いることで、より精度良く立体物領域及び路面領域を抽出することができる。また、走路モデルに適合させて路面境界を推定することで、より精度良く滑らかな路面境界を推定することができる。   As described above, according to the road surface boundary estimation device 10 according to the second embodiment, an edge that passes through the foot of a three-dimensional object more accurately by extracting a road surface region when generating a three-dimensional object map. A line segment can be selected, and the estimation accuracy of the road surface boundary is also improved. Further, when extracting the three-dimensional object region and the road surface region, the three-dimensional object region and the road surface region can be extracted with higher accuracy by using a plurality of observation data acquired in the past. In addition, a smooth road surface boundary can be estimated with higher accuracy by estimating the road surface boundary in accordance with the road model.

<第3の実施の形態> <Third Embodiment>

次に、第3の実施の形態について説明する。なお、第1の実施の形態と同様の構成については、同一符号を付して詳細な説明を省略する。   Next, a third embodiment will be described. In addition, about the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

図17に示すように、第3の実施の形態に係る路面境界推定装置310は、レーザレーダ12と、撮像装置14と、路面境界を推定する処理を実行するコンピュータ316と、表示装置18とを備えている。このコンピュータ316をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図17に示すように、立体物領域抽出部20と、エッジ線分抽出部24と、立体物マップ50に基づいてエッジ線分を選択して線分マップ54に蓄積する線分選択部326と、線分マップに基づいて路面境界を推定する路面境界推定部328とを含んだ構成で表すことができる。   As shown in FIG. 17, a road surface boundary estimation device 310 according to the third embodiment includes a laser radar 12, an imaging device 14, a computer 316 that executes processing for estimating a road surface boundary, and a display device 18. I have. When this computer 316 is described by functional blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. 17, a three-dimensional object region extracting unit 20, an edge line segment extracting unit 24, A configuration including a line segment selection unit 326 that selects an edge line segment based on the three-dimensional object map 50 and accumulates it in the line segment map 54, and a road surface boundary estimation unit 328 that estimates a road surface boundary based on the line segment map. Can be represented.

線分選択部326は、第1の実施の形態と同様に、エッジ線分抽出部24により抽出されたエッジ線分から、立体物領域との距離が所定値以下のエッジ線分を選択する。そして、選択したエッジ線分を線分マップ54に投影及び蓄積する。線分マップ54は、立体物マップ50と同様に、路面平面を格子状に区切った2次元のXZ平面のグリッドマップである。線分選択部326は、選択したエッジ線分を線分マップ54の対応するセルに投影する。投影する際には、所定の占有値(例えば、0.1や0.4)を付与し、前回タイムステップまでに蓄積された各セルの占有値に加算して蓄積する。   Similar to the first embodiment, the line segment selection unit 326 selects an edge line segment whose distance from the three-dimensional object region is a predetermined value or less from the edge line segments extracted by the edge line segment extraction unit 24. Then, the selected edge line segment is projected and accumulated on the line segment map 54. Similar to the three-dimensional object map 50, the line segment map 54 is a grid map of a two-dimensional XZ plane obtained by dividing a road surface plane in a lattice shape. The line segment selection unit 326 projects the selected edge line segment onto the corresponding cell of the line segment map 54. At the time of projection, a predetermined occupation value (for example, 0.1 or 0.4) is assigned, and added to the occupation value of each cell accumulated up to the previous time step and accumulated.

路面境界推定部328は、線分マップ54において、占有値がピークのセルを取り上げて、路面境界として推定する。占有値がピークのセルを取り上げて推定される線分とは、線分マップ54のX方向の列毎に占有値が最大となるセルを選択してZ方向に連接した線分である。図18(a)に線分マップ54の一例、同図(b)に(a)の線分マップ54から抽出された路面境界の一例を示す。また、路面境界推定部328は、抽出した路面境界を撮像画像に対応させたXY平面に投影し、撮像画像に合成して表示装置18に表示するように制御する。   The road surface boundary estimation unit 328 takes a cell having a peak occupation value in the line segment map 54 and estimates it as a road surface boundary. The line segment estimated by taking the cell having the peak occupancy value is a line segment that is connected in the Z direction by selecting the cell having the maximum occupancy value for each column in the X direction of the line segment map 54. FIG. 18A shows an example of the line segment map 54, and FIG. 18B shows an example of the road boundary extracted from the line segment map 54 of FIG. In addition, the road surface boundary estimation unit 328 controls the extracted road surface boundary to be projected onto the XY plane corresponding to the captured image, combined with the captured image, and displayed on the display device 18.

次に、図19を参照して、第3の実施の形態における路面境界推定処理ルーチンについて説明する。なお、第1の実施の形態における路面境界推定処理ルーチンと同様の処理については、同一符号を付して詳細な説明を省略する。   Next, a road boundary estimation processing routine in the third embodiment will be described with reference to FIG. In addition, about the process similar to the road surface boundary estimation process routine in 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップ100〜108を経て、路面境界の候補となるエッジ線分を選択する。次に、ステップ300で、線分選択部326が、上記ステップ108で選択されたエッジ線分を線分マップ54の対応するセルに投影し、所定の占有値(例えば、0.1や0.4)を付与し、前回タイムステップまでに蓄積された各セルの占有値に加算して蓄積する。   Through steps 100 to 108, an edge line segment that is a candidate for a road surface boundary is selected. Next, in step 300, the line segment selection unit 326 projects the edge line segment selected in step 108 onto the corresponding cell of the line segment map 54, and a predetermined occupancy value (for example, 0.1 or 0. 4) is added, and added to the occupied value of each cell accumulated up to the previous time step and accumulated.

次に、ステップ302で、路面境界推定部328が、線分マップ54の占有値がピークのセルを取り上げて抽出した線分を路面境界として推定し、次に、ステップ112で、推定結果を撮像画像に合成して表示装置18に表示するように制御して、路面境界推定処理を終了する。本ルーチンをタイムステップ毎に繰り返すことで、立体物マップ50を用いて選択されたエッジ線分が線分マップ54に順次蓄積される。   Next, in step 302, the road surface boundary estimation unit 328 estimates a line segment extracted by picking up a cell whose occupation value is peak in the line segment map 54 as a road surface boundary. Next, in step 112, the estimation result is imaged. Control is performed so that the image is combined with the image and displayed on the display device 18, and the road boundary estimation process is terminated. By repeating this routine for each time step, the edge line segments selected using the three-dimensional object map 50 are sequentially accumulated in the line segment map 54.

以上説明したように、第3の実施の形態に係る路面境界推定装置310によれば、立体物マップ50を用いて立体物の足元を通過すると判定されたエッジ線分が線分マップ54に蓄積され、この線分マップ54に基づいて路面境界を判定するため、逐次的な処理で発生するエッジ線分の欠落が補完され、より精度良く路面境界を推定することができる。また、エッジ線分を蓄積していくことで、同一箇所のエッジ線分であっても異なる時刻に撮像された撮像画像上では見え方が異なるため、立体物の切れ間や路面と隣接する他のスペースとの境界なども、いずれかの時刻において一部に立体物と近接する箇所を有する線分として抽出される可能性が高くなり、適切な路面境界を推定することができる。   As described above, according to the road surface boundary estimation device 310 according to the third embodiment, the edge line segment determined to pass the foot of the three-dimensional object using the three-dimensional object map 50 is accumulated in the line segment map 54. Since the road surface boundary is determined based on this line segment map 54, the lack of edge line segments generated in the sequential processing is complemented, and the road surface boundary can be estimated with higher accuracy. Also, by accumulating edge line segments, even if they are edge line segments in the same place, the appearance looks different on captured images captured at different times. A boundary with a space or the like is also likely to be extracted as a line segment having a part close to a three-dimensional object at any time, and an appropriate road surface boundary can be estimated.

なお、上記では、線分マップ54の占有値がピークのセルを取り上げて路面境界を抽出することで、線分マップ54に蓄積されたエッジ線分の情報を細線化する場合について説明したがこれに限定されない。例えば、線分マップ54に蓄積されたエッジ線分を最小二乗近似によりフィッティングすることにより細線化して、路面境界を抽出するようにしてもよい。また、第2の実施の形態のように、走路モデル52とフィッティングすることにより、線分マップ54から路面境界を推定するようにしてもよい。   In the above description, the case has been described in which the information on the edge line segment accumulated in the line segment map 54 is thinned by picking up the cell whose occupation value is the peak in the line segment map 54 and extracting the road surface boundary. It is not limited to. For example, the road surface boundary may be extracted by thinning the edge line segment accumulated in the line segment map 54 by fitting with the least square approximation. Further, as in the second embodiment, the road surface boundary may be estimated from the line segment map 54 by fitting with the road model 52.

<第4の実施の形態> <Fourth embodiment>

次に、第4の実施の形態について説明する。なお、第1及び第3の実施の形態と同様の構成については、同一符号を付して詳細な説明を省略する。   Next, a fourth embodiment will be described. In addition, about the structure similar to 1st and 3rd embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

図20に示すように、第4の実施の形態に係る路面境界推定装置410は、レーザレーダ12と、撮像装置14と、路面境界を推定する処理を実行するコンピュータ416と、表示装置18とを備えている。このコンピュータ416をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図20に示すように、立体物領域抽出部420と、エッジ線分抽出部24と、立体物マップ450に基づいてエッジ線分を選択して線分マップ54に蓄積する線分選択部426と、立体物マップ450に基づいて路面確率マップ56を算出する路面確率算出部32と、線分マップ54と路面確率マップ56とに基づいて路面境界を推定する路面境界推定部428とを含んだ構成で表すことができる。   As shown in FIG. 20, a road surface boundary estimation device 410 according to the fourth embodiment includes a laser radar 12, an imaging device 14, a computer 416 that executes processing for estimating a road surface boundary, and a display device 18. I have. When the computer 416 is described by function blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. 20, a three-dimensional object region extraction unit 420, an edge line segment extraction unit 24, A line segment selection unit 426 that selects an edge line segment based on the three-dimensional object map 450 and stores it in the line segment map 54; a road surface probability calculation unit 32 that calculates a road surface probability map 56 based on the three-dimensional object map 450; A road surface boundary estimation unit 428 that estimates a road surface boundary based on the minute map 54 and the road surface probability map 56 can be used.

立体物領域抽出部420は、第1の実施の形態に係る立体物領域抽出部20と同様に、レーザレーダ12の観測データを立体物マップ450に投影及び蓄積する。第4の実施の形態に係る立体物領域抽出部420では、観測データを立体物マップ450に投影する際に、所定の占有値(例えば、0.1や0.4)を付与し、前回タイムステップまでに蓄積された各セルの占有値に加算して蓄積する。また、立体物マップ450の各セルに、そのセルに投影された観測データの高さ情報を保持させる。   The three-dimensional object region extraction unit 420 projects and accumulates the observation data of the laser radar 12 on the three-dimensional object map 450, similarly to the three-dimensional object region extraction unit 20 according to the first embodiment. In the three-dimensional object region extraction unit 420 according to the fourth embodiment, when the observation data is projected onto the three-dimensional object map 450, a predetermined occupation value (for example, 0.1 or 0.4) is given, and the previous time It accumulates by adding to the occupation value of each cell accumulated until the step. In addition, each cell of the three-dimensional object map 450 holds height information of observation data projected on the cell.

路面確率算出部32は、立体物領域抽出部420で生成された立体物マップ450の各セルが保持する高さ情報及び占有値に基づいて、自車両周辺の各点における路面らしさを示す路面確率を算出する。また、立体物マップ450と同様の仕様のグリッドマップの各セルに算出した路面確率を格納して路面確率マップ56を生成する。路面確率マップ56を画像化した一例を図21に示す。図21の例では、路面確率が高い箇所ほど濃い色で表現している。   The road surface probability calculation unit 32 is based on the height information and the occupancy value held by each cell of the three-dimensional object map 450 generated by the three-dimensional object region extraction unit 420, and indicates the road surface probability indicating the road surface likelihood at each point around the host vehicle. Is calculated. Further, the road surface probability map 56 is generated by storing the calculated road surface probability in each cell of the grid map having the same specifications as the three-dimensional object map 450. An example of imaging the road surface probability map 56 is shown in FIG. In the example of FIG. 21, the portion having a higher road surface probability is expressed in a darker color.

線分選択部426は、第3の実施の形態に係る線分選択部326と同様に、立体物領域抽出部24で抽出されたXY平面情報であるエッジ線分の各々を、XZ平面情報である立体物マップ450に投影し、各エッジ線分の評価値Evalを算出する。第4の実施の形態の線分選択部426では、この評価値Evalを算出する際に、エッジ線分の各セルと立体物領域を示すセルとの距離に応じた重み係数wを乗算する。 Similarly to the line segment selection unit 326 according to the third embodiment, the line segment selection unit 426 converts each of the edge line segments that are XY plane information extracted by the three-dimensional object region extraction unit 24 into XZ plane information. An evaluation value Eval i for each edge line segment is calculated by projecting onto a solid object map 450. When calculating the evaluation value Eval i , the line segment selection unit 426 according to the fourth embodiment multiplies the weight coefficient w according to the distance between each cell of the edge line segment and the cell indicating the three-dimensional object region. .

例えば、図22に示すように、注目セルの重み係数をw、注目セルからの距離が1のセルの重み係数をw、注目セルからの距離が2のセルの重み係数をwとし、w=1.0、w=0.9、w=0.8のように定めることができる。一例として、立体物領域を示すセルとエッジ線分のセルとが図7に示すような位置関係の場合には、eval1-=0、eval×w=0.9、eval×w=0.8、eval×w=0.9、eval=0であるので、Eeval=2.6となる。なお、重み係数は、注目セルと立体物領域を示すセルとが近いほど大きくなる値であればよく、例えば、ガウス分布などに基づいて定めてもよい。 For example, as shown in FIG. 22, the weighting factor of the cell of interest is w 0 , the weighting factor of the cell whose distance from the cell of interest is 1 is w 1 , and the weighting factor of the cell whose distance from the cell of interest is 2 is w 2. , W 0 = 1.0, w 1 = 0.9, w 2 = 0.8. As an example, when the cell indicating the solid object region and the cell of the edge line segment have a positional relationship as shown in FIG. 7, eval 1− = 0, eval 2 × w 1 = 0.9, eval 3 × w Since 2 = 0.8, eval 4 × w 1 = 0.9, and eval 5 = 0, Eval = 2.6. The weighting factor may be a value that increases as the attention cell and the cell indicating the three-dimensional object region become closer, and may be determined based on, for example, a Gaussian distribution.

また、線分選択部426は、エッジ線分と自車運動のベクトル方向とエッジ線分との類似性を重みとして乗算した評価値Evalを算出する。類似性は、例えば、図23に示すように、自車運動のベクトルとエッジ線分とのなす角をθとした場合のcosθ(−π/2≦θ≦π/2)とすることができる。なお、自車運動のベクトルは、車両に搭載された図示しない速度センサやヨーレートセンサ等のセンサ値を取得して得ることができる。 Further, the line segment selection unit 426 calculates an evaluation value Eval i obtained by multiplying the similarity between the edge line segment, the vector direction of the own vehicle motion, and the edge line segment as a weight. For example, as shown in FIG. 23, the similarity can be set to cos θ (−π / 2 ≦ θ ≦ π / 2) when the angle formed by the vector of the own vehicle and the edge line segment is θ. . The vehicle motion vector can be obtained by acquiring sensor values such as a speed sensor and a yaw rate sensor (not shown) mounted on the vehicle.

距離に応じた重み係数w、及び自車運動ベクトルとの類似度cosθを加えた評価値Evalの算出式の一例を下記(3)式に示す。 An example of a formula for calculating the evaluation value Eval i including the weighting factor w according to the distance and the similarity cos θ with the own vehicle motion vector is shown in the following formula (3).

また、線分選択部426は、クロソイド曲線等の走路モデルにより推定される境界線分に対して、エッジ線分との距離に応じた重み係数や自車運動ベクトルとの類似度を考慮した重みを評価値に加えてもよい。   The line segment selection unit 426 also weights the boundary line segment estimated by the road model such as a clothoid curve in consideration of the weight coefficient corresponding to the distance from the edge line segment and the similarity to the own vehicle motion vector. May be added to the evaluation value.

路面境界推定部428は、線分マップ54、路面確率マップ56、及びその他の情報を統合して、動的計画法などにより路面境界を推定する。その他の情報としては、撮像画像のフレーム間における各画素の輝度値の変化をモザイクイメージ化した動的背景情報や、撮像画像から得られるテクスチャ情報等を用いることができる。これらの情報は、撮像画像上で路面領域と路面以外の領域とを識別するために有用な情報である。また、クロソイド曲線等の走路モデルによる制約を用いてもよい。例えば、線分マップ54、路面確率マップ56等を統合して路面境界の確からしさが所定値以上の線分を抽出し、抽出された線分のうち、道路構造モデルとの一致度が最も高い線分を最終的な路面境界として推定することができる。   The road surface boundary estimation unit 428 integrates the line segment map 54, the road surface probability map 56, and other information, and estimates the road surface boundary by dynamic programming or the like. As other information, dynamic background information obtained by converting a change in luminance value of each pixel between frames of the captured image into a mosaic image, texture information obtained from the captured image, and the like can be used. These pieces of information are useful information for identifying the road surface area and the area other than the road surface on the captured image. Moreover, you may use the restrictions by road model, such as a clothoid curve. For example, a line segment map 54, a road surface probability map 56, and the like are integrated to extract a line segment having a certain probability of a road surface boundary of a predetermined value or more, and the degree of coincidence with the road structure model is the highest among the extracted line segments. The line segment can be estimated as the final road boundary.

次に、図24を参照して、第4の実施の形態における路面境界推定処理ルーチンについて説明する。なお、第1及び第3の実施の形態における路面境界推定処理ルーチンと同様の処理については、同一符号を付して詳細な説明を省略する。   Next, a road boundary estimation processing routine in the fourth embodiment will be described with reference to FIG. In addition, about the process similar to the road surface boundary estimation process routine in 1st and 3rd embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップ100〜108、及び300を経て、立体物マップ450及び線分マップ54を蓄積する。なお、ステップ102では、立体物領域抽出部420が、各セルにレーザレーダ12の観測値の高さ情報及び所定の占有値を保持させた立体物マップ450を生成する。また、ステップ108では、線分選択部426が、例えば(2)式により、立体物領域とエッジ線分との距離に応じた重み、及び自車運動ベクトルとエッジ線分との類似度を加味した評価値を算出して、エッジ線分を選択する。   The solid object map 450 and the line segment map 54 are accumulated through steps 100 to 108 and 300. In step 102, the three-dimensional object region extraction unit 420 generates a three-dimensional object map 450 in which each cell holds the height information of the observation value of the laser radar 12 and a predetermined occupation value. Further, in step 108, the line segment selection unit 426 takes into account the weight according to the distance between the three-dimensional object region and the edge line segment, and the similarity between the vehicle motion vector and the edge line segment, for example, using equation (2). The evaluated value is calculated and an edge line segment is selected.

次に、ステップ400で、路面確率算出部32が、上記ステップ102で生成された立体物マップ450の各セルが保持する高さ情報及び占有値に基づいて算出された路面確率を各セルに格納した路面確率マップ56を生成する。   Next, in step 400, the road surface probability calculation unit 32 stores the road surface probability calculated based on the height information and the occupancy value held in each cell of the three-dimensional object map 450 generated in step 102 in each cell. The generated road surface probability map 56 is generated.

次に、ステップ402で、路面境界推定部428が、線分マップ54、路面確率マップ56、及びその他の情報を統合して、動的計画法などにより路面境界を推定し、次に、ステップ112で、推定結果を撮像画像に合成して表示装置18に表示するように制御して、路面境界推定処理を終了する。   Next, in step 402, the road surface boundary estimation unit 428 integrates the line segment map 54, the road surface probability map 56, and other information, and estimates the road surface boundary by dynamic programming or the like. Thus, control is performed so that the estimation result is combined with the captured image and displayed on the display device 18, and the road surface boundary estimation processing is terminated.

以上説明したように、第4の実施の形態に係る路面境界推定装置410によれば、立体物領域とエッジ線分との距離に応じた重み、及び自車運動ベクトルとエッジ線分との類似度を加味したエッジ線分を選択して蓄積するため、より精度の高い線分マップ54を生成することができる。また、線分マップ54に加え、路面確率マップ56、動的背景情報、テクスチャ情報、道路構造モデルによる制約等の路面境界推定に有用な情報を統合して路面境界を推定するため、より精度良く路面境界を推定することができる。   As described above, according to the road surface boundary estimation device 410 according to the fourth embodiment, the weight according to the distance between the three-dimensional object region and the edge line segment, and the similarity between the own vehicle motion vector and the edge line segment. Since the edge line segments taking the degree into consideration are selected and accumulated, the line segment map 54 with higher accuracy can be generated. Further, in addition to the line segment map 54, information useful for estimating the road surface boundary such as the road surface probability map 56, dynamic background information, texture information, and restrictions by the road structure model is integrated to estimate the road surface boundary. The road boundary can be estimated.

なお、動的背景情報、テクスチャ情報、走路モデルによる制約等の情報は全て用いる必要はなく、いずれか1つまたは2つを選択して用いてもよい。また、その他の情報をさらに加えて用いてもよい。   Note that it is not necessary to use all of the dynamic background information, texture information, restrictions on the runway model, and the like, and any one or two of them may be selected and used. Further, other information may be further added and used.

また、第1及び第2の実施の形態においても、第4の実施の形態で述べたような評価値を用いてエッジ線分を選択するようにしてもよい。   Also in the first and second embodiments, an edge line segment may be selected using an evaluation value as described in the fourth embodiment.

また、第3及び第4の実施の形態においても、第1及び第2の実施の形態と同様に、立体物境界を推定し、立体物境界と線分マップとを統合して路面境界を推定するようにしてもよい。   Also in the third and fourth embodiments, as in the first and second embodiments, the solid object boundary is estimated, and the road surface boundary is estimated by integrating the solid object boundary and the line segment map. You may make it do.

さらに、立体物境界と選択されたエッジ線分との統合方法は、上記で説明したようなサポート点を抽出する方法に限定されない。例えば、図25(a)に示すように、推定された立体物境界と選択されたエッジ線分とを、同一のXZ平面にマッピングした尤度マップを生成する。ここで、尤度とは、任意の位置(x,z)における路面境界らしさを表す指標である。同図(b)に示すように、抽出された立体物境界やエッジ線分の位置で尤度が大きく、そこから離れるにしがたって尤度が小さくなるように尤度マップを生成する。なお、同図(b)では、色の濃い領域ほど路面境界らしさを表す尤度が高い領域であることを示している。また、どのくらいの距離でどの程度尤度が低下するかは尤度マップ生成時のパラメータであり実験的に決定するが、自車両からの距離や境界候補の種類に応じて変更するようにしてもよい。例えば、近距離領域では境界候補からの距離が離れるに従って急激に尤度が低下するようにし設定し、遠方領域では緩やかに低下するようにする設定することができる。また、尤度マップを2次元平面内の尤度分布を表すマップとして生成してもよいし、自車両前方の一定距離間隔毎に進路に直行する方向の尤度変化のみを生成するようにしてもよい。   Furthermore, the integration method of the solid object boundary and the selected edge line segment is not limited to the method of extracting the support points as described above. For example, as shown in FIG. 25A, a likelihood map is generated by mapping the estimated solid object boundary and the selected edge line segment on the same XZ plane. Here, the likelihood is an index representing the likelihood of a road surface boundary at an arbitrary position (x, z). As shown in FIG. 6B, a likelihood map is generated such that the likelihood is large at the position of the extracted solid object boundary or edge line segment, and the likelihood is small as it is away from it. Note that FIG. 4B shows that the darker the region, the higher the likelihood of representing the road surface boundary. In addition, how much the likelihood decreases at what distance is a parameter at the time of generating the likelihood map and is experimentally determined. However, it may be changed according to the distance from the host vehicle and the type of boundary candidate. Good. For example, the likelihood can be set so that the likelihood decreases sharply as the distance from the boundary candidate increases in the short distance region, and gradually decreases in the far region. In addition, the likelihood map may be generated as a map representing the likelihood distribution in the two-dimensional plane, or only the likelihood change in the direction perpendicular to the course is generated at every predetermined distance interval in front of the host vehicle. Also good.

そして、同図(c)に示すように、走路モデルのパラメータ(例えば、(2)式のパラメータC、C、C、d、d)を様々に変えて路面境界を示す線分を生成し、生成した線分に沿って尤度を累積した値を評価値として算出し、評価値が最も高くなった線分を最終的な路面境界として決定する。同図(c)は折れ線モデルのパラメータを適合した場合の模式図である。最終的な路面境界は、図示されるように尤度が高い場所を(可能な限り)通過することになる。 Then, as shown in FIG. 5C, a line indicating the road boundary by changing various parameters of the road model (for example, parameters C 1 , C 2 , C 3 , d 1 , d 2 in equation (2)). A segment is generated, a value obtained by accumulating the likelihood along the generated line segment is calculated as an evaluation value, and a line segment having the highest evaluation value is determined as a final road surface boundary. FIG. 4C is a schematic diagram when the parameters of the polygonal line model are adapted. The final road boundary will (as much as possible) pass through a place with high likelihood as shown.

また、上記実施の形態では、レーザレーダにより車両周辺から複数の反射点の位置を特定する情報を観測する場合について説明したが、これに限定されるものではなく、ミリ波などの電磁波を用いてもよい。また、例えば、ステレオカメラによって撮像された画像を用いて、後処理により車両周辺の複数の点の位置を特定する情報を演算するようにしてもよい。   Further, in the above-described embodiment, a case has been described in which information for identifying the positions of a plurality of reflection points is observed from the periphery of a vehicle using a laser radar. However, the present invention is not limited to this, and electromagnetic waves such as millimeter waves are used. Also good. Further, for example, information specifying the positions of a plurality of points around the vehicle may be calculated by post-processing using an image captured by a stereo camera.

また、上記実施の形態では、推定結果を撮像画像に合成して表示装置に表示する場合について説明したが、グリッドマップ上に路面境界を点座標で表示するようにしてもよい。また、路面境界は車両が逸脱してはいけない範囲を示すものであるため、車両が逸脱しそうな場合にドライバに注意喚起するシステムや、自動的にステアリング操作して路面境界から離れるように制御するシステム等の入力として、路面境界の推定結果を利用するようにしてもよい。   Moreover, although the said embodiment demonstrated the case where an estimation result was synthesize | combined with a captured image and displayed on a display apparatus, you may make it display a road surface boundary by a point coordinate on a grid map. In addition, since the road boundary indicates the range that the vehicle should not deviate from, the system that alerts the driver when the vehicle is likely to deviate, or automatically steer to control to leave the road boundary You may make it utilize the estimation result of a road surface boundary as input, such as a system.

また、上記では、移動体を車両とした場合について説明したが、これに限定されず、ロボット等の他の移動体にも適用可能である。   In the above description, the case where the moving body is a vehicle has been described. However, the present invention is not limited to this, and the present invention can also be applied to other moving bodies such as a robot.

また、上記では、本発明の路面境界推定装置を車両に搭載した例について説明したが、路面境界推定装置を構成するコンピュータを外部サーバとして構成することもできる。この場合、車両で取得された撮像画像及びレーザレーダの観測データを通信手段により外部サーバへ送信し、外部サーバで処理された路面境界の推定結果を車両に搭載された情報端末に返すようにすればよい。   Moreover, although the example which mounted the road surface boundary estimation apparatus of this invention in the vehicle was demonstrated above, the computer which comprises a road surface boundary estimation apparatus can also be comprised as an external server. In this case, the captured image acquired by the vehicle and the observation data of the laser radar are transmitted to the external server by the communication means, and the estimation result of the road surface boundary processed by the external server is returned to the information terminal mounted on the vehicle. That's fine.

10、210、310、410 路面境界推定装置
12 レーザレーダ
14 撮像装置
16、216、316、416 コンピュータ
18 表示装置
20、420 立体物領域抽出部
21 路面領域抽出部
22 立体物境界推定部
24 エッジ線分抽出部
26、226、326、426 線分選択部
28、228、328、428 路面境界推定部
32 路面確率算出部
50、250、450 立体物マップ
52 走路モデル
54 線分マップ
56 路面確率マップ
10, 210, 310, 410 Road surface boundary estimation device 12 Laser radar 14 Imaging device 16, 216, 316, 416 Computer 18 Display device 20, 420 Solid object region extraction unit 21 Road surface region extraction unit 22 Solid object boundary estimation unit 24 Edge line Segment extraction unit 26, 226, 326, 426 Line segment selection unit 28, 228, 328, 428 Road boundary estimation unit 32 Road surface probability calculation unit 50, 250, 450 Solid object map 52 Road model 54 Line segment map 56 Road surface probability map

Claims (14)

移動体周辺に存在する物体上の複数の点各々の前記移動体を基準とする3次元位置、及び前記移動体に搭載された撮像手段により該移動体周辺を撮像して得た画像を取得する取得手段と、
前記取得手段により取得された3次元位置に基づいて、前記移動体周辺の立体物領域を抽出する立体物領域抽出手段と、
前記取得手段により取得された画像からエッジ線分を抽出するエッジ線分抽出手段と、
前記エッジ線分抽出手段により抽出されたエッジ線分から、前記立体物領域抽出手段により抽出された立体物領域との距離が所定値以下のエッジ線分を選択する線分選択手段と、
前記線分選択手段により選択されたエッジ線分に基づいて、路面境界を推定する路面境界推定手段と、
を含む路面境界推定装置。
A three-dimensional position of each of a plurality of points on an object existing around the moving body with reference to the moving body and an image obtained by imaging the periphery of the moving body by an imaging unit mounted on the moving body are acquired. Acquisition means;
A three-dimensional object region extracting unit that extracts a three-dimensional object region around the moving body based on the three-dimensional position acquired by the acquiring unit;
Edge line segment extraction means for extracting edge line segments from the image acquired by the acquisition means;
A line segment selection means for selecting an edge line segment having a predetermined distance or less from the edge line segment extracted by the edge line segment extraction means and the solid object area extracted by the solid object area extraction means;
Road surface boundary estimation means for estimating a road surface boundary based on the edge line segment selected by the line segment selection means;
Road surface boundary estimation apparatus including
前記路面境界推定手段は、前記立体物領域の外縁または下端が示す路面と立体物との境界点と、前記選択されたエッジ線分とを統合して、前記路面境界を推定する請求項1記載の路面境界推定装置。   The road surface boundary estimation unit estimates the road surface boundary by integrating a boundary point between a road surface and a solid object indicated by an outer edge or a lower end of the solid object region and the selected edge line segment. Road surface boundary estimation device. 前記立体物領域抽出手段は、前記取得手段により時系列に取得された複数の3次元位置に基づいて、前記立体物領域を抽出する請求項1または請求項2記載の路面境界推定装置。   The road surface boundary estimation apparatus according to claim 1, wherein the three-dimensional object region extracting unit extracts the three-dimensional object region based on a plurality of three-dimensional positions acquired in time series by the acquiring unit. 前記取得手段により取得された3次元位置に基づいて、前記移動体周辺の路面領域を抽出する路面領域抽出手段を含み、
前記線分選択手段は、前記立体物領域及び前記路面領域の所定領域内に含まれるエッジ線分を除外する
請求項1〜請求項3のいずれか1項記載の路面境界推定装置。
Road surface area extraction means for extracting a road surface area around the moving body based on the three-dimensional position acquired by the acquisition means;
The road surface boundary estimation apparatus according to any one of claims 1 to 3, wherein the line segment selection unit excludes edge line segments included in predetermined regions of the three-dimensional object region and the road surface region.
前記路面領域抽出手段は、前記取得手段により時系列に取得された複数の3次元位置に基づいて、前記路面領域を抽出する請求項4記載の路面境界推定装置。   5. The road surface boundary estimation device according to claim 4, wherein the road surface area extraction unit extracts the road surface area based on a plurality of three-dimensional positions acquired in time series by the acquisition unit. 前記立体物領域に基づいて、前記移動体周辺の各点における路面らしさを示す路面確率を算出する路面確率算出手段を含み、
前記路面境界推定手段は、前記路面確率算出手段により算出された路面確率と前記選択されたエッジ線分とを統合して、前記路面境界を推定する
請求項1〜請求項5のいずれか1項記載の路面境界推定装置。
Based on the three-dimensional object region, including road surface probability calculating means for calculating a road surface probability indicating road surface likelihood at each point around the moving body,
The road surface boundary estimation unit estimates the road surface boundary by integrating the road surface probability calculated by the road surface probability calculation unit and the selected edge line segment. The road surface boundary estimation apparatus described.
前記路面境界推定手段は、前記取得手段により取得された画像から得られるテクスチャ情報、前記画像の画素値の変化に基づく動的背景情報、及び路面構造に基づく制約の少なくとも1つを加えて、前記路面境界を推定する請求項1〜請求項6のいずれか1項記載の路面境界推定装置。   The road surface boundary estimation unit adds at least one of texture information obtained from the image acquired by the acquisition unit, dynamic background information based on a change in a pixel value of the image, and a constraint based on a road surface structure, The road surface boundary estimation apparatus according to claim 1, wherein the road surface boundary is estimated. 前記線分選択手段は、前記移動体と前記エッジ線分に対応する位置との距離に応じて、前記所定値を変更する請求項1〜請求項7のいずれか1項記載の路面境界推定装置。   The road surface boundary estimation device according to any one of claims 1 to 7, wherein the line segment selection unit changes the predetermined value according to a distance between the moving body and a position corresponding to the edge line segment. . 前記線分選択手段は、選択したエッジ線分を、過去に選択されたエッジ線分を蓄積した線分マップに蓄積し、
前記路面境界推定手段は、前記線分マップに基づいて、前記路面境界を推定する
請求項1〜請求項のいずれか1項記載の路面境界推定装置。
The line segment selection means accumulates the selected edge line segment in a line segment map in which the edge line segments selected in the past are accumulated,
The road surface boundary estimation device according to any one of claims 1 to 8 , wherein the road surface boundary estimation unit estimates the road surface boundary based on the line segment map.
前記路面境界推定手段は、前記線分マップに蓄積されたエッジ線分を細線化することにより、前記路面境界を推定する請求項記載の路面境界推定装置。 The road surface boundary estimation device according to claim 9 , wherein the road surface boundary estimation unit estimates the road surface boundary by thinning edge line segments accumulated in the line segment map. 前記線分選択手段は、前記立体物領域と前記エッジ線分との距離が近いほど高くなる評価値を算出し、該評価値と予め定めた閾値とを比較して、前記線分マップに蓄積するエッジ線分を選択する請求項9または請求項10記載の路面境界推定装置。 The line segment selection means calculates an evaluation value that increases as the distance between the solid object region and the edge line segment decreases, compares the evaluation value with a predetermined threshold value, and stores the evaluation value in the line segment map. The road boundary estimation apparatus according to claim 9 or 10 , wherein an edge line segment to be selected is selected. 前記線分選択手段は、前記移動体の移動方向ベクトルと前記エッジ線分との類似度が高いほど高くなる係数を乗算して前記評価値を算出する請求項11記載の路面境界推定装置。 12. The road surface boundary estimation device according to claim 11 , wherein the line segment selection unit calculates the evaluation value by multiplying a coefficient that increases as the similarity between the moving direction vector of the moving object and the edge line segment increases. 前記線分選択手段は、路面構造に基づく境界線と前記エッジ線分との距離及び類似度の少なくとも一方に基づく重みを前記評価値に加える請求項11または請求項12記載の路面境界推定装置。 The road surface boundary estimation device according to claim 11 or 12 , wherein the line segment selection unit adds a weight based on at least one of a distance and a similarity between a boundary line based on a road surface structure and the edge line segment to the evaluation value. コンピュータを、請求項1〜請求項13のいずれか1項記載の路面境界推定装置を構成する各手段として機能させるための路面境界推定プログラム。   The road surface boundary estimation program for functioning a computer as each means which comprises the road surface boundary estimation apparatus of any one of Claims 1-13.
JP2012140039A 2012-06-21 2012-06-21 Road boundary estimation apparatus and program Active JP5820774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012140039A JP5820774B2 (en) 2012-06-21 2012-06-21 Road boundary estimation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012140039A JP5820774B2 (en) 2012-06-21 2012-06-21 Road boundary estimation apparatus and program

Publications (2)

Publication Number Publication Date
JP2014006588A JP2014006588A (en) 2014-01-16
JP5820774B2 true JP5820774B2 (en) 2015-11-24

Family

ID=50104274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012140039A Active JP5820774B2 (en) 2012-06-21 2012-06-21 Road boundary estimation apparatus and program

Country Status (1)

Country Link
JP (1) JP5820774B2 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6453571B2 (en) * 2014-07-24 2019-01-16 株式会社Soken 3D object recognition device
JP6668740B2 (en) * 2015-12-22 2020-03-18 いすゞ自動車株式会社 Road surface estimation device
JP6863027B2 (en) * 2016-05-10 2021-04-21 株式会社デンソー Three-dimensional object detection processing device
JP6911312B2 (en) * 2016-09-23 2021-07-28 トヨタ自動車株式会社 Object identification device
JP6773540B2 (en) * 2016-12-07 2020-10-21 クラリオン株式会社 In-vehicle image processing device
JP6815963B2 (en) 2017-09-29 2021-01-20 クラリオン株式会社 External recognition device for vehicles
JP7071154B2 (en) * 2018-02-26 2022-05-18 株式会社Soken Road boundary detector
WO2019188389A1 (en) 2018-03-29 2019-10-03 ソニー株式会社 Signal processing device and signal processing method, program, and moving body
JP7263731B2 (en) * 2018-10-26 2023-04-25 株式会社デンソー Image processing device
CN112101069A (en) * 2019-06-18 2020-12-18 华为技术有限公司 Method and device for determining driving area information
JP2021082058A (en) * 2019-11-20 2021-05-27 株式会社豊田中央研究所 Travel path estimation device and travel path estimation program
JP7401273B2 (en) * 2019-11-26 2023-12-19 日立Astemo株式会社 Mobile body control device and method
KR102340543B1 (en) * 2019-12-04 2021-12-20 충남대학교산학협력단 Attached tpye-agricultural working path detecting appatatus
CN113468922B (en) * 2020-03-31 2023-04-18 宇通客车股份有限公司 Road boundary identification method and device based on radar point cloud
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP7417465B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
CN113836978A (en) * 2020-06-24 2021-12-24 富士通株式会社 Road area determination device and method and electronic equipment
JP2022123239A (en) * 2021-02-12 2022-08-24 本田技研工業株式会社 Division line recognition device
CN112949489B (en) * 2021-03-01 2023-05-12 成都安智杰科技有限公司 Road boundary identification method and device, electronic equipment and storage medium
DE102021203809B4 (en) * 2021-03-16 2023-05-04 Continental Autonomous Mobility Germany GmbH Driving course estimation in an environment model
JP2022178981A (en) * 2021-05-21 2022-12-02 日立Astemo株式会社 Object recognition device and object recognition method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4659631B2 (en) * 2005-04-26 2011-03-30 富士重工業株式会社 Lane recognition device
JP5089545B2 (en) * 2008-09-17 2012-12-05 日立オートモティブシステムズ株式会社 Road boundary detection and judgment device
JP5434277B2 (en) * 2009-05-29 2014-03-05 日産自動車株式会社 Driving support device and driving support method
JP5385009B2 (en) * 2009-05-29 2014-01-08 日立オートモティブシステムズ株式会社 Vehicle control apparatus and vehicle control method
JP4938053B2 (en) * 2009-06-19 2012-05-23 富士重工業株式会社 Vehicle driving support device

Also Published As

Publication number Publication date
JP2014006588A (en) 2014-01-16

Similar Documents

Publication Publication Date Title
JP5820774B2 (en) Road boundary estimation apparatus and program
US11763571B2 (en) Monocular cued detection of three-dimensional structures from depth images
CN109791052B (en) Method and system for classifying data points of point cloud by using digital map
CN107850445B (en) Method and system for generating and using positioning reference data
JP5188452B2 (en) Road shape recognition device
US9330320B2 (en) Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus
WO2018016394A1 (en) Traveling road boundary estimation apparatus and traveling assistance system using same
JP5502448B2 (en) Road surface shape recognition device
JP5822255B2 (en) Object identification device and program
JP4205825B2 (en) Object recognition device
JP2012225806A (en) Road gradient estimation device and program
JP4363295B2 (en) Plane estimation method using stereo images
EP3070430B1 (en) Moving body position estimation device and moving body position estimation method
JP5796947B2 (en) Autonomous traveling control device and autonomous traveling vehicle equipped with the same
JP6687039B2 (en) Object detection device, device control system, imaging device, object detection method, and program
CN112464812B (en) Vehicle-based concave obstacle detection method
US9832444B2 (en) Three-dimensional object detection device
JP4102885B2 (en) Parked vehicle detection method and parked vehicle detection system
EP3324359B1 (en) Image processing device and image processing method
US20150016681A1 (en) Three-dimensional object detection device
Janda et al. Road boundary detection for run-off road prevention based on the fusion of video and radar
JP2007011994A (en) Road recognition device
CN114842166A (en) Negative obstacle detection method, system, medium, and apparatus applied to structured road
JP2012150595A (en) Stop line detection device and program
JP5903901B2 (en) Vehicle position calculation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151005

R150 Certificate of patent or registration of utility model

Ref document number: 5820774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250