JP2013182561A - Level difference detector - Google Patents

Level difference detector Download PDF

Info

Publication number
JP2013182561A
JP2013182561A JP2012047851A JP2012047851A JP2013182561A JP 2013182561 A JP2013182561 A JP 2013182561A JP 2012047851 A JP2012047851 A JP 2012047851A JP 2012047851 A JP2012047851 A JP 2012047851A JP 2013182561 A JP2013182561 A JP 2013182561A
Authority
JP
Japan
Prior art keywords
edge
edges
vehicle
image
map data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012047851A
Other languages
Japanese (ja)
Other versions
JP5929330B2 (en
Inventor
Hirotoshi Ueda
宏寿 植田
Masayasu Shimakage
正康 島影
Yoshiro Takamatsu
吉郎 高松
Yuta Yoshihata
友太 吉畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012047851A priority Critical patent/JP5929330B2/en
Publication of JP2013182561A publication Critical patent/JP2013182561A/en
Application granted granted Critical
Publication of JP5929330B2 publication Critical patent/JP5929330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a level difference detector that can highly accurately detect a level difference such as a curb and the like contained in an image photographing ahead of a vehicle.SOLUTION: The level difference detector comprises: a surround environment photograph part 10 that photographs a surround image of the vehicle; and an edge detection part 20 that detects an edge in a photographed image. The edge detection part 20 extracts a first edge along a travelling road of an own vehicle from a plurality of detected edges, and further extracts a plurality of second edges crossing the first edge from the plurality of detected edges. When two second edges positioned on one linear line are cut off at a portion crossing the first edge or mutually parallel two second edges exist and each second edge has discontinuity in the same direction, the first edge is determined to be an edge of the level difference.

Description

本発明は、自車の前方に存在する縁石等の段差を検出する段差検出装置に関する。   The present invention relates to a step detection device for detecting a step such as a curb existing in front of a host vehicle.

自車の前方画像をカメラにて撮像し、撮像した画像から道路端部の仕切線(以下、白線として説明する)を抽出し、自車が道路端部の白線の内側となる車線内から逸脱しないように走行するように制御するシステムが提案されている。このようなシステムでは、道路上に存在する白線を高い精度で検出する必要があり、従来より、例えば、特開平9−35195号公報(特許文献1)に開示されたものが知られている。該特許文献1では、カメラで撮像した画像の輝度値を用いて白線を検出している。   A front image of the vehicle is captured by the camera, and a partition line at the road edge (hereinafter described as a white line) is extracted from the captured image, and the vehicle deviates from the lane inside the white line at the road edge. There has been proposed a system for performing control so as not to travel. In such a system, it is necessary to detect a white line existing on a road with high accuracy. For example, a system disclosed in Japanese Patent Laid-Open No. 9-35195 (Patent Document 1) has been known. In Patent Document 1, a white line is detected using a luminance value of an image captured by a camera.

特開平9−35195号公報JP-A-9-35195

しかしながら、上述した特許文献1に開示された白線検出方法では、道路上に存在する縁石を白線として誤認識してしまうことがある。即ち、道路上に存在する縁石を撮影すると、その画像中の縁石の輝度値が高い場合があり、この場合にはこの縁石を白線と誤認識してしまうことがある。その結果、高精度な仕切線の認識ができなくなるという問題があった。   However, in the white line detection method disclosed in Patent Literature 1 described above, a curb existing on the road may be erroneously recognized as a white line. That is, when a curb existing on the road is photographed, the curb in the image may have a high luminance value. In this case, the curb may be mistakenly recognized as a white line. As a result, there is a problem that it is impossible to recognize partition lines with high accuracy.

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、車両前方を撮像した画像中に含まれる縁石等の段差を高精度に検出することが可能な段差検出装置を提供することにある。   The present invention has been made in order to solve such a conventional problem, and an object of the present invention is to detect a step such as a curb included in an image obtained by imaging the front of the vehicle with high accuracy. The object is to provide a possible step detector.

上記目的を達成するため、本発明は、撮像手段で撮像した画像中のエッジを検出するエッジ検出手段と、エッジ検出手段で検出された複数のエッジから、車両の走行路に沿った第1エッジを抽出する第1エッジ抽出手段と、エッジ検出手段で検出された複数のエッジから、第1エッジと交差する複数の第2エッジを抽出する第2エッジ抽出手段と、を有する。更に、一つの直線上に位置する2つの第2エッジが第1エッジと交差する部位にて途切れているか、或いは互いに平行な2つの第2エッジが存在し、且つ、各第2エッジが同一方向の不連続性を有する場合に、第1エッジが段差のエッジであると判定する段差判定手段とを備える。   In order to achieve the above object, the present invention provides an edge detection means for detecting an edge in an image captured by an imaging means, and a first edge along a vehicle traveling path from a plurality of edges detected by the edge detection means. Edge extracting means for extracting the second edge extracting means, and second edge extracting means for extracting a plurality of second edges intersecting the first edge from the plurality of edges detected by the edge detecting means. Furthermore, two second edges located on one straight line are interrupted at a portion intersecting the first edge, or there are two second edges parallel to each other, and each second edge is in the same direction. Step determining means for determining that the first edge is an edge of a step in the case of having the discontinuity.

本発明に係る段差検出装置では、自車前方の画像から第1エッジ、及び第2エッジを抽出し、更に、第2エッジが第1エッジと交差する部位で途切れているか否か、或いは、互いにへいこうな複数の第2エッジが存在するか否かにより、第1エッジが段差によるエッジであるか否かを判定するので、高精度な段差判定が可能となる。   In the level difference detection device according to the present invention, the first edge and the second edge are extracted from the image ahead of the host vehicle, and whether or not the second edge is interrupted at a portion where the first edge intersects, Since it is determined whether or not the first edge is an edge due to a step depending on whether or not there are a plurality of second edges, it is possible to determine the step with high accuracy.

本発明の一実施形態に係る段差検出装置、及びその周辺機器の構成を示すブロック図である。It is a block diagram which shows the structure of the level | step difference detection apparatus which concerns on one Embodiment of this invention, and its peripheral device. 本発明の一実施形態に係る段差検出装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the level | step difference detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る段差検出装置の、周囲環境撮像部で撮像された周囲画像、及びエッジを抽出したエッジ画像の第1の例を示す図である。It is a figure which shows the 1st example of the edge image which extracted the surrounding image imaged by the surrounding environment imaging part and the edge of the level | step difference detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る段差検出装置の、エッジ画像から第1エッジを抽出した画像の第1の例を示す図である。It is a figure which shows the 1st example of the image which extracted the 1st edge from the edge image of the level | step difference detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る段差検出装置の、エッジ画像から第2エッジを抽出した画像の第1の例を示す図である。It is a figure which shows the 1st example of the image which extracted the 2nd edge from the edge image of the level | step difference detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る段差検出装置の、周囲環境撮像部で撮像された周囲画像、及びエッジを抽出したエッジ画像の第2の例を示す図である。It is a figure which shows the 2nd example of the edge image extracted by the surrounding environment imaging part of the level | step difference detection apparatus which concerns on one Embodiment of this invention, and the edge image which extracted the edge. 本発明の一実施形態に係る段差検出装置の、エッジ画像から第1エッジを抽出した画像の第2の例を示す図である。It is a figure which shows the 2nd example of the image which extracted the 1st edge from the edge image of the level | step difference detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る段差検出装置の、エッジ画像から第2エッジを抽出した画像の第2の例を示す図である。It is a figure which shows the 2nd example of the image which extracted the 2nd edge from the edge image of the level | step difference detection apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る段差検出装置の、N−1ステップのエッジ画像、及びNステップのエッジ画像を示す図である。It is a figure which shows the edge image of N-1 step and the edge image of N step of the level | step difference detection apparatus which concerns on one Embodiment of this invention. 図9に示したN−1ステップのエッジ画像とNステップのエッジ画像のアンドをとった画像を示す図である。It is a figure which shows the image which took AND of the edge image of N-1 step shown in FIG. 9, and the edge image of N step. 本発明の一実施形態に係る段差検出装置の、太陽の位置から想定される自車影と、実際の自車影を示す図である。It is a figure which shows the own vehicle shadow assumed from the position of the sun of the level | step difference detection apparatus which concerns on one Embodiment of this invention, and an actual own vehicle shadow. 図11に示した太陽の位置から想定される自車影と、実際の自車影の排他的論理和(XOR)をとった図である。It is the figure which took the exclusive OR (XOR) of the own vehicle shadow assumed from the position of the sun shown in FIG. 11, and an actual own vehicle shadow.

以下、本発明の実施形態を図面に基づいて説明する。図1は、本発明の第1実施形態に係る段差検出装置、及びその周辺機器の構成を示すブロック図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a level difference detection device and peripheral devices thereof according to the first embodiment of the present invention.

図1に示すように、この段差検出装置100は、周囲環境撮像部10と、エッジ検出部20と、段差判定部30、及び地図データ記憶部40を備え、車両の走行を制御する車両制御部50に接続されている。   As shown in FIG. 1, the level difference detection device 100 includes a surrounding environment imaging unit 10, an edge detection unit 20, a level difference determination unit 30, and a map data storage unit 40, and a vehicle control unit that controls the traveling of the vehicle. 50.

周囲環境撮像部10は、自車に車載したカメラで自車の周囲環境を撮像し、撮像した周囲環境画像をエッジ検出部20に出力する。   The ambient environment imaging unit 10 captures the surrounding environment of the host vehicle with a camera mounted on the host vehicle, and outputs the captured ambient environment image to the edge detection unit 20.

エッジ検出部20は、周囲環境撮像部10により撮像した周囲環境画像中のエッジを検出する。更に、検出された複数のエッジから、自車の走行路に沿った第1エッジを抽出し、且つ、検出された複数のエッジから、第1エッジと交差する複数の第2エッジを抽出する処理を行う。そして、検出した各エッジデータ、及び第1エッジ、及び第2エッジのデータを段差判定部30に出力する。即ち、エッジ検出部20は、エッジ検出手段、第1エッジ抽出手段、及び第2エッジ抽出手段としての機能を備えている。   The edge detection unit 20 detects an edge in the ambient environment image captured by the ambient environment imaging unit 10. Furthermore, the process which extracts the 1st edge along the driving | running route of the own vehicle from the detected some edge, and extracts the some 2nd edge which cross | intersects the 1st edge from the detected several edge I do. Then, the detected edge data and the data of the first edge and the second edge are output to the step determination unit 30. That is, the edge detection unit 20 has functions as an edge detection unit, a first edge extraction unit, and a second edge extraction unit.

段差判定部30は、エッジ検出部20にて検出されたエッジデータに基づいて、後述する手法によりエッジが走行路上に存在する段差によるエッジであるか否かを判定する。また、段差判定部30は、過去のエッジ情報を記憶するメモリ30aを備えている。   Based on the edge data detected by the edge detection unit 20, the step determination unit 30 determines whether or not the edge is an edge due to a step existing on the traveling road. Moreover, the level | step difference determination part 30 is provided with the memory 30a which memorize | stores the past edge information.

地図データ記憶部40は、自車が走行する地域の地図データを記憶すると共に、道路上に段差が存在するか否かを示す情報を合わせて記憶している。   The map data storage unit 40 stores map data of an area where the vehicle travels, and also stores information indicating whether or not there is a step on the road.

また、車両制御部50は、自車位置推定部50aと、操舵制御部50bとを備えている。自車位置推定部50aは、段差判定部30により判定された段差エッジデータ、及び地図データ記憶部40に保存されている地図データに基づいて、自車の位置と方位角(進行している方向)を推定する。また、操舵制御部50bは、自車位置推定部50aにて推定された自車位置、方位角と、地図データ記憶部40に保存されている地図データに基づいて、自車が車線(左右の白線の間の領域)を維持するように操舵制御を行う。   The vehicle control unit 50 includes a host vehicle position estimation unit 50a and a steering control unit 50b. Based on the step edge data determined by the step determination unit 30 and the map data stored in the map data storage unit 40, the host vehicle position estimation unit 50a determines the position and azimuth of the host vehicle (the direction in which the vehicle is traveling). ). Further, the steering control unit 50b determines that the vehicle is in the lane (right and left) based on the vehicle position and azimuth angle estimated by the vehicle position estimation unit 50a and the map data stored in the map data storage unit 40. Steering control is performed so as to maintain the area between the white lines.

次に、上記のように構成された本実施形態に係る段差検出装置100の動作を、図2に示すフローチャートを参照して説明する。   Next, the operation of the level difference detection apparatus 100 according to the present embodiment configured as described above will be described with reference to the flowchart shown in FIG.

初めに、ステップS110において、周囲環境撮像部30は、カメラにて自車前方の画像を撮影し、自車の周囲画像を取得する。その結果、第1の例として例えば、図3(a)に示す如くの周囲画像M1が得られる。また、第2の例として例えば、図6(a)に示す如くの周囲画像M2が得られる。   First, in step S110, the ambient environment imaging unit 30 captures an image in front of the host vehicle with a camera, and acquires the surrounding image of the host vehicle. As a result, for example, a surrounding image M1 as shown in FIG. 3A is obtained as a first example. As a second example, for example, a surrounding image M2 as shown in FIG. 6A is obtained.

ステップS120において、エッジ検出部20は、ステップS110の処理で取得した周囲画像M1,M2のエッジを検出する。その結果、第1の例では、図3(b)に示すような複数のエッジを含むエッジ画像が得られる。第2の例では、図6(b)に示すような複数のエッジを含むエッジ画像が得られる。ここで、エッジ検出は、キャニー法等の周知の手法を用いることができる。   In step S120, the edge detection unit 20 detects the edges of the surrounding images M1 and M2 acquired in the process of step S110. As a result, in the first example, an edge image including a plurality of edges as shown in FIG. 3B is obtained. In the second example, an edge image including a plurality of edges as shown in FIG. 6B is obtained. Here, the edge detection can use a known method such as the Canny method.

ステップS130において、エッジ検出部20は、第1エッジ抽出処理を実行する。この処理では、自車の位置及び方位角(例えば、東方向を0°とした場合の、自車の走行方向の角度)と、地図データ記憶部40に記憶されている地図データに基づき、ステップS120の処理で検出したエッジ画像の中から、自車の走行路に沿ったエッジを抽出し、これを第1エッジとする。具体的には、自車位置と方位角とからステップS120の処理で検出したエッジ群を地図データに変換し、地図データに走行路として登録されている情報(例えば白線、縁石等)と概平行(例えば、検出したエッジと走行路方向の直線のなす角度が2°以下)のエッジを第1エッジとして抽出する。その結果、第1の例では、図4の太線で示すエッジL1,L2,L3が第1エッジとして抽出される。また、第2の例では、図7の太線に示すエッジL11,L12,L13が第1エッジとして抽出される。   In step S130, the edge detection unit 20 executes a first edge extraction process. In this process, based on the position and azimuth of the host vehicle (for example, the angle of the traveling direction of the host vehicle when the east direction is set to 0 °) and the map data stored in the map data storage unit 40, a step is performed. An edge along the traveling path of the host vehicle is extracted from the edge image detected in the process of S120, and this is defined as a first edge. Specifically, the edge group detected in the process of step S120 is converted into map data from the vehicle position and the azimuth angle, and is approximately parallel to information (for example, white line, curbstone, etc.) registered as a travel path in the map data. An edge (for example, an angle formed by a straight line between the detected edge and the traveling road direction is 2 ° or less) is extracted as the first edge. As a result, in the first example, edges L1, L2, and L3 indicated by thick lines in FIG. 4 are extracted as the first edges. In the second example, the edges L11, L12, and L13 indicated by the thick lines in FIG. 7 are extracted as the first edges.

次いで、ステップS140において、エッジ検出部20は、第2エッジ抽出処理を実行する。この処理では、ステップS130の処理で抽出された第1エッジと交差する複数のエッジを第2エッジとして抽出する。その結果、第1の例では、図5の太線に示すエッジL4a,L4bが第2エッジとして抽出される。即ち、エッジL4a,L4bは、第1エッジL1と交差しているので、第2エッジとして抽出される。また、第2の例では、図8の太線に示すエッジL14a,L14b,L14cが第2エッジとして抽出される。   Next, in step S140, the edge detection unit 20 executes a second edge extraction process. In this process, a plurality of edges that intersect with the first edge extracted in the process of step S130 are extracted as second edges. As a result, in the first example, the edges L4a and L4b indicated by the thick lines in FIG. 5 are extracted as the second edges. That is, since the edges L4a and L4b intersect the first edge L1, they are extracted as the second edge. In the second example, the edges L14a, L14b, and L14c indicated by the thick lines in FIG. 8 are extracted as the second edges.

ステップS150において、段差判定部30は、第1段差判定処理を実行する。第1段差判定処理は、前述のステップS140の処理で抽出した第2エッジが不連続であるか否かに基づいて、ステップS130で抽出した第1エッジが段差であるか否かを判定する。具体的な処理としては、第2エッジの中から、互いに概延長線上にあるエッジの組み合わせを抽出する。概延長線上とは、例えば、互いの直線の傾きの差が所定値(例えば、±2°)以下で、且つ、互いに近い端点どうしの距離が所定値(例えば、1m)以下のものとする。概延長線上にあるエッジの組み合わせが抽出された場合には、互いに近い2つの端点が存在する第1エッジを、段差を生成するエッジと判定する。   In step S150, the level difference determination unit 30 executes a first level difference determination process. The first step determination process determines whether or not the first edge extracted in step S130 is a step based on whether or not the second edge extracted in step S140 described above is discontinuous. As a specific process, combinations of edges that are substantially on the extension line are extracted from the second edges. On the approximate extension line, for example, it is assumed that the difference between the slopes of the straight lines is not more than a predetermined value (for example, ± 2 °) and the distance between end points close to each other is not more than a predetermined value (for example, 1 m). When a combination of edges on the approximate extension line is extracted, the first edge having two end points close to each other is determined as an edge that generates a step.

図5に示す例では、第2エッジL4a,L4bは、第1エッジL1と交差する地点で不連続となっており、更に、各第2エッジL4a,L4bは、互いに概延長線上(一つの直線上)に存在し、且つ、各第2エッジL4a,L4bの端点どうしの距離が短いので(所定値以下であるので)、各第2エッジL4a,L4bと交差する第1エッジL1が段差によるエッジであるものと判断する。ここで、第2エッジが第1エッジと交差し、更に、地図データ記憶部40に記憶されている地図データ中の、第1エッジに対応する領域に段差が存在する場合にのみ、第1段差検出を行うようにしても良い。この場合には、不要な段差検出を割愛することができる。   In the example shown in FIG. 5, the second edges L4a and L4b are discontinuous at the point where they intersect with the first edge L1, and each of the second edges L4a and L4b is on a generally extended line (one straight line). 1) and the distance between the end points of each of the second edges L4a and L4b is short (below a predetermined value), so the first edge L1 intersecting with each of the second edges L4a and L4b is an edge due to a step. It is judged that it is. Here, the first step only when the second edge intersects the first edge and there is a step in the area corresponding to the first edge in the map data stored in the map data storage unit 40. Detection may be performed. In this case, unnecessary step detection can be omitted.

ステップS160において、段差判定部30は、第2段差判定処理を実行する。第2段差判定処理は、前述のステップS140の処理で抽出した複数の第2エッジが、車両の進行方向に対して所定の距離範囲内(例えば50m以内)に存在しているかを判断し、また、この複数の第2エッジが互いに平行であるか否かにより、段差を判定する。   In step S160, the level difference determination unit 30 executes a second level difference determination process. The second step determination process determines whether or not the plurality of second edges extracted in the process of step S140 described above exist within a predetermined distance range (for example, within 50 m) with respect to the traveling direction of the vehicle. The step is determined based on whether or not the plurality of second edges are parallel to each other.

例えば、図8に示す例では、3つの第2エッジL14a,L14b,L14cが抽出されており、各第2エッジL14a,L14b,L14cは所定距離範囲内(例えば、50m内)に存在し、且つ、互いにほぼ平行であり、更に、第1エッジL11と交差する地点にて同一方向の折れ線形状をなしている。即ち、互いに平行な複数の第2エッジL14a,L14b,L14cが存在し、且つ、各第2エッジが同一方向の不連続性を有している。この場合、各第2エッジL14a,14b,14cは、太陽光による物体の影によるエッジであると想定できるので、この影の線の不連続性により、第1エッジL11は段差を形成するエッジであるものと判断する。ここで、第2段差判定処理についても前述の第1段差判定処理と同様に、第2エッジが第1エッジと交差し、更に、地図データ記憶部40に記憶されている地図データ中の、第1エッジに対応する領域に段差が存在する場合にのみ、第2段差検出を行うようにしても良い。   For example, in the example shown in FIG. 8, three second edges L14a, L14b, and L14c are extracted, and each second edge L14a, L14b, and L14c exists within a predetermined distance range (for example, within 50 m), and These are substantially parallel to each other, and have a polygonal line shape in the same direction at a point intersecting the first edge L11. That is, there are a plurality of second edges L14a, L14b, and L14c parallel to each other, and each second edge has discontinuity in the same direction. In this case, since each of the second edges L14a, 14b, and 14c can be assumed to be an edge caused by the shadow of an object caused by sunlight, the first edge L11 is an edge that forms a step due to the discontinuity of the shadow line. Judge that there is. Here, also in the second step determination process, as in the first step determination process described above, the second edge intersects the first edge, and further, the second step determination process includes the first step in the map data stored in the map data storage unit 40. The second step detection may be performed only when there is a step in a region corresponding to one edge.

ステップS170において、段差判定部30は、第3段差判定処理を実行する。第3段差判定処理では、自車の影を用いて、ステップS130の処理で抽出した第1エッジが段差であるか否かを判定する。過去のエッジ情報が段差判定部30に設けられるメモリ30aに記憶されている場合には、図9(a)に示す前回のステップ(N−1ステップ)のエッジ情報と、図9(b)に示す今回のステップ(Nステップ)のエッジ情報の「AND」(論理和)をとることにより、図10に示す如くのエッジ情報を取得する。そして、このエッジ情報中の、自車に近い位置のエッジを自車の影エッジとして抽出する。即ち、図10に示す例では、エッジL21が自車の影エッジであるものとして抽出される。   In step S170, the level difference determination unit 30 executes a third level difference determination process. In the third step determination process, it is determined whether or not the first edge extracted in the process of step S130 is a step using the shadow of the own vehicle. When past edge information is stored in the memory 30a provided in the level difference determining unit 30, the edge information of the previous step (N-1 step) shown in FIG. The edge information as shown in FIG. 10 is obtained by taking “AND” (logical sum) of the edge information of the present step (N step) shown. And the edge of the position close to the own vehicle in this edge information is extracted as a shadow edge of the own vehicle. That is, in the example shown in FIG. 10, the edge L21 is extracted as being a shadow edge of the own vehicle.

そして、抽出した自車の影エッジに基づき、自車に対する太陽の相対的な方向を算出し、現在の太陽の方向から平面に生成される自車の影の形状を算出する。或いは、予め太陽の方向毎に平面に生成される自車の影の形状データを用意しておき、対応する自車の影の形状データを選択してもよい。   Then, based on the extracted shadow edge of the own vehicle, the relative direction of the sun with respect to the own vehicle is calculated, and the shape of the shadow of the own vehicle generated on the plane from the current sun direction is calculated. Alternatively, the shadow shape data of the own vehicle generated on the plane for each sun direction may be prepared in advance, and the corresponding shadow shape data of the own vehicle may be selected.

算出(或いは選択)された影の形状(過去に取得されている自車が平面を走行しているときに検出される自車影のエッジ;図11(a)のエッジL22参照)と、抽出した実際の自車両の影エッジ(図11(b)のエッジL23参照)が得られると、これらの排他的論理和(XOR)を算出して、自車の影の歪んでいる部分を抽出する。その結果、図12に示すエッジL31が抽出される。そして、抽出されたエッジL31と、第1エッジL2とが交差する部位にてエッジL31が折れ線状となっているので、この第1エッジL2を、段差を生成するエッジの一つであると判定する。   Calculated (or selected) shadow shape (the edge of the vehicle shadow detected when the vehicle acquired in the past is traveling on a plane; see edge L22 in FIG. 11A) and extraction When the actual shadow edge of the own vehicle (see edge L23 in FIG. 11B) is obtained, the exclusive OR (XOR) of these is calculated to extract the distorted portion of the shadow of the own vehicle. . As a result, the edge L31 shown in FIG. 12 is extracted. Since the edge L31 has a polygonal line at the portion where the extracted edge L31 and the first edge L2 intersect, it is determined that the first edge L2 is one of the edges that generate a step. To do.

ここで、抽出した自車の影から自車に対する太陽の相対的な方向を算出するには、例えば、図10の場合には、車両先端中心の影の画像上の座標Iを「画像空間→実空間」を座標変換することにより、車両先端中心の影の実空間上の座標Rが得られるので、実際の車両先端中心と座標Rを結んだ直線のなす角が影方向θとなる。そして、太陽は影方向θに対して180度反対方向に位置することから、太陽の方向を認識することができる。   Here, in order to calculate the relative direction of the sun with respect to the own vehicle from the extracted shadow of the own vehicle, for example, in the case of FIG. By converting the coordinates of the “real space”, the coordinates R of the shadow at the center of the vehicle front end in the real space can be obtained, and the angle formed by the straight line connecting the actual vehicle front end center and the coordinates R becomes the shadow direction θ. Since the sun is positioned 180 degrees opposite to the shadow direction θ, the sun direction can be recognized.

ステップS180において、自車位置推定部50aは、ステップS120の処理で検出したエッジ情報のうち、ステップS150〜ステップS170で段差と判定されたエッジに対して「段差エッジ」の属性を付与する。そして、エッジ情報と地図情報に基づいて自車位置P、及び自車の方位角φを算出する。具体的には、エッジ情報を実空間上に変換した上で、地図情報とマッチングするように自車位置P、方位角φを推定する。マッチングを行う際は、「段差エッジ」の属性が付与されたエッジは、段差情報を有する地図データ(地図データ記憶部40に記憶されている)とのマッチングを行い、それ以外のエッジ情報は、段差情報のない地図データとのマッチングを行う。   In step S180, the vehicle position estimation unit 50a gives the attribute of “step edge” to the edge determined as a step in steps S150 to S170 among the edge information detected in the process of step S120. And the own vehicle position P and the azimuth angle (phi) of the own vehicle are calculated based on edge information and map information. Specifically, after converting the edge information into the real space, the vehicle position P and the azimuth angle φ are estimated so as to match the map information. When performing matching, the edge to which the attribute of “step edge” is assigned is matched with map data having step information (stored in the map data storage unit 40), and other edge information is Matches with map data without step information.

ステップS190において、操舵制御部50bは、ステップS180の処理で推定した自車位置P、方位角φと地図データ記憶部40の地図情報とに基づいて、自車が車線を追従するように操舵制御を行う。   In step S190, the steering control unit 50b performs steering control so that the host vehicle follows the lane based on the host vehicle position P, the azimuth angle φ estimated in the process of step S180, and the map information in the map data storage unit 40. I do.

ステップS200において、イグニッションがオフであるか否かを判定する。そして、イグニッションオフであれば、本処理を終了し、イグニッションオンであれば、ステップS110に処理を戻す。   In step S200, it is determined whether the ignition is off. If the ignition is off, the process is terminated. If the ignition is on, the process returns to step S110.

こうして、第1エッジ画像、及び第2エッジ画像の比較により、自車前方の走行路に存在する段差(縁石等)を高精度に検出することができ、道路上に描かれた白線との区別を確実に行うことができるのである。   In this way, by comparing the first edge image and the second edge image, a step (curbstone, etc.) existing on the traveling road ahead of the vehicle can be detected with high accuracy and distinguished from the white line drawn on the road. Can be reliably performed.

また、本実施形態において、画像中で検出したエッジを実空間上に座標変換したり、地図情報を画像空間上に座標変換する処理を行っている。これらの変換は、下記により行うことができる。   Further, in the present embodiment, a process is performed in which the edge detected in the image is coordinate-converted on the real space, or the map information is coordinate-converted on the image space. These conversions can be performed as follows.

(a)実空間から画像空間への変換処理は下記(1)式により実行される。 (A) Conversion processing from the real space to the image space is executed by the following equation (1).

I=C2C1R …(1)
但し、Iは画像空間上の座標、Rは実空間上の座標、C1は車両座標系からカメラ座標系への座標変換行列、C2はカメラ座標系から画像空間への座標変換行列、である。
I = C2C1R (1)
Where I is a coordinate in the image space, R is a coordinate in the real space, C1 is a coordinate transformation matrix from the vehicle coordinate system to the camera coordinate system, and C2 is a coordinate transformation matrix from the camera coordinate system to the image space.

(b)画像空間から実空間への変換処理は下記(2)式により実行される。 (B) The conversion process from the image space to the real space is executed by the following equation (2).

R=C4C3I …(2)
但し、Rは実空間上の座標、Iは画像空間上の座標、C3は画像空間からカメラ座標系への座標変換行列、C4はカメラ座標系から車両座標系への座標変換行列、である。
R = C4C3I (2)
Where R is a coordinate in the real space, I is a coordinate in the image space, C3 is a coordinate transformation matrix from the image space to the camera coordinate system, and C4 is a coordinate transformation matrix from the camera coordinate system to the vehicle coordinate system.

このようにして、本実施形態に係る段差検出装置では、自車の進行方向に向くエッジを第1エッジとして抽出し、更に該第1エッジと交差する複数のエッジを第2エッジとして抽出し、これらの関係に基づいて、第1エッジとして検出したエッジが段差であるか否かを判断している。具体的には、一つの直線上に位置する2つの第2エッジが、第1エッジと交差する部位にて途切れており、各第2エッジどうしの距離が所定距離未満である場合には、この第1エッジ(図5のL1)が段差によるエッジであるものと判定する。   Thus, in the step detection device according to the present embodiment, an edge that faces the traveling direction of the vehicle is extracted as a first edge, and a plurality of edges that intersect the first edge are extracted as second edges, Based on these relationships, it is determined whether or not the edge detected as the first edge is a step. Specifically, when two second edges located on one straight line are interrupted at a portion intersecting the first edge, and the distance between each second edge is less than a predetermined distance, It is determined that the first edge (L1 in FIG. 5) is an edge due to a step.

また、互いに平行な複数の第2エッジが存在し、且つ、各第2エッジが第1エッジと交差する部位にて同一の不連続性を有する場合には、この第1エッジ(図8のL11)が段差によるエッジであるものと判定する。従って、走行路上に存在する縁石などの段差を高精度に検出することが可能となる。その結果、地図データと対比して自車の位置、及び方位角を推定する処理を高精度に行うことが可能となる。   In addition, when there are a plurality of second edges parallel to each other and each second edge has the same discontinuity at a portion where it intersects with the first edge, the first edge (L11 in FIG. 8). ) Is determined to be an edge due to a step. Accordingly, it is possible to detect a step such as a curb on the traveling road with high accuracy. As a result, it is possible to perform processing for estimating the position and azimuth of the host vehicle with high accuracy in comparison with map data.

更に、2つの第2エッジが、第1エッジと交差する部位にて途切れている場合で、各第2エッジの端点どうしの距離が所定値以下である場合に、この2つの第2エッジは同一物体によるエッジであると想定されるので、上記第1エッジが段差によるエッジであると判定する。他方、第2エッジの端点どうしの距離が所定距離を上回る場合には、2つの第2エッジは同一物体によるエッジでない可能性が高いので、上記第1エッジが段差によるエッジであると判定しない。従って、段差判定の精度を向上させることができる。   Further, when the two second edges are interrupted at a portion intersecting with the first edge and the distance between the end points of each second edge is equal to or less than a predetermined value, the two second edges are the same. Since it is assumed that the edge is due to an object, it is determined that the first edge is an edge due to a step. On the other hand, when the distance between the end points of the second edge exceeds a predetermined distance, there is a high possibility that the two second edges are not edges due to the same object, so the first edge is not determined to be an edge due to a step. Therefore, the accuracy of the step determination can be improved.

また、互いに平行な複数の第2エッジが所定距離内(例えば、50m以内)に存在する場合に、これらの第2エッジの不連続性に基づいて第1エッジが段差によるエッジであるか否かを判定するので、段差検出の精度を向上させることができる。   Whether or not the first edge is a stepped edge based on the discontinuity of the second edge when a plurality of second edges parallel to each other exist within a predetermined distance (for example, within 50 m). Therefore, the accuracy of the step detection can be improved.

更に、地図データに段差情報が存在する場合にのみ、段差判定を行うので、段差が存在しない部位に段差が存在すると誤認識することを防止でき、段差検出の精度を向上させることができる。   Furthermore, since the level difference determination is performed only when level difference information exists in the map data, it is possible to prevent erroneous recognition that a level difference exists in a portion where no level difference exists, and to improve the accuracy of level difference detection.

また、第3段差判定処理では、自車が平面を走行しているときに生成される影と、撮影された画像に含まれる自車の影との対比により、段差を判定するので、段差を形成する第1エッジと交差する第2エッジが存在しない場合でも、段差を判定することができる。その結果、自車位置を高精度に推定することが可能となる。   Further, in the third step determination process, the step is determined by comparing the shadow generated when the host vehicle is traveling on the plane with the shadow of the host vehicle included in the photographed image. Even when there is no second edge that intersects the first edge to be formed, the step can be determined. As a result, the vehicle position can be estimated with high accuracy.

以上、本発明の段差検出装置を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   The step detecting device of the present invention has been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each part is replaced with an arbitrary configuration having the same function. Can do.

例えば、上述した実施形態では、自車前方に存在する影のエッジ(図5のL4a,L4b、図8のL14a,L14b,L14c)を抽出し、このエッジを用いて段差検出を行う例について説明したが、影の代わりに、例えばレーザセンサー等を用いた場合においても、同様の手法で段差を検出することができる。   For example, in the embodiment described above, an example in which shadow edges (L4a, L4b in FIG. 5 and L14a, L14b, L14c in FIG. 8) existing in front of the host vehicle are extracted and step detection is performed using these edges will be described. However, even when a laser sensor or the like is used instead of the shadow, the step can be detected by the same method.

本発明は、自車両に存在する縁石等の段差を高精度に検出することに利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for detecting a step such as a curbstone existing in the host vehicle with high accuracy.

10 周囲環境撮像部
20 エッジ検出部
30 周囲環境撮像部
30 段差判定部
30a メモリ
40 地図データ記憶部
50 車両制御部
50a 自車位置推定部
50b 操舵制御部
100 段差検出装置
DESCRIPTION OF SYMBOLS 10 Ambient environment imaging part 20 Edge detection part 30 Ambient environment imaging part 30 Level | step difference determination part 30a Memory 40 Map data storage part 50 Vehicle control part 50a Own vehicle position estimation part 50b Steering control part 100 Level | step difference detection apparatus

Claims (5)

車両の周囲画像を撮像する撮像手段と、
前記撮像手段で撮像した画像中のエッジを検出するエッジ検出手段と、
前記エッジ検出手段で検出された複数のエッジから、前記車両の走行路に沿った第1エッジを抽出する第1エッジ抽出手段と、
前記エッジ検出手段で検出された複数のエッジから、前記第1エッジ抽出手段により抽出された第1エッジと交差する複数の第2エッジを抽出する第2エッジ抽出手段と、
一つの直線上に位置する2つの第2エッジが前記第1エッジと交差する部位にて途切れているか、或いは、互いに平行な複数の第2エッジが存在し、且つ各第2エッジが同一方向の不連続性を有する場合に、前記第1エッジが段差のエッジであると判定する段差判定手段と、
を有することを特徴とする段差検出装置。
Imaging means for capturing an image around the vehicle;
Edge detection means for detecting edges in the image captured by the imaging means;
First edge extraction means for extracting a first edge along the traveling path of the vehicle from a plurality of edges detected by the edge detection means;
Second edge extraction means for extracting a plurality of second edges that intersect the first edge extracted by the first edge extraction means from the plurality of edges detected by the edge detection means;
Two second edges located on one straight line are interrupted at a portion intersecting the first edge, or there are a plurality of second edges parallel to each other, and each second edge is in the same direction. Step determination means for determining that the first edge is an edge of a step when having discontinuity,
A step detecting device comprising:
前記段差判定手段は、前記一つの直線上に位置する2つの第2エッジが、前記第1エッジと交差する部位にて途切れており、且つ、前記2つの第2エッジの離間距離が所定距離以下である場合に、前記第1エッジが段差のエッジであると判定することを特徴とする請求項1に記載の段差検出装置。   In the step determining means, the two second edges located on the one straight line are interrupted at a portion intersecting the first edge, and the distance between the two second edges is a predetermined distance or less. 2, the step detection device according to claim 1, wherein the first edge is determined to be an edge of a step. 前記段差判定手段は、前記互いに平行な複数の第2エッジが存在し、且つ、各第2エッジが所定範囲内に存在する場合に、前記第1エッジが段差のエッジであると判定することを特徴とする請求項1に記載の段差検出装置。   The step determining means determines that the first edge is an edge of a step when there are a plurality of second edges parallel to each other and each second edge is within a predetermined range. The level | step difference detection apparatus of Claim 1 characterized by the above-mentioned. 路上に存在する段差の情報を含む地図データを記憶する地図データ記憶手段を更に備え、前記段差判定手段は、前記地図データ中の段差が存在する場所でのみ段差検出を行うことを特徴とする請求項1〜請求項3のいずれか1項に記載の段差検出装置。   A map data storage unit for storing map data including information on a step existing on the road is further provided, wherein the step determination unit detects a step only at a place where the step exists in the map data. The level | step difference detection apparatus of any one of Claims 1-3. 前記エッジ検出手段は、時系列的に取得されるエッジに基づいて自車影のエッジを検出し、
前記段差判定手段は、過去に取得されている自車が平面を走行しているときに検出される自車影のエッジと、今回の撮影で取得された自車影のエッジとの排他的論理和となるエッジが前記第1エッジと交差する形状に基づいて段差を判定することを特徴とする請求項1〜請求項4のいずれか1項に記載の段差検出装置。
The edge detection means detects an edge of the own vehicle shadow based on edges acquired in time series,
The step determining means is an exclusive logic of an edge of the own vehicle shadow detected when the own vehicle acquired in the past is traveling on a plane and an edge of the own vehicle shadow acquired in the current shooting. The step detection device according to any one of claims 1 to 4, wherein the step is determined based on a shape in which a summed edge intersects the first edge.
JP2012047851A 2012-03-05 2012-03-05 Step detection device Active JP5929330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012047851A JP5929330B2 (en) 2012-03-05 2012-03-05 Step detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012047851A JP5929330B2 (en) 2012-03-05 2012-03-05 Step detection device

Publications (2)

Publication Number Publication Date
JP2013182561A true JP2013182561A (en) 2013-09-12
JP5929330B2 JP5929330B2 (en) 2016-06-01

Family

ID=49273143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012047851A Active JP5929330B2 (en) 2012-03-05 2012-03-05 Step detection device

Country Status (1)

Country Link
JP (1) JP5929330B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037450A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Level-difference detection apparatus and level-difference detection method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171966A (en) * 1996-12-05 1998-06-26 Nissan Motor Co Ltd On-vehicle image processor
JP2005300294A (en) * 2004-04-09 2005-10-27 Denso Corp Road shape detecting apparatus and road shapes detection method
EP1686537A2 (en) * 2005-01-28 2006-08-02 Aisin Aw Co., Ltd. Image recognition apparatus and image recognition method
JP2007058318A (en) * 2005-08-22 2007-03-08 Toyota Motor Corp White line detection system
JP2007232389A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Three-dimensional shape detection apparatus
JP2008158958A (en) * 2006-12-26 2008-07-10 Nissan Motor Co Ltd Road surface determination method and road surface determination device
JP2008269218A (en) * 2007-04-19 2008-11-06 Mitsubishi Electric Corp Image processor, image processing method, and image processing program
JP2009205360A (en) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd Vehicle obstacle detection device and vehicle obstacle detection method
JP2011018087A (en) * 2009-07-07 2011-01-27 Nissan Motor Co Ltd Apparatus and method for detecting three-dimensional object
JP2012033149A (en) * 2010-07-01 2012-02-16 Ricoh Co Ltd Object identification device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171966A (en) * 1996-12-05 1998-06-26 Nissan Motor Co Ltd On-vehicle image processor
JP2005300294A (en) * 2004-04-09 2005-10-27 Denso Corp Road shape detecting apparatus and road shapes detection method
EP1686537A2 (en) * 2005-01-28 2006-08-02 Aisin Aw Co., Ltd. Image recognition apparatus and image recognition method
JP2007058318A (en) * 2005-08-22 2007-03-08 Toyota Motor Corp White line detection system
JP2007232389A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Three-dimensional shape detection apparatus
JP2008158958A (en) * 2006-12-26 2008-07-10 Nissan Motor Co Ltd Road surface determination method and road surface determination device
JP2008269218A (en) * 2007-04-19 2008-11-06 Mitsubishi Electric Corp Image processor, image processing method, and image processing program
JP2009205360A (en) * 2008-02-27 2009-09-10 Nissan Motor Co Ltd Vehicle obstacle detection device and vehicle obstacle detection method
JP2011018087A (en) * 2009-07-07 2011-01-27 Nissan Motor Co Ltd Apparatus and method for detecting three-dimensional object
JP2012033149A (en) * 2010-07-01 2012-02-16 Ricoh Co Ltd Object identification device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037450A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Level-difference detection apparatus and level-difference detection method

Also Published As

Publication number Publication date
JP5929330B2 (en) 2016-06-01

Similar Documents

Publication Publication Date Title
US7889887B2 (en) Lane recognition apparatus
JP4973736B2 (en) Road marking recognition device, road marking recognition method, and road marking recognition program
JP5958366B2 (en) In-vehicle image processing device
JP2020064046A (en) Vehicle position determining method and vehicle position determining device
EP2476996B1 (en) Parallax calculation method and parallax calculation device
JP6377970B2 (en) Parallax image generation apparatus and parallax image generation method
WO2015186294A1 (en) Vehicle-mounted image-processing device
US20150156471A1 (en) Method and device for processing stereoscopic data
JP2011243161A (en) Lane boundary detection apparatus and lane boundary detection program
JP2006339960A (en) Device and method for object detection
JP4052291B2 (en) Image processing apparatus for vehicle
JP5097681B2 (en) Feature position recognition device
JP2014106739A (en) In-vehicle image processing device
JP5849942B2 (en) In-vehicle image processing device
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
JP5867167B2 (en) Shadow detection device
JP2005156199A (en) Vehicle detection method and vehicle detector
JP5929330B2 (en) Step detection device
JP2007195061A (en) Image processor
JP2013089111A (en) Lane monitoring system and lane monitoring method
WO2022009537A1 (en) Image processing device
CN112400094B (en) Object detecting device
JP2005216200A (en) Other vehicle detecting apparatus and method
JP2014067320A (en) Stereo camera device
JP2013114381A (en) Object identification device and object identification method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R151 Written notification of patent or utility model registration

Ref document number: 5929330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151