JP6398294B2 - Traveling lane recognition device and traveling lane recognition method - Google Patents

Traveling lane recognition device and traveling lane recognition method Download PDF

Info

Publication number
JP6398294B2
JP6398294B2 JP2014093583A JP2014093583A JP6398294B2 JP 6398294 B2 JP6398294 B2 JP 6398294B2 JP 2014093583 A JP2014093583 A JP 2014093583A JP 2014093583 A JP2014093583 A JP 2014093583A JP 6398294 B2 JP6398294 B2 JP 6398294B2
Authority
JP
Japan
Prior art keywords
image
edge
lane
broken line
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014093583A
Other languages
Japanese (ja)
Other versions
JP2015210764A (en
Inventor
田中 慎也
慎也 田中
鈴木 章
章 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2014093583A priority Critical patent/JP6398294B2/en
Publication of JP2015210764A publication Critical patent/JP2015210764A/en
Application granted granted Critical
Publication of JP6398294B2 publication Critical patent/JP6398294B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、走行車線認識装置、及び走行車線認識方法に関するものである。   The present invention relates to a travel lane recognition device and a travel lane recognition method.

特許文献1に記載の従来技術では、一つのカメラで進行方向の路面を撮像し、通行区分線が破線であるときには、予め定めた時刻だけ前に撮像した画像に基づいて破線の長さを延長させた合成画像を生成し、走行車線の認識を行っている。ここでは、予め定めた時刻だけ前に撮像した画像を、その時点から自車両の位置や姿勢が変化した分だけ補正し、補正された過去の画像と、現時点の画像とを合成している。   In the prior art described in Patent Document 1, when the road surface in the traveling direction is imaged with a single camera and the passage dividing line is a broken line, the length of the broken line is extended based on an image captured before a predetermined time. The generated composite image is generated and the travel lane is recognized. Here, an image captured before a predetermined time is corrected by an amount corresponding to the change in the position and posture of the host vehicle from that time, and the corrected past image and the current image are combined.

特開2005−332105号公報JP-A-2005-332105

しかしながら、一つのカメラだけを用いていることもあり、破線の観測が困難な状況になると、特に遠いものほど、破線の長さを延長させることが難しくなる。また、近年では広範囲を撮像できる魚眼レンズを用いることも多いが、画像中央から外側に向かって膨らんだように見える歪曲収差により、破線の観測が困難な状況がある。
本発明の課題は、通行区分線が破線であるときの走行車線の認識精度を向上させることである。
However, only one camera may be used, and when it becomes difficult to observe the broken line, it becomes more difficult to extend the length of the broken line, especially the farther away. In recent years, a fish-eye lens that can image a wide range is often used, but there is a situation where it is difficult to observe a broken line due to distortion that appears to swell outward from the center of the image.
The subject of this invention is improving the recognition accuracy of a traveling lane when a traffic division line is a broken line.

本発明の一態様に係る走行車線認識装置は、自車両における前方及び側方の走行路を撮像し、撮像した前方画像及び側方画像で、路面に標示された通行区分線のエッジを検出する。また、検出したエッジの連続性に応じて、通行区分線が破線であるか否かを判定し、通行区分線が破線であると判定したときに、前方画像で検出したエッジの検出度合、及び側方画像で検出したエッジの検出度合の大小関係に応じて、破線の補完を行う。そして、この補完結果により車線を認識する。   A traveling lane recognition apparatus according to an aspect of the present invention images front and side traveling roads in a host vehicle, and detects edges of traffic marking lines marked on a road surface from the captured front and side images. . Further, according to the detected edge continuity, it is determined whether the traffic dividing line is a broken line, and when it is determined that the traffic dividing line is a broken line, the degree of detection of the edge detected in the front image, and The dashed line is complemented according to the magnitude relationship of the degree of detection of the edge detected in the side image. And a lane is recognized by this complementation result.

本発明によれば、通行区分線が破線であるときに、前方画像で検出したエッジの検出度合、及び側方画像で検出したエッジの検出度合の大小関係に応じて、破線の補完を行うことにより、走行車線の認識精度を向上させることができる。   According to the present invention, when the traffic dividing line is a broken line, interpolation of the broken line is performed according to the magnitude relationship between the degree of detection of the edge detected in the front image and the degree of detection of the edge detected in the side image. Thus, the recognition accuracy of the traveling lane can be improved.

走行車線認識装置を示す概略構成図である。It is a schematic block diagram which shows a traveling lane recognition apparatus. 前方カメラの配置図である。It is an arrangement plan of a front camera. 左方カメラ及び右方カメラの配置図である。It is an arrangement plan of a left camera and a right camera. 各カメラで撮像した画像を示す図である。It is a figure which shows the image imaged with each camera. 車線モデルについて説明した図である。It is a figure explaining the lane model. 各画像に車線モデルを投影した様子を示す図である。It is a figure which shows a mode that the lane model was projected on each image. 各画像でエッジを検出した様子を示す図である。It is a figure which shows a mode that the edge was detected in each image. エッジを検出した各画像に車線モデルを投影した様子を示す図である。It is a figure which shows a mode that the lane model was projected on each image which detected the edge. 車線モデルの評価値eについて説明した図である。It is a figure explaining evaluation value e of a lane model. 各画像で車線モデルを評価した評価値を示す図である。It is a figure which shows the evaluation value which evaluated the lane model in each image. S_F=0、且つeS_SL>0の場合を示す図である。e S_F = 0, a diagram and shows the case of e S_SL> 0. S_F>eS_SL、且つ|eS_F−eS_SL|>ethの場合を示す図である。 e S_F> e S_SL, and | e S_F -e S_SL | is a diagram showing a case of a> e th. S_F≒eS_SLの場合を示す図である。It is a diagram showing a case of e S_F ≒ e S_SL. S_SL>eS_F、且つ|eS_F−eS_SL|>ethの場合を示す図である。 e S_SL> e S_F, and | e S_F -e S_SL | is a diagram showing a case of a> e th. S_SL=0、且つeS_F>0の場合を示す図である。e S_SL = 0, a diagram and shows the case of e S_F> 0. 走行車線認識処理を示すフローチャートである。It is a flowchart which shows a travel lane recognition process.

以下、本発明の実施形態を図面に基づいて説明する。
《第1実施形態》
《構成》
走行車線認識装置11の構成を、図1に基づいて説明する。
本実施形態の走行車線認識装置11は、前方カメラ12Fと、左方カメラ12SLと、右方カメラ12SRと、コントローラ13と、を備える。
前方カメラ12Fは、自車両における前方の走行路を撮像し、前方画像を取得する。左方カメラ12SLは、自車両における左方の走行路を撮像し、左方画像を取得する。右方カメラ12SRは、自車両における右方の走行路を撮像し、右方画像を取得する。前方カメラ12、左方カメラ12SL、及び右方カメラ12SRは、夫々、魚眼レンズを用いている。前方カメラ12F、左方カメラ12SL、及び右方カメラ12SRは、夫々、撮像した画像データをコントローラ13に出力する。ここでは、魚眼レンズを用いているが、これに限定されるものではなく、夫々、予め定めた領域を撮像することができれば、任意のレンズを用いてよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<< First Embodiment >>
"Constitution"
The configuration of the traveling lane recognition device 11 will be described with reference to FIG.
The traveling lane recognition device 11 of the present embodiment includes a front camera 12F, a left camera 12SL, a right camera 12SR, and a controller 13.
The front camera 12F captures a front traveling path in the host vehicle and acquires a front image. The left camera 12SL captures a left travel path in the host vehicle and acquires a left image. The right camera 12SR captures a right travel path in the host vehicle and acquires a right image. The front camera 12, the left camera 12SL, and the right camera 12SR each use a fisheye lens. The front camera 12F, the left camera 12SL, and the right camera 12SR each output captured image data to the controller 13. Although a fisheye lens is used here, the present invention is not limited to this, and any lens may be used as long as a predetermined region can be imaged.

前方カメラ12Fの配置を、図2に基づいて説明する。
前方カメラ12Fは、例えばフロントグリルに設けられており、その取付け位置は、レンズの位置が地面からh1の高さであり、取付け角度は、光軸が水平面に対して下向きにθ1だけ傾いている。
左方カメラ12SL及び右方カメラ12SRの配置を、図3に基づいて説明する。
左方カメラ12SLは、例えば左のドアミラーに設けられており、その取付け位置は、レンズの位置が地面からh2の高さにあり、取付け角度は、光軸が水平面に対して下向きにθ2だけ傾いている。右方カメラ12SRは、例えば右のドアミラーに設けられており、その取付け位置は、レンズの位置が地面からh3の高さにあり、取付け角度は、光軸が水平面に対して下向きにθ3だけ傾いている。なお、h2=h3、θ2=θ3とする。
The arrangement of the front camera 12F will be described with reference to FIG.
The front camera 12F is provided, for example, on the front grille. The mounting position of the front camera 12F is the height of the lens h1 from the ground, and the mounting angle is tilted by θ1 with the optical axis downward with respect to the horizontal plane. .
The arrangement of the left camera 12SL and the right camera 12SR will be described with reference to FIG.
The left camera 12SL is provided, for example, on the left door mirror, and the mounting position thereof is such that the lens position is at a height of h2 from the ground, and the mounting angle is tilted by θ2 with the optical axis downward with respect to the horizontal plane. ing. The right camera 12SR is provided, for example, on the right door mirror. The mounting position of the right camera 12SR is such that the position of the lens is at a height of h3 from the ground, and the mounting angle is inclined by θ3 with the optical axis pointing downward with respect to the horizontal plane. ing. Note that h2 = h3 and θ2 = θ3.

各カメラで撮像した画像を図4に示す。
何れも魚眼レンズを用いていることで、画像中央から外側に向かって膨らんだように見える樽型の歪曲収差(ディストーション)が生じ、被写体が近くにあるほど大きく写り、被写体が遠くにあるほど小さく写る。
ここでは、一方通行の二車線道路で、自車両が右車線を走行しているときの前方画像、左方画像、及び右方画像を示す。路面には通行区分線(白線)が標示されている。左車線における左側の通行区分線LLは実線で標示されている。左車線における右側(=右車線における左側)の通行区分線LSは破線で標示されており、右車線における右側の通行区分線LRは実線で標示されている。前方画像には、通行区分線LL、LS、LRが写っており、左方画像には、通行区分線LL、LSが写っており、右方画像には、通行区分線LS、LRが写っている。
Images taken by each camera are shown in FIG.
In both cases, using a fish-eye lens causes barrel-shaped distortion that appears to bulge outward from the center of the image. The closer the subject is, the larger the image is. The farther the subject is, the smaller the image is. .
Here, a front image, a left image, and a right image when the host vehicle is traveling in the right lane on a one-way two-lane road are shown. A traffic marking line (white line) is marked on the road surface. The left traffic dividing line LL in the left lane is marked with a solid line. The right traffic division line LS in the left lane (= left side in the right lane) is indicated by a broken line, and the right traffic division line LR in the right lane is indicated by a solid line. In the front image, the traffic division lines LL, LS, LR are shown, in the left image, the traffic division lines LL, LS are shown, and in the right image, the traffic division lines LS, LR are shown. Yes.

コントローラ13は、例えばマイクロコンピュータで構成され、車線モデル投影部21と、エッジ検出部22と、破線判定部23と、モデル評価部24と、破線補完部25と、車線認識部26と、を備える。
車線モデル投影部21は、自車両の車線内での位置や姿勢を表す各パラメータに従い、前方画像、左方画像、及び右方画像の夫々に対して、予め定めた車線モデルを投影する。車線モデルは最適なパラメータを推定するため、前回推定結果から各パラメータを振った複数の車両モデルを用意する。前回推定結果の各パラメータは、車線認識部26から出力される。
The controller 13 is composed of, for example, a microcomputer, and includes a lane model projection unit 21, an edge detection unit 22, a broken line determination unit 23, a model evaluation unit 24, a broken line complement unit 25, and a lane recognition unit 26. .
The lane model projection unit 21 projects a predetermined lane model on each of the front image, the left image, and the right image according to each parameter representing the position and orientation of the host vehicle in the lane. In order to estimate the optimum parameters for the lane model, a plurality of vehicle models in which each parameter is changed from the previous estimation result are prepared. Each parameter of the previous estimation result is output from the lane recognition unit 26.

車線モデルを図5に基づいて説明する。
図中の(a)は俯瞰図であり、図中の(b)は側面図である。車線モデルは、直線モデルとして四つのパラメータで与えられる。すなわち、車線幅wt、横位置xt、ヨー角θt、ピッチ角φtである。車線幅wtは、左側の通行区分線から右側の通行区分線までの車線幅方向の距離である。横位置xtは、車線幅wtの中心位置から例えば車体前端部における車幅中心位置までの車線幅方向の距離である。ヨー角θtは、車体を平面で見て、車線中心線と車体前後方向とがなす角度である。ピッチ角φtは、車体を側面で見て、水平面と車体前後方向とがなす角度である。
The lane model will be described with reference to FIG.
(A) in the figure is an overhead view, and (b) in the figure is a side view. The lane model is given as a straight line model with four parameters. That is, the lane width wt, the lateral position xt, the yaw angle θt, and the pitch angle φt. The lane width wt is a distance in the lane width direction from the left traffic division line to the right traffic division line. The lateral position xt is a distance in the lane width direction from the center position of the lane width wt to the center position of the vehicle width at the front end of the vehicle body, for example. The yaw angle θt is an angle formed by the lane center line and the longitudinal direction of the vehicle body when the vehicle body is viewed in a plane. The pitch angle φt is an angle formed by the horizontal plane and the longitudinal direction of the vehicle when the vehicle is viewed from the side.

各画像に車線モデルを投影した様子を図6に示す。
ここでは、各画像に投影した車線モデルを、便宜上、太い点線で表す。前方画像では、右車線における左側の通行区分線において、その右側のエッジに対応する車線モデルMS、及び右車線における右側の通行区分線において、その左側のエッジに対応する車線モデルMRを投影している。左方画像では、左車線における右側(=右車線における左側)の通行区分線において、その右側のエッジに対応する車両モデルMS1SLを投影している。右方画像では、右車線における右側の通行区分線において、その左側のエッジに対応する車線モデルMR1SRを投影している。
FIG. 6 shows a lane model projected on each image.
Here, the lane model projected on each image is represented by a thick dotted line for convenience. In the front image, a lane model MS F corresponding to the right edge of the right traffic lane in the right lane and a lane model MR F corresponding to the left edge of the right traffic lane in the right lane are projected. doing. In the left image, the vehicle model MS1 SL corresponding to the right edge is projected on the right lane marking (= left side in the right lane) in the left lane. In the right image, the lane model MR1 SR corresponding to the left edge of the right lane marking in the right lane is projected.

エッジ検出部22は、前方画像、左方画像、及び右方画像で、エッジを検出する。エッジの検出には、例えばSobelフィルタなどを用い、その出力値を二値化して、エッジ画像を取得する。
各画像でエッジを検出した様子を図7に示す。
ここでは、各画像で検出したエッジを、便宜上、太い実線で表す。前方画像では、左車線における左側の通行区分線を構成する右側のエッジEL、左車線における右側(=右車線における左側)の通行区分線を構成する右側のエッジES、及び右車線における右側の通行区分線を構成する左側のエッジERを検出している。左方画像では、左車線における左側の通行区分線を構成する右側エッジELSL、並びに左車線における右側(=右車線における左側)の通行区分線を構成する左側のエッジES1SL、及び右側のエッジES2SLを検出している。右方画像では、右車線における右側の通行区分線を構成する左側のエッジER1SR、及び右側のエッジER2SRを検出している。
The edge detection unit 22 detects edges in the front image, the left image, and the right image. For edge detection, for example, a Sobel filter or the like is used, and the output value is binarized to obtain an edge image.
FIG. 7 shows how edges are detected in each image.
Here, the edge detected in each image is represented by a thick solid line for convenience. In the front image, the right edge EL F constituting the left traffic division line in the left lane, the right edge ES F constituting the right traffic road in the left lane (= left side in the right lane), and the right edge in the right lane and detects the left edge ER F constituting the traffic separation line. In the left image, the right edge EL SL constituting the left traffic division line in the left lane, the left edge ES1 SL constituting the right traffic division line (= left side in the right lane) in the left lane, and the right edge ES2 SL is detected. The right image, and detects the left edge ER1 SR, and the right edge ER2 SR constituting the right traffic lane marking in the right lane.

破線判定部23は、通行区分線が破線であるか否かを判定する。
具体的には、エッジ画像に車線モデルを投影し、車線モデル上に乗る(一致する)エッジの画素数をカウントする。車線モデルの長さをLとし、車線モデルの長さLに対するエッジの画素数mの割合をr(=m/L)とし、この割合rが予め定めた閾値r1未満であるか否かを判定する。閾値r1は実験等から最適な値を設定する。ここで、割合rが閾値r1以上であるときには、通行区分線が破線ではない、つまり実線であると判定し、割合rが閾値r1未満であるときには、通行区分線が破線であると判定する。
The broken line determination unit 23 determines whether or not the passage division line is a broken line.
Specifically, the lane model is projected on the edge image, and the number of pixels of the edge that rides (matches) on the lane model is counted. The length of the lane model is L, the ratio of the number of edge pixels m to the lane model length L is r (= m / L), and it is determined whether or not the ratio r is less than a predetermined threshold r1. To do. The threshold r1 is set to an optimum value from experiments or the like. Here, when the ratio r is greater than or equal to the threshold value r1, it is determined that the traffic line is not a broken line, that is, a solid line, and when the ratio r is less than the threshold value r1, it is determined that the traffic line is a broken line.

エッジを検出した各画像に車線モデルを投影した様子を図8に示す。
各画像で検出したエッジに対して車線モデルは略一致するが、ここでは、便宜上、エッジに対して車線モデルを少しずらして描いている。前方画像では、右車線における左側の通行区分線において、領域AにはエッジESが存在せず、車線モデルMSの長さLに対するエッジESの画素数mの割合rが低くなるため、通行区分線が破線であると判定する。一方、右車線における右側の通行区分において、エッジERは全て車線モデルMRに重なり、車線モデルMRの長さL対するエッジERの画素数mの割合rが高くなるため、通行区分線が実線であると判定する。
FIG. 8 shows a state in which the lane model is projected on each image where the edge is detected.
Although the lane model substantially coincides with the edge detected in each image, the lane model is drawn slightly shifted from the edge here for convenience. In the front image, in the left traffic dividing line in the right lane, there is no edge ES F in the region A, and the ratio r of the number m of pixels of the edge ES F to the length L of the lane model MS F is low. It is determined that the traffic dividing line is a broken line. On the other hand, the right side of the traffic separation in the right lane, all edges ER F overlaps the lane model MR F, since the lane model MR F of the length L against the ratio r of the pixel number m of edges ER F increases, traffic separation line Is determined to be a solid line.

左方画像では、右車線における左側の通行区分線において、エッジES2SLは全て車線モデルMSSLに重なり、車線モデルMSSLの長さLに対するエッジES2SLの画素数mの割合rが高くなるが、前方画像での判定により、通行区分線は破線であると判定する。右方画像では、右車線における右側の通行区分線において、エッジER1SRは全て車線モデルMRSRに重なり、車線モデルMRSRの長さLに対するエッジER1SRの画素数mの割合rが高くなるため、通行区分線は実線であると判定する。 The left image in the left traffic lane marking in the right lane, all edges ES2 SL overlaps the lane model MS SL, the proportion r edge ES2 SL number of pixels m becomes high with respect to the length L of the lane model MS SL Based on the determination in the front image, it is determined that the traffic dividing line is a broken line. The right image, the right side of the traffic lane marking in the right lane, all edges ER1 SR overlaps the lane model MR SR, the proportion r edge ER1 SR number of pixels m becomes high with respect to the length L of the lane model MR SR It is determined that the traffic division line is a solid line.

このように、前方画像、左方画像、及び右方画像のうち、何れか一つの画像で通行区分線が破線であると判定したときには、残りの画像においても、対応する側の通行区分線が破線であると判定する。
ここでは、車線モデルの長さLに対するエッジの画素数mの割合rに応じて、破線判定を行っているが、これに限定されるものではなく、例えば連続する画素数をカウントし、その長さに応じて破線判定を行ってもよい。要は、エッジの連続性を評価し、破線であるか否かを判定できればよい。
As described above, when it is determined that the traffic dividing line is a broken line in any one of the front image, the left image, and the right image, the corresponding side traffic dividing line is also displayed in the remaining images. It determines with it being a broken line.
Here, the broken line determination is performed according to the ratio r of the number m of edge pixels to the length L of the lane model. However, the present invention is not limited to this. For example, the number of continuous pixels is counted and the length is determined. The broken line determination may be performed accordingly. In short, it is only necessary to evaluate the continuity of the edge and determine whether or not it is a broken line.

モデル評価部24は、エッジと車線モデルとの一致度合を、下記の式に示すように、車線モデルの評価値eとして算出する。添え字のiは車線モデルの番号であり、eはi番目の車線モデルを指す。例えば、前方画像では、左車線における右側の通行区分線、右車線における左側の通行区分線、左方画像では、左車線における右側の通行区分線、右方画像では、右車線における左側の通行区分線に対して、車線モデルを構成する場合には、i=1〜4となる。Lは車線モデルの長さである。添え字のjは車線モデルを構成する集合の元である。dx及びdyは、画素[x,y]における車線モデルの勾配である。gx及びgyは、画素[x,y]における画像の輝度勾配である。 The model evaluation unit 24 calculates the degree of coincidence between the edge and the lane model as an evaluation value e i of the lane model as shown in the following equation. The subscript i is the lane model number, and e i is the i-th lane model. For example, in the front image, the right traffic line in the left lane, the left traffic line in the right lane, in the left image, the right traffic line in the left lane, in the right image, the left traffic line in the right lane When a lane model is configured for a line, i = 1 to 4. L is the length of the lane model. The subscript j is an element of a set constituting the lane model. dx j and dy j are the gradients of the lane model at the pixel [x j , y j ]. gx j and gy j are the luminance gradients of the image in the pixel [x j , y j ].

Figure 0006398294
Figure 0006398294

車線モデルの評価値eを、図9に基づいて説明する。
ここでは、左方画像に投影した車線モデルMSSLを例に説明する。
上記の式では、画素[xj,yj]において、車線モデルの伸びていく方向と画像中の輝度が変化する方向の一致度合いを求めている。数学的には、画素ごとに車線モデルの伸びていく方向と、輝度の変化する方向の内積を求めている。したがって、単純にエッジの重なりを評価する方法と比べると、ロバストにエッジとの一致度合いを評価することができる。
The lane model evaluation value e will be described with reference to FIG.
Here, a lane model MS SL projected on the left image will be described as an example.
In the above equation, in pixel [xj, yj], the degree of coincidence between the direction in which the lane model extends and the direction in which the luminance in the image changes is obtained. Mathematically, the inner product of the direction in which the lane model extends and the direction in which the luminance changes is obtained for each pixel. Therefore, it is possible to robustly evaluate the degree of coincidence with the edge as compared with the method of simply evaluating the overlapping of the edges.

各画像で車線モデルを評価した評価値を図10に示す。
前方画像では、右車線における左側の通行区分線において、車線モデルMSの評価値をeS_Fとして算出し、右車線における右側の通行区分線において、車線モデルMRの評価値をeR_Fとして算出する。左方画像では、右車線における左側(左車線における右側)の通行区分線において、車線モデルMSSLの評価値をeS_SLとして算出する。右方画像では、右車線における右側の通行区分線において、車線モデルMRSRの評価値をeR_SRとして算出する。
Evaluation values obtained by evaluating the lane model in each image are shown in FIG.
In the front image, the evaluation value of the lane model MS F is calculated as e S_F in the left traffic lane in the right lane, and the evaluation value of the lane model MR F is calculated as e R_F in the right traffic lane in the right lane. To do. In the left image, the evaluation value of the lane model MS SL is calculated as e S_SL on the left traffic lane (right side in the left lane) in the right lane. In the right image, the evaluation value of the lane model MR SR is calculated as e R_SR on the right traffic lane in the right lane.

破線補完部25は、通行区分線が破線であると判定したときに、破線の補完を行う。ここでは、前方画像で検出したエッジの検出度合よりも、側方画像で検出したエッジの検出度合の方が大きいときに、側方画像で検出したエッジの検出度合に応じて、前方画像で補完を行う。また、側方画像で検出したエッジの検出度合よりも、前方画像で検出したエッジの検出度合の方が大きいときに、前方画像で検出したエッジの検出度合に応じて、側方画像で補完を行う。   The broken line complementing unit 25 performs the dashed line complementation when it is determined that the traffic dividing line is a broken line. Here, when the detection level of the edge detected in the side image is larger than the detection level of the edge detected in the front image, the front image is complemented according to the detection level of the edge detected in the side image. I do. Further, when the edge detection level detected in the front image is larger than the edge detection level detected in the side image, the side image is complemented according to the edge detection level detected in the front image. Do.

エッジの検出度合とは、車線モデルの評価値eである。すなわち、前方画像に投影した車線モデルの評価値eよりも、側方画像に投影した車線モデルの評価値eの方が大きいときには、側方画像に投影した車線モデルの評価値eに応じて、前方画像に投影した車線モデルの評価値eを増加補正する。これにより、例えば、側方画像のエッジが車線モデルに一致していると前方画像のエッジも車線モデルに一致しているように評価されるので、側方画像で補完される。また、側方画像に投影した車線モデルの評価値eよりも、前方画像に投影した車線モデルの評価値eの方が大きいときには、前方画像に投影した車線モデルの評価値eに応じて、側方画像に投影した車線モデルの評価値eを増加補正する。これにより、例えば、前方画像のエッジが車線モデルに一致していると側方画像のエッジも車線モデルに一致しているように評価されるので、前方画像で補完される。 The edge detection degree is the evaluation value e of the lane model. That is, when the evaluation value e S of the lane model projected on the side image is larger than the evaluation value e F of the lane model projected on the front image, the evaluation value e S of the lane model projected on the side image is obtained. Accordingly, the evaluation value e F of the lane model projected on the front image is increased and corrected. Thereby, for example, if the edge of the side image matches the lane model, the edge of the front image is evaluated as if it matches the lane model, so that the side image is complemented. Also, from the evaluation value e S of the lane model projected laterally image, when is larger evaluation value e F of the lane model projected forward image, depending on the evaluation value e F of the lane model projected forward image Thus, the evaluation value e S of the lane model projected on the side image is increased and corrected. Thereby, for example, if the edge of the front image matches the lane model, the edge of the side image is evaluated so as to match the lane model, so that the front image is complemented.

前方画像に投影した車線モデルの評価値eと、側方画像に投影した車線モデルの評価値eとの大小関係については、下記に示すように、5つの場合に分けることができる。ここでは、前方画像に投影した車線モデルMSの評価値eS_Fと、左方画像に投影した車線モデルMSSLの評価値eS_SLとを用い、右車線における左側の通行区分線を例にして説明する。
1.eS_F=0、且つeS_SL>0の場合
前方画像に投影した車線モデルMSの評価値eS_Fが0であり、且つ左方画像に投影した車線モデルMSSLの評価値eS_SLが0よりも大きい様子を図11に示す。
ここでは、前方カメラ12Fで破線を観測できず、左方カメラ12SLのみで破線を観測できているシーンである。このように、前方画像でエッジを全く検出できていないときには、破線の補完を行わない。
As shown below, the magnitude relationship between the evaluation value e F of the lane model projected on the front image and the evaluation value e S of the lane model projected on the side image can be divided into five cases. Here, using the evaluation value e S_F of the lane model MS F projected on the front image and the evaluation value e S_SL of the lane model MS SL projected on the left image, the left lane marking in the right lane is taken as an example. explain.
1. When e S_F = 0 and e S_SL > 0, the evaluation value e S_F of the lane model MS F projected on the front image is 0, and the evaluation value e S_SL of the lane model MS SL projected on the left image is 0 FIG. 11 shows a large state.
Here, it is a scene in which the broken line cannot be observed with the front camera 12F and the broken line can be observed only with the left camera 12SL. As described above, when no edge is detected in the front image, the dashed line is not complemented.

2.eS_F>eS_SL、且つ|eS_F−eS_SL|>ethの場合
前方画像に投影した車線モデルMSの評価値eS_Fが左方画像に投影した車線モデルMSSLの評価値eS_SLよりも大きく、且つその差分|eS_F−eS_SL|が予め定めた閾値ethよりも大きい様子を図12に示す。
ここでは、前方カメラ12F及び左方カメラ12SLの双方で破線を観測できており、左方カメラ12SLよりも前方カメラ12Fでより多く破線を観測できているシーンである。このように、左方画像で検出したエッジの検出度合よりも、前方画像で検出したエッジの検出度合の方が大きいときには、下記の式に示すように、前方画像に投影した車線モデルMSの評価値eS_Fに応じて、左方画像に投影した車線モデルMSSLの評価値eS_SLを増加補正することにより、左方画像に投影した車線モデルMSSLを通行区分線として扱う。
S_SL ← eS_SL+(α・eS_F
2. When e S_F > e S_SL and | e S_F −e S_SL |> e th The evaluation value e S_F of the lane model MS F projected on the front image is obtained from the evaluation value e S_SL of the lane model MS SL projected on the left image. It is large, and the difference | shown in FIG. 12 the state is greater than the threshold value e th a predetermined | e S_F -e S_SL.
Here, the broken line can be observed by both the front camera 12F and the left camera 12SL, and more broken lines can be observed by the front camera 12F than by the left camera 12SL. Thus, when the detection level of the edge detected in the front image is larger than the detection level of the edge detected in the left image, the lane model MS F projected on the front image is represented by the following equation. In accordance with the evaluation value e S_F , the lane model MS SL projected on the left image is treated as a passing division line by increasing and correcting the evaluation value e S_SL of the lane model MS SL projected on the left image.
e S_SL ← e S_SL + (α · e S_F )

αは下記の式に従って算出される。   α is calculated according to the following equation.

Figure 0006398294
Figure 0006398294

上記の式のベクトルg’及びd’は、車線モデルの勾配ベクトルと画像中の輝度勾配をノルムが1になるように正規化したものである。L’は車線モデル上に乗る(一致する)エッジの長さである。上記の式では、輝度強度には関係なく、左方画像における破線上の画素の輝度勾配が、車線モデルの伸びていく方向に、どれだけ一致しているかを[0,1]で評価している。つまり、αの役割は、前方カメラ12Fで観測した破線、及び左方カメラ12SLで観測した破線を直線と仮定して、評価値の低い曲線を補完する際に、同じ直線上にある車線モデルほど評価値が高くなり、結果、同じ直線上にあるほど高い重みで補完している。   The vectors g ′ and d ′ in the above formula are normalized so that the norm is 1 with respect to the gradient vector of the lane model and the luminance gradient in the image. L ′ is the length of an edge that rides (matches) on the lane model. In the above formula, [0, 1] is used to evaluate how much the luminance gradient of the pixel on the broken line in the left image matches the direction in which the lane model extends, regardless of the luminance intensity. Yes. In other words, the role of α assumes that the broken line observed with the front camera 12F and the broken line observed with the left camera 12SL are straight lines, and the lane models that are on the same straight line when complementing the low evaluation value curve The evaluation value is higher, and as a result, the higher the weight is on the same straight line, the higher the weight.

3.eS_F≒eS_SLの場合(|eS_F−eS_SL|≦ethの場合)
前方画像に投影した車線モデルMSの評価値eS_Fが左方画像に投影した車線モデルMSSLの評価値eS_SLと略同一である、つまり差分|eS_F−eS_SL|が予め定めた閾値eth以下である様子を図13に示す。
ここでは、前方カメラ12F及び左方カメラ12SLの双方で破線を観測できており、夫々の観測量が同程度となるシーンである。このように、前方画像と左方画像とで、エッジの検出度合に優劣がないときには、破線の補完を行わない。
3. When e S_F ≒ e S_SL (when | e S_F− e S_SL | ≦ e th )
The evaluation value e S_F of the lane model MS F projected on the front image is substantially the same as the evaluation value e S_SL of the lane model MS SL projected on the left image, that is, the difference | e S_F −e S_SL | FIG. 13 shows a state of e th or less.
Here, a broken line can be observed by both the front camera 12F and the left camera 12SL, and the observed amounts are the same. In this way, when there is no superiority or inferiority in edge detection between the front image and the left image, the dashed line is not complemented.

4.eS_SL>eS_F、且つ|eS_F−eS_SL|>ethの場合
左方画像に投影した車線モデルMSSLの評価値eS_SLが前方画像に投影した車線モデルMSの評価値eS_Fよりも大きく、且つその差分|eS_F−eS_SL|が予め定めた閾値ethよりも大きい様子を図14に示す。
ここでは、前方カメラ12F及び左方カメラ12SLの双方で破線を観測できており、前方カメラ12Fよりも左方カメラ12SLでより多く破線を観測できているシーンである。このように、前方画像で検出したエッジの検出度合よりも、左方画像で検出したエッジの検出度合の方が大きいときには、下記の式に示すように、左方画像に投影した車線モデルMSSLの評価値eS_SLに応じて、前方画像に投影した車線モデルMSの評価値eS_Fを増加補正することにより、前方画像に投影した車線モデルMSを通行区分線として扱う。αについては、前述の場合と同様である。
S_F ← eS_F+(α・eS_SL
4). When e S_SL > e S_F and | e S_F −e S_SL |> e th The evaluation value e S_SL of the lane model MS SL projected on the left image is based on the evaluation value e S_F of the lane model MS F projected on the front image It is large, and the difference | showing how is greater than the threshold value e th a predetermined in Figure 14 | e S_F -e S_SL.
Here, the broken line can be observed by both the front camera 12F and the left camera 12SL, and more broken lines can be observed by the left camera 12SL than by the front camera 12F. Thus, when the detection degree of the edge detected in the left image is larger than the detection degree of the edge detected in the front image, the lane model MS SL projected on the left image as shown in the following equation. depending on the evaluation value e S_SL, by increasing correcting the evaluation value e S_F lane model MS F projected forward image, dealing with lane model MS F projected forward image as traffic separation line. α is the same as described above.
e S_F ← e S_F + (α · e S_SL )

5.eS_SL=0、且つeS_F>0の場合
左方画像に投影した車線モデルMSSLの評価値eS_SLが0であり、且つ前方画像に投影した車線モデルMSの評価値eS_Fが0よりも大きい様子を図15に示す。
ここでは、左方カメラ12SLで破線を観測できず、前方カメラ12Fのみで破線を観測できているシーンである。このように、左方画像でエッジを全く検出できていないときには、破線の補完を行わない。
上記が破線補完部25の処理である。
5. When e S_SL = 0 and e S_F > 0, the evaluation value e S_SL of the lane model MS SL projected on the left image is 0, and the evaluation value e S_F of the lane model MS F projected on the front image is 0 FIG.
Here, it is a scene in which the broken line cannot be observed with the left camera 12SL and the broken line can be observed only with the front camera 12F. As described above, when no edge is detected in the left image, interpolation of the broken line is not performed.
The above is the process of the broken line complement unit 25.

車線認識部26は、破線を補完した際の評価値を用いて、車線モデルの四つのパラメータを推定する。推定手法としては、エッジとパラメータを振った複数の車線モデルとの一致度合いを、それぞれの車線モデルの評価値として算出し、最適化な車両モデルを算出する、例えばParticle Filterを使うものとするが、これに限定されるものではなく、検出されたエッジおよび破線の補正結果と最適に近似する曲線を推定して、通行区分線を認識するものであれば、任意の手法を用いてもよい。ここで推定した車線モデルのパラメータは、演算周期に従った次回の演算で、車線モデルの投影に利用する。   The lane recognition unit 26 estimates the four parameters of the lane model using the evaluation value when the broken line is complemented. As an estimation method, the degree of coincidence between a plurality of lane models with different edges and parameters is calculated as an evaluation value of each lane model, and an optimized vehicle model is calculated. For example, a Particle Filter is used. However, the present invention is not limited to this, and any method may be used as long as a curve that optimally approximates the detection result of the detected edge and broken line is estimated to recognize the traffic dividing line. The parameters of the lane model estimated here are used for projection of the lane model in the next calculation according to the calculation cycle.

次に、コントローラ13で所定時間(例えば10msec)毎に演算する走行車線認識処理を、図16に基づいて説明する。
先ずステップS101では、前方カメラ12Fで撮像した前方画像、左方カメラ12SLで撮像した左方画像、及び右方カメラ12SRで撮像した右方画像を取得する。
続くステップS102は、エッジ検出部22での処理に対応し、前方画像、左方画像、及び右方画像で、エッジを検出する。
Next, a traveling lane recognition process that is calculated every predetermined time (for example, 10 msec) by the controller 13 will be described with reference to FIG.
First, in step S101, a front image captured by the front camera 12F, a left image captured by the left camera 12SL, and a right image captured by the right camera 12SR are acquired.
The subsequent step S102 corresponds to the processing in the edge detection unit 22, and detects edges in the front image, the left image, and the right image.

続くステップS103は、車線モデル投影部21での処理に対応し、自車両の車線内での位置や姿勢を表す各パラメータに従い、前方画像、左方画像、及び右方画像の夫々に対して、予め定めた車線モデルを投影する。
続くステップS104は、モデル評価部24での処理に対応し、エッジと車線モデルとの一致度合を、下記の式に示すように、車線モデルの評価値eiとして算出する。
続くステップS105は、破線判定部23での処理に対応し、通行区分線が破線であるか否かを判定する。
The subsequent step S103 corresponds to the processing in the lane model projection unit 21, and for each of the front image, the left image, and the right image according to each parameter representing the position and orientation in the lane of the host vehicle, A predetermined lane model is projected.
The subsequent step S104 corresponds to the processing in the model evaluation unit 24, and calculates the degree of coincidence between the edge and the lane model as an evaluation value ei of the lane model as shown in the following equation.
Subsequent step S105 corresponds to the process in the broken line determination unit 23, and determines whether or not the passage line is a broken line.

続くステップS106では、破線補完部25での処理に対応し、通行区分線が破線であると判定したときに、車線モデルを通行区分線として認識することにより、破線の補完を行う。
続くステップS107は、車線認識部26での処理に対応し、破線を補完した際の評価値を用いて、車線モデルの四つのパラメータを推定してから所定のメインプログラムに復帰する。
上記が走行車線認識処理である。
In the following step S106, corresponding to the processing in the broken line complementing unit 25, when it is determined that the traffic lane marking is a broken line, the lane model is recognized as the traffic lane marking, thereby complementing the broken line.
The subsequent step S107 corresponds to the processing in the lane recognition unit 26, and estimates the four parameters of the lane model using the evaluation value when the broken line is complemented, and then returns to the predetermined main program.
The above is the traveling lane recognition process.

《作用》
次に、第1実施形態の作用について説明する。
本実施形態では、自車両における前方及び側方の走行路を個別に撮像し(ステップS101)、撮像した前方画像及び側方画像で、路面に標示された通行区分線のエッジを検出する(ステップS102)。そして、エッジの連続性に応じて、通行区分線が破線であるか否かを判定する(ステップS105)。また、前方画像及び側方画像に対して、予め定めた車線モデルを投影し(ステップS103)、通行区分線が破線であるときに、その車線モデルを通行区分線として認識することにより、破線の補完を行う(ステップS106)。
<Action>
Next, the operation of the first embodiment will be described.
In this embodiment, the front and side traveling roads in the vehicle are individually imaged (step S101), and the edge of the traffic marking line marked on the road surface is detected from the captured front image and side image (step S101). S102). Then, in accordance with the continuity of the edge, it is determined whether or not the passage division line is a broken line (step S105). Further, a predetermined lane model is projected on the front image and the side image (step S103), and when the lane marking is a broken line, the lane model is recognized as the lane marking, thereby Complement is performed (step S106).

このとき、前方画像で検出したエッジの検出度合、及び側方画像で検出したエッジの検出度合の大小関係に応じて、破線の補完を行う。すなわち、前方画像と側方画像とで、エッジの検出度合に優劣があるときに、より多く破線を観測できている側で、僅かしか破線を観測できていない側を補完している。
先ず、前方画像で検出したエッジの検出度合よりも、側方画像で検出したエッジの検出度合の方が大きいときは、側方画像で検出したエッジの検出度合に応じて、前方画像で補完を行う。一方、側方画像で検出したエッジの検出度合よりも、前方画像で検出したエッジの検出度合の方が大きいときには、前方画像で検出したエッジの検出度合に応じて、側方画像で補完を行う。このように、視点の異なる二つのカメラを用い、相互に補い合う構成としたことで、走行車線の認識精度を向上させることができる。
At this time, the dashed line is complemented in accordance with the magnitude relationship between the edge detection degree detected in the front image and the edge detection degree detected in the side image. In other words, the front image and the side image supplement the side where more broken lines can be observed and the side where only fewer broken lines can be observed when the edge detection level is superior or inferior.
First, when the detection level of the edge detected in the side image is larger than the detection level of the edge detected in the front image, the front image is complemented according to the detection level of the edge detected in the side image. Do. On the other hand, when the detection level of the edge detected in the front image is larger than the detection level of the edge detected in the side image, the side image is complemented according to the detection level of the edge detected in the front image. . Thus, the recognition accuracy of a traveling lane can be improved by using two cameras with different viewpoints and using a configuration that complements each other.

ここで、エッジの検出度合とは、エッジと車線モデルとの一致度合を表す車線モデルの評価値eである。すなわち、検出できているエッジが長いほど、車線モデルに重なる度合が高くなり、その車線モデルの評価値eが高くなるからである。
それで、前方画像に投影した車線モデルの評価値eよりも、側方画像に投影した車線モデルの評価値eの方が大きいときには、側方画像に投影した車線モデルの評価値eに応じて、前方画像に投影した車線モデルの評価値eを増加補正することにより、前方画像に投影した車線モデルを通行区分線として扱う。具体的には、αに評価値eを乗算した値(α・e)を、評価値eに加算して増加補正を行う。このαは、前方画像における車線モデルとエッジとが、モデル勾配及び輝度勾配という指標で、どれだけ一致しているかを評価した値である。このように、前方画像における車線モデルとエッジとの一致度合も考慮することにより、走行車線の認識精度を向上させることができる。
Here, the edge detection degree is an evaluation value e of the lane model representing the degree of coincidence between the edge and the lane model. That is, the longer the detected edge, the higher the degree of overlapping with the lane model, and the higher the evaluation value e of the lane model.
Therefore, when the evaluation value e S of the lane model projected on the side image is larger than the evaluation value e F of the lane model projected on the front image, the evaluation value e S of the lane model projected on the side image is obtained. Accordingly, the lane model projected on the front image is treated as a passing division line by increasing and correcting the evaluation value e F of the lane model projected on the front image. Specifically, the value (α · e S ) obtained by multiplying α by the evaluation value e S is added to the evaluation value e F to perform increase correction. This α is a value obtained by evaluating how much the lane model and the edge in the front image coincide with each other using indices such as a model gradient and a luminance gradient. In this way, by considering the degree of coincidence between the lane model and the edge in the front image, the recognition accuracy of the traveling lane can be improved.

一方、側方画像に投影した車線モデルの評価値eよりも、前方画像に投影した車線モデルの評価値eの方が大きいときには、前方画像に投影した車線モデルの評価値eに応じて、側方画像に投影した車線モデルの評価値eを増加補正することにより、側方画像に投影した車線モデルを通行区分線として扱う。具体的には、αに評価値eを乗算した値(α・e)を、評価値eに加算して増加補正を行う。このαは、側方画像における車線モデルとエッジとが、モデル勾配及び輝度勾配という指標で、どれだけ一致しているかを評価した値である。このように、側方画像における車線モデルとエッジとの一致度合も考慮することにより、走行車線の認識精度を向上させることができる。 On the other hand, when the evaluation value e F of the lane model projected on the front image is larger than the evaluation value e S of the lane model projected on the side image, the evaluation value e F of the lane model projected on the front image is used. Thus, the lane model projected on the side image is treated as a traffic line by increasing and correcting the evaluation value e S of the lane model projected on the side image. Specifically, a value (α · e F ) obtained by multiplying α by the evaluation value e F is added to the evaluation value e S to perform increase correction. This α is a value obtained by evaluating how much the lane model and the edge in the side image coincide with each other using an index called a model gradient and a luminance gradient. Thus, the recognition accuracy of the traveling lane can be improved by considering the degree of coincidence between the lane model and the edge in the side image.

なお、前方画像及び側方画像の何れか一方で、破線のエッジを全く観測することができない場合には、破線の補完を行わないようにしている。本実施形態では、多少なりとも破線のエッジを観測できているときに、それを補完して、全く観測できていないときには、補完を行わないようにしている。これにより、カーブ路などで破線の補完精度が低下することを抑制できる。ただし、これに限定されるものでなく、前方画像及び側方画像の何れか一方で、破線のエッジを全く観測することができない場合でも、破線の補完を行ってもよい。   It should be noted that when either one of the front image and the side image cannot observe the broken line edge at all, the broken line is not complemented. In this embodiment, when an edge of a broken line can be observed to some extent, it is complemented, and when it is not observed at all, the complement is not performed. Thereby, it can suppress that the complementation accuracy of a broken line falls on a curved road etc. However, the present invention is not limited to this, and even if the edge of the broken line cannot be observed at all in either the front image or the side image, the broken line may be complemented.

また、前方画像及び側方画像で、エッジの検出度合が略同等である場合にも、破線の補完を行わない。したがって、例えば破線を構成する各線分が長い、又は各線分の間隔(隙間)が狭い等の理由で、前方画像及び側方画像の双方で、エッジを十分に観測できているなら、それらのエッジを通行区分線として認識することができる。逆に、例えば破線を構成する各線分が短く、且つ各線分の間隔(隙間)が長い等の理由で、前方画像及び側方画像の双方で、エッジを十分に観測できていないときには、無理して補完するようなことがないので、破線の補完精度が低下することを抑制できる。   In addition, even when the degree of edge detection is approximately the same in the front image and the side image, the dashed line is not complemented. Therefore, if the edges are sufficiently observed in both the front image and the side image, for example, because each line segment constituting the broken line is long or the interval (gap) between the line segments is narrow, those edges are observed. Can be recognized as a passing line. On the other hand, for example, when the line segments constituting the broken line are short and the interval (gap) between the line segments is long, the edge cannot be sufficiently observed in both the front image and the side image. Therefore, it is possible to suppress a decrease in the interpolation accuracy of the broken line.

《対応関係》
本実施形態では、前方カメラ12F、左方カメラ12SL、及び右方カメラ12SRが「撮像部」に対応する。エッジ検出部22、ステップS102の処理が「エッジ検出部」に対応する。破線判定部23、ステップS105の処理が「破線判定部」に対応する。車線モデル投影部21、ステップS103の処理が「車線モデル投影部」に対応する。破線補完部25、ステップS106の処理が「破線補完部」に対応する。モデル評価部24、ステップS104の処理が「モデル評価部」に対応する。車線認識部26、ステップS107の処理が「車線認識部」に対応する。
《Correspondence relationship》
In the present embodiment, the front camera 12F, the left camera 12SL, and the right camera 12SR correspond to an “imaging unit”. The processing of the edge detection unit 22 and step S102 corresponds to an “edge detection unit”. The process of the broken line determination unit 23 and step S105 corresponds to the “broken line determination unit”. The processing of the lane model projection unit 21 and step S103 corresponds to the “lane model projection unit”. The process of the broken line complementing unit 25 and step S106 corresponds to the “broken line complementing unit”. The process of the model evaluation unit 24 and step S104 corresponds to the “model evaluation unit”. The processing of the lane recognition unit 26 and step S107 corresponds to the “lane recognition unit”.

《効果》
次に、第1実施形態における主要部の効果を記す。
(1)本実施形態に係る走行車線認識装置は、自車両における前方及び側方の走行路を撮像し、その前方画像及び側方画像で、路面に標示された通行区分線のエッジを検出し、エッジの連続性に応じて、通行区分線が破線であるか否かを判定する。また、通行区分線が破線であると判定したときに、前方画像で検出したエッジの検出度合、及び側方画像で検出したエッジの検出度合の大小関係に応じて、破線の補完を行う。
このように、通行区分線が破線であるときに、前方画像で検出したエッジの検出度合、及び側方画像で検出したエッジの検出度合の大小関係に応じて、破線を補完できることにより、走行車線の認識精度を向上させることができる。
"effect"
Next, the effect of the main part in 1st Embodiment is described.
(1) The traveling lane recognition apparatus according to the present embodiment images the front and side traveling roads of the host vehicle, and detects the edge of the traffic division line marked on the road surface from the front image and the side image. Depending on the continuity of the edge, it is determined whether or not the traffic dividing line is a broken line. Further, when it is determined that the traffic dividing line is a broken line, the broken line is complemented according to the magnitude relationship between the detection degree of the edge detected in the front image and the detection degree of the edge detected in the side image.
In this way, when the traffic dividing line is a broken line, the broken lane can be complemented according to the magnitude relationship between the detection degree of the edge detected in the front image and the detection degree of the edge detected in the side image. Recognition accuracy can be improved.

(2)本実施形態に係る走行車線認識装置は、前方画像で検出したエッジの検出度合よりも、側方画像で検出したエッジの検出度合の方が大きいときには、側方画像で検出したエッジの検出度合に応じて、前方画像で補完を行う。
このように、側方画像で検出したエッジの検出度合が相対的に大きいときには、その検出度合を用いて、前方画像で補完を行うことにより、破線の補完精度を向上させることができる。
(2) The traveling lane recognition device according to the present embodiment detects the edge detected in the side image when the detection level of the edge detected in the side image is larger than the detection level of the edge detected in the front image. Depending on the degree of detection, the front image is complemented.
As described above, when the detection degree of the edge detected in the side image is relatively large, complementation is performed on the front image using the detection degree, thereby improving the interpolation accuracy of the broken line.

(3)本実施形態に係る走行車線認識装置は、側方画像で検出したエッジの検出度合よりも、前方画像で検出したエッジの検出度合の方が大きいときには、前方画像で検出したエッジの検出度合に応じて、側方画像で補完を行う。
このように、前方画像で検出したエッジの検出度合が相対的に大きいときには、その検出度合を用いて、側方画像で補完を行うことにより、破線の補完精度を向上させることができる。
(3) The traveling lane recognition device according to the present embodiment detects the edge detected in the front image when the edge detection degree detected in the front image is larger than the edge detection degree detected in the side image. Depending on the degree, the side image is complemented.
As described above, when the detection degree of the edge detected in the front image is relatively large, the complementation accuracy of the broken line can be improved by performing complementation on the side image using the detection degree.

(4)本実施形態に係る走行車線認識装置は、前方画像及び側方画像に対して、予め定めた車線モデルを投影し、エッジと車線モデルとの一致度合を、車線モデルの評価値として算出する。エッジの検出度合とは、この評価値である。
このように、エッジと車線モデルとの一致度合を表す車線モデルの評価値を、エッジの検出度合として利用することにより、破線の補完精度を向上させることができる。
(4) The traveling lane recognition apparatus according to the present embodiment projects a predetermined lane model on the front image and the side image, and calculates the degree of coincidence between the edge and the lane model as an evaluation value of the lane model. To do. The degree of edge detection is this evaluation value.
As described above, by using the evaluation value of the lane model representing the degree of coincidence between the edge and the lane model as the edge detection degree, it is possible to improve the interpolation accuracy of the broken line.

(5)本実施形態に係る走行車線認識装置は、前方画像に投影した車線モデルの評価値よりも、側方画像に投影した車線モデルの評価値の方が大きいときには、側方画像に投影した車線モデルの評価値に応じて、前方画像に投影した車線モデルの評価値を増加補正することにより、前方画像に投影した車線モデルを通行区分線として扱う。
このように、側方画像に投影した車線モデルの評価値が相対的に大きいときには、その評価値を用いて、前方画像で補完を行うことにより、破線の補完精度を向上させることができる。
(5) The traveling lane recognition device according to the present embodiment projects a side lane image when the evaluation value of the lane model projected on the side image is larger than the evaluation value of the lane model projected on the front image. In accordance with the evaluation value of the lane model, the evaluation value of the lane model projected on the front image is increased and corrected, so that the lane model projected on the front image is treated as a passing division line.
As described above, when the evaluation value of the lane model projected on the side image is relatively large, the complementation accuracy of the broken line can be improved by complementing the front image using the evaluation value.

(6)本実施形態に係る走行車線認識装置は、側方画像に投影した車線モデルの評価値よりも、前方画像に投影した車線モデルの評価値の方が大きいときには、前方画像に投影した車線モデルの評価値に応じて、側方画像に投影した車線モデルの評価値を増加補正することにより、側方画像に投影した車線モデルを通行区分線として扱う。
このように、前方画像に投影した車線モデルの評価値が相対的に大きいときには、その評価値を用いて、側方画像で補完を行うことにより、破線の補完精度を向上させることができる。
(6) The traveling lane recognition device according to the present embodiment, when the evaluation value of the lane model projected on the front image is larger than the evaluation value of the lane model projected on the side image, the lane projected on the front image. In accordance with the evaluation value of the model, the evaluation value of the lane model projected on the side image is increased and corrected, so that the lane model projected on the side image is treated as a passing division line.
As described above, when the evaluation value of the lane model projected on the front image is relatively large, complementation is performed on the side image using the evaluation value, so that the interpolation accuracy of the broken line can be improved.

(7)本実施形態に係る走行車線認識方法は、自車両における前方及び側方の走行路を撮像し、その前方画像及び側方画像で、路面に標示された通行区分線のエッジを検出し、エッジの連続性に応じて、通行区分線が破線であるか否かを判定する。また、通行区分線が破線であると判定したときに、前方画像で検出したエッジの検出度合、及び側方画像で検出したエッジの検出度合の大小関係に応じて、破線の補完を行う。
このように、通行区分線が破線であるときに、前方画像で検出したエッジの検出度合、及び側方画像で検出したエッジの検出度合の大小関係に応じて、破線を補完できることにより、走行車線の認識精度を向上させることができる。
(7) The traveling lane recognition method according to the present embodiment images the front and side traveling roads in the host vehicle, and detects the edge of the traffic marking line marked on the road surface from the front image and the side image. Depending on the continuity of the edge, it is determined whether or not the traffic dividing line is a broken line. Further, when it is determined that the traffic dividing line is a broken line, the broken line is complemented according to the magnitude relationship between the detection degree of the edge detected in the front image and the detection degree of the edge detected in the side image.
In this way, when the traffic dividing line is a broken line, the broken lane can be complemented according to the magnitude relationship between the detection degree of the edge detected in the front image and the detection degree of the edge detected in the side image. Recognition accuracy can be improved.

《第2実施形態》
《構成》
本実施形態は、より簡易的に補完を行うものである。
装置構成は、前述した第1実施形態と同様である。
ここでは、破線補完部25での処理について説明する。なお、他の処理については、前述した第1実施形態と同様であり、共通部分については詳細な説明を省略する。
前方画像に投影した車線モデルの評価値eと、側方画像に投影した車線モデルの評価値eとの大小関係については、下記に示すように、3つの場合に分ける。ここでは、前方画像に投影した車線モデルMSの評価値eS_Fと、左方画像に投影した車線モデルMSSLの評価値eS_SLとを用い、右車線における左側の通行区分線を例にして説明する。
<< Second Embodiment >>
"Constitution"
This embodiment performs complementation more simply.
The apparatus configuration is the same as that of the first embodiment described above.
Here, the process in the broken line complement part 25 is demonstrated. Other processes are the same as those in the first embodiment described above, and detailed descriptions of common parts are omitted.
As shown below, the magnitude relationship between the evaluation value e F of the lane model projected on the front image and the evaluation value e S of the lane model projected on the side image is divided into three cases. Here, using the evaluation value e S_F of the lane model MS F projected on the front image and the evaluation value e S_SL of the lane model MS SL projected on the left image, the left lane marking in the right lane is taken as an example. explain.

1.eS_F>eS_SLの場合
前方画像に投影した車線モデルMSの評価値eS_Fが左方画像に投影した車線モデルMSSLの評価値eS_SLよりも大きい場合であり(図12)、評価値eS_SLは略0であってもよい(図15)。すなわち、左方カメラ12SLよりも前方カメラ12Fでより多く破線を観測できているシーンである。このように、左方画像で検出したエッジの検出度合よりも、前方画像で検出したエッジの検出度合の方が大きいときには、下記の式に示すように、前方画像に投影した車線モデルMSの評価値eS_Fに応じて、左方画像に投影した車線モデルMSSLの評価値eS_SLを増加補正することにより、左方画像に投影した車線モデルMSSLを通行区分線として扱う。
S_SL ← eS_SL+eS_F
1. When e S_F > e S_SL The evaluation value e S_F of the lane model MS F projected on the front image is larger than the evaluation value e S_SL of the lane model MS SL projected on the left image (FIG. 12). e S_SL may be substantially 0 (FIG. 15). That is, this is a scene in which more broken lines can be observed with the front camera 12F than with the left camera 12SL. Thus, when the detection level of the edge detected in the front image is larger than the detection level of the edge detected in the left image, the lane model MS F projected on the front image is represented by the following equation. In accordance with the evaluation value e S_F , the lane model MS SL projected on the left image is treated as a passing division line by increasing and correcting the evaluation value e S_SL of the lane model MS SL projected on the left image.
e S_SL ← e S_SL + e S_F

2.eS_F≒eS_SLの場合(|eS_F−eS_SL|≦ethの場合)
前方画像に投影した車線モデルMSの評価値eS_Fが左方画像に投影した車線モデルMSSLの評価値eS_SLと略同一である、つまり差分|eS_F−eS_SL|が予め定めた閾値eth以下である場合である(図13)。すなわち、前方カメラ12F及び左方カメラ12SLの双方で破線を観測できており、夫々の観測量が同程度となるシーンである。このように、前方画像と左方画像とで、エッジの検出度合に優劣がないときには、破線の補完を行わない。
2. When e S_F ≒ e S_SL (when | e S_F− e S_SL | ≦ e th )
The evaluation value e S_F of the lane model MS F projected on the front image is substantially the same as the evaluation value e S_SL of the lane model MS SL projected on the left image, that is, the difference | e S_F −e S_SL | This is a case where it is equal to or less than eth (FIG. 13). That is, the broken line can be observed by both the front camera 12F and the left camera 12SL, and the amount of observation is the same. In this way, when there is no superiority or inferiority in edge detection between the front image and the left image, the dashed line is not complemented.

3.eS_SL>eS_Fの場合
左方画像に投影した車線モデルMSSLの評価値eS_SLが前方画像に投影した車線モデルMSの評価値eS_Fよりも大きい場合であり(図14)、評価値eS_Fは略0であってもよい(図11)。すなわち、前方カメラ12Fよりも左方カメラ12SLでより多く破線を観測できているシーンである。このように、前方画像で検出したエッジの検出度合よりも、左方画像で検出したエッジの検出度合の方が大きいときには、下記の式に示すように、左方画像に投影した車線モデルMSSLの評価値eS_SLに応じて、前方画像に投影した車線モデルMSの評価値eS_Fを増加補正することにより、前方画像に投影した車線モデルMSを通行区分線として扱う。
S_F ← eS_F+eS_SL
上記が本実施形態の構成である。
3. When e S_SL > e S_F The evaluation value e S_SL of the lane model MS SL projected on the left image is larger than the evaluation value e S_F of the lane model MS F projected on the front image (FIG. 14). e S_F may be substantially zero (FIG. 11). That is, this is a scene in which more broken lines can be observed with the left camera 12SL than with the front camera 12F. Thus, when the detection degree of the edge detected in the left image is larger than the detection degree of the edge detected in the front image, the lane model MS SL projected on the left image as shown in the following equation. depending on the evaluation value e S_SL, by increasing correcting the evaluation value e S_F lane model MS F projected forward image, dealing with lane model MS F projected forward image as traffic separation line.
e S_F ← e S_F + e S_SL
The above is the configuration of this embodiment.

《作用》
次に、第2実施形態の作用について説明する。
前方画像に投影した車線モデルの評価値eよりも、側方画像に投影した車線モデルの評価値eの方が大きいときには、側方画像に投影した車線モデルの評価値eに応じて、前方画像に投影した車線モデルの評価値eを増加補正することにより、前方画像に投影した車線モデルを通行区分線として扱う。具体的には、評価値eを評価値eに加算して増加補正を行う。すなわち、前述した第1実施形態と比べて、αの算出を省略している。したがって、より簡易的に前方画像で破線の補完を行うことができる。
<Action>
Next, the operation of the second embodiment will be described.
Than the evaluation value e F of the lane model projected forward image, when the direction of evaluation value e S of the lane model projected laterally image is large, according to the evaluation value e S of the lane model projected laterally image The lane model projected on the front image is treated as a passing lane marking by increasing and correcting the evaluation value e F of the lane model projected on the front image. Specifically, the evaluation value e S is added to the evaluation value e F to perform increase correction. That is, the calculation of α is omitted as compared with the first embodiment described above. Therefore, the dashed line can be complemented more easily in the front image.

一方、側方画像に投影した車線モデルの評価値eよりも、前方画像に投影した車線モデルの評価値eの方が大きいときには、前方画像に投影した車線モデルの評価値eに応じて、側方画像に投影した車線モデルの評価値eを増加補正することにより、側方画像に投影した車線モデルを通行区分線として扱う。具体的には、評価値eを評価値eに加算して増加補正を行う。すなわち、前述した第1実施形態と比べて、αの算出を省略している。したがって、より簡易的に側方画像で破線の補完を行うことができる。
本実施形態において、その他、前述した第1実施形態と共通する部分については、同様の作用効果が得られるものとし、詳細な説明は省略する。
On the other hand, when the evaluation value e F of the lane model projected on the front image is larger than the evaluation value e S of the lane model projected on the side image, the evaluation value e F of the lane model projected on the front image is used. Thus, the lane model projected on the side image is treated as a traffic line by increasing and correcting the evaluation value e S of the lane model projected on the side image. Specifically, the evaluation value e F is added to the evaluation value e S to perform increase correction. That is, the calculation of α is omitted as compared with the first embodiment described above. Therefore, it is possible to more easily complement the broken line in the side image.
In the present embodiment, other parts common to the first embodiment described above are assumed to have the same operational effects, and detailed description thereof is omitted.

以上、限られた数の実施形態を参照しながら説明したが、権利範囲はそれらに限定されるものではなく、上記の開示に基づく実施形態の改変は、当業者にとって自明のことである。また、各実施形態は、任意に組み合わせて採用することができる。   Although the present invention has been described with reference to a limited number of embodiments, the scope of rights is not limited thereto, and modifications of the embodiments based on the above disclosure are obvious to those skilled in the art. Moreover, each embodiment can be adopted in any combination.

11 走行車線認識装置
12F 前方カメラ
12SL 左方カメラ
12SR 右方カメラ
13 コントローラ
21 車線モデル投影部
22 エッジ検出部
23 破線判定部
24 モデル評価部
25 破線補完部
26 車線認識部
DESCRIPTION OF SYMBOLS 11 Traveling lane recognition apparatus 12F Front camera 12SL Left camera 12SR Right camera 13 Controller 21 Lane model projection part 22 Edge detection part 23 Broken line determination part 24 Model evaluation part 25 Broken line complement part 26 Lane recognition part

Claims (7)

自車両における前方及び側方の走行路を撮像する撮像部と、
前記撮像部で撮像した前方画像及び側方画像で、路面に標示された通行区分線のエッジを検出するエッジ検出部と、
前記エッジ検出部で検出したエッジの連続性に応じて、前記通行区分線が破線であるか否かを判定する破線判定部と、
前記破線判定部で前記通行区分線が破線であると判定したときに、前記前方画像で検出した前記エッジの検出度合、及び前記側方画像で検出した前記エッジの検出度合の大小関係に応じて、破線の補完を行う破線補完部と、
前記破線の補完結果により車線を認識する車線認識部と、を備え
前記エッジが検出された前方エッジ画像及び側方エッジ画像に対して、予め定めた車線モデルを投影する車線モデル投影部と、
前記エッジと前記車線モデルとの一致度合を、前記車線モデルの評価値として算出するモデル評価部と、を備え、
前記エッジの検出度合は、前記モデル評価部で算出した評価値であることを特徴とする走行車線認識装置。
An imaging unit for imaging the front and side traveling paths of the host vehicle;
An edge detection unit for detecting an edge of a traffic marking line marked on a road surface in a front image and a side image captured by the imaging unit;
A broken line determination unit that determines whether or not the passage division line is a broken line according to the continuity of the edges detected by the edge detection unit;
When the broken line determination unit determines that the traffic dividing line is a broken line, depending on the magnitude relationship between the degree of detection of the edge detected in the front image and the degree of detection of the edge detected in the side image , A dashed line complement part for performing dashed line completion,
A lane recognition unit for recognizing a lane based on the complemented result of the broken line ,
A lane model projection unit that projects a predetermined lane model on the front edge image and the side edge image in which the edge is detected;
A model evaluation unit that calculates the degree of coincidence between the edge and the lane model as an evaluation value of the lane model,
The traveling lane recognition device according to claim 1, wherein the detection degree of the edge is an evaluation value calculated by the model evaluation unit .
前記破線補完部は、
前記前方画像で検出した前記エッジの検出度合よりも、前記側方画像で検出した前記エッジの検出度合の方が大きいときには、前記側方画像で検出した前記エッジの検出度合に応じて、前記前方画像で前記補完を行うことを特徴とする請求項1に記載の走行車線認識装置。
The broken line complement part is
When the detection degree of the edge detected in the side image is larger than the detection degree of the edge detected in the front image, the front is determined according to the detection degree of the edge detected in the side image. The travel lane recognition apparatus according to claim 1, wherein the supplement is performed using an image.
前記破線補完部は、
前記側方画像で検出した前記エッジの検出度合よりも、前記前方画像で検出した前記エッジの検出度合の方が大きいときには、前記前方画像で検出した前記エッジの検出度合に応じて、前記側方画像で前記補完を行うことを特徴とする請求項1又は2に記載の走行車線認識装置。
The broken line complement part is
When the detection level of the edge detected in the front image is larger than the detection level of the edge detected in the side image, the lateral detection is performed according to the detection level of the edge detected in the front image. The travel lane recognition apparatus according to claim 1, wherein the complement is performed using an image.
前記破線補完部は、
前記前方エッジ画像に投影した前記車線モデルの評価値よりも、前記側方エッジ画像に投影した前記車線モデルの評価値の方が大きいときには、前記側方エッジ画像に投影した前記車線モデルの評価値に応じて、前記前方エッジ画像に投影した前記車線モデルの評価値を増加補正することにより、前記前方エッジ画像に投影した前記車線モデルを前記通行区分線として扱うことを特徴とする請求項1〜3の何れか一項に記載の走行車線認識装置。
The broken line complement part is
When the evaluation value of the lane model projected onto the side edge image is larger than the evaluation value of the lane model projected onto the front edge image, the evaluation value of the lane model projected onto the side edge image The lane model projected on the front edge image is treated as the traffic division line by increasing and correcting the evaluation value of the lane model projected on the front edge image according to the above . The travel lane recognition device according to any one of claims 3 to 4 .
前記破線補完部は、
前記側方エッジ画像に投影した前記車線モデルの評価値よりも、前記前方エッジ画像に投影した前記車線モデルの評価値の方が大きいときには、前記前方エッジ画像に投影した前記車線モデルの評価値に応じて、前記側方エッジ画像に投影した前記車線モデルの評価値を増加補正することにより、前記側方エッジ画像に投影した前記車線モデルを前記通行区分線として扱うことを特徴とする請求項1〜4の何れか一項に記載の走行車線認識装置。
The broken line complement part is
When the evaluation value of the lane model projected onto the front edge image is greater than the evaluation value of the lane model projected onto the side edge image, the evaluation value of the lane model projected onto the front edge image Correspondingly, by increasing correcting the evaluation value of the lane model projected onto the lateral edge image, according to claim 1, characterized in that handle the lane model projected onto the lateral edge image as the traffic separation line The traveling lane recognition device according to any one of?
自車両における前方及び側方の走行路を撮像する撮像部と、
前記撮像部で撮像した前方画像及び側方画像で、路面に標示された通行区分線のエッジを検出するエッジ検出部と、
前記エッジ検出部で検出したエッジの連続性に応じて、前記通行区分線が破線であるか否かを判定する破線判定部と、
前記破線判定部で前記通行区分線が破線であると判定したときに、前記前方画像で検出した前記エッジの検出度合、及び前記側方画像で検出した前記エッジの検出度合の大小関係に応じて、破線の補完を行う破線補完部と、
前記破線の補完結果により車線を認識する車線認識部と、を備え、
前記破線補完部は、
前記前方画像で検出した前記エッジの検出度合よりも、前記側方画像で検出した前記エッジの検出度合の方が大きいときには、前記側方画像で検出した前記エッジの検出度合に応じて、前記前方画像で前記補完を行い、
前記側方画像で検出した前記エッジの検出度合よりも、前記前方画像で検出した前記エッジの検出度合の方が大きいときには、前記前方画像で検出した前記エッジの検出度合に応じて、前記側方画像で前記補完を行うことを特徴とする走行車線認識装置。
An imaging unit for imaging the front and side traveling paths of the host vehicle;
An edge detection unit for detecting an edge of a traffic marking line marked on a road surface in a front image and a side image captured by the imaging unit;
A broken line determination unit that determines whether or not the passage division line is a broken line according to the continuity of the edges detected by the edge detection unit;
When the broken line determination unit determines that the traffic dividing line is a broken line, depending on the magnitude relationship between the degree of detection of the edge detected in the front image and the degree of detection of the edge detected in the side image , A dashed line complement part for performing dashed line completion,
A lane recognition unit for recognizing a lane based on the complemented result of the broken line,
The broken line complement part is
When the detection degree of the edge detected in the side image is larger than the detection degree of the edge detected in the front image, the front is determined according to the detection degree of the edge detected in the side image. Perform the above completion with images,
When the detection level of the edge detected in the front image is larger than the detection level of the edge detected in the side image, the lateral detection is performed according to the detection level of the edge detected in the front image. A travel lane recognition device characterized in that the supplement is performed with an image .
走行車線認識装置が備える撮像部は、自車両における前方及び側方の走行路を個別に撮像し、
前記走行車線認識装置が備えるエッジ検出部は、撮像した前方画像及び側方画像で、路面に標示された通行区分線のエッジを検出し、
前記走行車線認識装置が備える破線判定部は、検出した前記エッジの連続性に応じて、前記通行区分線が破線であるか否かを判定し、
前記走行車線認識装置が備える破線補完部は、前記通行区分線が破線であるときに、前記前方画像で検出した前記エッジの検出度合、及び前記側方画像で検出した前記エッジの検出度合の大小関係に応じて、破線の補完を行い、
前記走行車線認識装置が備える車線認識部は、前記破線の補完結果により車線を認識し、
前記走行車線認識装置が備える車線モデル投影部は、前記エッジが検出された前方エッジ画像及び側方エッジ画像に対して、予め定めた車線モデルを投影し、
前記走行車線認識装置が備えるモデル評価部は、前記エッジと前記車線モデルとの一致度合を、前記車線モデルの評価値として算出し、
前記エッジの検出度合は、前記モデル評価部で算出した評価値であることを特徴とする走行車線認識方法。
The imaging unit provided in the traveling lane recognition device individually images the front and side traveling paths in the host vehicle,
The edge detection unit provided in the traveling lane recognition device detects an edge of a traffic marking line marked on a road surface in a captured front image and a side image,
The broken line determination unit included in the traveling lane recognition device determines whether the passage line is a broken line according to the detected continuity of the edge,
The broken line complementing unit included in the traveling lane recognition device is configured such that when the traffic lane marking is a broken line, the degree of detection of the edge detected in the front image and the degree of detection of the edge detected in the side image Depending on the relationship, the dashed line is complemented,
The lane recognition unit provided in the traveling lane recognition device recognizes a lane based on the interpolation result of the broken line ,
The lane model projection unit provided in the traveling lane recognition device projects a predetermined lane model on the front edge image and the side edge image in which the edge is detected,
The model evaluation unit provided in the traveling lane recognition device calculates the degree of coincidence between the edge and the lane model as an evaluation value of the lane model,
The traveling lane recognition method, wherein the edge detection degree is an evaluation value calculated by the model evaluation unit .
JP2014093583A 2014-04-30 2014-04-30 Traveling lane recognition device and traveling lane recognition method Active JP6398294B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014093583A JP6398294B2 (en) 2014-04-30 2014-04-30 Traveling lane recognition device and traveling lane recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014093583A JP6398294B2 (en) 2014-04-30 2014-04-30 Traveling lane recognition device and traveling lane recognition method

Publications (2)

Publication Number Publication Date
JP2015210764A JP2015210764A (en) 2015-11-24
JP6398294B2 true JP6398294B2 (en) 2018-10-03

Family

ID=54612867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014093583A Active JP6398294B2 (en) 2014-04-30 2014-04-30 Traveling lane recognition device and traveling lane recognition method

Country Status (1)

Country Link
JP (1) JP6398294B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6720783B2 (en) * 2016-09-01 2020-07-08 日産自動車株式会社 Vehicle lane departure determination method and lane departure determination apparatus
US10168174B2 (en) * 2017-05-09 2019-01-01 Toyota Jidosha Kabushiki Kaisha Augmented reality for vehicle lane guidance

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167636A (en) * 1997-12-03 1999-06-22 Toyota Motor Corp Line detecting device for vehicle
JP3722487B1 (en) * 2004-05-19 2005-11-30 本田技研工業株式会社 Vehicle lane marking recognition device
JP4659631B2 (en) * 2005-04-26 2011-03-30 富士重工業株式会社 Lane recognition device
JP2008250904A (en) * 2007-03-30 2008-10-16 Toyota Motor Corp Traffic lane division line information detecting device, travel traffic lane maintaining device, and traffic lane division line recognizing method
JP5300357B2 (en) * 2008-07-22 2013-09-25 日立オートモティブシステムズ株式会社 Collision prevention support device
JP5426427B2 (en) * 2010-02-19 2014-02-26 日立オートモティブシステムズ株式会社 Driving support device
US9538144B2 (en) * 2012-05-02 2017-01-03 GM Global Technology Operations LLC Full speed lane sensing using multiple cameras
WO2013186903A1 (en) * 2012-06-14 2013-12-19 トヨタ自動車株式会社 Lane partition marking detection apparatus, and drive assist system

Also Published As

Publication number Publication date
JP2015210764A (en) 2015-11-24

Similar Documents

Publication Publication Date Title
US10706582B2 (en) Real-time monocular structure from motion
US9771080B2 (en) Road surface gradient detection device
JP6013884B2 (en) Object detection apparatus and object detection method
US8218893B2 (en) Image inpainting method and apparatus based on viewpoint change
CN105551020B (en) A kind of method and device detecting object size
JP5895955B2 (en) Lane boundary detection device
JP5752618B2 (en) Stereo parallax calculation device
JP2016115305A (en) Object detection apparatus, object detection system, object detection method, and program
US20180056873A1 (en) Apparatus and method of generating top-view image
US20150156471A1 (en) Method and device for processing stereoscopic data
JP6105524B2 (en) Traveling lane marking recognition device and traveling lane marking recognition program
JP2018060422A (en) Object detection device
KR101268282B1 (en) Lane departure warning system in navigation for vehicle and method thereof
US8675047B2 (en) Detection device of planar area and stereo camera system
US10546391B2 (en) Apparatus and method for generating around view
JP6398294B2 (en) Traveling lane recognition device and traveling lane recognition method
WO2011016257A1 (en) Distance calculation device for vehicle
WO2015198592A1 (en) Information processing device, information processing method, and information processing program
WO2014054124A1 (en) Road surface markings detection device and road surface markings detection method
JP6963490B2 (en) Vehicle control device
JP2017123009A (en) Section line recognition device
JP5760523B2 (en) Runway estimation apparatus and program
KR101766239B1 (en) Apparatus and method for recognition road surface state
WO2020036039A1 (en) Stereo camera device
JP7064400B2 (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R151 Written notification of patent or utility model registration

Ref document number: 6398294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151