JP5805619B2 - Boundary line recognition device - Google Patents

Boundary line recognition device Download PDF

Info

Publication number
JP5805619B2
JP5805619B2 JP2012283291A JP2012283291A JP5805619B2 JP 5805619 B2 JP5805619 B2 JP 5805619B2 JP 2012283291 A JP2012283291 A JP 2012283291A JP 2012283291 A JP2012283291 A JP 2012283291A JP 5805619 B2 JP5805619 B2 JP 5805619B2
Authority
JP
Japan
Prior art keywords
boundary line
image
candidate
line
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012283291A
Other languages
Japanese (ja)
Other versions
JP2014127027A (en
Inventor
俊也 熊野
俊也 熊野
直輝 川嵜
直輝 川嵜
俊輔 鈴木
俊輔 鈴木
哲哉 高藤
哲哉 高藤
一馬 橋本
一馬 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2012283291A priority Critical patent/JP5805619B2/en
Priority to PCT/JP2013/084866 priority patent/WO2014104183A1/en
Priority to US14/655,698 priority patent/US10002433B2/en
Publication of JP2014127027A publication Critical patent/JP2014127027A/en
Application granted granted Critical
Publication of JP5805619B2 publication Critical patent/JP5805619B2/en
Priority to US15/974,287 priority patent/US10891738B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両に搭載されたカメラにより撮影された画像情報に基づいて、走路を区分する境界線を認識する境界線認識装置に関する。   The present invention relates to a boundary line recognition device for recognizing a boundary line that divides a running road based on image information taken by a camera mounted on a vehicle.

車両に搭載した撮影装置で車両前方の路面を含むシーンを撮影し、撮影した画像データから車両が走行中のレーンの左,右端白線を表す二直線を検出して、検出した二直線の交点から自車両までの二直線間の3角領域で、路面上の物体を検出することが行われている(例えば、特許文献1)。   A scene including the road surface in front of the vehicle is photographed with a photographing device mounted on the vehicle, and two straight lines representing the left and right white lines of the lane in which the vehicle is traveling are detected from the photographed image data, and from the intersection of the detected two straight lines An object on a road surface is detected in a triangular area between two straight lines up to the host vehicle (for example, Patent Document 1).

特許文献1では、自車レーンが車両の前方でカーブしている場合に、3角領域から遠方の路面が外れないようにするために、車両前方の路面が存在する画像上の領域を、車両の進行方向で複数個に分割している。そして、車両に近い分割領域から順次に、分割領域における走行中のレーンの左,右端白線の検出を行い、検出した左,右端白線の間の走行レーン領域において物体検出を行っている。   In Patent Document 1, when the vehicle lane is curved in front of the vehicle, the region on the image where the road surface in front of the vehicle is present It is divided into multiple pieces in the direction of travel. Then, sequentially from the divided area close to the vehicle, the left and right end white lines of the running lane in the divided area are detected, and the object is detected in the traveling lane area between the detected left and right end white lines.

特開平6−215290号公報JP-A-6-215290

左,右端白線を表す直線を基準にした所定領域で物体検出を行う場合、物体の検出精度を向上させるためには、左,右端白線を表す直線の誤認識を抑制する必要がある。しかしながら、車両から遠方にある白線の場合、画像上における境界線の見かけの幅は非常に狭くなる。そのため、カメラレンズのぼけにより境界線と路面とのコントラスト(エッジ強度)が低下すると、車両の遠方において、境界線に沿って並んだ路側物等を境界線と誤認識するおそれがある。特に、白線等の境界線が画像上で水平方向に傾いていると、こうした傾向が顕著となる。   When object detection is performed in a predetermined area based on a straight line representing the left and right end white lines, it is necessary to suppress erroneous recognition of the straight line representing the left and right end white lines in order to improve the object detection accuracy. However, in the case of a white line far from the vehicle, the apparent width of the boundary line on the image is very narrow. For this reason, when the contrast (edge strength) between the boundary line and the road surface decreases due to the blur of the camera lens, roadside objects and the like arranged along the boundary line may be erroneously recognized as the boundary line at a distance from the vehicle. In particular, when a boundary line such as a white line is inclined in the horizontal direction on the image, such a tendency becomes remarkable.

本発明は、上記実情に鑑み、車両の遠方における境界線の誤認識を抑制可能な境界線認識装置を提供することを主たる目的とする。   In view of the above circumstances, the present invention has as its main object to provide a boundary line recognition device capable of suppressing erroneous recognition of a boundary line at a distance from a vehicle.

上記課題を解決するため請求項1に記載の境界線認識装置は、車両に搭載されて走路を撮影するカメラと、前記カメラにより撮影された画像の輝度に基づいて、前記走路を区切る境界線のエッジ候補点を抽出し、抽出したエッジ候補点の連なりから前記境界線の候補線を抽出する境界線候補抽出部と、前記境界線候補抽出部により抽出された前記境界線の候補線において、前記画像の水平方向における前記候補線の幅、及び前記画像の垂直方向に対する前記候補線の角度から、前記候補線の前記画像上での見かけの幅を算出する幅算出部と、前記候補線が境界線としての特徴を備えている度合いが大きいほど、前記候補線が前記境界線である確率を高く算出する境界線特徴算出部と、複数の前記特徴について前記境界線特徴算出部により算出された前記確率を統合して、前記境界線を認識する境界線認識部と、を備え、複数の前記境界線としての特徴は、前記画像の不鮮明度に対する前記幅算出部により算出された前記見かけの幅の比率が所定値よりも大きいことを含む。   In order to solve the above-described problem, a boundary line recognition apparatus according to claim 1 is provided with a camera mounted on a vehicle for photographing a road and a boundary line that divides the road based on luminance of an image photographed by the camera. In the boundary line candidate extraction unit that extracts edge candidate points and extracts the boundary line candidate lines from a series of the extracted edge candidate points, and the boundary line candidate lines extracted by the boundary line candidate extraction unit, A width calculation unit that calculates an apparent width of the candidate line on the image from the width of the candidate line in the horizontal direction of the image and the angle of the candidate line with respect to the vertical direction of the image; and the candidate line is a boundary The higher the degree of having a feature as a line, the higher the probability that the candidate line is the boundary line, and a boundary line feature calculation unit that calculates a plurality of the features by the boundary line feature calculation unit A boundary line recognizing unit that recognizes the boundary line by integrating the probabilities obtained, and a plurality of features as the boundary line are calculated by the width calculating unit with respect to the unclearness of the image Including a ratio of the widths of the two being larger than a predetermined value.

請求項1に記載の境界線認識装置によれば、車両に搭載されたカメラにより撮影された画像の輝度から、走路を区切る境界線のエッジ候補点、及び境界線の候補線が抽出される。抽出された候補線の画像上での見かけの幅が算出される。また、候補線が境界線の特徴を備えている度合いが大きいほど、候補線が境界線である確率が高く算出される。そして、複数の境界線の特徴について算出された確率が統合されて、境界線が認識される。   According to the boundary line recognition apparatus of the first aspect, the edge candidate points of the boundary line and the candidate lines of the boundary line are extracted from the luminance of the image photographed by the camera mounted on the vehicle. The apparent width of the extracted candidate line on the image is calculated. Further, the probability that the candidate line is a boundary line is calculated higher as the degree of the candidate line having the boundary line feature is larger. Then, the probabilities calculated for the features of the plurality of boundary lines are integrated to recognize the boundary lines.

本願発明者は、車両の遠方において、画像の不鮮明度に対して境界線の見かけの幅が狭くなると、エッジ候補点の抽出精度が低下し、境界線に沿って設置された路側物等を境界線と誤認識するおそれが高くなることに注目した。境界線の見かけの幅が狭い所では、境界線に沿って設置された路側物等のエッジを抽出した候補線のみかけの幅も狭くなることが多い。そこで、画像の不鮮明度に対する候補線の見かけの幅の比率が所定値よりも大きいことを、複数の境界線としての特徴の一つに含めた。このため、境界線である確率の統合において、この特徴から算出された確率を反映させることにより、車両の遠方における境界線の誤認識を抑制することができる。   If the apparent width of the boundary line becomes narrower with respect to the unclearness of the image at a distance from the vehicle, the inventor of the present application decreases the extraction accuracy of the edge candidate points, and the roadside objects installed along the boundary line We focused on the increased risk of misrecognizing a line. Where the apparent width of the boundary line is narrow, the apparent width of the candidate line from which an edge of a roadside object or the like installed along the boundary line is often narrowed. Therefore, the fact that the ratio of the apparent width of the candidate line to the unclearness of the image is larger than a predetermined value is included in one of the features as a plurality of boundary lines. For this reason, in the integration of the probabilities that are boundary lines, by reflecting the probabilities calculated from these characteristics, it is possible to suppress erroneous recognition of the boundary lines in the distance of the vehicle.

一実施形態に係る境界線認識装置の構成を示すブロック図。The block diagram which shows the structure of the boundary line recognition apparatus which concerns on one Embodiment. 確率を統合する演算式。An arithmetic expression that integrates probabilities. 候補線の見かけの幅に基づいて境界線である確率を算出する処理手順を示すフローチャート。The flowchart which shows the process sequence which calculates the probability which is a boundary line based on the apparent width of a candidate line. 候補線の見かけの幅及び水平方向の幅を示す図。The figure which shows the apparent width and horizontal width of a candidate line. 候補線の輝度を水平方向に微分した一次微分分布を示す図。The figure which shows the primary differential distribution which differentiated the brightness | luminance of the candidate line in the horizontal direction. 水平方向における候補線の輝度分布を示す図。The figure which shows the luminance distribution of the candidate line in a horizontal direction. 不鮮明度に対する見かけの幅の比率と境界線である確率との対応を示す図。The figure which shows a response | compatibility with the ratio of the apparent width with respect to unclearness, and the probability which is a boundary line. 候補線の見かけの幅に基づいて算出した境界線である確率を反映させる前と反映させた後において認識した境界線を示す図。The figure which shows the boundary line recognized before and after reflecting the probability which is a boundary line computed based on the apparent width of a candidate line.

図1を参照して、一実施形態に係る境界線認識装置の構成について説明する。本実施形態に係る境界線認識装置は、カメラ10、及び画像処理装置70を備える。   With reference to FIG. 1, the structure of the boundary line recognition apparatus which concerns on one Embodiment is demonstrated. The boundary line recognition apparatus according to this embodiment includes a camera 10 and an image processing apparatus 70.

カメラ10は、例えばCCDカメラであり、車両前方の走路を撮影できるように、例えばルームミラーの裏側に、車両前方を向いて固定されている。カメラ10は、車両前方の走路を撮影し、撮影した画像情報を画像処理装置70に出力する。   The camera 10 is a CCD camera, for example, and is fixed, for example, on the back side of a rearview mirror so as to face the front of the vehicle so as to capture the road ahead of the vehicle. The camera 10 captures a road ahead of the vehicle and outputs the captured image information to the image processing device 70.

画像処理装置70は、CPU、ROM、RAM、I/O、及びこれらを接続するバスライン等からなるマイクロコンピュータとして構成されている。本実施形態では、CPUがROMに記憶されたプログラムを実行することで、境界線候補抽出部20、境界線特徴算出部30、境界線認識部60の機能を実現している。   The image processing apparatus 70 is configured as a microcomputer including a CPU, a ROM, a RAM, an I / O, a bus line connecting these, and the like. In the present embodiment, the functions of the boundary line candidate extraction unit 20, the boundary line feature calculation unit 30, and the boundary line recognition unit 60 are realized by the CPU executing a program stored in the ROM.

境界線候補抽出部20は、カメラ10により撮影された画像の輝度に基づいて、走路を区切る白線等の境界線のエッジ候補点を抽出し、抽出したエッジ候補点の連なりから境界線の候補線を抽出する。画像上で車両走行方向に交差する水平方向において、画像の輝度は、1本の境界線の左右の輪郭(エッジ)部分で大きく変化する。境界線候補抽出部20は、カメラ10から取得した画像情報を所定のサンプリング周期で連続的に処理しており、画像の水平方向において、急激に輝度が変化する複数の点をエッジ候補点として抽出する。そして、抽出した複数のエッジ候補点にハフ変換を施してエッジ候補点の連なりを取得し、取得したエッジ候補点の連なりを左右の輪郭とする候補線を複数抽出する。   The boundary line candidate extraction unit 20 extracts edge candidate points of boundary lines such as white lines that divide the runway based on the luminance of the image photographed by the camera 10, and the boundary line candidate lines are obtained from the series of the extracted edge candidate points. To extract. In the horizontal direction intersecting the vehicle traveling direction on the image, the luminance of the image changes greatly at the left and right contour (edge) portions of one boundary line. The boundary line candidate extraction unit 20 continuously processes the image information acquired from the camera 10 with a predetermined sampling period, and extracts a plurality of points whose luminance changes rapidly in the horizontal direction of the image as edge candidate points. To do. Then, Hough transform is performed on the extracted plurality of edge candidate points to acquire a series of edge candidate points, and a plurality of candidate lines having the left and right contours as the acquired series of edge candidate points are extracted.

境界線特徴算出部30は、幅算出部31、投票数算出部32、エッジ強度算出部33、分岐路判定部34を備える。境界線特徴算出部30は、境界線候補抽出部20により抽出された複数の候補線のそれぞれについて、各エッジ候補点において、本線走路の境界線としての特徴を備えている度合いを算出し、特徴を備えている度合いが大きいほど、候補線が本線走路の境界線である確率を高く算出する。   The boundary line feature calculation unit 30 includes a width calculation unit 31, a vote count calculation unit 32, an edge strength calculation unit 33, and a branch path determination unit 34. The boundary line feature calculation unit 30 calculates, for each of the plurality of candidate lines extracted by the boundary line candidate extraction unit 20, the degree of having the feature as the boundary line of the main road at each edge candidate point. The greater the degree of having, the higher the probability that the candidate line is the boundary line of the main road.

本願発明者は、車両の遠方において、画像の不鮮明度に対して境界線の見かけの幅が狭くなると、境界線に沿って設置された路側物等のエッジをエッジ候補点として抽出し、路側物等を境界線と誤認識するおそれが高くなることに注目した。すなわち、画像の不鮮明度に対して境界線の幅が所定よりも広くない場合には、境界線でないものを境界線と誤認識したり、境界線を境界線でないと誤認識したりする可能性が高くなる。そこで、画像の不鮮明度に対する候補線の見かけの幅の比率が所定値よりも大きいことを、本線走路の境界線としての特徴とした。   The inventor of the present application extracts the edge of a roadside object or the like installed along the boundary line as an edge candidate point when the apparent width of the boundary line becomes narrow with respect to the unclearness of the image at a distance from the vehicle. We noticed that there is a high risk of misrecognizing etc. as boundaries. In other words, if the width of the boundary line is not wider than the predetermined value for the unclearness of the image, a non-boundary line may be misrecognized as a boundary line, or the boundary line may be misrecognized as not being a boundary line. Becomes higher. Therefore, the ratio of the apparent width of the candidate line to the unclearness of the image is larger than a predetermined value as a feature as the boundary line of the main road.

また、その他に、ハフ変換による投票数が所定数よりも多いこと、水平方向の輝度微分値で表されるエッジ強度が所定値よりも大きいこと、境界線により区切られた走路が分岐路でないことを、本線走路の境界線としての特徴とした。   In addition, the number of votes by the Hough transform is greater than the predetermined number, the edge intensity represented by the luminance differential value in the horizontal direction is greater than the predetermined value, and the runway delimited by the boundary line is not a branch road As the boundary of the main track.

幅算出部31は、各エッジ候補点において、候補線の見かけの幅を算出する。そして、画像の不鮮明度に対する算出した見かけの幅の比率が所定値よりも小さい場合に、候補線が本線走路の境界線である確率を最低にして、候補線が本線走路の境界線として認識されることを抑制する。   The width calculation unit 31 calculates the apparent width of the candidate line at each edge candidate point. Then, when the ratio of the calculated apparent width to the image blur is smaller than a predetermined value, the probability that the candidate line is the boundary of the main track is minimized, and the candidate line is recognized as the boundary of the main track. It suppresses that.

投票数算出部32は、ハフ変換による投票数が所定数よりも小さい場合に、候補線が本線走路の境界線である確率を最低にして、候補線が本線走路の境界線として認識されることを抑制する。エッジ強度算出部33は、候補線のエッジ強度が所定値よりも小さい場合に、候補線が本線走路の境界線である確率を最低にして、候補線が本線走路の境界線として認識されることを抑制する。分岐路判定部34は、候補線により区切られた走路が分岐路か否か判定し、分岐路と判定された場合は、候補線が本線走路の境界線である確率を最低にして、候補線が本線走路の境界線として認識されることを抑制する。   When the vote count by the Hough transform is smaller than a predetermined number, the vote count calculation unit 32 minimizes the probability that the candidate line is the boundary line of the main track and recognizes the candidate line as the boundary line of the main track Suppress. When the edge strength of the candidate line is smaller than a predetermined value, the edge strength calculation unit 33 minimizes the probability that the candidate line is the boundary line of the main road and recognizes the candidate line as the boundary line of the main road Suppress. The branch road determination unit 34 determines whether or not the road delimited by the candidate line is a branch road. If the branch road is determined to be a branch road, the probability that the candidate line is the boundary line of the main road is minimized and the candidate line is determined. Is recognized as the boundary of the main track.

境界線認識部60は、境界線特徴統合部40及び境界線選択部50を備え、複数の境界線としての特徴について、境界線特徴算出部30によりそれぞれ算出された確率を統合して、境界線を認識する。   The boundary line recognition unit 60 includes a boundary line feature integration unit 40 and a boundary line selection unit 50, and integrates the probabilities calculated by the boundary line feature calculation unit 30 with respect to features as a plurality of boundary lines. Recognize

境界線特徴統合部40は、図2に示す演算式を用いて、幅算出部31、投票数算出部32、エッジ強度算出部33、分岐路判定部34によりそれぞれ算出された確率を統合して、統合確率を算出する。まず、幅算出部31により算出された確率をA、投票数算出部32により算出された確率をBとして、幅算出部31及び投票数算出部32により算出された確率を統合した確率Xを算出する。さらに、幅算出部31及び投票数算出部32により算出された確率を統合した確率XをA、エッジ強度算出部33により算出された確率をBとして、幅算出部31、投票数算出部32、及びエッジ強度算出部33により算出された確率を統合した確率Xを算出する。このように順次確率を統合して、複数の境界線としての特徴について、境界線特徴算出部30によりそれぞれ算出された確率を統合する。なお、境界線の特徴は上記4つの特徴に限らない。その他の境界線としての特徴についても候補線が本線走路の境界線である確率を算出し、算出した確率を統合してもよい。   The boundary line feature integration unit 40 integrates the probabilities calculated by the width calculation unit 31, the vote count calculation unit 32, the edge strength calculation unit 33, and the branch path determination unit 34 using the arithmetic expression shown in FIG. Calculate the integration probability. First, the probability X calculated by the width calculating unit 31 is A, the probability calculated by the vote calculating unit 32 is B, and the probability X obtained by integrating the probabilities calculated by the width calculating unit 31 and the vote calculating unit 32 is calculated. To do. Further, the probability X obtained by integrating the probabilities calculated by the width calculation unit 31 and the vote number calculation unit 32 is A, and the probability calculated by the edge strength calculation unit 33 is B, the width calculation unit 31, the vote number calculation unit 32, And the probability X which integrated the probability calculated by the edge strength calculation part 33 is calculated. In this way, the probabilities are sequentially integrated, and the probabilities calculated by the boundary line feature calculating unit 30 are integrated for the features as a plurality of boundary lines. Note that the characteristics of the boundary line are not limited to the above four characteristics. For other features as the boundary line, the probability that the candidate line is the boundary line of the main road may be calculated, and the calculated probabilities may be integrated.

境界線選択部50は、境界線特徴統合部40により統合された確率に基づいて、候補線が境界線であるか否か判定し、本線走路の境界線として認識する候補線及びその候補線に含まれるエッジ候補点を選択する。詳しくは、統合された確率が境界線として判定できる判定値よりも高い候補線のうち、車両の左側と右側で対になっている候補線であり、且つ最も車両に近い候補線の車両側の輪郭を表すエッジ候補点を選択する。   The boundary line selection unit 50 determines whether the candidate line is a boundary line based on the probabilities integrated by the boundary line feature integration unit 40, and recognizes the candidate line recognized as the boundary line of the main road and the candidate line. Select included edge candidate points. Specifically, among candidate lines whose integrated probability is higher than a determination value that can be determined as a boundary line, the candidate lines that are paired on the left side and the right side of the vehicle and that are closest to the vehicle on the vehicle side Edge candidate points representing contours are selected.

なお、車両を自動制御する場合は、境界線選択部50により選択された候補線の形状に基づいて、車両の操舵量の設定や路面上の物体の検出が行われる。また、車両が選択された候補線の外にはみ出した場合には、警報音が出力される。すなわち、本線走路の境界線として選択された候補線を制御目標の境界線に設定し、車両についての種々の自動制御を実行する。   When the vehicle is automatically controlled, the vehicle steering amount is set and the object on the road surface is detected based on the shape of the candidate line selected by the boundary line selection unit 50. Further, when the vehicle is outside the selected candidate line, an alarm sound is output. That is, the candidate line selected as the boundary line of the main road is set as the boundary line of the control target, and various automatic controls are executed on the vehicle.

次に、図3を参照して、境界線である確率を算出する処理手順について詳細に説明する。本処理手順は、幅算出部31が実行する。   Next, a processing procedure for calculating the probability of being a boundary line will be described in detail with reference to FIG. This processing procedure is executed by the width calculation unit 31.

まず、S11では、画像の水平方向における候補線の幅wを算出する。続いてS12では、垂直方向(車両走行方向)に対する候補線の角度θを算出する。続いてS13では、画像上での候補線の見かけの幅を算出する。画像上での候補線の見かけの幅は、図4に示すように、候補線の延伸方向に垂直な方向における候補線の幅である。候補線の見かけの幅は、S11で算出した水平方向における候補線の幅w、及びS12で算出した垂直方向に対する候補線の角度θから、wcosθと算出される。画像上での候補線の見かけの幅の単位はピクセルになる。   First, in S11, the width w of the candidate line in the horizontal direction of the image is calculated. Subsequently, in S12, the angle θ of the candidate line with respect to the vertical direction (vehicle traveling direction) is calculated. Subsequently, in S13, the apparent width of the candidate line on the image is calculated. The apparent width of the candidate line on the image is the width of the candidate line in the direction perpendicular to the extending direction of the candidate line, as shown in FIG. The apparent width of the candidate line is calculated as wcos θ from the width w of the candidate line in the horizontal direction calculated in S11 and the angle θ of the candidate line with respect to the vertical direction calculated in S12. The unit of the apparent width of the candidate line on the image is a pixel.

続いてS14では、画像の不鮮明度を算出する。詳しくは、図5に示すように、画像の水平方向にエッジ候補点を含む周辺の輝度を微分して一次微分分布を算出し、算出した一次微分分布の所定幅を画像の不鮮明度とする。   Subsequently, in S14, the unclearness of the image is calculated. Specifically, as shown in FIG. 5, the first-order differential distribution is calculated by differentiating the peripheral luminance including the edge candidate points in the horizontal direction of the image, and the predetermined width of the calculated first-order differential distribution is set as the unclearness of the image.

画像がぼけていない理想的な状況では、画像の水平方向における輝度の一次微分分布は、境界線の左右のエッジ部分で鋭いピークとなり、広がりを持たない。これに対して、レンズの仕様や降雨等のために画像がぼけている状況では、一次微分分布は、左右のエッジ部分で広がりを持つ分布になる。それゆえ、一次微分分布の広がりの程度を表す所定幅を、画像の不鮮明度とする。   In an ideal situation where the image is not blurred, the first-order differential distribution of luminance in the horizontal direction of the image has sharp peaks at the left and right edge portions of the boundary line, and has no spread. On the other hand, in a situation where the image is blurred due to lens specifications, rain, or the like, the first-order differential distribution is a distribution having a spread at the left and right edge portions. Therefore, the predetermined width representing the extent of the first-order differential distribution is defined as the image blur.

あるいは、図6に示すように、画像の水平方向に分布したエッジ候補点を含む周辺の輝度分布において、第1所定値から第1所定値よりも大きい第2所定値までの輝度が分布する幅を画像の不鮮明度とする。   Alternatively, as shown in FIG. 6, in the peripheral luminance distribution including the edge candidate points distributed in the horizontal direction of the image, the width in which the luminance is distributed from the first predetermined value to the second predetermined value larger than the first predetermined value. Is the image blur.

画像がぼけていない理想的な状況では、画像の水平方向における境界線の輝度分布は、境界線の左右のエッジ部分において、最小輝度から最高輝度に急に立ち上がる鋭いピークをもつ分布になる。これに対して、レンズの仕様や降雨等のために画像がぼけている状況では、輝度分布は、境界線の左右のエッジ部分で鈍って広がり、最小輝度から最高輝度まで理想的な状況よりも緩やかに立ち上がる分布になる。この輝度分布において、第1所定値から第2所定値までの輝度が分布する幅は、境界線のエッジ部分の広がりの程度をよく表している。それゆえ、最高輝度に対して第1所定値から第2所定値までの輝度が分布する幅を、画像の不鮮明度とする。   In an ideal situation where the image is not blurred, the luminance distribution of the boundary line in the horizontal direction of the image is a distribution having sharp peaks that suddenly rise from the minimum luminance to the maximum luminance at the left and right edge portions of the boundary line. On the other hand, in a situation where the image is blurred due to lens specifications, rainfall, etc., the brightness distribution spreads dullly at the left and right edge portions of the boundary line, which is less than the ideal situation from the minimum brightness to the maximum brightness. The distribution rises gently. In this luminance distribution, the width in which the luminance from the first predetermined value to the second predetermined value is distributed well represents the extent of the edge portion of the boundary line. Therefore, the range in which the luminance from the first predetermined value to the second predetermined value is distributed with respect to the maximum luminance is defined as the unclearness of the image.

なお、画像上での候補線の見かけの幅方向と、一次微分分布の微分方向及び輝度分布の分布方向とは異なるが、上記2つの不鮮明度算出方法のいずれでも、おおよその不鮮明度を算出できる。また、上記2つの不鮮明度算出方法のいずれで算出しても、画像の不鮮明度は同程度の値となり、単位はピクセルになる。   Although the apparent width direction of the candidate line on the image is different from the differential direction of the primary differential distribution and the distribution direction of the luminance distribution, the approximate blur level can be calculated by either of the above two blur level calculation methods. . Moreover, even if it calculates with either of the said 2 unsharpness calculation methods, the unsharpness of an image will be a comparable value, and a unit will be a pixel.

続いてS15では、S14で算出した画像の不鮮明度とS13で算出した候補線の見かけの幅とから、画像の不鮮明度に対する候補線の見かけの幅の比率を算出する。詳しくは、候補線の見かけの幅を画像の不鮮明度で割って、この比率を算出する。   Subsequently, in S15, the ratio of the apparent width of the candidate line to the unclearness of the image is calculated from the unclearness of the image calculated in S14 and the apparent width of the candidate line calculated in S13. Specifically, the ratio is calculated by dividing the apparent width of the candidate line by the unclearness of the image.

続いてS16では、図7に示す確率マップを用いて、S15で算出した画像の不鮮明度に対する候補線の見かけの幅の比率から、候補線が境界線である確率を算出する。   Subsequently, in S16, using the probability map shown in FIG. 7, the probability that the candidate line is a boundary line is calculated from the ratio of the apparent width of the candidate line to the image blur calculated in S15.

境界線が車両の遠方にある場合、画像上での境界線の見かけの幅は、車両近辺にある場合よりも狭くなる。特に、図7に示すように、境界線が画像上で水平方向にカーブしていると、車両の遠方において、画像上での境界線の見かけの幅は非常に狭くなるとともに、境界線のエッジ部分がぼやけ易くなる。このため、車両の遠方では車両近辺よりも、画像の不鮮明度に対して、画像上で境界線の見かけの幅が狭くなるとともに、エッジ部分とそれ以外の部分との見分けが付きにくくなり、エッジ候補点及び候補線の抽出精度が低くなる。   When the boundary line is far from the vehicle, the apparent width of the boundary line on the image is narrower than when it is near the vehicle. In particular, as shown in FIG. 7, when the boundary line is curved in the horizontal direction on the image, the apparent width of the boundary line on the image becomes very narrow and the edge of the boundary line is far away from the vehicle. The part is easily blurred. For this reason, the apparent width of the boundary line is narrower on the image relative to the unclearness of the image at a distance from the vehicle than at the vicinity of the vehicle, and it is difficult to distinguish the edge portion from the other portions. The extraction accuracy of candidate points and candidate lines is lowered.

画像の不鮮明度に対する画像上での候補線の見かけの幅の比率が所定値よりも小さい場合は、画像の不鮮明度と比較して、画像上での候補線の見かけの幅が狭くなり、境界線のエッジ部分とそれ以外の部分とを区別することが困難となる。それゆえ、上記比率が所定値よりも小さい場合は、境界線である確率を所定の最低確率にし、境界線が誤認識されることを抑制する。一方、上記比率が所定の最大値よりも大きい場合、すなわち画像の不鮮明度と比較して、画像上での候補線の見かけの幅が広い場合には、候補線が境界線であるか否かの判定の信頼性が十分に高くなる。それゆえ、上記比率が所定の最大値よりも大きい場合は、境界線である確率を所定の最高確率にする。また、上記比率が所定値から所定の最大値の間の場合は、画像の不鮮明度に対する候補線の見かけの幅の比率が小さいほど、候補線が境界線である確率を小さくする。   If the ratio of the apparent width of the candidate line on the image to the unclearness of the image is smaller than the predetermined value, the apparent width of the candidate line on the image becomes narrower than the predetermined value, and the boundary It becomes difficult to distinguish the edge portion of the line from the other portion. Therefore, when the ratio is smaller than a predetermined value, the probability of being a boundary line is set to a predetermined minimum probability, and erroneous recognition of the boundary line is suppressed. On the other hand, if the above ratio is larger than a predetermined maximum value, that is, if the apparent width of the candidate line on the image is wider than the image blur, whether or not the candidate line is a boundary line. The reliability of the determination becomes sufficiently high. Therefore, when the ratio is larger than a predetermined maximum value, the probability of being a boundary line is set to a predetermined maximum probability. When the ratio is between a predetermined value and a predetermined maximum value, the probability that the candidate line is a boundary line is reduced as the ratio of the apparent width of the candidate line to the image blur is smaller.

ここで、所定の最低確率は、境界線特徴統合部40により、複数の境界線としての特徴について算出した確率を統合したときに、統合した確率を非常に低くする値であり、候補線が境界線として認識されることを抑制する値である。   Here, the predetermined minimum probability is a value that makes the integrated probability very low when the probabilities calculated for the features as the plurality of boundary lines are integrated by the boundary line feature integration unit 40, and the candidate line is a boundary. It is a value that suppresses recognition as a line.

以上で本処理を終了し、幅算出部31は、S16で算出した境界線である確率を、境界線特徴統合部40に出力する。   This processing is thus completed, and the width calculation unit 31 outputs the probability of the boundary line calculated in S16 to the boundary line feature integration unit 40.

図8(a),(b)に、画像処理装置70により境界線を認識した結果の一例を示す。白四角は境界線選択部50により選択されたエッジ候補点を示し、黒四角は除外されたエッジ候補点を示す。図8(a)は、複数の境界線としての特徴について算出された境界線である確率を統合した確率に、幅算出部31により算出された確率を反映していない場合の図である。これに対して、図8(b)は、複数の境界線としての特徴について算出された境界線である確率を統合した確率に、幅算出部31により算出された確率を反映した場合の図である。   FIGS. 8A and 8B show an example of the result of recognizing the boundary line by the image processing apparatus 70. FIG. White squares indicate edge candidate points selected by the boundary line selection unit 50, and black squares indicate excluded edge candidate points. FIG. 8A is a diagram in the case where the probability calculated by the width calculation unit 31 is not reflected in the probability obtained by integrating the probabilities of the boundary lines calculated for the features as a plurality of boundary lines. On the other hand, FIG. 8B is a diagram in the case where the probability calculated by the width calculating unit 31 is reflected on the probability obtained by integrating the probabilities of the boundary lines calculated for the features as a plurality of boundary lines. is there.

図8(a),(b)では、走路が車両の遠方でカーブしており、カーブ付近において、走路の左側に沿って定間隔でポールが設置されている。カーブ付近では、ポールのエッジがエッジ候補点として抽出されている。   8 (a) and 8 (b), the road is curved far away from the vehicle, and poles are installed at regular intervals along the left side of the road near the curve. Near the curve, pole edges are extracted as edge candidate points.

ポールを表すエッジ候補点は、境界線として選択するエッジ候補点から除外すべきであるが、図8(a)では、ポールを表すエッジ候補点のうち境界線との連続性が高い一部が、本線走路の境界線として選択されている。すなわち、カーブ付近で、ポールを表すエッジ候補点の連なりを境界線と誤認識している。これに対して図8(b)では、図8(a)で境界線と誤認識されたエッジ候補点の連なりが、本線走路の境界線として選択されていない。画像の不鮮明度に対して、ポールを表すエッジ候補点の連なりからなる候補線の見かけの幅は狭い。そのため、S11〜S16の処理を実行して算出した確率が小さくなり、境界線特徴統合部40により統合された確率を低くする。その結果、図8(b)では、ポールを表すエッジ候補点が、本線走路の境界線として選択されていない。   Edge candidate points representing poles should be excluded from edge candidate points to be selected as boundary lines. In FIG. 8A, some edge candidate points representing poles that have high continuity with the boundary lines are included. , Selected as the boundary of the main track. That is, in the vicinity of the curve, a series of edge candidate points representing poles are erroneously recognized as boundary lines. On the other hand, in FIG. 8B, a series of edge candidate points erroneously recognized as the boundary line in FIG. 8A is not selected as the boundary line of the main road. The apparent width of a candidate line made up of a series of edge candidate points representing a pole is narrow with respect to the unclearness of the image. Therefore, the probability calculated by executing the processes of S11 to S16 is reduced, and the probability of integration by the boundary line feature integration unit 40 is reduced. As a result, in FIG. 8B, the edge candidate point representing the pole is not selected as the boundary line of the main road.

以上説明した本実施形態によれば、以下の効果を奏する。   According to this embodiment described above, the following effects are obtained.

・候補線が境界線である確率の統合において、画像の不鮮明度に対する候補線の見かけの幅の比率が所定値よりも大きいことを特徴として算出した確率を反映させることにより、車両の遠方における境界線の誤認識を抑制することができる。   -In the integration of the probability that the candidate line is a boundary line, by reflecting the probability calculated by the feature that the ratio of the apparent width of the candidate line to the unclearness of the image is larger than a predetermined value, the boundary in the distance of the vehicle Misrecognition of lines can be suppressed.

・画像の不鮮明度に対する候補線の見かけの幅の比率が小さいほど、抽出された候補線が境界線である確率を小さくすることにより、境界線を誤認識することを抑制できる。   -As the ratio of the apparent width of the candidate line to the unclearness of the image is smaller, the probability that the extracted candidate line is a boundary line is reduced, so that it is possible to suppress erroneous recognition of the boundary line.

・画像の不鮮明度を、輝度の微分値分布における所定幅、又は最高輝度に対する所定輝度の分布幅に基づき算出するため、レンズの仕様及び状況を反映した不鮮明度とすることができる。   Since the image blur is calculated based on a predetermined width in the differential value distribution of luminance or a distribution width of the predetermined luminance with respect to the maximum luminance, it is possible to obtain a blur reflecting the specification and situation of the lens.

(他の実施形態)
本発明は上記実施形態の記載内容に限定されず、以下のように変更して実施してもよい。
(Other embodiments)
The present invention is not limited to the description of the above embodiment, and may be modified as follows.

・画像の水平方向に対して角度θの方向、すなわち画像上の候補線の見かけの幅方向に、エッジ候補点を含む周辺の輝度を微分して一次微分分布を算出し、算出した一次微分分布の所定幅を画像の不鮮明度としてもよい。このようにすれば、画像の不鮮明度の精度を向上させることができる。   ・ Calculate the primary differential distribution by differentiating the surrounding luminance including the edge candidate points in the direction of the angle θ with respect to the horizontal direction of the image, that is, the apparent width direction of the candidate line on the image, and calculate the primary differential distribution The predetermined width may be used as the unclearness of the image. In this way, it is possible to improve the accuracy of the unclearness of the image.

・画像の水平方向に対して角度θの方向に分布したエッジ候補点を含む周辺の輝度分布において、第1所定値から第2所定値までの輝度が分布する幅を画像の不鮮明度としてもよい。このようにすれば、画像の不鮮明度の精度を向上させることができる。   In the peripheral luminance distribution including the edge candidate points distributed in the direction of the angle θ with respect to the horizontal direction of the image, the width in which the luminance from the first predetermined value to the second predetermined value is distributed may be defined as the unclearness of the image. . In this way, it is possible to improve the accuracy of the unclearness of the image.

・カメラ10が備えるレンズのぼけ量の仕様値を画像上での長さに換算し、その換算値を画像の不鮮明度としてもよい。このようにすれば、容易に画像の不鮮明度に対する画像上での候補線の見かけの幅の比率を算出することができる。また、降雨時や降霧時以外では、精度の高い不鮮明度を取得できる。   The specification value of the amount of lens blur included in the camera 10 may be converted into a length on the image, and the converted value may be used as the unclearness of the image. In this way, the ratio of the apparent width of the candidate line on the image to the unclearness of the image can be easily calculated. In addition, it is possible to obtain high-precision blurringness when it is not raining or fogging.

・降雨時や降霧時は、雨や霧によりレンズのぼけ量よりも画像の不鮮明度が高くなるので、降雨時や降霧時には、レンズのぼけ量を増加させるように補正してもよい。具体的には、図1に破線で示すように、降雨を検出するレインセンサ11(降雨検出手段)、及び降霧を検出する霧センサ12(降霧検出手段)を車両に搭載する。そして、レインセンサ11及び霧センサ12により降雨又は降霧が検出された場合に、降雨及び降霧が検出されていない場合よりも、レンズのぼけ量の仕様値の換算値を増加させるように補正し、補正した値を画像の不鮮明度とする。   -When it is raining or fogging, the image blur is higher than the amount of lens blur due to rain or fog, so that it may be corrected to increase the lens blur amount during raining or fogging. Specifically, as shown by a broken line in FIG. 1, a rain sensor 11 (rainfall detection means) for detecting rainfall and a fog sensor 12 (fog detection means) for detecting fog are mounted on the vehicle. Then, when rain or fog is detected by the rain sensor 11 and the fog sensor 12, correction is performed so that the conversion value of the specification value of the lens blur amount is increased as compared with the case where rain and fog are not detected. The corrected value is used as the image blur.

このようにすれば、降雨時や降霧時に、画像の不鮮明度の精度を向上させることができ、ひいては境界線の誤検出をより抑制することができる。なお、レインセンサ11の代わりに、ワイパスイッチのオンにより降雨を検出し、霧センサ12の代わりにフォグランプスイッチのオンにより降霧を検出してもよい。   In this way, it is possible to improve the accuracy of the image blur during rainfall or fogging, and to further suppress erroneous detection of the boundary line. Instead of the rain sensor 11, the rain may be detected by turning on the wiper switch, and the fog may be detected by turning on the fog lamp switch instead of the fog sensor 12.

・さらに、レインセンサ11及び霧センサ12により、降雨量又は降霧量を検出し、降雨量又は降霧量が多いほど、レンズのボケ量の仕様値の換算値を大きくするように補正してもよい。このようにすれば、降雨時や降霧時に、画像の不鮮明度の精度をさらに向上させることができる。   Furthermore, the rain sensor 11 or fog sensor 12 detects the amount of rainfall or the amount of fog, and corrects the conversion value of the lens blur amount specification value to increase as the amount of rainfall or the amount of fog increases. Also good. In this way, it is possible to further improve the accuracy of the unclearness of the image during rain or fog.

・画像の不鮮明度に対する画像上での候補線の見かけの幅の比率について、上記実施形態で設定した所定値から所定の最大値の間に基準値を設定する。上記比率が基準値よりも大きい場合は、境界線である確率を例えば所定の高確率と算出し、小さい場合は境界線である確率を例えば所定の低確率と算出するようにしてもよい。すなわち、境界線である確率を不連続な二値に設定してもよい。   A reference value is set between a predetermined value set in the above embodiment and a predetermined maximum value for the ratio of the apparent width of the candidate line on the image to the unclearness of the image. If the ratio is larger than the reference value, the probability of being a boundary line may be calculated as, for example, a predetermined high probability, and if it is smaller, the probability of being a boundary line may be calculated as, for example, a predetermined low probability. That is, the probability of being a boundary line may be set to a discontinuous binary value.

10…カメラ、20…境界線候補抽出部、30…境界線特徴算出部、31…幅算出部、40…境界線特徴統合部、50…境界線選択部、60…境界線認識部、70…画像処理装置。   DESCRIPTION OF SYMBOLS 10 ... Camera, 20 ... Boundary line candidate extraction part, 30 ... Boundary line feature calculation part, 31 ... Width calculation part, 40 ... Boundary line feature integration part, 50 ... Boundary line selection part, 60 ... Boundary line recognition part, 70 ... Image processing device.

Claims (8)

車両に搭載されて走路を撮影するカメラ(10)と、
前記カメラにより撮影された画像の輝度に基づいて、前記走路を区切る境界線のエッジ候補点を抽出し、抽出したエッジ候補点の連なりから前記境界線の候補線を抽出する境界線候補抽出部(20)と、
前記境界線候補抽出部により抽出された前記境界線の候補線において、前記画像の水平方向における前記候補線の幅、及び前記画像の垂直方向に対する前記候補線の角度から、前記候補線の前記画像上での見かけの幅を算出する幅算出部(31)と、
前記候補線が境界線としての特徴を備えている度合いが大きいほど、前記候補線が前記境界線である確率を高く算出する境界線特徴算出部(30)と、
複数の前記特徴について前記境界線特徴算出部により算出された前記確率を統合して、前記境界線を認識する境界線認識部(60)と、を備え、
複数の前記境界線としての特徴は、前記画像の不鮮明度に対する前記幅算出部により算出された前記見かけの幅の比率が所定値よりも大きいことを含む境界線認識装置。
A camera (10) mounted on a vehicle and shooting a runway;
A boundary candidate extraction unit that extracts edge candidate points of the boundary line that divides the runway based on the luminance of the image photographed by the camera, and extracts the candidate line of the boundary line from a series of the extracted edge candidate points ( 20)
In the candidate line of the boundary line extracted by the boundary line candidate extraction unit, the image of the candidate line is calculated from the width of the candidate line in the horizontal direction of the image and the angle of the candidate line with respect to the vertical direction of the image. A width calculation unit (31) for calculating the apparent width above;
A boundary line feature calculation unit (30) that calculates a higher probability that the candidate line is the boundary line as the degree of the candidate line having a characteristic as a boundary line increases;
A boundary line recognition unit (60) for recognizing the boundary line by integrating the probabilities calculated by the boundary line feature calculation unit for a plurality of the features,
The boundary line recognition apparatus includes a plurality of characteristics as the boundary lines, wherein a ratio of the apparent width calculated by the width calculation unit to the unclearness of the image is larger than a predetermined value.
前記境界線特徴算出部は、前記画像の不鮮明度に対する前記見かけの幅の比率が小さいほど、前記確率を低く算出する請求項1に記載の境界線認識装置。   The boundary line recognition apparatus according to claim 1, wherein the boundary line feature calculation unit calculates the probability lower as the ratio of the apparent width to the unclearness of the image is smaller. 前記境界線特徴算出部は、前記画像の不鮮明度に対する前記見かけの幅の比率が前記所定値よりも小さい場合に、前記確率を所定の最低確率に算出する請求項1又は2に記載の境界線認識装置。   The boundary line according to claim 1 or 2, wherein the boundary line feature calculation unit calculates the probability to a predetermined minimum probability when a ratio of the apparent width to the unclearness of the image is smaller than the predetermined value. Recognition device. 前記境界線特徴算出部は、前記画像の不鮮明度に対する前記見かけの幅の比率が、前記所定値よりも大きく設定された所定の最大値よりも大きい場合に、前記確率を所定の最高確率に算出する請求項1〜3のいずれかに記載の境界線認識装置。   The boundary line feature calculation unit calculates the probability to a predetermined maximum probability when a ratio of the apparent width to the unclearness of the image is larger than a predetermined maximum value set larger than the predetermined value. The boundary line recognition apparatus according to claim 1. 前記画像の不鮮明度は、前記画像の水平方向において前記エッジ候補点を含む周辺の輝度を微分して算出した一次微分分布の所定幅である請求項1〜4のいずれかに記載の境界線認識装置。   The boundary line recognition according to any one of claims 1 to 4, wherein the unsharpness of the image is a predetermined width of a primary differential distribution calculated by differentiating luminance around the candidate point in the horizontal direction of the image. apparatus. 前記画像の不鮮明度は、前記画像の水平方向に分布した前記エッジ候補点を含む周辺の輝度分布において、第1所定値から前記第1所定値よりも大きい第2所定値までの輝度が分布する幅である請求項1〜4のいずれかに記載の境界線認識装置。   As for the unclearness of the image, the luminance from the first predetermined value to the second predetermined value larger than the first predetermined value is distributed in the peripheral luminance distribution including the edge candidate points distributed in the horizontal direction of the image. It is a width | variety, The boundary line recognition apparatus in any one of Claims 1-4. 前記画像の不鮮明度は、前記カメラが備えるレンズのぼけ量の仕様値を前記画像上での長さに換算した換算値である請求項1〜4のいずれかに記載の境界線認識装置。   The boundary line recognition apparatus according to any one of claims 1 to 4, wherein the unclearness of the image is a converted value obtained by converting a specification value of a blur amount of a lens included in the camera into a length on the image. 前記車両は降雨検出手段(11)及び降霧検出手段(12)を備え、
前記降雨検出手段及び前記降霧検出手段により降雨又は降霧が検出された場合に、前記降雨及び前記降霧が検出されていない場合よりも、前記ぼけ量の仕様値の前記換算値を増加させるように補正した値にする請求項7に記載の境界線認識装置。
The vehicle includes a rain detection means (11) and a fog detection means (12),
When rain or fog is detected by the rain detection means and the fog detection means, the conversion value of the specification value of the blur amount is increased as compared to the case where the rain and the fog are not detected. The boundary line recognition apparatus according to claim 7, wherein the value is corrected as described above.
JP2012283291A 2012-12-26 2012-12-26 Boundary line recognition device Expired - Fee Related JP5805619B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012283291A JP5805619B2 (en) 2012-12-26 2012-12-26 Boundary line recognition device
PCT/JP2013/084866 WO2014104183A1 (en) 2012-12-26 2013-12-26 Boundary recognition device and branch assessment device
US14/655,698 US10002433B2 (en) 2012-12-26 2013-12-26 Boundary line recognition apparatus and branch road determination apparatus
US15/974,287 US10891738B2 (en) 2012-12-26 2018-05-08 Boundary line recognition apparatus and branch road determination apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012283291A JP5805619B2 (en) 2012-12-26 2012-12-26 Boundary line recognition device

Publications (2)

Publication Number Publication Date
JP2014127027A JP2014127027A (en) 2014-07-07
JP5805619B2 true JP5805619B2 (en) 2015-11-04

Family

ID=51406461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012283291A Expired - Fee Related JP5805619B2 (en) 2012-12-26 2012-12-26 Boundary line recognition device

Country Status (1)

Country Link
JP (1) JP5805619B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6358084B2 (en) * 2014-12-26 2018-07-18 サクサ株式会社 Image processing device
JP6149883B2 (en) * 2015-02-26 2017-06-21 コニカミノルタ株式会社 Image inspection apparatus and image forming apparatus
JP6426512B2 (en) * 2015-03-17 2018-11-21 株式会社Soken Driving lane recognition system
JP7007856B2 (en) * 2017-10-27 2022-01-25 株式会社Subaru White line recognition device for vehicles
KR20200029785A (en) * 2018-09-11 2020-03-19 삼성전자주식회사 Localization method and apparatus of displaying virtual object in augmented reality
CN113632450B (en) * 2019-03-26 2023-07-04 株式会社小糸制作所 Imaging system and image processing apparatus

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3102478B2 (en) * 1998-08-17 2000-10-23 日本電気株式会社 Linear mark detection method and device
JP3584194B2 (en) * 2000-02-22 2004-11-04 株式会社ホンダエレシス White line detection method and white line detection device
JP3986363B2 (en) * 2002-05-20 2007-10-03 アイシン精機株式会社 Lane boundary detection device
JP2004145501A (en) * 2002-10-23 2004-05-20 Nissan Motor Co Ltd Road white line recognizing device
JP4092308B2 (en) * 2004-06-02 2008-05-28 トヨタ自動車株式会社 Boundary line detection device
JP4506573B2 (en) * 2005-06-15 2010-07-21 株式会社デンソー In-vehicle fog determination device
JP4665622B2 (en) * 2005-06-22 2011-04-06 日産自動車株式会社 Own vehicle position detection device, navigation device, and deceleration control device
JP4603970B2 (en) * 2005-12-15 2010-12-22 トヨタ自動車株式会社 Road marking line detection device
JP5276637B2 (en) * 2010-09-08 2013-08-28 富士重工業株式会社 Lane estimation device

Also Published As

Publication number Publication date
JP2014127027A (en) 2014-07-07

Similar Documents

Publication Publication Date Title
WO2014104183A1 (en) Boundary recognition device and branch assessment device
US9536155B2 (en) Marking line detection system and marking line detection method of a distant road surface area
CN106909876B (en) Lane detection system and method
JP5805619B2 (en) Boundary line recognition device
US9646214B2 (en) Lane boundary line recognition device and computer-readable storage medium storing program of recognizing lane boundary lines on roadway
US9626573B2 (en) Traffic lane marking recognition apparatus and traffic lane marking recognition program
US20180005073A1 (en) Road recognition apparatus
JP5986949B2 (en) Boundary line recognition device
US9589213B2 (en) Apparatus for recognizing turnoff from vehicle roadway
US10235579B2 (en) Vanishing point correction apparatus and method
US9542607B2 (en) Lane boundary line recognition device and computer-readable storage medium storing program of recognizing lane boundary lines on roadway
JP2015166903A (en) Branch road recognition apparatus
JP6230498B2 (en) Object recognition device
JP3656056B2 (en) Interrupting vehicle detection device and method
JP6483360B2 (en) Object recognition device
JP2010108049A (en) Road marking recognition device
JP2016162323A (en) Travelling section line recognition device
US11010618B2 (en) Apparatus for identifying line marking on road surface
JP2017123009A (en) Section line recognition device
JP6105279B2 (en) Branch decision device, boundary line recognition device
WO2019013253A1 (en) Detection device
JP2018005838A (en) Section line recognition apparatus
JP2017156965A (en) Road region detection device
JP2020101935A (en) Image recognition device
JP2009237781A (en) Image processor for vehicle, vehicle, and image processing program for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150902

R150 Certificate of patent or registration of utility model

Ref document number: 5805619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees