JP2019020957A - Detection device - Google Patents

Detection device Download PDF

Info

Publication number
JP2019020957A
JP2019020957A JP2017137854A JP2017137854A JP2019020957A JP 2019020957 A JP2019020957 A JP 2019020957A JP 2017137854 A JP2017137854 A JP 2017137854A JP 2017137854 A JP2017137854 A JP 2017137854A JP 2019020957 A JP2019020957 A JP 2019020957A
Authority
JP
Japan
Prior art keywords
luminance
brightness
line
candidate
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017137854A
Other languages
Japanese (ja)
Inventor
章伸 酒井
Akinobu Sakai
章伸 酒井
謙二 岡野
Kenji Okano
謙二 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017137854A priority Critical patent/JP2019020957A/en
Priority to PCT/JP2018/026192 priority patent/WO2019013253A1/en
Publication of JP2019020957A publication Critical patent/JP2019020957A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a technique for appropriately detecting a lane mark defining a traveling road on which a vehicle travels.SOLUTION: A detection unit includes an image acquisition unit S100, a candidate extraction unit S110, a luminance determination unit S160, a plurality of determination units S190, a recognition unit S210, and an output unit S40. The candidate extraction unit extracts at least one line candidate that is a candidate for a lane marking line from a photographed image on the basis of a feature point. The luminance determination unit determines whether or not luminance of a line candidate is equal to or higher than a predetermined luminance threshold value for each of at least one line candidate. When there are a plurality of candidates to be defined which are line candidates and whose luminance is determined to be equal to or higher than the luminance threshold value, a recognition unit recognizes a candidate closest to a vehicle among the plurality of candidates to be defined as a lane marking line.SELECTED DRAWING: Figure 7

Description

本開示は、画像からレーンマークを認識する技術に関する。   The present disclosure relates to a technique for recognizing a lane mark from an image.

特許文献1には、車両に搭載されたカメラにより撮影された画像からレーンマークの候補となる複数の線候補が検出された場合には、複数の線候補のうち輝度が最も高い線候補をレーンマークとして認識する、という技術が提案されている。   In Patent Document 1, when a plurality of line candidates that are candidates for lane marks are detected from an image captured by a camera mounted on a vehicle, the line candidate having the highest luminance among the plurality of line candidates is selected as a lane. A technique of recognizing as a mark has been proposed.

特開2015−197829号公報Japanese Patent Laying-Open No. 2015-197829

しかしながら、レーンマークには、例えば黄線等といった、白線よりも輝度の低い線が含まれ得る。発明者の詳細な検討の結果、特許文献1に記載の技術では、車両が走行する走行路を区画するレーンマークを検出する際、例えば白線及び黄線等といった輝度の異なる複数の線候補が検出された場合には、常に白線のみがレーンマークとして認識されるおそれがある、という課題が見出された。つまり、特許文献1に記載の技術では、車両が走行する走行路を区画するレーンマークを適切に検出できないおそれがある、という課題が見出された。   However, the lane mark may include a line having a lower luminance than the white line, such as a yellow line. As a result of detailed examination by the inventors, the technique described in Patent Document 1 detects a plurality of line candidates having different luminances such as white lines and yellow lines when detecting a lane mark that divides a traveling path on which the vehicle travels. In such a case, a problem has been found that only the white line may be recognized as a lane mark at all times. That is, in the technique described in Patent Document 1, a problem has been found that there is a possibility that a lane mark that divides a travel path on which the vehicle travels may not be detected appropriately.

本開示の1つの局面は、車両が走行する走行路を区画するレーンマークを適切に検出する技術を提供する。   One aspect of the present disclosure provides a technique for appropriately detecting lane marks that divide a traveling path on which a vehicle travels.

本開示の1つの局面は、車両(70)に搭載された検出装置(30)である。検出装置は、画像取得部(S100)と、候補抽出部(S110)と、輝度判断部(S160)と、複数判断部(S190)と、認識部(S210)と、出力部(S40)と、を備える。   One aspect of the present disclosure is a detection device (30) mounted on a vehicle (70). The detection device includes an image acquisition unit (S100), a candidate extraction unit (S110), a luminance determination unit (S160), a multiple determination unit (S190), a recognition unit (S210), an output unit (S40), Is provided.

画像取得部(S100)は、車両に搭載された少なくとも1つのカメラにより撮影された画像であって車両が走行する道路である走行路が含まれる撮影画像を繰り返し取得するように構成されている。候補抽出部(S110)は、撮影画像において隣接する画素の間で輝度が所定の変化閾値以上変化する点を表す特徴点に基づいて、撮影画像から車線を区画する区画線の候補である少なくとも1つの線候補を抽出するように構成されている。   The image acquisition unit (S100) is configured to repeatedly acquire captured images that are images captured by at least one camera mounted on a vehicle and that include a travel path that is a road on which the vehicle travels. The candidate extraction unit (S110) is at least one lane line candidate that divides the lane from the captured image based on a feature point that represents a point where the luminance changes between adjacent pixels in the captured image by a predetermined change threshold or more. It is configured to extract one line candidate.

輝度判断部(S160)は、線候補のそれぞれについて、線候補の輝度を取得し、線候補の輝度が予め定められた輝度閾値以上であるか否かを判断するように構成されている。複数判断部(S190)は、線候補であって輝度判断部によって線候補の輝度が輝度閾値以上と判断された区画候補が複数あるか否かを判断するように構成されている。   The luminance determination unit (S160) is configured to acquire the luminance of the line candidate for each of the line candidates and determine whether the luminance of the line candidate is equal to or higher than a predetermined luminance threshold. The multiple determination unit (S190) is configured to determine whether or not there are a plurality of partition candidates that are line candidates and for which the luminance determination unit has determined that the luminance of the line candidate is equal to or higher than the luminance threshold.

認識部(S210)は、複数判断部によって複数の区画候補があると判断された場合に、複数の区画候補のうち車両に最も近い区画候補を、車両が走行する車線を区画する区画線である走行区画線として認識するように構成されている。出力部(S40)は、認識部による認識結果を出力する。   The recognizing unit (S210) is a lane line that divides a lane in which the vehicle travels, with the lane candidate closest to the vehicle among the plurality of lane candidates when it is determined that there are a plurality of lane candidates. It is comprised so that it may recognize as a travel division line. The output unit (S40) outputs a recognition result by the recognition unit.

このような構成によれば、複数の区画候補が検出された場合には、車両に最も近い区画候補を走行区画線として認識するので、区画線の輝度の違いによらず、走行区画線を適切に検出することができる。   According to such a configuration, when a plurality of lane candidates are detected, the lane candidate closest to the vehicle is recognized as a lane line. Can be detected.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。   Note that the reference numerals in parentheses described in this column and in the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present disclosure It is not limited.

運転支援システムの構成を示すブロック図。The block diagram which shows the structure of a driving assistance system. カメラの配置位置の一例を示す説明図。Explanatory drawing which shows an example of the arrangement position of a camera. ECUの機能を示す説明図。Explanatory drawing which shows the function of ECU. 鳥瞰図画像の模式図。The schematic diagram of a bird's-eye view image. 図4の領域Aにおける区画線及び補修跡の輝度を示す説明図。Explanatory drawing which shows the brightness | luminance of the division line and repair trace in the area | region A of FIG. 検出処理のフローチャート。The flowchart of a detection process. 認識処理のフローチャート。The flowchart of a recognition process. 輝度閾値を説明する説明図。Explanatory drawing explaining a brightness | luminance threshold value. カメラの配置位置の他の例を示す説明図。Explanatory drawing which shows the other example of the arrangement position of a camera.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
[1−1.全体構成]
図1に示す本実施形態の運転支援システム1は、車両70に搭載される。運転支援システム1は、車両70の周囲を撮影した画像から道路の区画線を認識し、走行路パラメータを推定し、その推定された走行路パラメータに基づいて各種運転支援を実行する。なお、区画線とは、所謂レーンマーカのことであり、走行路の車線を区画するように路面に描かれた白線や黄線である。走行路とは、車両が走行する道路である。走行路パラメータとは、車両70に対する走行路の状態および走行路の形状を表すものである。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. Constitution]
[1-1. overall structure]
A driving support system 1 according to this embodiment shown in FIG. 1 is mounted on a vehicle 70. The driving support system 1 recognizes a road marking line from an image taken around the vehicle 70, estimates a road parameter, and executes various types of driving support based on the estimated road parameter. The lane marking is a so-called lane marker, and is a white line or a yellow line drawn on the road surface so as to divide the lane of the traveling road. A travel path is a road on which a vehicle travels. The travel path parameter represents the state of the travel path with respect to the vehicle 70 and the shape of the travel path.

運転支援システム1は、ECU30を備える。運転支援システム1は、カメラ10と、センサ群20と、車両制御装置50と、を備えていてもよい。
カメラ10は、フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及びリアカメラ14を備える。各カメラ11〜14は、CCDイメージセンサやCMOSイメージセンサ等を用いて構成され得る。
The driving support system 1 includes an ECU 30. The driving support system 1 may include a camera 10, a sensor group 20, and a vehicle control device 50.
The camera 10 includes a front camera 11, a left side camera 12, a right side camera 13, and a rear camera 14. Each of the cameras 11 to 14 can be configured using a CCD image sensor, a CMOS image sensor, or the like.

図2に示すように、フロントカメラ11は、車両前方の路面が撮影範囲となるように、例えば、車両前端のバンパーに設置される。左サイドカメラ12は、車両左側方の路面が撮影範囲となるように、例えば、左側のサイドミラーに設置される。右サイドカメラ13は、車両右側方の路面が撮影範囲となるように、例えば、右側のサイドミラーに設置される。リアカメラ14は、車両後方の路面が撮影範囲となるように、例えば、車両後端のバンパーに設置される。   As shown in FIG. 2, the front camera 11 is installed, for example, on a bumper at the front end of the vehicle so that the road surface in front of the vehicle is within the shooting range. The left side camera 12 is installed, for example, on the left side mirror so that the road surface on the left side of the vehicle falls within the shooting range. The right side camera 13 is installed, for example, on the right side mirror so that the road surface on the right side of the vehicle is in the shooting range. For example, the rear camera 14 is installed in a bumper at the rear end of the vehicle such that the road surface behind the vehicle is within the shooting range.

各カメラ11〜14は、予め設定された時間間隔、例えば、数十msec間隔で繰り返し撮影し、カメラ画像をECU30へ出力する。
センサ群20は、車両70の挙動を測定するセンサである。具体的には、センサ群20は、車両70の車速を測定する車速センサ、及び車両70のヨーレートを測定するヨーレートセンサ等を備える。なお、センサ群20は、車両70の位置を検出するGPSセンサ、車両70の周辺に存在する物標との距離や相対速度を検出するレーダセンサ、車両70の周囲の明るさを検出する照度センサ等を備えていても良い。センサ群20は、センサ値等といった検出結果をECU30へ出力する。
Each of the cameras 11 to 14 repeatedly shoots at a preset time interval, for example, every several tens of msec, and outputs a camera image to the ECU 30.
The sensor group 20 is a sensor that measures the behavior of the vehicle 70. Specifically, the sensor group 20 includes a vehicle speed sensor that measures the vehicle speed of the vehicle 70, a yaw rate sensor that measures the yaw rate of the vehicle 70, and the like. The sensor group 20 includes a GPS sensor that detects the position of the vehicle 70, a radar sensor that detects a distance and relative speed with a target existing around the vehicle 70, and an illuminance sensor that detects the brightness around the vehicle 70. Etc. may be provided. The sensor group 20 outputs a detection result such as a sensor value to the ECU 30.

車両制御装置50は、CPU、ROM、RAM、及びフラッシュメモリ等の半導体メモリを有すマイクロコンピュータを備える。車両制御装置50は、ECU30から出力される区画線の認識結果に基づいて、車両70が車線内を走行するように、車両70の操舵や、ブレーキ、エンジン等を制御する。区画線の認識結果には、走行路パラメータが含まれ得る。   The vehicle control device 50 includes a microcomputer having a semiconductor memory such as a CPU, a ROM, a RAM, and a flash memory. The vehicle control device 50 controls the steering, braking, engine, and the like of the vehicle 70 so that the vehicle 70 travels in the lane based on the lane marking recognition result output from the ECU 30. The lane marking recognition result may include a travel path parameter.

ECU30は、CPU41と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ42)と、を有するマイクロコンピュータを備える。ECU30の各種機能は、CPU41が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ42が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、ECU30は、1つのマイクロコンピュータを備えていても良いし、複数のマイクロコンピュータを備えていても良い。   The ECU 30 includes a microcomputer having a CPU 41 and a semiconductor memory (hereinafter, memory 42) such as a RAM, a ROM, and a flash memory. Various functions of the ECU 30 are realized by the CPU 41 executing a program stored in a non-transitional physical recording medium. In this example, the memory 42 corresponds to a non-transitional tangible recording medium that stores a program. Also, by executing this program, a method corresponding to the program is executed. Note that the ECU 30 may include one microcomputer or a plurality of microcomputers.

ECU30は、図3に示すように、CPU41がプログラムを実行することで実現される機能の構成として、入力処理部31、合成処理部32、認識処理部33、及び出力処理部34を備える。また、認識処理部33は、出力部画像取得部、候補抽出部、輝度判断部、複数判断部、認識部、蓄積部、更新部、環境判断部及び出力部を備える。これらの要素を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。   As shown in FIG. 3, the ECU 30 includes an input processing unit 31, a synthesis processing unit 32, a recognition processing unit 33, and an output processing unit 34 as functions configured by the CPU 41 executing a program. The recognition processing unit 33 includes an output unit image acquisition unit, a candidate extraction unit, a luminance determination unit, a plurality of determination units, a recognition unit, an accumulation unit, an update unit, an environment determination unit, and an output unit. The method of realizing these elements is not limited to software, and some or all of the elements may be realized using hardware that combines a logic circuit, an analog circuit, and the like.

[1−2.撮影画像における走行路の特徴]
図4に、合成処理部32により生成された鳥瞰図画像の模式図を示す。図の中央に破線で示す領域は、車両70が存在する車両領域である。合成処理部32は、4つのカメラ11−14で撮影されたカメラ画像を合成して鳥瞰図に変換し、車両領域を取り囲む鳥瞰図画像を生成する。図4に示す鳥瞰図画像では、走行路において、実線の黄線、及び実線の白線と、補修跡と、が存在している。
[1-2. Characteristics of the road in the photographed image]
In FIG. 4, the schematic diagram of the bird's-eye view image produced | generated by the synthetic | combination process part 32 is shown. A region indicated by a broken line in the center of the figure is a vehicle region where the vehicle 70 exists. The composition processing unit 32 synthesizes camera images photographed by the four cameras 11-14 and converts them into a bird's eye view, and generates a bird's eye view image surrounding the vehicle area. In the bird's-eye view image shown in FIG. 4, a solid yellow line, a solid white line, and a repair trace exist on the traveling road.

ここで、実線の黄線及び実線の白線は、区画線である。通常、白線の輝度は、黄線の輝度よりも大きくなる。従って、仮に、撮影画像において最も輝度の大きい区画線が走行区画線として常に検出されるとすると、黄線が走行区画線として検出されないおそれがある。なお、走行区画線とは、車両が走行する車線を区画する区画線を表す。   Here, the solid yellow line and the solid white line are lane markings. Usually, the brightness of the white line is larger than the brightness of the yellow line. Therefore, if the lane marking with the highest luminance is always detected as the traveling lane marking in the captured image, the yellow line may not be detected as the traveling lane marking. The traveling lane line represents a lane line that divides the lane in which the vehicle travels.

一方、補修跡は、路面の亀裂を補修した跡である。補修跡には、例えば、アスファルトの路面の亀裂をタールで補修した跡や、コンクリートの路面の亀裂をアスファルトで補修した跡等が含まれ得る。路面の亀裂は、特に北米等の雪の多い地域において、タイヤの圧迫を受けて区画線に沿って生じることが多く、補修跡は、区画線に沿った直線状になることが多い。   On the other hand, the repair trace is a trace of repairing a crack on the road surface. The repair trace may include, for example, a trace of repairing a crack on an asphalt road surface with tar, or a trace of repairing a crack on a concrete road surface with asphalt. The cracks on the road surface often occur along the lane line due to tire pressure, particularly in snowy areas such as North America, and the repaired trace often becomes a straight line along the lane line.

通常、補修跡の輝度は、白線及び黄線といった区画線の輝度よりも小さくなる。また、補修跡の輝度は、路面の輝度よりも小さくなる。また、一般に、撮影画像から抽出された特徴点にハフ変換等の処理を施して得られた直線が、区画線として認識される。ここでいう特徴点とは、エッジ点のことをいう。エッジ点とは、撮影画像において、隣接する画素の間で輝度が所定の閾値である変化閾値以上変化する点のことをいう。   Usually, the brightness of the repaired trace is smaller than the brightness of the partition lines such as the white line and the yellow line. In addition, the brightness of the repair trace is smaller than the brightness of the road surface. In general, a straight line obtained by subjecting a feature point extracted from a captured image to processing such as Hough transform is recognized as a division line. The feature point here means an edge point. An edge point refers to a point in the captured image where the brightness changes between adjacent pixels by a change threshold value that is a predetermined threshold value.

従って、例えば図4及び図5示すように、区画線と略平行に延びる複数の補修跡が間に路面を挟んで位置しており、複数の補修跡の間隔が区画線の幅と略同様であるような場合、複数の補修跡に挟まれた路面が区画線として誤検出されるおそれがある。補修跡のように路面より輝度の低い部位が存在すると、この輝度の低い部分が路面として誤認識され、本来の路面が区画線として誤認識されるからである。   Therefore, as shown in FIGS. 4 and 5, for example, a plurality of repair traces extending substantially parallel to the lane markings are positioned with the road surface therebetween, and the interval between the plurality of repair traces is substantially the same as the width of the lane markings. In some cases, a road surface sandwiched between a plurality of repair traces may be erroneously detected as a lane marking. This is because, if there is a portion having a lower brightness than the road surface, such as a repair mark, this lower brightness portion is erroneously recognized as a road surface, and the original road surface is erroneously recognized as a lane marking.

以下でいう低輝度領域とは、区画線と平行となるように路面上に位置する複数の線状の領域のそれぞれであって、互いに区画線の幅と同程度に離れており、路面よりも輝度が低い領域を表す。低輝度領域には、上述の補修跡が含まれ得る。また、低輝度領域には、上記路面の亀裂や、他にタイヤ痕等が含まれ得る。   The low luminance region referred to below is each of a plurality of linear regions located on the road surface so as to be parallel to the lane markings, and are separated from each other by about the same width as the lane marking lines. Represents a low luminance area. The low-luminance region can include the above-described repair trace. Further, the low luminance region may include cracks on the road surface, tire marks, and the like.

なお、ここでいう平行とは、厳密な意味での平行に限るものではなく、上記と同様に誤認識されるおそれがあるのであれば、厳密に平行でなくてもよい。また、ここでいう線とは、厳密な意味での線に限るものではなく、上記と同様に誤認識されるおそれがあるのであれば、厳密に線でなくてもよい。また、ここでいう区画線の幅と同程度とは、厳密な意味での区画線と同じ幅に限るものではなく、上記と同様に誤認識されるおそれがあるのであれば、厳密に区画線と同じ幅でなくてもよい。   Note that “parallel” here is not limited to parallel in a strict sense, and may not be strictly parallel as long as there is a possibility of erroneous recognition in the same manner as described above. Also, the line here is not limited to a line in a strict sense, and may not be a line as long as there is a possibility of being erroneously recognized as described above. In addition, the same width as the lane marking here is not limited to the same width as the lane marking in a strict sense. The width may not be the same.

以下でいう非区画線領域とは、路面において複数の低輝度領域に挟まれた領域であって、区画線として誤認識されるおそれのある、区画線と略平行な領域をいう。
走行路の撮影画像においては、このような特徴がある。そこで、本実施形態では、ECU30は、後述する検出処理を実行することによって、区画線の輝度の違いによらず、走行区画線を適切に検出するように構成されている。またECU30は、検出処理を実行することによって、補修跡等による非区画線領域と区画線とを判別するように構成されている。
The non-compartment line area referred to below is an area sandwiched between a plurality of low luminance areas on the road surface, and is an area substantially parallel to the division line that may be erroneously recognized as a division line.
The photographed image of the traveling road has such characteristics. Therefore, in the present embodiment, the ECU 30 is configured to appropriately detect the travel lane marking regardless of the luminance difference of the lane marking by executing a detection process described later. Moreover, ECU30 is comprised so that the non-compartment line area | region and lane marking by a repair trace etc. may be discriminate | determined by performing a detection process.

[2.処理]
[2−1.検出処理]
次に、ECU30が実行する検出処理について、図6のフローチャートを用いて説明する。検出処理は、上述した走行路の撮影画像における特徴に基づいて、走行区画線を認識して出力する処理手順を表す。本検出処理は、カメラ11−14の撮影時間間隔で、繰り返し実行される。
[2. processing]
[2-1. Detection process]
Next, detection processing executed by the ECU 30 will be described with reference to the flowchart of FIG. The detection process represents a processing procedure for recognizing and outputting a travel lane line based on the above-described feature in the captured image of the travel road. This detection process is repeatedly executed at an imaging time interval of the camera 11-14.

まず、ECU30は、ステップ(以下、Sと記載)10では、カメラ11−14により撮影されたカメラ画像を取得し、取得したカメラ画像をサンプリングすることでデジタル信号に変換する。   First, in step (hereinafter referred to as S) 10, the ECU 30 acquires a camera image captured by the camera 11-14, and converts the acquired camera image into a digital signal by sampling.

ECU30は、S20では、デジタル信号化された4つのカメラ画像を、予め設定された仮想視点から見た鳥瞰図に変換して合成し、車両70の周囲を映した鳥瞰図画像を生成する。   In S <b> 20, the ECU 30 converts the four digital camera images into a bird's-eye view viewed from a preset virtual viewpoint, and generates a bird's-eye view image showing the surroundings of the vehicle 70.

ECU30は、S30では、認識処理を実行することによって、ステップS20で生成した鳥瞰図画像から走行区画線を認識する。認識処理の詳細については後述する。
ECU30は、S40では、認識処理にて認識された走行区画線の走行路パラメータを推定する。そして、ECU30は、走行路パラメータを、走行区画線の認識結果として、車載ネットワークを介して車両制御装置50へ出力する。走行路パラメータには、例えば、区画線の曲率、車線幅、車両70の進行方向と区画線の接線方向とのなす角度等が含まれ得る。ECU30は、以上で本認識処理を終了する。
In S30, the ECU 30 recognizes the travel lane marking from the bird's eye view image generated in step S20 by executing recognition processing. Details of the recognition process will be described later.
In S40, the ECU 30 estimates the travel path parameter of the travel lane line recognized in the recognition process. Then, the ECU 30 outputs the travel path parameter to the vehicle control device 50 via the in-vehicle network as a recognition result of the travel lane marking. The travel path parameters may include, for example, the curvature of the lane line, the lane width, and the angle formed by the traveling direction of the vehicle 70 and the tangential direction of the lane line. ECU30 complete | finishes this recognition process above.

なお、上記実施形態において、S10が入力処理部31による処理に相当し、S20が合成処理部32による処理に相当し、S30が認識処理部33による処理に相当し、S40が出力処理部34による処理に相当する。   In the above embodiment, S10 corresponds to the processing by the input processing unit 31, S20 corresponds to the processing by the synthesis processing unit 32, S30 corresponds to the processing by the recognition processing unit 33, and S40 by the output processing unit 34. It corresponds to processing.

[2−2.認識処理]
次に、ECU30が検出処理のS30にて実行する認識処理の処理手順について、図7のフローチャートを用いて説明する。
[2-2. Recognition process]
Next, the process procedure of the recognition process which ECU30 performs in S30 of a detection process is demonstrated using the flowchart of FIG.

まず、S100では、撮影画像を取得する。ここでいう撮影画像とは、車両70に搭載された少なくとも1つのカメラ10により撮影された画像であって走行路が含まれる画像である。具体的には、ECU30は、S20にて生成された鳥瞰図画像を撮影画像として取得する。   First, in S100, a captured image is acquired. The photographed image here is an image photographed by at least one camera 10 mounted on the vehicle 70 and including a travel path. Specifically, the ECU 30 acquires the bird's eye view image generated in S20 as a captured image.

ECU30は、S110では、撮影画像におけるエッジ点に基づいて、撮影画像から線候補を抽出する。線候補とは、車線を区画する区画線の候補である。エッジ点を抽出する際の変化閾値は、メモリ42に予め記憶されている。   In S110, the ECU 30 extracts line candidates from the captured image based on the edge points in the captured image. A line candidate is a candidate for a lane line that divides a lane. The change threshold for extracting the edge point is stored in the memory 42 in advance.

具体的には、ECU30は、S100にて取得された鳥瞰図画像にsobelフィルタ等を適用して、エッジ点を検出する。そして、ECU30は、検出されたエッジ点にハフ変換等を適用して直線を検出し、検出された直線を線候補として抽出する。なお、ECU30は、車両70の左側及び右側において、それぞれ、線候補を抽出する。なお、抽出された線候補は、車両70から所定範囲に存在する線候補を抽出するようにしても良い。具体的には、車両70から所定範囲よりも外側に存在する線候補は、隣接する車線である蓋然性が高いため、そのような線候補については除外することで、処理負荷を低減することができる。   Specifically, the ECU 30 detects edge points by applying a sobel filter or the like to the bird's eye view image acquired in S100. Then, the ECU 30 detects a straight line by applying a Hough transform or the like to the detected edge point, and extracts the detected straight line as a line candidate. The ECU 30 extracts line candidates on the left side and the right side of the vehicle 70, respectively. The extracted line candidates may be extracted from the vehicle 70 within a predetermined range. Specifically, line candidates existing outside a predetermined range from the vehicle 70 are highly likely to be adjacent lanes, and therefore, by excluding such line candidates, the processing load can be reduced. .

ECU30は、S120では、線候補の輝度を取得する。線候補の輝度とは、S110にて抽出された線候補の輝度値を表す。具体的には、ECU30は、鳥瞰図画像において、線候補に含まれる全ての画素について輝度値の平均値を算出し、該平均値を線候補の輝度として取得する。但し、線候補の輝度の算出方法は、これに限定されるものではない。ECU30は、線候補に含まれる任意の複数の画素について輝度値の平均値を算出し、該平均値を線候補の輝度として取得するように構成され得る。なお、ECU30は、車両70の左側及び右側において、それぞれ、線候補が複数ある場合、複数の線候補のそれぞれについて、線候補の輝度を取得する。   In S120, the ECU 30 acquires the brightness of the line candidate. The line candidate luminance represents the luminance value of the line candidate extracted in S110. Specifically, the ECU 30 calculates an average value of luminance values for all pixels included in the line candidate in the bird's eye view image, and acquires the average value as the luminance of the line candidate. However, the method of calculating the brightness of the line candidate is not limited to this. The ECU 30 may be configured to calculate an average value of luminance values for any of a plurality of pixels included in the line candidate and acquire the average value as the luminance of the line candidate. When there are a plurality of line candidates on the left side and the right side of the vehicle 70, the ECU 30 acquires the brightness of the line candidates for each of the plurality of line candidates.

ECU30は、S130では、輝度閾値を取得する。輝度閾値とは、予め定められた値であって、区画線と非区画線領域とを判別するために用いられる値である。輝度閾値は、後述するようにメモリ42に記憶されている。   In S130, the ECU 30 acquires a luminance threshold value. The luminance threshold is a value that is determined in advance and is used to discriminate between lane markings and non-lane marking areas. The luminance threshold value is stored in the memory 42 as will be described later.

ECU30は、S140では、車両70の周辺(以下、車両周辺)の走行路の明るさが所定の条件を満たすか否かを判断する。なお、ここでいう車両周辺の走行路の明るさには、車両70の周辺の走行路そのものの明るさの他、車両70の周辺における明るさ、が含まれ得る。以下では、車両周辺の走行路の明るさを、単に、走行路の明るさという。ECU30は、走行路の明るさが所定の条件を満たす場合に処理をS150へ移行させ、走行路の明るさが所定の条件を満たさない場合に処理をS160へ移行させる。   In S140, the ECU 30 determines whether or not the brightness of the traveling road around the vehicle 70 (hereinafter referred to as the vehicle periphery) satisfies a predetermined condition. It should be noted that the brightness of the road around the vehicle referred to here may include the brightness around the vehicle 70 in addition to the brightness of the road around the vehicle 70 itself. Hereinafter, the brightness of the road around the vehicle is simply referred to as the brightness of the road. The ECU 30 shifts the process to S150 when the brightness of the travel path satisfies a predetermined condition, and shifts the process to S160 when the brightness of the travel path does not satisfy the predetermined condition.

本S140は、後述するS160−S180、及びS240−S250を実行しない処理とするか否かを判断するための処理である。S160−S180の処理は、後述するように、線候補であってその輝度が輝度閾値未満である線候補を区画候補から除外するための処理である。S240−S250の処理は、後述するように、輝度閾値を更新するための処理である。   This S140 is a process for determining whether or not to execute S160-S180 and S240-S250 described later. As will be described later, the processing of S160 to S180 is processing for excluding line candidates that are line candidates whose luminance is less than the luminance threshold from the block candidates. The process of S240-S250 is a process for updating the brightness threshold, as will be described later.

本実施形態では、走行路の明るさが、区画線の輝度と路面の輝度との差が所定の閾値(以下、明閾値)未満となる明るさであること(以下、明条件)、を上記所定の条件とする。例えば、快晴時におけるコンクリートの走行路が、走行路の明るさが明条件を満たす例として挙げられる。この場合、日光の影響により、路面の輝度が、白線や黄線といった区画線の輝度と同等の大きさを有するようになり得る。つまり、路面の輝度と、白線や黄線といった区画線の輝度との差が、明閾値未満となり得るのである。ここでいう明閾値とは、例えば0に近いような、路面の輝度や区画線の輝度に比べて十分に小さい値であり得る。   In the present embodiment, the brightness of the traveling road is such that the difference between the brightness of the lane marking and the brightness of the road surface is less than a predetermined threshold (hereinafter, bright threshold) (hereinafter, bright condition). Let it be a predetermined condition. For example, a concrete traveling road in clear weather is an example in which the brightness of the traveling road satisfies the light conditions. In this case, due to the influence of sunlight, the brightness of the road surface may have the same magnitude as the brightness of the dividing lines such as white lines and yellow lines. That is, the difference between the brightness of the road surface and the brightness of the lane markings such as white lines and yellow lines can be less than the bright threshold. The bright threshold here may be a value that is sufficiently smaller than the luminance of the road surface or the luminance of the lane marking, for example, close to zero.

更に、本実施形態では、走行路の明るさが、上記低輝度領域の輝度と路面の輝度との差が所定の閾値(以下、暗閾値)未満となる明るさであること(以下、暗条件)、を上記所定の条件とする。例えば、夜間における走行路や、トンネル内における走行路等が、走行路の明るさが暗条件を満たす例として挙げられる。この場合、路面が、補修跡と同等の輝度を有するようになり得る。つまり、路面の輝度と、補修跡等といった低輝度領域の輝度との差が、暗閾値未満となり得るのである。ここでいう暗閾値とは、例えば0に近いような、路面の輝度や補修跡の輝度に比べて十分に小さい値であり得る。なお、上記明閾値及び上記暗閾値は、同じ値であっても良い。上記明閾値及び上記暗閾値は、実験等によって確認され得る。   Furthermore, in this embodiment, the brightness of the traveling road is such that the difference between the brightness of the low brightness area and the brightness of the road surface is less than a predetermined threshold (hereinafter referred to as a dark threshold) (hereinafter referred to as a dark condition). ), The above-mentioned predetermined condition. For example, a traveling road at night, a traveling road in a tunnel, and the like are examples in which the brightness of the traveling road satisfies the dark condition. In this case, the road surface may have a luminance equivalent to the repair mark. That is, the difference between the brightness of the road surface and the brightness of the low brightness area such as the repair mark can be less than the dark threshold. The dark threshold here may be a value that is sufficiently smaller than the brightness of the road surface or the brightness of the repaired track, for example, close to 0. The bright threshold value and the dark threshold value may be the same value. The bright threshold and the dark threshold can be confirmed by experiments or the like.

具体的には、ECU30は、本ステップでは、S130にて取得した輝度閾値が所定の範囲内の値である場合に、走行路の明るさが所定の条件を満たしていないと判断する。換言すれば、図8に示すように、取得された輝度閾値が所定の上限閾値以上である場合、又は、取得された輝度閾値が上限閾値よりも小さい所定の下限閾値未満である場合に、上記走行路の明るさが上記所定の条件を満たしていると判断される。   Specifically, in this step, the ECU 30 determines that the brightness of the travel path does not satisfy a predetermined condition when the brightness threshold acquired in S130 is a value within a predetermined range. In other words, as shown in FIG. 8, when the acquired luminance threshold is equal to or higher than the predetermined upper threshold, or when the acquired luminance threshold is lower than the predetermined lower threshold smaller than the upper threshold, It is determined that the brightness of the travel path satisfies the predetermined condition.

後述するように、輝度閾値は、過去に認識された走行区画線の輝度に基づく値に比例する値である。つまり、輝度閾値は、走行路の明るさが明条件を満たす程度に十分明るい場合は、大きい値になる。また、輝度閾値は、走行路の明るさが暗条件を満たす程度に十分暗い場合は、小さい値になる。   As will be described later, the luminance threshold is a value proportional to a value based on the luminance of the travel lane line recognized in the past. That is, the brightness threshold value is large when the brightness of the travel road is sufficiently bright to satisfy the light conditions. Further, the brightness threshold value is small when the brightness of the road is sufficiently dark to satisfy the dark condition.

そこで、本ステップでは、ECU30は、輝度閾値が所定の範囲内であるか否かに基づいて、上記走行路の明るさが上記所定の条件を満たしているか否かを判断しているのである。つまり、輝度閾値が上限閾値以上である場合は、上記走行路の明るさが上記明条件を満たしていると判断される。すなわち、上記走行路の明るさが上記所定の条件を満たしていると判断される。また、輝度閾値が下限閾値未満である場合は、上記走行路の明るさが暗条件を満たしていると判断される。すなわち、上記走行路の明るさが上記所定の条件を満たしていると判断される。ここでいう所定の範囲を表すための上限閾値及び下限閾値は、実験等によって予め定められており、メモリ42に記憶されている。   Therefore, in this step, the ECU 30 determines whether or not the brightness of the travel path satisfies the predetermined condition based on whether or not the luminance threshold is within a predetermined range. That is, when the luminance threshold is equal to or higher than the upper limit threshold, it is determined that the brightness of the traveling road satisfies the bright condition. That is, it is determined that the brightness of the travel road satisfies the predetermined condition. When the brightness threshold is less than the lower limit threshold, it is determined that the brightness of the traveling road satisfies the dark condition. That is, it is determined that the brightness of the travel road satisfies the predetermined condition. The upper and lower thresholds for representing the predetermined range here are determined in advance by experiments or the like and stored in the memory 42.

ECU30は、S150では、S160−S180の処理の例外として、S110にて検出された全ての線候補を後述する区画候補として設定する。そして、ECU30は、処理をS190へ移行させる。   In S150, as an exception to the processing in S160 to S180, the ECU 30 sets all line candidates detected in S110 as section candidates described later. Then, the ECU 30 shifts the process to S190.

ECU30は、S160では、線候補のそれぞれについて、線候補の輝度を取得し、線候補の輝度が輝度閾値以上であるか否かを判断する。ここで、ECU30は、線候補の輝度が輝度閾値以上である場合に処理をS170へ移行させる。そしてS170では、ECU30は、S160にて輝度閾値以上であると判断された線候補を区画候補として設定し、処理をS180へ移行させる。一方、ECU30は、線候補の輝度が輝度閾値未満である場合に処理をS180へ移行させる。   In S160, the ECU 30 obtains the luminance of the line candidate for each line candidate, and determines whether the luminance of the line candidate is equal to or higher than the luminance threshold. Here, the ECU 30 shifts the processing to S170 when the luminance of the line candidate is equal to or higher than the luminance threshold. In S170, the ECU 30 sets the line candidate determined to be equal to or greater than the luminance threshold value in S160 as a partition candidate, and causes the process to proceed to S180. On the other hand, the ECU 30 shifts the process to S180 when the luminance of the line candidate is less than the luminance threshold.

後述するように、輝度閾値は、過去に認識された走行区画線の輝度に基づく値に比例する値である。且つ、輝度閾値は、過去に認識された走行区画線の輝度に近い値であって、該過去に認識された走行区画線の輝度よりも小さい値である。   As will be described later, the luminance threshold is a value proportional to a value based on the luminance of the travel lane line recognized in the past. In addition, the luminance threshold is a value close to the luminance of the traveling lane line recognized in the past, and is smaller than the luminance of the traveling lane line recognized in the past.

このため、図8に示すように、線候補の輝度が輝度閾値以上であるということは、より走行区画線らしい、ということを表している。つまり、区画候補とは、より走行区画線らしいもの、を表している。換言すれば、線候補の輝度が輝度閾値以上であるということは、非区画線領域ではないということを表している。S160の処理は、線候補の輝度を輝度閾値と比較することによって、複数の線候補の中から非区画線領域を判別するための処理である。   For this reason, as shown in FIG. 8, the fact that the brightness of the line candidate is equal to or higher than the brightness threshold indicates that it is more likely to be a travel lane line. In other words, the section candidate represents something that seems to be a traveling section line. In other words, the fact that the luminance of the line candidate is equal to or higher than the luminance threshold means that it is not a non-compartment line area. The process of S160 is a process for discriminating a non-compartment line area from a plurality of line candidates by comparing the brightness of the line candidate with a brightness threshold.

ECU30は、S180では、S110にて検出された全ての線候補のそれぞれについてS160の判断が実行されるまで、S160−S180の処理を繰り返す。ECU30は、S110にて検出された全ての線候補についてS160の判断が実行された場合に、処理をS190へ移行させる。   In S180, ECU 30 repeats the processing of S160-S180 until the determination of S160 is executed for each of all line candidates detected in S110. ECU30 makes a process transfer to S190, when judgment of S160 is performed about all the line candidates detected in S110.

ECU30は、S190では、S150又はS170にて、複数の区画候補が設定されているか否かを判断する。ECU30は、1つの区画候補が設定されている場合に処理をS200へ移行させ、複数の区画候補が設定されている場合に処理をS210へ移行させる。   In S190, the ECU 30 determines whether or not a plurality of section candidates are set in S150 or S170. The ECU 30 shifts the process to S200 when one section candidate is set, and shifts the process to S210 when a plurality of section candidates are set.

ECU30は、S200では、1つの区画候補が設定されている場合に、該区画候補を走行区画線として確定する。そして、ECU30は、処理をS220へ移行させる。
ECU30は、S210では、複数の区画候補が設定されている場合に、複数の区画候補のうち車両70に最も近い区画候補を走行区画線として確定する。そして、ECU30は、処理をS220へ移行させる。なお、ECU30は、車両70の右側及び左側のそれぞれにおいて、走行区画線を確定する。つまり、ECU30は、車両70の走行路の左右の境界を表していると推定される一対の走行区画線を確定する。但し、これに限定されること無く、ECU30は、車両70の右側及び左側の少なくとも一方において走行区画線を確定するように構成され得る。
In S200, when one section candidate is set, the ECU 30 determines the section candidate as a travel lane line. Then, the ECU 30 shifts the process to S220.
In S210, when a plurality of candidate sections are set, the ECU 30 determines a candidate section closest to the vehicle 70 among the plurality of candidate sections as a travel lane line. Then, the ECU 30 shifts the process to S220. Note that the ECU 30 determines travel lane markings on the right and left sides of the vehicle 70, respectively. That is, the ECU 30 determines a pair of travel lane markings that are estimated to represent the left and right boundaries of the travel path of the vehicle 70. However, the present invention is not limited to this, and the ECU 30 can be configured to determine the travel lane marking on at least one of the right side and the left side of the vehicle 70.

ECU30は、S220では、走行区画線輝度をメモリ42に記憶させる。走行区画線輝度とは、S200又はS210にて確定された走行区画線の輝度である。具体的には、S120にて取得された線候補の輝度のうち、走行区画線として確定された線候補の輝度を、走行区画線輝度として用いる。   In S220, the ECU 30 stores the travel lane line brightness in the memory 42. The travel lane line brightness is the brightness of the travel lane line determined in S200 or S210. Specifically, the brightness of the line candidate determined as the travel lane line among the brightness of the line candidates acquired in S120 is used as the travel lane line brightness.

ECU30は、S230では、S140と同様に、上記走行路の明るさが上記所定の条件を満たすか否かを判断する。ECU30は、上記走行路の明るさが上記所定の条件を満たす場合に、本認識処理を終了させ、上記走行路の明るさが上記所定の条件を満たさない場合に、処理をS240へ移行させる。   In S230, as in S140, the ECU 30 determines whether or not the brightness of the travel path satisfies the predetermined condition. The ECU 30 ends the recognition process when the brightness of the travel path satisfies the predetermined condition, and shifts the process to S240 when the brightness of the travel path does not satisfy the predetermined condition.

但し、ECU30は、本ステップではS140と異なり、S220にてメモリ42に記憶させた走行区画線輝度が、所定値以内である場合に、上記走行路の明るさが上記所定の条件を満たさないと判断する。具体的には、ECU30は、上記走行区画線輝度が、所定の第1の閾値以上である場合に、上記走行路の明るさが上記所定の条件を満たしていると判断する。また、ECU30は、走行区画線輝度が第1の閾値よりも小さい第2の閾値未満である場合に、上記走行路の明るさが上記所定の条件を満たしていると判断する。   However, unlike S140 in this step, the ECU 30 determines that the brightness of the travel path does not satisfy the predetermined condition when the travel lane line brightness stored in the memory 42 in S220 is within a predetermined value. to decide. Specifically, the ECU 30 determines that the brightness of the travel path satisfies the predetermined condition when the travel lane line brightness is equal to or higher than a predetermined first threshold value. Further, the ECU 30 determines that the brightness of the travel path satisfies the predetermined condition when the travel lane marking luminance is less than a second threshold value that is smaller than the first threshold value.

第1の閾値及び第2の閾値は、実験等によって予め定められており、メモリ42に記憶されている。なお、第1の閾値は上記上限閾値に対応する値であり、第2の閾値は上記下限閾値に対応する値である。   The first threshold value and the second threshold value are determined in advance by experiments or the like and are stored in the memory 42. The first threshold value is a value corresponding to the upper limit threshold value, and the second threshold value is a value corresponding to the lower limit threshold value.

ECU30は、S240では、平均輝度を算出する。平均輝度とは、複数の過去輝度についての平均的な値である。過去輝度とは、過去にメモリ42に蓄積されている走行区画線輝度である。ここでは、直近の過去の所定期間においてメモリ42に蓄積された複数の過去輝度の平均値を平均輝度として算出する。   In S240, the ECU 30 calculates the average luminance. The average luminance is an average value for a plurality of past luminances. The past luminance is the travel lane line luminance accumulated in the memory 42 in the past. Here, the average value of a plurality of past luminances accumulated in the memory 42 in the latest past predetermined period is calculated as the average luminance.

ECU30は、S250では、参照値を算出する。参照値とは、平均輝度に所定の倍数αを乗じた値である。倍数αは1未満の値であり、例えば、0.7〜0.8といった値に設定され得る。但し、これに限定されるものではなく、倍数αは、実験等に基づいて適宜設定され得る。そして、ECU30は、算出した参照値を新たな上記輝度閾値としてメモリ42に記憶し直す。ECU30は、以上で本認識処理を終了する。   In S250, the ECU 30 calculates a reference value. The reference value is a value obtained by multiplying the average luminance by a predetermined multiple α. The multiple α is a value less than 1, and can be set to a value of 0.7 to 0.8, for example. However, the present invention is not limited to this, and the multiple α can be set as appropriate based on experiments or the like. Then, the ECU 30 stores the calculated reference value in the memory 42 as a new brightness threshold. ECU30 complete | finishes this recognition process above.

[3.効果]
以上詳述した第1実施形態によれば、以下の効果を奏する。
(3a)ECU30は、撮影画像を繰り返し取得し、S110では、撮影画像におけるエッジ点に基づいて、撮影画像から少なくとも1つの線候補を抽出する。ECU30は、S160では、少なくとも1つの線候補のそれぞれについて、線候補の輝度が輝度閾値以上であるか否かを判断し、線候補の輝度が輝度閾値以上であるものを区画候補として設定する。ECU30は、S210では、区画候補が複数ある場合に、車両70に最も近い区画候補を走行区画線として認識する。ECU30は、S40では、認識結果を出力する。
[3. effect]
According to the first embodiment described in detail above, the following effects are obtained.
(3a) The ECU 30 repeatedly acquires captured images, and in S110, extracts at least one line candidate from the captured images based on the edge points in the captured images. In S160, for each of at least one line candidate, the ECU 30 determines whether the brightness of the line candidate is equal to or higher than the luminance threshold, and sets the line candidate whose luminance is equal to or higher than the luminance threshold as a partition candidate. In S210, the ECU 30 recognizes a zone candidate closest to the vehicle 70 as a running lane line when there are a plurality of zone candidates. In S40, the ECU 30 outputs a recognition result.

その結果、複数の区画候補が検出された場合には、車両70に最も近い区画候補が走行区画線として特定されるので、区画線の輝度の違いによらず、走行区画線を適切に検出することができる。   As a result, when a plurality of section candidates are detected, the section candidate closest to the vehicle 70 is specified as the traveling lane line, so that the traveling lane line is appropriately detected regardless of the luminance difference of the lane lines. be able to.

また、線候補の輝度が輝度閾値未満であるものは区画候補として設定されないので、これにより、非区画線領域と区画線とを判別することができる。つまり、非区画線領域が区画候補として誤って抽出されることが抑制される。その結果、区画候補の中から走行区画線を適切に検出することができる。   In addition, since the line candidate whose luminance is lower than the luminance threshold is not set as the division candidate, it is possible to discriminate the non-division line region from the division line. That is, it is suppressed that a non-division line area is erroneously extracted as a division candidate. As a result, a travel lane line can be appropriately detected from the zone candidates.

(3b)ECU30は、S220では、S210にて走行区画線が認識される毎に、走行区画線輝度をメモリ42に記憶させる。ECU30は、S250にて走行区画線輝度がメモリ42に記憶される毎に、複数の過去輝度についての平均的な値である平均輝度を算出し、平均輝度よりも小さい参照値を算出し、参照値を新たな輝度閾値としてメモリ42に記憶し直す。ECU30は、S160では、このようにしてメモリ42に記憶されている輝度閾値を取得し、該輝度閾値を用いて、判断を行う。   (3b) In S220, the ECU 30 stores the travel lane line luminance in the memory 42 every time a travel lane line is recognized in S210. The ECU 30 calculates an average luminance that is an average value for a plurality of past luminances every time the travel lane line luminance is stored in the memory 42 in S250, calculates a reference value that is smaller than the average luminance, The value is stored again in the memory 42 as a new brightness threshold. In S160, the ECU 30 acquires the brightness threshold value stored in the memory 42 in this way, and makes a determination using the brightness threshold value.

つまり、過去に認識された複数の走行区画線の輝度に基づいて輝度閾値が設定されるので、刻々と変化する車両70周囲の環境の明るさの変化が反映された、適切な輝度閾値が設定される。また、輝度閾値が適切に設定されるので、補修跡等による非区画線領域が誤って区画候補として抽出されることが抑制される。その結果、走行区画線を適切に検出することができる。   That is, since the brightness threshold is set based on the brightness of a plurality of lane markings recognized in the past, an appropriate brightness threshold that reflects the changing brightness of the surrounding environment of the vehicle 70 is set. Is done. In addition, since the brightness threshold value is appropriately set, it is possible to prevent a non-division line region due to a repair mark or the like from being erroneously extracted as a division candidate. As a result, the travel lane marking can be detected appropriately.

(3c)ECU30は、S140又はS230では、車両周辺の走行路の明るさが所定の条件を満たすか否かを判断するように構成されている。その結果、車両周辺の走行路の明るさに応じた処理が可能となる。   (3c) In S140 or S230, the ECU 30 is configured to determine whether or not the brightness of the traveling road around the vehicle satisfies a predetermined condition. As a result, processing according to the brightness of the traveling road around the vehicle is possible.

(3d)ECU30は、S250では、S230によって上記走行路の明るさが上記所定の条件を満たすと判断された場合に、参照値を新たな輝度閾値としてメモリ42に記憶させることを中止する。   (3d) In S250, when it is determined in S250 that the brightness of the travel path satisfies the predetermined condition in S230, the ECU 30 stops storing the reference value in the memory 42 as a new luminance threshold.

つまり、例えば、明条件が満たされる場合であって太陽による照射光が強く走行路が非常に明るい場合や、暗条件が満たされる場合であってトンネル内や夜間において走行路が非常に暗い場合等には、参照値を用いて輝度閾値が更新されない。参照値は、上述のように、過去に認識された走行区画線の輝度に基づく値である。参照値は、上記走行路の明るさが明るいときには大きい値となり、上記走行路の明るさが暗いときには小さい値となる。   In other words, for example, when the light condition is satisfied and the traveling light is very bright due to strong irradiation light from the sun, or when the dark condition is satisfied and the traveling path is very dark in the tunnel or at night, etc. In this case, the brightness threshold is not updated using the reference value. As described above, the reference value is a value based on the brightness of the travel lane line recognized in the past. The reference value is a large value when the brightness of the travel road is bright, and a small value when the brightness of the travel road is dark.

ここで、明条件が満たされる程度に走行路が明るい場合に参照値を用いて輝度閾値が更新されると、輝度閾値が通常における黄線の輝度よりも大きい値に設定されるおそれが生じる。一方、暗条件が満たされる程度に走行路が暗い場合に参照値を用いて輝度閾値が更新されると、輝度閾値が通常における補修跡等の低輝度領域の輝度よりも小さい値に設定されるおそれが生じる。前者の場合は黄線が区画候補として抽出されないおそれがある。後者の場合、低輝度領域が区画候補として抽出されるおそれがある。   Here, if the brightness threshold is updated using the reference value when the travel road is bright enough to satisfy the bright condition, the brightness threshold may be set to a value larger than the normal yellow line brightness. On the other hand, when the brightness threshold is updated using the reference value when the traveling road is dark enough to satisfy the dark condition, the brightness threshold is set to a value smaller than the brightness of the low brightness area such as a normal repair mark. There is a fear. In the former case, the yellow line may not be extracted as a segment candidate. In the latter case, there is a possibility that a low luminance area is extracted as a candidate for a section.

本実施形態では、上記走行路の明るさが上記所定の条件を満たすと判断された場合に、参照値を用いて輝度閾値が更新されない。その結果、輝度閾値に基づいて、黄線が区画候補として抽出されないことを抑制することができる。また、輝度閾値に基づいて、低輝度領域が区画候補として抽出されることを抑制することができる。   In the present embodiment, when it is determined that the brightness of the travel path satisfies the predetermined condition, the brightness threshold is not updated using the reference value. As a result, it is possible to prevent the yellow line from being extracted as a segment candidate based on the luminance threshold. Moreover, it can suppress that a low-intensity area | region is extracted as a division candidate based on a brightness | luminance threshold value.

(3e)ECU30は、S210では、S140によって上記走行路の明るさが上記所定の条件を満たすと判断された場合に、S110によって抽出された少なくとも1つの線候補であって全ての線候補のうち、車両70に最も近い線候補、を走行区画線として認識する。   (3e) In S210, when it is determined in S210 that the brightness of the travel road satisfies the predetermined condition in S140, the ECU 30 is at least one line candidate extracted in S110 and out of all line candidates. The line candidate closest to the vehicle 70 is recognized as a travel lane line.

つまり、上記走行路の明るさが上記所定の条件を満たすと判断された場合には、輝度閾値に基づく区画候補の抽出を行わず、全ての線候補のうち車両70に最も近い線候補を走行区画線として認識する。上述のように、上記走行路の明るさが上記所定の条件を満たすと判断された場合には、輝度閾値が適切に設定されないので、区画候補が適切に抽出されないおそれがある。そこで、本実施形態では、このような場合に、区画候補を抽出することを中止する。その結果、区画候補に基づいて走行区画線が誤って認識されることが抑制される。   That is, when it is determined that the brightness of the travel path satisfies the predetermined condition, the candidate for the segment based on the brightness threshold is not extracted, and the line candidate closest to the vehicle 70 is traveled among all the line candidates. Recognize as a lane marking. As described above, when it is determined that the brightness of the travel path satisfies the predetermined condition, the brightness threshold value is not set appropriately, so that there is a possibility that the block candidates may not be extracted properly. Therefore, in this embodiment, in such a case, the extraction of the partition candidate is stopped. As a result, it is possible to prevent the travel lane line from being erroneously recognized based on the zone candidates.

(3f)ECU30は、S140又はS230では、上記走行路の明るさが、区画線の輝度と路面の輝度との差が所定の明閾値未満となる明るさであること、を上記所定の条件として、判断を行うように構成されている。   (3f) The ECU 30 determines in S140 or S230 that the brightness of the travel road is such that the difference between the brightness of the lane marking and the brightness of the road surface is less than a predetermined light threshold. , Configured to make a decision.

つまり、区画線の輝度と路面の輝度との差が明閾値未満となる場合に、例えば、区画候補の抽出を中止したり、輝度閾値の更新を中止したり、といった処理が可能となる。また、区画線の輝度と路面の輝度との差が明閾値未満となる場合に、認識結果の出力を中止する処理が可能となる。その結果、走行区画線の誤認識を抑制すことができる。また、誤った認識結果が出力されることを抑制することができる。   That is, when the difference between the luminance of the lane line and the luminance of the road surface is less than the bright threshold value, for example, it is possible to stop extracting the candidate candidates or to stop updating the luminance threshold value. In addition, when the difference between the luminance of the lane marking and the luminance of the road surface is less than the bright threshold, it is possible to perform processing for stopping the output of the recognition result. As a result, misrecognition of travel lane markings can be suppressed. Moreover, it can suppress that an incorrect recognition result is output.

(3g)ECU30は、S140又はS230では、上記走行路の明るさが、低輝度領域の輝度と路面の輝度との差が所定の暗閾値未満となる明るさであること、を上記所定の条件として、判断を行うように構成されている。   (3g) In S140 or S230, the ECU 30 determines that the brightness of the travel road is such that the difference between the brightness of the low brightness area and the brightness of the road surface is less than a predetermined dark threshold. Is configured to make a determination.

つまり、低輝度領域の輝度と路面の輝度との差が暗閾値未満となる場合に、例えば、区画候補の抽出を中止したり、輝度閾値の更新を中止したり、といった処理が可能となる。また、低輝度領域の輝度と路面の輝度との差が暗閾値未満となる場合に、認識結果の出力を中止する処理が可能となる。その結果、走行区画線の誤認識を抑制すことができる。また、誤った認識結果が出力されることを抑制することができる。   In other words, when the difference between the luminance of the low luminance region and the luminance of the road surface is less than the dark threshold, for example, it is possible to stop the extraction of the partition candidate or to stop the updating of the luminance threshold. In addition, when the difference between the brightness of the low brightness area and the brightness of the road surface is less than the dark threshold value, it is possible to perform processing to stop outputting the recognition result. As a result, misrecognition of travel lane markings can be suppressed. Moreover, it can suppress that an incorrect recognition result is output.

(3h)ECU30は、S140では、輝度閾値が所定の上限閾値以上である場合に、上記走行路の明るさが上記所定の条件を満たしていると判断する。また、ECU30は、S140では、輝度閾値が上限閾値よりも小さい所定の下限閾値未満である場合に、上記走行路の明るさが上記所定の条件を満たしていると判断する。その結果、走行路の明るさを検出するために、照度センサ等の新たな構成を備えること無しに、上記走行路の明るさが上記所定の条件を満たしているか否かを簡易に判断することができる。   (3h) In S140, the ECU 30 determines that the brightness of the travel road satisfies the predetermined condition when the luminance threshold is equal to or greater than the predetermined upper limit threshold. In S140, the ECU 30 determines that the brightness of the travel road satisfies the predetermined condition when the luminance threshold is less than the predetermined lower threshold smaller than the upper threshold. As a result, in order to detect the brightness of the road, it is possible to easily determine whether the brightness of the road satisfies the predetermined condition without providing a new configuration such as an illuminance sensor. Can do.

(3i)ECU30は、S230では、走行区画線輝度が所定の第1の閾値以上である場合に、上記走行路の明るさが上記所定の条件を満たしていると判断する。また、ECU30は、S230では、走行区画線輝度が第1の閾値よりも小さい第2の閾値未満である場合に、上記走行路の明るさが上記所定の条件を満たしていると判断する。その結果、上記(3h)と同様の効果が得られる。   (3i) In S230, the ECU 30 determines that the brightness of the travel path satisfies the predetermined condition when the travel lane marking luminance is equal to or higher than a predetermined first threshold value. In S230, the ECU 30 determines that the brightness of the travel path satisfies the predetermined condition when the travel lane line brightness is less than a second threshold value that is smaller than the first threshold value. As a result, the same effect as the above (3h) can be obtained.

なお、上記実施形態では、ECU30が検出装置に相当し、メモリ42が記憶部に相当する。また、S40が出力部による処理に相当し、S100が画像取得部による処理に相当し、S110が候補抽出部による処理に相当し、S140及びS230が環境判断部による処理に相当し、S160が輝度判断部による処理に相当する。また、S190が複数判断部による処理に相当し、S210が認識部による処理に相当し、S220が蓄積部による処理に相当し、S250が更新部による処理に相当する。   In the above embodiment, the ECU 30 corresponds to the detection device, and the memory 42 corresponds to the storage unit. S40 corresponds to processing by the output unit, S100 corresponds to processing by the image acquisition unit, S110 corresponds to processing by the candidate extraction unit, S140 and S230 correspond to processing by the environment determination unit, and S160 represents luminance. This corresponds to processing by the determination unit. Further, S190 corresponds to processing by a plurality of determination units, S210 corresponds to processing by a recognition unit, S220 corresponds to processing by an accumulation unit, and S250 corresponds to processing by an updating unit.

また、鳥瞰図画像が撮影画像に相当し、エッジ点が特徴点に相当する。また、明条件及び暗条件のそれぞれが所定の条件に相当する。
[4.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
The bird's-eye view image corresponds to the captured image, and the edge point corresponds to the feature point. Each of the light condition and the dark condition corresponds to a predetermined condition.
[4. Other Embodiments]
As mentioned above, although embodiment of this indication was described, this indication is not limited to the above-mentioned embodiment, and can carry out various modifications.

(4a)上記実施形態では、S140では輝度閾値が所定の範囲内であるか否かに基づいて、S230では走行区画線度が所定の範囲内であるか否かに基づいて、上記走行路の明るさが上記所定の条件を満たすか否かを判断していた。但し、これに限定されるものではない。   (4a) In the above embodiment, based on whether or not the brightness threshold is within a predetermined range in S140, and based on whether or not the travel division linearity is within a predetermined range in S230, It has been determined whether the brightness satisfies the predetermined condition. However, it is not limited to this.

例えば、車両70では、センサ群20のセンサとして、周囲の明るさを検出する照度センサが搭載されていてもよい。ECU30は、照度センサのセンサ値が所定の第1の照度閾値以上である場合に、上記走行路の明るさが上記所定の条件を満たしていると判断するように構成されても良い。また、ECU30は、照度センサのセンサ値が、第1の照度閾値よりも小さい値である第2の照度閾値未満である場合に、上記走行路の明るさが上記所定の条件を満たしていると判断するように構成されても良い。   For example, in the vehicle 70, an illuminance sensor that detects ambient brightness may be mounted as a sensor of the sensor group 20. The ECU 30 may be configured to determine that the brightness of the travel path satisfies the predetermined condition when the sensor value of the illuminance sensor is equal to or greater than a predetermined first illuminance threshold. Further, when the sensor value of the illuminance sensor is less than the second illuminance threshold value that is smaller than the first illuminance threshold value, the ECU 30 determines that the brightness of the travel path satisfies the predetermined condition. It may be configured to determine.

また例えば、車両70では、センサ群20のセンサとして、GPS装置が搭載されていても良く、地図データを記憶する地図データベースが搭載されていても良い。そして、ECU30は、GPS装置の検出結果と地図データとに基づいて、車両70の現在位置がトンネル内であると判断した場合に、上記走行路の明るさが上記所定の条件を満たしていると判断するように構成されても良い。   Further, for example, in the vehicle 70, a GPS device may be mounted as a sensor of the sensor group 20, or a map database that stores map data may be mounted. When the ECU 30 determines that the current position of the vehicle 70 is in the tunnel based on the detection result of the GPS device and the map data, the brightness of the travel path satisfies the predetermined condition. It may be configured to determine.

(4b)上述のように、上記走行路の明るさが上記所定の条件を満たすと判断された場合には、輝度閾値が適切に設定されず、走行区画線が適切に確定されないおそれがある。そこで、ECU30は、S40では、S140又はS230によって上記走行路の明るさが上記所定の条件を満たすと判断された場合に、認識結果の出力を中止するように構成されていても良い。その結果、誤った認識結果が出力されることを抑制することができる。また、誤った走行路パラメータに基づいて誤った車両制御が行われることを抑制することができる。   (4b) As described above, when it is determined that the brightness of the travel path satisfies the predetermined condition, the brightness threshold value is not appropriately set, and the travel lane line may not be properly determined. Thus, in S40, the ECU 30 may be configured to stop outputting the recognition result when it is determined in S140 or S230 that the brightness of the travel path satisfies the predetermined condition. As a result, an erroneous recognition result can be prevented from being output. In addition, it is possible to suppress erroneous vehicle control based on an incorrect travel path parameter.

(4c)上記実施形態では、ECU30は、カメラ11−14によるカメラ画像に基づいて生成された鳥瞰図画像を撮影画像として、該鳥瞰図画像から走行区画線を認識するように構成されていたが、撮影画像は鳥瞰図画像に限定されるものではない。例えば、図9に示すように、1つのカメラ10が、車両70の前方の路面を撮影するように車両に搭載されていても良い。具体的には、カメラ10は、車両70の中央前方側に取り付けられており、図9に示すように、車両70の前方に向けて所定角度範囲で広がる領域を撮影するように構成されていてもよい。そして、ECU30は、上記実施形態と同様に、該カメラ10によって撮影された撮影画像からエッジ点を検出し、エッジ点に基づいて、該撮影画像から走行区画線を認識するように構成されても良い。   (4c) In the above embodiment, the ECU 30 is configured to recognize the travel lane marking from the bird's-eye view image using the bird's-eye view image generated based on the camera image of the camera 11-14 as a photographed image. The image is not limited to a bird's eye view image. For example, as shown in FIG. 9, one camera 10 may be mounted on the vehicle so as to photograph a road surface ahead of the vehicle 70. Specifically, the camera 10 is attached to the center front side of the vehicle 70, and is configured to photograph a region extending in a predetermined angle range toward the front of the vehicle 70 as shown in FIG. Also good. The ECU 30 may be configured to detect an edge point from a photographed image photographed by the camera 10 and recognize a travel lane line from the photographed image based on the edge point, as in the above embodiment. good.

(4d)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (4d) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.

(4e)上述したECU30、運転支援システム1の他、ECU30を機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、区画線検出方法など、種々の形態で本開示を実現することもできる。   (4e) In addition to the ECU 30 and the driving support system 1 described above, the present invention can be implemented in various forms such as a program for causing the ECU 30 to function, a non-transition actual recording medium such as a semiconductor memory storing the program, a lane marking detection method Disclosure can also be realized.

10 カメラ、30 ECU、42 メモリ、70 車両。   10 cameras, 30 ECUs, 42 memories, 70 vehicles.

Claims (7)

車両(70)に搭載された検出装置(30)であって、
前記車両に搭載された少なくとも1つのカメラ(10)により撮影された画像であって前記車両が走行する道路である走行路が含まれる撮影画像を繰り返し取得するように構成された画像取得部(S100)と、
前記撮影画像において隣接する画素の間で輝度が所定の変化閾値以上変化する点を表す特徴点に基づいて、前記撮影画像から車線を区画する区画線の候補である少なくとも1つの線候補を抽出するように構成された候補抽出部(S110)と、
前記線候補のそれぞれについて、前記線候補の輝度を取得し、前記線候補の輝度が予め定められた輝度閾値以上であるか否かを判断するように構成された輝度判断部(S160)と、
前記線候補であって前記輝度判断部によって前記線候補の輝度が前記輝度閾値以上と判断された区画候補が複数あるか否かを判断するように構成された複数判断部(S190)と、
前記複数判断部によって複数の前記区画候補があると判断された場合に、前記複数の区画候補のうち前記車両に最も近い区画候補を、前記車両が走行する車線を区画する区画線である走行区画線として認識するように構成された認識部(S210)と、
前記認識部による認識結果を出力する出力部(S40)と、
を備える検出装置。
A detection device (30) mounted on a vehicle (70),
An image acquisition unit (S100) configured to repeatedly acquire an image captured by at least one camera (10) mounted on the vehicle and including a travel path that is a road on which the vehicle travels. )When,
At least one line candidate that is a candidate for a lane marking that divides a lane is extracted from the photographed image based on a feature point that represents a point where the luminance changes between adjacent pixels in the photographed image by a predetermined change threshold or more. A candidate extraction unit (S110) configured as described above,
For each of the line candidates, a luminance determining unit (S160) configured to acquire the luminance of the line candidate and determine whether the luminance of the line candidate is equal to or higher than a predetermined luminance threshold;
A plurality of determination units (S190) configured to determine whether or not there are a plurality of partition candidates that are the line candidates and the luminance determination unit has determined that the luminance of the line candidates is equal to or higher than the luminance threshold;
When the plurality of determination units determine that there are a plurality of division candidates, the division candidate that is the division line that divides the lane in which the vehicle runs is selected as the division candidate closest to the vehicle among the plurality of division candidates. A recognition unit (S210) configured to recognize as a line;
An output unit (S40) for outputting a recognition result by the recognition unit;
A detection device comprising:
請求項1に記載の検出装置であって、
前記認識部によって認識された前記走行区画線の輝度を表す走行区画線輝度を記憶部(42)に記憶させるように構成された蓄積部(S220)と、
過去に前記蓄積部に蓄積されている前記走行区画線輝度である複数の過去輝度についての平均的な値である平均輝度を取得し、前記平均輝度に基づいて前記平均輝度よりも小さい値である参照値を算出し、前記参照値を新たな前記輝度閾値として前記蓄積部に蓄積し直す更新部(S250)と、を更に備え
前記輝度判断部は、前記蓄積部から前記輝度閾値を取得し、判断するように構成された
検出装置。
The detection device according to claim 1,
An accumulating unit (S220) configured to store in the storage unit (42) the running lane line luminance representing the luminance of the traveling lane line recognized by the recognition unit;
An average brightness that is an average value for a plurality of past brightnesses that are the travel lane line brightness that has been stored in the storage unit in the past is acquired, and is a value that is smaller than the average brightness based on the average brightness An update unit (S250) that calculates a reference value and re-accumulates the reference value in the storage unit as a new luminance threshold; the luminance determination unit acquires the luminance threshold from the storage unit; A detection device configured to determine.
請求項2に記載の検出装置であって、
前記車両周辺の走行路の明るさが所定の条件を満たすか否かを判断するように構成された環境判断部(S140、S230)、
を更に備える検出装置。
The detection device according to claim 2,
An environment determination unit (S140, S230) configured to determine whether the brightness of the road around the vehicle satisfies a predetermined condition;
A detection device further comprising:
請求項3に記載の検出装置であって、
前記更新部は、前記環境判断部(S230)によって前記車両周辺の走行路の明るさが前記所定の条件を満たすと判断された場合に、前記参照値を前記新たな輝度閾値として前記記憶部に記憶させることを中止するように構成された
検出装置。
The detection device according to claim 3,
The update unit stores the reference value as the new brightness threshold in the storage unit when the environment determination unit (S230) determines that the brightness of the road around the vehicle satisfies the predetermined condition. A detection device configured to stop memorizing.
請求項3または請求項4のいずれか一項に記載の検出装置であって、
前記認識部は、前記環境判断部(S140)によって前記車両周辺の走行路の明るさが前記所定の条件を満たすと判断された場合に、前記候補抽出部によって抽出された全ての前記少なくとも1つの線候補のうち前記車両に最も近い線候補を前記走行区画線として認識するように構成された
検出装置。
The detection device according to any one of claims 3 and 4,
The recognizing unit, when the environment determining unit (S140) determines that the brightness of the road around the vehicle satisfies the predetermined condition, all the at least one extracted by the candidate extracting unit A detection device configured to recognize a line candidate closest to the vehicle among the line candidates as the travel lane marking.
請求項3から請求項5のいずれか一項に記載の検出装置であって、
前記環境判断部は、前記車両周辺の走行路の明るさが、前記区画線の輝度と路面の輝度との差が所定の明閾値未満となる明るさであること、を前記所定の条件として、判断するように構成された
検出装置。
The detection device according to any one of claims 3 to 5,
The environment determination unit, as the predetermined condition, that the brightness of the road around the vehicle is such that the difference between the brightness of the lane marking and the brightness of the road surface is less than a predetermined brightness threshold, A detection device configured to determine.
請求項3から請求項6のいずれか一項に記載の検出装置であって、
前記環境判断部は、前記車両周辺の走行路の明るさが、低輝度領域の輝度と前記路面の輝度との差が所定の暗閾値未満となる明るさであること、を前記所定の条件として判断するように構成されており、
前記低輝度領域は、前記区画線と平行となるように前記路面上に位置する複数の線状の領域のそれぞれであって、前記路面よりも輝度が低い領域を表すこと、を特徴とする
検出装置。
The detection device according to any one of claims 3 to 6,
The environment determination unit, as the predetermined condition, that the brightness of the road around the vehicle is such that the difference between the luminance of the low luminance area and the luminance of the road surface is less than a predetermined dark threshold value. Configured to judge,
The low luminance region is a plurality of linear regions located on the road surface so as to be parallel to the partition line, and represents a region having a lower luminance than the road surface. apparatus.
JP2017137854A 2017-07-14 2017-07-14 Detection device Pending JP2019020957A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017137854A JP2019020957A (en) 2017-07-14 2017-07-14 Detection device
PCT/JP2018/026192 WO2019013253A1 (en) 2017-07-14 2018-07-11 Detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017137854A JP2019020957A (en) 2017-07-14 2017-07-14 Detection device

Publications (1)

Publication Number Publication Date
JP2019020957A true JP2019020957A (en) 2019-02-07

Family

ID=65001319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017137854A Pending JP2019020957A (en) 2017-07-14 2017-07-14 Detection device

Country Status (2)

Country Link
JP (1) JP2019020957A (en)
WO (1) WO2019013253A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021120768A (en) * 2020-01-30 2021-08-19 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056322A (en) * 2003-08-07 2005-03-03 Toshiba Corp White line estimation device
JP4616046B2 (en) * 2005-03-22 2011-01-19 本田技研工業株式会社 VEHICLE IMAGE PROCESSING SYSTEM, VEHICLE IMAGE PROCESSING METHOD, VEHICLE IMAGE PROCESSING PROGRAM, AND VEHICLE
JP5091897B2 (en) * 2009-03-24 2012-12-05 富士重工業株式会社 Stop line detector
JP2010286995A (en) * 2009-06-10 2010-12-24 Honda Motor Co Ltd Image processing system for vehicle
JP6515704B2 (en) * 2015-06-25 2019-05-22 富士通株式会社 Lane detection device and lane detection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021120768A (en) * 2020-01-30 2021-08-19 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method
JP7446830B2 (en) 2020-01-30 2024-03-11 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
WO2019013253A1 (en) 2019-01-17

Similar Documents

Publication Publication Date Title
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
JP6889005B2 (en) Road parameter estimator
US20190156129A1 (en) Traveling Road Boundary Estimation Apparatus and Traveling Assistance System Using Same
US10891738B2 (en) Boundary line recognition apparatus and branch road determination apparatus
EP2963634B1 (en) Stereo camera device
US10127460B2 (en) Lane boundary line information acquiring device
JP6538547B2 (en) Road curvature measurement device
JP5480917B2 (en) Vehicle periphery monitoring device
JP6741603B2 (en) Estimator
US10339393B2 (en) Demarcation line recognition apparatus
US9965690B2 (en) On-vehicle control device
US8643723B2 (en) Lane-marker recognition system with improved recognition-performance
US20160026879A1 (en) Traffic lane marking recognition apparatus and traffic lane marking recognition program
JP6426512B2 (en) Driving lane recognition system
US20180005073A1 (en) Road recognition apparatus
JP2013241065A (en) Traveling environment detecting device, traveling environment detecting program, and light control device
JP5805619B2 (en) Boundary line recognition device
JP2018181093A (en) Mark line recognition device
JP6408935B2 (en) Traveling line recognition device
US11010618B2 (en) Apparatus for identifying line marking on road surface
JP6601336B2 (en) Lane marking recognition system
JP2019020957A (en) Detection device
JP2018067236A (en) Section line recognition device
JP2018124641A (en) Driving support device
JP6593263B2 (en) Lane marking recognition system