JP2023011400A - Lane detection apparatus, lane detection method, and lane detection program - Google Patents
Lane detection apparatus, lane detection method, and lane detection program Download PDFInfo
- Publication number
- JP2023011400A JP2023011400A JP2021115235A JP2021115235A JP2023011400A JP 2023011400 A JP2023011400 A JP 2023011400A JP 2021115235 A JP2021115235 A JP 2021115235A JP 2021115235 A JP2021115235 A JP 2021115235A JP 2023011400 A JP2023011400 A JP 2023011400A
- Authority
- JP
- Japan
- Prior art keywords
- integration
- line segments
- lane
- line
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 88
- 230000010354 integration Effects 0.000 claims abstract description 150
- 238000000034 method Methods 0.000 claims description 34
- 230000002093 peripheral effect Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 13
- 241000283070 Equus zebra Species 0.000 description 9
- 240000001973 Ficus microcarpa Species 0.000 description 4
- 230000007717 exclusion Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、車線検出装置、車線検出方法および車線検出プログラムに関する。 The present invention relates to a lane detection device, a lane detection method, and a lane detection program.
従来、例えば、車載カメラで撮像された画像から車両が走行する車線を検出する技術がある。たとえば、車線を検出する技術では、車線の特徴を有する複数の画素をつなぐことによって車線を検出する(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, for example, there is a technique for detecting a lane in which a vehicle travels from an image captured by an in-vehicle camera. For example, in the technology for detecting lanes, lanes are detected by connecting a plurality of pixels having characteristics of lanes (see, for example, Patent Document 1).
しかしながら、従来技術では、たとえば、車線がかすれている場合など、車線が途切れている場合においては、車線の検出精度が低下するおそれがあった。 However, in the conventional technology, there is a possibility that the accuracy of lane detection is lowered when the lane is interrupted, for example, when the lane is blurred.
本発明は、上記に鑑みてなされたものであって、車線の検出精度を向上させることができる車線検出装置、車線検出方法および車線検出プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a lane detection device, a lane detection method, and a lane detection program capable of improving lane detection accuracy.
上述した課題を解決し、目的を達成するために、本発明に係る車線検出装置は、生成部と、第1統合処理部と、第2統合処理部と、検出部とを備える。前記生成部は、車載カメラによって路面を撮影した撮像画像からエッジ画像を生成する。前記第1統合処理部は、前記生成部によって生成された前記エッジ画像に基づき、車線を構成する同一破線内の線分を線分間の距離と前記線分間の角度差とに基づく第1統合条件に基づいて統合する。前記第2統合処理部は、前記第1統合処理部による統合結果に基づき、前記車線を構成する破線間の前記線分を前記第1統合条件よりも前記線分間の距離が長く、前記角度差が小さい第2統合条件に基づいて統合する。前記検出部は、前記第2統合処理部による統合結果に基づき、車線を検出する。 In order to solve the above-described problems and achieve the object, the lane detection device according to the present invention includes a generation section, a first integration processing section, a second integration processing section, and a detection section. The generation unit generates an edge image from a captured image of a road surface captured by an in-vehicle camera. Based on the edge image generated by the generation unit, the first integration processing unit determines line segments within the same dashed line that constitutes a lane under a first integration condition based on a distance between the line segments and an angle difference between the line segments. Integrate based on The second integration processing unit determines, based on the result of integration by the first integration processing unit, the line segments between the dashed lines that form the lanes so that the distance between the line segments is longer than the first integration condition, and the angle difference is is integrated based on the second integration condition where is small. The detection unit detects lanes based on the result of integration by the second integration processing unit.
本発明によれば、車線の検出精度を向上させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the detection accuracy of a lane can be improved.
以下、添付図面を参照して、本願の開示する車線検出装置、車線検出方法および車線検出プログラムの実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of a lane detection device, a lane detection method, and a lane detection program disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.
まず、図1を用いて、実施形態に係る車線検出方法の概要について説明する。図1は、車線検出方法の概要を示す図である。なお、かかる車線検出方法は、図2にて後述する車線検出装置10によって実行される。なお、以下では、車線を構成する白線を検出する場合について説明する。なお、車線として検出する対象は、白線に限定されるものではなく、たとえば、「黄色線」や「多重線」等であってもよい。
First, the outline of the lane detection method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of a lane detection method. This lane detection method is executed by the
実施形態に係る車線検出方法は、車載カメラによって撮像された撮像画像から車線の区画線を検出する。図1に示すように、車線検出方法では、車載カメラに路面を撮像した撮像画像Gからエッジ画像を生成する(ステップS1)。たとえば、車線検出方法では、撮像画像Gの輝度勾配等に基づき、エッジ画像を生成する。エッジ画像では、たとえば、白線部分と路面部分の境界線が線分Lとして現れる。 A lane detection method according to an embodiment detects lane markings from an image captured by an in-vehicle camera. As shown in FIG. 1, in the lane detection method, an edge image is generated from a captured image G of a road surface captured by an in-vehicle camera (step S1). For example, in the lane detection method, an edge image is generated based on the luminance gradient of the captured image G and the like. In the edge image, for example, a line segment L appears as a boundary line between the white line portion and the road surface portion.
ここで、たとえば、破線間の線分Lを統合することで、破線を一つの車線として検出する手法が考えられる。しかしながら、たとえば、白線が擦れている場合など、破線以外の要素で線分Lが分断されていると、破線間の線分Lをうまく統合できない場合がある。 Here, for example, a method of detecting the dashed lines as one lane by integrating the line segments L between the dashed lines can be considered. However, if the line segment L is divided by an element other than the dashed line, such as when the white line is rubbed, the line segment L between the dashed lines may not be merged well.
そのため、実施形態に係る車線検出方法では、第1統合処理によって破線内の線分Lを統合することで、分断された線分Lを補正した後に、第2統合処理によって破線間の線分Lを統合することとした。 Therefore, in the lane detection method according to the embodiment, the segmented line segments L are corrected by integrating the line segments L within the dashed lines by the first integration process, and then the line segments L between the dashed lines are corrected by the second integration process. decided to integrate
具体的には、車線検出方法では、エッジ画像に含まれる線分Lを第1統合条件に基づいて統合する第1統合処理を行う(ステップS2)。ここで、第1統合処理は、同一破線内の線分Lを統合する処理であり、たとえば、擦れた白線や、ゼブラゾーンを有する白線、リブ式の白線の線分Lを統合する処理である。なお、破線が存在しない白線、すなわち、実線については、白線全体を一つの破線として捉えることにしてもよい。 Specifically, in the lane detection method, a first integration process is performed to integrate the line segments L included in the edge image based on the first integration condition (step S2). Here, the first integration process is a process of integrating line segments L within the same dashed line, for example, a process of integrating line segments L of a worn white line, a white line having a zebra zone, or a ribbed white line. . In addition, for white lines that do not have broken lines, that is, solid lines, the entire white line may be regarded as one broken line.
たとえば、擦れた白線の線分Lは、傾き、長さ、位置が擦れ具合に依存し、規則性がない一方で、擦れた白線における線分L同士は比較的近い位置に存在することとなる。 For example, the line segment L of the rubbed white line depends on the degree of rubbing in inclination, length, and position, and has no regularity. .
また、ゼブラゾーンを有する白線や、リブ式の白線の線分Lは途切れてエッジ画像に現れる。また、たとえば、ゼブラゾーンを有する白線や、リブ式の白線の線分Lは、線分Lが周期的に存在する。 Also, a white line having a zebra zone and a line segment L of a rib-type white line are interrupted and appear in the edge image. Further, for example, line segments L of a white line having a zebra zone or a rib type white line have line segments L periodically.
そのため、たとえば、線分Lの延長上に次の線分Lが存在しやすい。そのため、第1統合処理では、これらを第1統合条件として同一破線内の線分Lを統合する。図1では、第1統合処理の処理結果を第1統合線Li1として示す。 Therefore, for example, the next line segment L is likely to exist on the extension of the line segment L. Therefore, in the first integration process, the line segments L within the same dashed line are integrated using these as the first integration conditions. In FIG. 1, the processing result of the first integration processing is indicated as a first integration line Li1.
つづいて、車線検出方法では、エッジ画像に含まれる線分Lを第2統合条件に基づいて統合する第2統合処理を行う(ステップS3)。第2統合処理は、同一の白線を構成する破線間の線分Lを一つの線分として統合する処理である。 Subsequently, in the lane detection method, a second integration process is performed to integrate the line segments L included in the edge image based on the second integration condition (step S3). The second integration process is a process of integrating line segments L between dashed lines forming the same white line as one line segment.
すなわち、破線の白線は、それぞれ所定の規則性をもって線分Lが存在する領域と、存在しない領域とが交互に現れる。そのため、第2統合処理では、これらの規則性にそって各線分Lの統合を行う。なお、第2統合処理においては、第1統合線Li1も統合処理の対象に含まれる。 In other words, the dashed white line alternates between areas where the line segment L exists and areas where the line segment L does not exist with a predetermined regularity. Therefore, in the second integration process, each line segment L is integrated according to these regularities. In addition, in the second integration process, the first integration line Li1 is also included in the target of the integration process.
たとえば、車線検出方法では、破線間の特徴を有する所定の規則性を有する線分Lを統合する。たとえば、第2統合処理では、周期的に存在し、傾きのずれや角度差が所定値以下となる線分L同士を統合する。これにより、破線間の線分Lを統合することができ、一つの白線として統合することができる。なお、図1においては、第2統合処理の処理結果を第2統合線Li2として示す。 For example, the lane detection method integrates line segments L having a predetermined regularity with features between dashed lines. For example, in the second integration process, line segments L that periodically exist and have inclination deviations or angle differences equal to or less than a predetermined value are integrated. As a result, the line segments L between the dashed lines can be integrated, and can be integrated as one white line. In addition, in FIG. 1, the processing result of the second integration processing is shown as a second integration line Li2.
その後、車線検出方法では、第1統合処理および第2統合処理の処理結果に基づき、車線を検出する(ステップS4)。たとえば、車線検出方法では、車線の両端に対応する2つの白線を検出し、2つの白線の検出結果に基づいて車線を検出する。 Thereafter, in the lane detection method, lanes are detected based on the processing results of the first integration process and the second integration process (step S4). For example, in the lane detection method, two white lines corresponding to both ends of the lane are detected, and the lane is detected based on the detection results of the two white lines.
このように、実施形態に係る車線検出方法では、第1統合処理によって破線内の線分Lを統合し、第2統合処理によって破線間の線分Lを統合する。これにより、実施形態に係る車線検出方法では、第2統合処理における統合処理の精度を向上させることができる。 Thus, in the lane detection method according to the embodiment, the line segments L within the dashed lines are integrated by the first integration process, and the line segments L between the dashed lines are integrated by the second integration process. Thereby, in the lane detection method according to the embodiment, it is possible to improve the accuracy of the integration processing in the second integration processing.
したがって、実施形態に係る車線検出方法によれば、破線間の線分Lを適切に統合することができるので、白線の検出精度を向上させることができ、車線の検出精度を向上させることができる。 Therefore, according to the lane detection method according to the embodiment, since the line segments L between the broken lines can be appropriately integrated, the white line detection accuracy can be improved, and the lane detection accuracy can be improved. .
次に、図2を用いて、実施形態に係る車線検出装置の構成例について説明する。図2は、車線検出装置のブロック図である。なお、図2では、車線検出装置10に加え、車載カメラ51をあわせて示す。
Next, a configuration example of the lane detection device according to the embodiment will be described with reference to FIG. 2 . FIG. 2 is a block diagram of the lane detection device. Note that FIG. 2 also shows an in-
車載カメラ51は、たとえば、車両の進行方向を撮影するドライブレコーダである。たとえば、車載カメラ51は、各種撮像素子と、魚眼レンズなどのレンズによって構成される。
Vehicle-mounted
図2に示すように、車線検出装置10は、記憶部20と、制御部30とを備える。記憶部20は、たとえば、不揮発性メモリやデータフラッシュ、ハードディスクドライブといった記憶デバイスで構成される。
As shown in FIG. 2 ,
図2に示す例において、記憶部20は、統合条件記憶部21と、検出履歴記憶部22とを有し、そのほか、各種プログラムなどが記憶される。
In the example shown in FIG. 2, the
統合条件記憶部21は、上記の第1統合条件や第2統合条件に関する各種情報を記憶する記憶領域である。ここで、図3A~図3Cを用いて、第1統合条件および第2統合条件の具体例について説明する。
The integration
図3Aおよび図3Bは、第1統合条件の一例を示す図である。図3Cは、第2統合条件の一例を示す図である。図3Aに示すように、たとえば、第1統合条件においては、線分Lの端部に円形状の第1探索領域A1が設定される。そして、第1探索領域A1を設定した線分Lと第1探索領域A1内に存在する線分Lを統合することになる。 3A and 3B are diagrams showing an example of the first integration condition. FIG. 3C is a diagram illustrating an example of a second integration condition; As shown in FIG. 3A, for example, under the first integration condition, a circular first search area A1 is set at the end of the line segment L. As shown in FIG. Then, the line segment L for which the first search area A1 is set and the line segment L existing within the first search area A1 are integrated.
また、図3Bに示すように、第1統合条件においては、さらに、各線分Lの端部に第2探索領域A2を設定する。たとえば、第2探索領域A2は、円弧形状の領域である。第2探索領域A2は、第1探索領域A1よりも半径の長さが長く、中心角が狭い。 Further, as shown in FIG. 3B, under the first integration condition, a second search area A2 is set at the end of each line segment L. As shown in FIG. For example, the second search area A2 is an arc-shaped area. The second search area A2 has a longer radius and a narrower central angle than the first search area A1.
また、第2探索領域A2は中心が線分Lの延長線上に存在するように向きが設定される。したがって、第2探索領域A2は、第1探索領域A1よりも角度をしぼったうえで、より遠くに存在する線分Lを探索することになる。 Also, the direction of the second search area A2 is set such that the center is on the extension of the line segment L. FIG. Therefore, the second search area A2 narrows the angle more than the first search area A1, and searches for the line segment L existing farther.
また、図3Cに示すように、第2統合条件においては、各線分Lの端部に第3探索領域A3を設定する。たとえば、第2探索領域A2は、ゼブラゾーンやリブ式の白線において同一破線内に存在する線分Lを統合するための探索領域であるのに対して、第3探索領域A3は、破線間の線分Lを統合するための探索領域である。 In addition, as shown in FIG. 3C, the third search area A3 is set at the end of each line segment L under the second integration condition. For example, the second search area A2 is a search area for integrating line segments L existing within the same dashed line in a zebra zone or a rib-type white line, whereas the third search area A3 is a search area between dashed lines. This is a search area for integrating line segments L. FIG.
たとえば、第3探索領域A3は、第2探索領域A2と同様に円弧形状であり、第2探索領域A2に比べて半径の長さが長く、中心角が狭い。また、第3探索領域A3は中心が線分Lの延長線上に存在するように向きが設定される。 For example, the third search area A3 has an arc shape like the second search area A2, and has a longer radius and a narrower center angle than the second search area A2. Also, the direction of the third search area A3 is set so that the center thereof is on the extension line of the line segment L. FIG.
これにより、第3探索領域A3は、より角度を絞ったうえで、より遠くに存在する線分Lを探索することになる。これは、第2統合条件においては、第1統合条件より遠くに位置する線分Lの探索を行うので、白線に沿って2重線や補助線が存在する場合に、2重線や補助線の線分Lを統合するおそれがあるためである。 As a result, the angle of the third search area A3 is narrowed down, and the line segment L that exists farther is searched. This is because, under the second integration condition, a line segment L located farther than under the first integration condition is searched. This is because there is a possibility that the line segment L of .
すなわち、第1統合条件の第1探索領域A1や第2探索領域A2に比べて、第2統合条件の第3探索領域A3の角度範囲を絞ることで、同じ白線の線分Lを適切に統合することができる。 That is, by narrowing the angular range of the third search area A3 under the second integration condition compared to the first search area A1 and the second search area A2 under the first integration condition, the line segment L of the same white line is appropriately integrated. can do.
また、一般的に、車線としての破線は、一定以上の長さ(たとえば、5m)を有し、それらが所定周期(たとえば、5m間隔)で存在する。そのため、第3探索領域A3は、中心部に統合対象から除外する除外領域Afを有する。すなわち、除外領域Afに存在する線分Lは第2統合処理の処理対象から除外する。これにより、周期性の観点から明らかに破線間の線分Lでない線分L同士の統合を抑制することができる。なお、第2探索領域A2についても同様に除外領域Afを設定することにしてもよい。 In general, dashed lines as lanes have a certain length (eg, 5 m) and are present at predetermined intervals (eg, 5 m intervals). Therefore, the third search area A3 has an exclusion area Af, which is excluded from the integration target, in the center. That is, the line segment L existing in the exclusion area Af is excluded from the processing targets of the second integration processing. As a result, from the viewpoint of periodicity, it is possible to suppress the unification of line segments L that are clearly not line segments L between broken lines. Note that the exclusion area Af may be similarly set for the second search area A2.
図2の説明に戻り、検出履歴記憶部22について説明する。検出履歴記憶部22は、車線の検出履歴を記憶する記憶領域である。たとえば、検出履歴記憶部22に記憶された検出履歴に基づき、第2統合条件が設定されることになるが、この点の詳細については図4を用いて後述する。
Returning to the description of FIG. 2, the detection
制御部30は、生成部31と、第1統合処理部32と、第2統合処理部33と、検出部34とを備え、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路を含む。
The
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部30の生成部31、第1統合処理部32、第2統合処理部33および検出部34として機能する。
The CPU of the computer functions as the generation unit 31, the first
また、制御部30の生成部31、第1統合処理部32、第2統合処理部33および検出部34の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
In addition, at least one part or all of the generation unit 31, the first
生成部31は、車載カメラ51によって路面を撮影した撮像画像からエッジ画像を生成する。生成部31は、車載カメラ51から撮像画像を取得し、撮像画像を構成する各画素の輝度勾配等に基づき、エッジ画像を抽出する。また、生成部31は、エッジ画像の生成毎に、エッジ画像に関する情報を第1統合処理部32に渡す。
The generation unit 31 generates an edge image from the captured image of the road surface captured by the in-
第1統合処理部32は、生成部31によって生成されたエッジ画像に基づき、白線を構成する同一破線内の線分Lを線分間の距離と線分間の角度差とに基づく第1統合条件に基づいて統合する。まず、第1統合処理部32は、エッジ画像から各線分Lを抽出する。
Based on the edge image generated by the generation unit 31, the first
つづいて、第1統合処理部32は、検出する白線の種別に応じて第1統合条件を切り替えて線分Lの統合を行う。ここで、白線の種別とは、たとえば、擦れた白線と、ゼブラゾーンを有する白線やリブ式の白線とに大別される。
Subsequently, the first
たとえば、第1統合処理部32は、まず、擦れた白線の線分Lを統合したうえで、ゼブラゾーンやリブ式の白線の線分Lの統合を行う。これにより、ゼブラゾーンを有する白線やリブ式の白線が擦れていた場合であっても、線分Lを適切に統合することができる。
For example, the first
具体的には、まず、第1統合処理部32は、第1探索領域A1に存在する線分Lを統合することで、第1統合線Li1(図1参照)を生成する。その後、第1統合処理部32は、第1統合線Li1を含む線分L(以下、単に線分Lと記載)に対して第2探索領域A2(図3参照)を設定する。
Specifically, first, the first
第1統合処理部32は、第2探索領域A2に存在する線分Lのうち、対象となる線分Lとの角度差が所定値以下となる線分Lを統合する。また、この際、対象となる線分Lとの長さの差をさらに考慮して線分Lを統合することにしてもよい。
The first
すなわち、ゼブラゾーンやリブ式の白線の線分Lは、長さに規則性を有するので、長さの差が所定値以下となる線分L同士を統合することで、ゼブラゾーンやリブ式の白線の線分Lに対応する線分Lを選抜したうえで統合することができる。 That is, since the line segments L of the zebra zone or rib type white line have regularity in length, by integrating the line segments L whose length difference is equal to or less than a predetermined value, the zebra zone or rib type white line segment L is integrated. Line segments L corresponding to the line segment L of the white line can be selected and integrated.
第1統合処理部32は、第1探索領域A1および第2探索領域A2に基づく第1統合処理を終えると、それぞれの第1統合線Li1をエッジ画像に重畳し、第2統合処理部33に渡す。
After completing the first integration processing based on the first search area A1 and the second search area A2, the first
第2統合処理部33は、第1統合処理部32から受け取ったエッジ画像に基づき、破線間の線分Lを統合する第2統合処理を行う。まず、第2統合処理部33は、各線分Lに対して、第3探索領域A3を設定する。
Based on the edge image received from the first
つづいて、第2統合処理部33は、第3探索領域A3に存在する線分Lのうち、対象となる線分Lとの角度差が所定値以下となる線分Lを統合する。第2統合処理部33は、統合結果となる第2統合線Li2を第1統合処理部32から受け取ったエッジ画像に重畳し、検出部34に渡す。
Subsequently, the second
また、第2統合処理部33は、たとえば、検出履歴記憶部22に記憶された白線の検出履歴に基づいて、第2統合条件を設定することにしてもよい。たとえば、第2統合処理部33は、過去フレームまでの白線の検出履歴に基づいて、当該白線に続く白線の予測軌跡を算出する。
Further, the second
図4は、白線の予測軌跡の一例を示す図である。図4に示す予測軌跡Oは、たとえば、白線の検出履歴に基づいて検出した白線の曲率を求めることで算出される。たとえば、第2統合処理部33は、予測軌跡Oに沿って第3探索領域A3の向きを設定する。
FIG. 4 is a diagram showing an example of the predicted trajectory of the white line. The predicted trajectory O shown in FIG. 4 is calculated, for example, by obtaining the curvature of the detected white line based on the detection history of the white line. For example, the second
これにより、たとえば、R値が大きなカーブであっても、白線に沿って第3探索領域A3の向きを設定することができるので、破線間の線分Lを適切に統合することができる。なお、第2統合処理部33は、過去フレームまでの白線の検出履歴に基づいて、第3探索領域A3の長さを設定することにしてもよい。
Thereby, for example, even if the curve has a large R value, the direction of the third search area A3 can be set along the white line, so the line segments L between the dashed lines can be appropriately integrated. The second
すなわち、通常、破線はその長さに規則性を有しているので、検出履歴に基づき、破線の長さ、破線間の距離を算出し、第3探索領域A3の長さを設定することにしてもよい。この場合においても、破線間の線分Lを適切に統合することができる。 That is, since dashed lines usually have regularity in length, the length of the dashed lines and the distance between the dashed lines are calculated based on the detection history, and the length of the third search area A3 is set. may Even in this case, the line segments L between the dashed lines can be appropriately integrated.
ところで、撮像画像Gにおいて、白線部分の画素は、路面部分の画素よりも輝度値が高くなりやすい。そのため、第2統合処理部33は、線分Lを挟んだ周辺領域の輝度値の差分を考慮して線分Lを統合することにしてもよい。
By the way, in the captured image G, pixels in the white line portion tend to have higher luminance values than pixels in the road surface portion. Therefore, the second
図5は、周辺領域の一例を示す図である。図5に示すように、たとえば、線分Lが白線のエッジであれば、白線部分と路面部分との境界となる。そのため、第2統合処理部33は、線分Lの左側に位置する第1周辺領域f1と線分Lの左側に位置する第2周辺領域f2の輝度値の差分に基づいて線分Lを統合する。
FIG. 5 is a diagram showing an example of the peripheral area. As shown in FIG. 5, for example, if the line segment L is the edge of the white line, it becomes the boundary between the white line portion and the road surface portion. Therefore, the second
より具体的には、第1周辺領域f1と第2周辺領域f2との輝度値の差分が所定値以上であれば、すなわち、輝度差が十分にあれば、線分Lを統合対象とし、第1周辺領域f1と第2周辺領域f2との輝度値の差分が所定値未満であれば、線分Lを統合対象としない。 More specifically, if the difference in brightness value between the first peripheral region f1 and the second peripheral region f2 is equal to or greater than a predetermined value, that is, if the brightness difference is sufficient, the line segment L is set as the integration target, If the difference in luminance value between the first peripheral region f1 and the second peripheral region f2 is less than a predetermined value, the line segment L is not integrated.
このように、輝度値をさらに考慮することで、白線の特徴に対応する線分Lのみを統合することができるので、白線の検出精度の向上を図ることができる。 In this way, by further considering the luminance value, it is possible to integrate only the line segments L corresponding to the characteristics of the white line, thereby improving the detection accuracy of the white line.
図2の説明に戻り、検出部34について説明する。検出部34は、第1統合処理部32による処理結果と、第2統合処理部33による処理結果とに基づいて車線を検出する。たとえば、検出部34は、第1統合線Li1および第2統合線Li2が重畳されたエッジ画像に基づいて白線を検出する。そして、検出部34は、白線の検出結果に基づいて車線を検出する。
Returning to the description of FIG. 2, the
たとえば、検出部34によって検出された白線に関する情報は、たとえば、車両の自動運転を制御する自動運転システムや車両が車線を逸脱した際に警告する警告システムへ出力される。
For example, the information on the white line detected by the
次に、図6を用いて、実施形態に係る車線検出装置10が実行する処理手順について説明する。図6は、車線検出装置10が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、制御部30によって繰り返し実行される。
Next, a processing procedure executed by the
図6に示すように、まず、車線検出装置10は、撮像画像Gを取得すると(ステップS101)、撮像画像Gからエッジ画像を生成する(ステップS102)。つづいて、車線検出装置10は、同一破線内の線分Lを統合する第1統合処理を行う(ステップS103)。
As shown in FIG. 6, first, when the
つづいて、車線検出装置10は、ステップS103までの処理結果に基づき、破線間の線分Lを統合する第2統合処理を行う(ステップS104)。つづいて、車線検出装置10は、第2統合処理までの処理結果に基づき、車線を検出して(ステップS105)、処理を終了する。
Subsequently, the
上述したように、実施形態に係る車線検出装置10は、生成部31と、第1統合処理部32と、第2統合処理部33と、検出部34とを備える。生成部31は、車載カメラ51によって路面を撮影した撮像画像Gからエッジ画像を生成する、第1統合処理部32は、生成部31によって生成されたエッジ画像に基づき、車線を構成する同一破線内の線分Lを線分L間の距離と線分L間の角度差とに基づく第1統合条件に基づいて統合する。
As described above, the
第2統合処理部33は、第1統合処理部32による統合結果に基づき、車線を構成する破線間の線分Lを第1統合条件よりも線分L間の距離が長く、線分L間の角度差が小さい第2統合条件に基づいて統合する。検出部34は、第2統合処理部33による統合結果に基づき、車線を検出する。したがって、実施形態に係る車線検出装置10によれば、車線の検出精度を向上させることができる。
Based on the result of integration by the first
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.
10 車線検出装置
21 統合条件記憶部
22 検出履歴記憶部
31 生成部
32 第1統合処理部
33 第2統合処理部
34 検出部
51 車載カメラ
G 撮像画像
10
Claims (6)
前記生成部によって生成された前記エッジ画像に基づき、車線を構成する同一破線内の線分を線分間の距離と前記線分間の角度差とに基づく第1統合条件に基づいて統合する第1統合処理部と、
前記第1統合処理部による統合結果に基づき、前記車線を構成する破線間の前記線分を前記第1統合条件よりも前記線分間の距離が長く、前記線分間の角度差が小さい第2統合条件に基づいて統合する第2統合処理部と、
前記第2統合処理部による統合結果に基づき、車線を検出する検出部と
を備えることを特徴とする車線検出装置。 a generator that generates an edge image from an image captured by an in-vehicle camera of a road surface;
A first integration that integrates line segments within the same dashed line forming a lane based on the edge image generated by the generation unit based on a first integration condition based on a distance between the line segments and an angle difference between the line segments. a processing unit;
Based on the result of integration by the first integration processing unit, the line segments between the dashed lines forming the lane are subjected to a second integration in which the distance between the line segments is longer and the angle difference between the line segments is smaller than the first integration condition. a second integration processing unit that integrates based on conditions;
A lane detection device comprising: a detection unit that detects a lane based on a result of integration by the second integration processing unit.
前記車線の種別に応じて前記第1統合条件を切り替えて前記線分を統合すること
を特徴とする請求項1に記載の車線検出装置。 The first integration processing unit
The lane detection device according to claim 1, wherein the line segments are integrated by switching the first integration condition according to the type of the lane.
前記検出部によって検出された前記車線の検出履歴に基づいて前記第2統合条件を設定すること
を特徴とする請求項1または2に記載の車線検出装置。 The second integration processing unit
The lane detection device according to claim 1 or 2, wherein the second integrated condition is set based on a detection history of the lane detected by the detector.
前記線分を挟んだ周辺領域の輝度値の差分に基づき、前記線分を統合すること
を特徴とする請求項1、2または3に記載の車線検出装置。 The second integration processing unit
4. The lane detection device according to claim 1, wherein the line segments are integrated based on a difference in luminance value of a peripheral area sandwiching the line segment.
前記生成工程によって生成された前記エッジ画像に基づき、車線を構成する同一破線内の線分を線分間の距離と前記線分間の角度差とに基づく第1統合条件に基づいて統合する第1統合処理工程と、
前記第1統合処理工程による統合結果に基づき、前記車線を構成する破線間の前記線分を前記第1統合条件よりも前記線分間の距離が長く、前記線分間の角度差が小さい第2統合条件に基づいて統合する第2統合処理工程と、
前記第2統合処理工程による統合結果に基づき、車線を検出する検出工程と
を含むことを特徴とする車線検出方法。 A generation step of generating an edge image from an image captured by an in-vehicle camera of a road surface;
A first integration that integrates line segments within the same dashed line forming a lane based on the edge image generated by the generation step, based on a first integration condition based on a distance between the line segments and an angle difference between the line segments. a processing step;
second integration in which the distance between the line segments is longer and the angle difference between the line segments is smaller than the first integration condition, based on the integration result of the first integration processing step; a second integration processing step of integrating based on conditions;
and a detection step of detecting a lane based on the integration result of the second integration processing step.
前記生成手順によって生成された前記エッジ画像に基づき、車線を構成する同一破線内の線分を線分間の距離と前記線分間の角度差とに基づく第1統合条件に基づいて統合する第1統合処理手順と、
前記第1統合処理手順による統合結果に基づき、前記車線を構成する破線間の前記線分を前記第1統合条件よりも前記線分間の距離が長く、前記線分間の角度差が小さい第2統合条件に基づいて統合する第2統合処理手順と、
前記第2統合処理手順による統合結果に基づき、車線を検出する検出手順と
をコンピュータに実行させることを特徴とする車線検出プログラム。 a generation procedure for generating an edge image from a captured image of a road surface captured by an in-vehicle camera;
A first integration that integrates line segments within the same dashed line forming a lane based on the edge image generated by the generation procedure based on a first integration condition based on a distance between the line segments and an angle difference between the line segments. a processing procedure;
second integration in which the distance between the line segments is longer and the angle difference between the line segments is smaller than the first integration condition, based on the result of integration by the first integration processing procedure; a second integration procedure that integrates based on conditions;
A lane detection program for causing a computer to execute a detection procedure for detecting lanes based on the result of integration by the second integration processing procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021115235A JP7149385B1 (en) | 2021-07-12 | 2021-07-12 | Lane detection device, lane detection method, and lane detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021115235A JP7149385B1 (en) | 2021-07-12 | 2021-07-12 | Lane detection device, lane detection method, and lane detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7149385B1 JP7149385B1 (en) | 2022-10-06 |
JP2023011400A true JP2023011400A (en) | 2023-01-24 |
Family
ID=83507665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021115235A Active JP7149385B1 (en) | 2021-07-12 | 2021-07-12 | Lane detection device, lane detection method, and lane detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7149385B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002175534A (en) * | 2000-12-06 | 2002-06-21 | Sumitomo Electric Ind Ltd | Method for detecting road white line |
JP2007264955A (en) * | 2006-03-28 | 2007-10-11 | Fuji Heavy Ind Ltd | Lane position detector |
WO2012081359A1 (en) * | 2010-12-15 | 2012-06-21 | 本田技研工業株式会社 | Lane recognition device |
JP2013120458A (en) * | 2011-12-06 | 2013-06-17 | Fujitsu Ltd | Road shape estimating device and program |
JP2017010464A (en) * | 2015-06-25 | 2017-01-12 | 富士通株式会社 | Lane detection device and lane detection method |
JP2017223511A (en) * | 2016-06-14 | 2017-12-21 | 日本電信電話株式会社 | Road structuring device, road structuring method and road structuring program |
US20200104607A1 (en) * | 2018-09-28 | 2020-04-02 | Samsung Electronics Co., Ltd. | Method and apparatus with lane determination |
-
2021
- 2021-07-12 JP JP2021115235A patent/JP7149385B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002175534A (en) * | 2000-12-06 | 2002-06-21 | Sumitomo Electric Ind Ltd | Method for detecting road white line |
JP2007264955A (en) * | 2006-03-28 | 2007-10-11 | Fuji Heavy Ind Ltd | Lane position detector |
WO2012081359A1 (en) * | 2010-12-15 | 2012-06-21 | 本田技研工業株式会社 | Lane recognition device |
JP2013120458A (en) * | 2011-12-06 | 2013-06-17 | Fujitsu Ltd | Road shape estimating device and program |
JP2017010464A (en) * | 2015-06-25 | 2017-01-12 | 富士通株式会社 | Lane detection device and lane detection method |
JP2017223511A (en) * | 2016-06-14 | 2017-12-21 | 日本電信電話株式会社 | Road structuring device, road structuring method and road structuring program |
US20200104607A1 (en) * | 2018-09-28 | 2020-04-02 | Samsung Electronics Co., Ltd. | Method and apparatus with lane determination |
Also Published As
Publication number | Publication date |
---|---|
JP7149385B1 (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190340447A1 (en) | Curb detection by analysis of reflection images | |
RU2634852C1 (en) | Traffic light detecting device and traffic light detecting method | |
US20180165525A1 (en) | Traveling lane determining device and traveling lane determining method | |
JP2005310140A (en) | Method of recognizing and/or tracking objects | |
US11087146B2 (en) | Lane-line recognizing apparatus | |
JP2004144671A (en) | Car-mounted radar device | |
CN107392080B (en) | Image evaluation method and electronic device thereof | |
WO2014033936A1 (en) | Image processing device, image processing method, and image processing program | |
CN109327660B (en) | Image acquisition method and device | |
JP7149385B1 (en) | Lane detection device, lane detection method, and lane detection program | |
JP6739881B2 (en) | Travel locus recognition device, travel locus recognition method, vehicle control device, and vehicle control method | |
JPH11296660A (en) | Road white line detector | |
JP2022011887A (en) | Traveling scheduled route designation system and traveling scheduled route designation method | |
JP7203587B2 (en) | Image processing device and image processing method | |
JP2020077077A (en) | Facility management device, facility management method, and facility management program | |
JP2007141167A (en) | Lane detector, lane detection method, and lane detection program | |
JP7195131B2 (en) | Image processing device and image processing method | |
JP6935690B2 (en) | Detection programs, methods, and equipment | |
CN114612457A (en) | Automobile part laser welding adjusting method and system based on computer vision | |
JP7095559B2 (en) | Bound line detection device and lane marking method | |
JP2014186516A (en) | Driving lane detection device | |
JP7120835B2 (en) | Image processing device | |
WO2018174123A1 (en) | Object detection device, traffic management system, method and program for controlling object detection device | |
JP2017045261A (en) | Information acquisition device, information acquisition method, and information acquisition program | |
JP7444942B1 (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7149385 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |