JP2023011400A - Lane detection apparatus, lane detection method, and lane detection program - Google Patents

Lane detection apparatus, lane detection method, and lane detection program Download PDF

Info

Publication number
JP2023011400A
JP2023011400A JP2021115235A JP2021115235A JP2023011400A JP 2023011400 A JP2023011400 A JP 2023011400A JP 2021115235 A JP2021115235 A JP 2021115235A JP 2021115235 A JP2021115235 A JP 2021115235A JP 2023011400 A JP2023011400 A JP 2023011400A
Authority
JP
Japan
Prior art keywords
integration
line segments
lane
line
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021115235A
Other languages
Japanese (ja)
Other versions
JP7149385B1 (en
Inventor
知之 藤本
Tomoyuki Fujimoto
康司 大西
Yasushi Onishi
隆幸 小笹
Takayuki Ozasa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2021115235A priority Critical patent/JP7149385B1/en
Application granted granted Critical
Publication of JP7149385B1 publication Critical patent/JP7149385B1/en
Publication of JP2023011400A publication Critical patent/JP2023011400A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To improve accuracy of detecting a lane.SOLUTION: A lane detection apparatus includes a generation unit, a first integration processing unit, a second integration processing unit, and a detection unit. The generation unit generates an edge image from an image of a road surface captured by an in-vehicle camera. The first integration processing unit integrates, based on the edge image generated by the generation unit, line segments in the same dashed line constituting a lane, on the basis of a first integration condition based on a distance between the line segments and a difference of angle between the line segments. The second integration processing unit integrates, based on a result integrated by the first integration processing unit, the line segment between the dashed line constituting the lane on the basis of a second integration condition in which the distance between the line segments is longer and the difference of angle is smaller than those in the first integration condition. The detection unit detects a lane on the basis of a result integrated by the second integration processing unit.SELECTED DRAWING: Figure 1

Description

本発明は、車線検出装置、車線検出方法および車線検出プログラムに関する。 The present invention relates to a lane detection device, a lane detection method, and a lane detection program.

従来、例えば、車載カメラで撮像された画像から車両が走行する車線を検出する技術がある。たとえば、車線を検出する技術では、車線の特徴を有する複数の画素をつなぐことによって車線を検出する(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, for example, there is a technique for detecting a lane in which a vehicle travels from an image captured by an in-vehicle camera. For example, in the technology for detecting lanes, lanes are detected by connecting a plurality of pixels having characteristics of lanes (see, for example, Patent Document 1).

特開2015-090584号公報JP 2015-090584 A

しかしながら、従来技術では、たとえば、車線がかすれている場合など、車線が途切れている場合においては、車線の検出精度が低下するおそれがあった。 However, in the conventional technology, there is a possibility that the accuracy of lane detection is lowered when the lane is interrupted, for example, when the lane is blurred.

本発明は、上記に鑑みてなされたものであって、車線の検出精度を向上させることができる車線検出装置、車線検出方法および車線検出プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a lane detection device, a lane detection method, and a lane detection program capable of improving lane detection accuracy.

上述した課題を解決し、目的を達成するために、本発明に係る車線検出装置は、生成部と、第1統合処理部と、第2統合処理部と、検出部とを備える。前記生成部は、車載カメラによって路面を撮影した撮像画像からエッジ画像を生成する。前記第1統合処理部は、前記生成部によって生成された前記エッジ画像に基づき、車線を構成する同一破線内の線分を線分間の距離と前記線分間の角度差とに基づく第1統合条件に基づいて統合する。前記第2統合処理部は、前記第1統合処理部による統合結果に基づき、前記車線を構成する破線間の前記線分を前記第1統合条件よりも前記線分間の距離が長く、前記角度差が小さい第2統合条件に基づいて統合する。前記検出部は、前記第2統合処理部による統合結果に基づき、車線を検出する。 In order to solve the above-described problems and achieve the object, the lane detection device according to the present invention includes a generation section, a first integration processing section, a second integration processing section, and a detection section. The generation unit generates an edge image from a captured image of a road surface captured by an in-vehicle camera. Based on the edge image generated by the generation unit, the first integration processing unit determines line segments within the same dashed line that constitutes a lane under a first integration condition based on a distance between the line segments and an angle difference between the line segments. Integrate based on The second integration processing unit determines, based on the result of integration by the first integration processing unit, the line segments between the dashed lines that form the lanes so that the distance between the line segments is longer than the first integration condition, and the angle difference is is integrated based on the second integration condition where is small. The detection unit detects lanes based on the result of integration by the second integration processing unit.

本発明によれば、車線の検出精度を向上させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the detection accuracy of a lane can be improved.

図1は、車線検出方法の概要を示す図である。FIG. 1 is a diagram showing an outline of a lane detection method. 図2は、車線検出装置のブロック図である。FIG. 2 is a block diagram of the lane detection device. 図3Aは、第1統合条件の一例を示す図である。FIG. 3A is a diagram illustrating an example of first integration conditions. 図3Bは、第1統合条件の一例を示す図である。FIG. 3B is a diagram illustrating an example of a first integration condition; 図3Cは、第2統合条件の一例を示す図である。FIG. 3C is a diagram illustrating an example of a second integration condition; 図4は、予測軌跡の一例を示す図である。FIG. 4 is a diagram showing an example of a predicted trajectory. 図5は、周辺領域の一例を示す図である。FIG. 5 is a diagram showing an example of the peripheral area. 図6は、車線検出装置が実行する処理手順を示すフローチャートである。FIG. 6 is a flow chart showing a processing procedure executed by the lane detection device.

以下、添付図面を参照して、本願の開示する車線検出装置、車線検出方法および車線検出プログラムの実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of a lane detection device, a lane detection method, and a lane detection program disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

まず、図1を用いて、実施形態に係る車線検出方法の概要について説明する。図1は、車線検出方法の概要を示す図である。なお、かかる車線検出方法は、図2にて後述する車線検出装置10によって実行される。なお、以下では、車線を構成する白線を検出する場合について説明する。なお、車線として検出する対象は、白線に限定されるものではなく、たとえば、「黄色線」や「多重線」等であってもよい。 First, the outline of the lane detection method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of a lane detection method. This lane detection method is executed by the lane detection device 10, which will be described later with reference to FIG. In addition, below, the case where the white line which comprises a lane is detected is demonstrated. Note that the target to be detected as a lane is not limited to the white line, and may be, for example, a “yellow line” or a “multiple line”.

実施形態に係る車線検出方法は、車載カメラによって撮像された撮像画像から車線の区画線を検出する。図1に示すように、車線検出方法では、車載カメラに路面を撮像した撮像画像Gからエッジ画像を生成する(ステップS1)。たとえば、車線検出方法では、撮像画像Gの輝度勾配等に基づき、エッジ画像を生成する。エッジ画像では、たとえば、白線部分と路面部分の境界線が線分Lとして現れる。 A lane detection method according to an embodiment detects lane markings from an image captured by an in-vehicle camera. As shown in FIG. 1, in the lane detection method, an edge image is generated from a captured image G of a road surface captured by an in-vehicle camera (step S1). For example, in the lane detection method, an edge image is generated based on the luminance gradient of the captured image G and the like. In the edge image, for example, a line segment L appears as a boundary line between the white line portion and the road surface portion.

ここで、たとえば、破線間の線分Lを統合することで、破線を一つの車線として検出する手法が考えられる。しかしながら、たとえば、白線が擦れている場合など、破線以外の要素で線分Lが分断されていると、破線間の線分Lをうまく統合できない場合がある。 Here, for example, a method of detecting the dashed lines as one lane by integrating the line segments L between the dashed lines can be considered. However, if the line segment L is divided by an element other than the dashed line, such as when the white line is rubbed, the line segment L between the dashed lines may not be merged well.

そのため、実施形態に係る車線検出方法では、第1統合処理によって破線内の線分Lを統合することで、分断された線分Lを補正した後に、第2統合処理によって破線間の線分Lを統合することとした。 Therefore, in the lane detection method according to the embodiment, the segmented line segments L are corrected by integrating the line segments L within the dashed lines by the first integration process, and then the line segments L between the dashed lines are corrected by the second integration process. decided to integrate

具体的には、車線検出方法では、エッジ画像に含まれる線分Lを第1統合条件に基づいて統合する第1統合処理を行う(ステップS2)。ここで、第1統合処理は、同一破線内の線分Lを統合する処理であり、たとえば、擦れた白線や、ゼブラゾーンを有する白線、リブ式の白線の線分Lを統合する処理である。なお、破線が存在しない白線、すなわち、実線については、白線全体を一つの破線として捉えることにしてもよい。 Specifically, in the lane detection method, a first integration process is performed to integrate the line segments L included in the edge image based on the first integration condition (step S2). Here, the first integration process is a process of integrating line segments L within the same dashed line, for example, a process of integrating line segments L of a worn white line, a white line having a zebra zone, or a ribbed white line. . In addition, for white lines that do not have broken lines, that is, solid lines, the entire white line may be regarded as one broken line.

たとえば、擦れた白線の線分Lは、傾き、長さ、位置が擦れ具合に依存し、規則性がない一方で、擦れた白線における線分L同士は比較的近い位置に存在することとなる。 For example, the line segment L of the rubbed white line depends on the degree of rubbing in inclination, length, and position, and has no regularity. .

また、ゼブラゾーンを有する白線や、リブ式の白線の線分Lは途切れてエッジ画像に現れる。また、たとえば、ゼブラゾーンを有する白線や、リブ式の白線の線分Lは、線分Lが周期的に存在する。 Also, a white line having a zebra zone and a line segment L of a rib-type white line are interrupted and appear in the edge image. Further, for example, line segments L of a white line having a zebra zone or a rib type white line have line segments L periodically.

そのため、たとえば、線分Lの延長上に次の線分Lが存在しやすい。そのため、第1統合処理では、これらを第1統合条件として同一破線内の線分Lを統合する。図1では、第1統合処理の処理結果を第1統合線Li1として示す。 Therefore, for example, the next line segment L is likely to exist on the extension of the line segment L. Therefore, in the first integration process, the line segments L within the same dashed line are integrated using these as the first integration conditions. In FIG. 1, the processing result of the first integration processing is indicated as a first integration line Li1.

つづいて、車線検出方法では、エッジ画像に含まれる線分Lを第2統合条件に基づいて統合する第2統合処理を行う(ステップS3)。第2統合処理は、同一の白線を構成する破線間の線分Lを一つの線分として統合する処理である。 Subsequently, in the lane detection method, a second integration process is performed to integrate the line segments L included in the edge image based on the second integration condition (step S3). The second integration process is a process of integrating line segments L between dashed lines forming the same white line as one line segment.

すなわち、破線の白線は、それぞれ所定の規則性をもって線分Lが存在する領域と、存在しない領域とが交互に現れる。そのため、第2統合処理では、これらの規則性にそって各線分Lの統合を行う。なお、第2統合処理においては、第1統合線Li1も統合処理の対象に含まれる。 In other words, the dashed white line alternates between areas where the line segment L exists and areas where the line segment L does not exist with a predetermined regularity. Therefore, in the second integration process, each line segment L is integrated according to these regularities. In addition, in the second integration process, the first integration line Li1 is also included in the target of the integration process.

たとえば、車線検出方法では、破線間の特徴を有する所定の規則性を有する線分Lを統合する。たとえば、第2統合処理では、周期的に存在し、傾きのずれや角度差が所定値以下となる線分L同士を統合する。これにより、破線間の線分Lを統合することができ、一つの白線として統合することができる。なお、図1においては、第2統合処理の処理結果を第2統合線Li2として示す。 For example, the lane detection method integrates line segments L having a predetermined regularity with features between dashed lines. For example, in the second integration process, line segments L that periodically exist and have inclination deviations or angle differences equal to or less than a predetermined value are integrated. As a result, the line segments L between the dashed lines can be integrated, and can be integrated as one white line. In addition, in FIG. 1, the processing result of the second integration processing is shown as a second integration line Li2.

その後、車線検出方法では、第1統合処理および第2統合処理の処理結果に基づき、車線を検出する(ステップS4)。たとえば、車線検出方法では、車線の両端に対応する2つの白線を検出し、2つの白線の検出結果に基づいて車線を検出する。 Thereafter, in the lane detection method, lanes are detected based on the processing results of the first integration process and the second integration process (step S4). For example, in the lane detection method, two white lines corresponding to both ends of the lane are detected, and the lane is detected based on the detection results of the two white lines.

このように、実施形態に係る車線検出方法では、第1統合処理によって破線内の線分Lを統合し、第2統合処理によって破線間の線分Lを統合する。これにより、実施形態に係る車線検出方法では、第2統合処理における統合処理の精度を向上させることができる。 Thus, in the lane detection method according to the embodiment, the line segments L within the dashed lines are integrated by the first integration process, and the line segments L between the dashed lines are integrated by the second integration process. Thereby, in the lane detection method according to the embodiment, it is possible to improve the accuracy of the integration processing in the second integration processing.

したがって、実施形態に係る車線検出方法によれば、破線間の線分Lを適切に統合することができるので、白線の検出精度を向上させることができ、車線の検出精度を向上させることができる。 Therefore, according to the lane detection method according to the embodiment, since the line segments L between the broken lines can be appropriately integrated, the white line detection accuracy can be improved, and the lane detection accuracy can be improved. .

次に、図2を用いて、実施形態に係る車線検出装置の構成例について説明する。図2は、車線検出装置のブロック図である。なお、図2では、車線検出装置10に加え、車載カメラ51をあわせて示す。 Next, a configuration example of the lane detection device according to the embodiment will be described with reference to FIG. 2 . FIG. 2 is a block diagram of the lane detection device. Note that FIG. 2 also shows an in-vehicle camera 51 in addition to the lane detection device 10 .

車載カメラ51は、たとえば、車両の進行方向を撮影するドライブレコーダである。たとえば、車載カメラ51は、各種撮像素子と、魚眼レンズなどのレンズによって構成される。 Vehicle-mounted camera 51 is, for example, a drive recorder that captures the traveling direction of the vehicle. For example, the vehicle-mounted camera 51 is composed of various imaging elements and a lens such as a fisheye lens.

図2に示すように、車線検出装置10は、記憶部20と、制御部30とを備える。記憶部20は、たとえば、不揮発性メモリやデータフラッシュ、ハードディスクドライブといった記憶デバイスで構成される。 As shown in FIG. 2 , lane detection device 10 includes storage unit 20 and control unit 30 . The storage unit 20 is configured by a storage device such as a nonvolatile memory, data flash, or hard disk drive, for example.

図2に示す例において、記憶部20は、統合条件記憶部21と、検出履歴記憶部22とを有し、そのほか、各種プログラムなどが記憶される。 In the example shown in FIG. 2, the storage unit 20 has an integration condition storage unit 21 and a detection history storage unit 22, and also stores various programs.

統合条件記憶部21は、上記の第1統合条件や第2統合条件に関する各種情報を記憶する記憶領域である。ここで、図3A~図3Cを用いて、第1統合条件および第2統合条件の具体例について説明する。 The integration condition storage unit 21 is a storage area that stores various types of information regarding the first integration condition and the second integration condition. Specific examples of the first integrated condition and the second integrated condition will now be described with reference to FIGS. 3A to 3C.

図3Aおよび図3Bは、第1統合条件の一例を示す図である。図3Cは、第2統合条件の一例を示す図である。図3Aに示すように、たとえば、第1統合条件においては、線分Lの端部に円形状の第1探索領域A1が設定される。そして、第1探索領域A1を設定した線分Lと第1探索領域A1内に存在する線分Lを統合することになる。 3A and 3B are diagrams showing an example of the first integration condition. FIG. 3C is a diagram illustrating an example of a second integration condition; As shown in FIG. 3A, for example, under the first integration condition, a circular first search area A1 is set at the end of the line segment L. As shown in FIG. Then, the line segment L for which the first search area A1 is set and the line segment L existing within the first search area A1 are integrated.

また、図3Bに示すように、第1統合条件においては、さらに、各線分Lの端部に第2探索領域A2を設定する。たとえば、第2探索領域A2は、円弧形状の領域である。第2探索領域A2は、第1探索領域A1よりも半径の長さが長く、中心角が狭い。 Further, as shown in FIG. 3B, under the first integration condition, a second search area A2 is set at the end of each line segment L. As shown in FIG. For example, the second search area A2 is an arc-shaped area. The second search area A2 has a longer radius and a narrower central angle than the first search area A1.

また、第2探索領域A2は中心が線分Lの延長線上に存在するように向きが設定される。したがって、第2探索領域A2は、第1探索領域A1よりも角度をしぼったうえで、より遠くに存在する線分Lを探索することになる。 Also, the direction of the second search area A2 is set such that the center is on the extension of the line segment L. FIG. Therefore, the second search area A2 narrows the angle more than the first search area A1, and searches for the line segment L existing farther.

また、図3Cに示すように、第2統合条件においては、各線分Lの端部に第3探索領域A3を設定する。たとえば、第2探索領域A2は、ゼブラゾーンやリブ式の白線において同一破線内に存在する線分Lを統合するための探索領域であるのに対して、第3探索領域A3は、破線間の線分Lを統合するための探索領域である。 In addition, as shown in FIG. 3C, the third search area A3 is set at the end of each line segment L under the second integration condition. For example, the second search area A2 is a search area for integrating line segments L existing within the same dashed line in a zebra zone or a rib-type white line, whereas the third search area A3 is a search area between dashed lines. This is a search area for integrating line segments L. FIG.

たとえば、第3探索領域A3は、第2探索領域A2と同様に円弧形状であり、第2探索領域A2に比べて半径の長さが長く、中心角が狭い。また、第3探索領域A3は中心が線分Lの延長線上に存在するように向きが設定される。 For example, the third search area A3 has an arc shape like the second search area A2, and has a longer radius and a narrower center angle than the second search area A2. Also, the direction of the third search area A3 is set so that the center thereof is on the extension line of the line segment L. FIG.

これにより、第3探索領域A3は、より角度を絞ったうえで、より遠くに存在する線分Lを探索することになる。これは、第2統合条件においては、第1統合条件より遠くに位置する線分Lの探索を行うので、白線に沿って2重線や補助線が存在する場合に、2重線や補助線の線分Lを統合するおそれがあるためである。 As a result, the angle of the third search area A3 is narrowed down, and the line segment L that exists farther is searched. This is because, under the second integration condition, a line segment L located farther than under the first integration condition is searched. This is because there is a possibility that the line segment L of .

すなわち、第1統合条件の第1探索領域A1や第2探索領域A2に比べて、第2統合条件の第3探索領域A3の角度範囲を絞ることで、同じ白線の線分Lを適切に統合することができる。 That is, by narrowing the angular range of the third search area A3 under the second integration condition compared to the first search area A1 and the second search area A2 under the first integration condition, the line segment L of the same white line is appropriately integrated. can do.

また、一般的に、車線としての破線は、一定以上の長さ(たとえば、5m)を有し、それらが所定周期(たとえば、5m間隔)で存在する。そのため、第3探索領域A3は、中心部に統合対象から除外する除外領域Afを有する。すなわち、除外領域Afに存在する線分Lは第2統合処理の処理対象から除外する。これにより、周期性の観点から明らかに破線間の線分Lでない線分L同士の統合を抑制することができる。なお、第2探索領域A2についても同様に除外領域Afを設定することにしてもよい。 In general, dashed lines as lanes have a certain length (eg, 5 m) and are present at predetermined intervals (eg, 5 m intervals). Therefore, the third search area A3 has an exclusion area Af, which is excluded from the integration target, in the center. That is, the line segment L existing in the exclusion area Af is excluded from the processing targets of the second integration processing. As a result, from the viewpoint of periodicity, it is possible to suppress the unification of line segments L that are clearly not line segments L between broken lines. Note that the exclusion area Af may be similarly set for the second search area A2.

図2の説明に戻り、検出履歴記憶部22について説明する。検出履歴記憶部22は、車線の検出履歴を記憶する記憶領域である。たとえば、検出履歴記憶部22に記憶された検出履歴に基づき、第2統合条件が設定されることになるが、この点の詳細については図4を用いて後述する。 Returning to the description of FIG. 2, the detection history storage unit 22 will be described. The detection history storage unit 22 is a storage area that stores lane detection history. For example, the second integration condition is set based on the detection history stored in the detection history storage unit 22. Details of this point will be described later with reference to FIG.

制御部30は、生成部31と、第1統合処理部32と、第2統合処理部33と、検出部34とを備え、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control unit 30 includes a generation unit 31, a first integration processing unit 32, a second integration processing unit 33, and a detection unit 34, and includes, for example, a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (random access memory), hard disk drives, and computers and various circuits with input/output ports.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部30の生成部31、第1統合処理部32、第2統合処理部33および検出部34として機能する。 The CPU of the computer functions as the generation unit 31, the first integration processing unit 32, the second integration processing unit 33, and the detection unit 34 of the control unit 30 by reading and executing programs stored in the ROM, for example.

また、制御部30の生成部31、第1統合処理部32、第2統合処理部33および検出部34の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 In addition, at least one part or all of the generation unit 31, the first integration processing unit 32, the second integration processing unit 33, and the detection unit 34 of the control unit 30 is an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). ) or the like.

生成部31は、車載カメラ51によって路面を撮影した撮像画像からエッジ画像を生成する。生成部31は、車載カメラ51から撮像画像を取得し、撮像画像を構成する各画素の輝度勾配等に基づき、エッジ画像を抽出する。また、生成部31は、エッジ画像の生成毎に、エッジ画像に関する情報を第1統合処理部32に渡す。 The generation unit 31 generates an edge image from the captured image of the road surface captured by the in-vehicle camera 51 . The generation unit 31 acquires a captured image from the vehicle-mounted camera 51 and extracts an edge image based on the luminance gradient of each pixel forming the captured image. Further, the generation unit 31 passes information about the edge image to the first integration processing unit 32 each time an edge image is generated.

第1統合処理部32は、生成部31によって生成されたエッジ画像に基づき、白線を構成する同一破線内の線分Lを線分間の距離と線分間の角度差とに基づく第1統合条件に基づいて統合する。まず、第1統合処理部32は、エッジ画像から各線分Lを抽出する。 Based on the edge image generated by the generation unit 31, the first integration processing unit 32 applies the line segment L within the same dashed line forming the white line to the first integration condition based on the distance between the line segments and the angle difference between the line segments. Integrate based on First, the first integration processing unit 32 extracts each line segment L from the edge image.

つづいて、第1統合処理部32は、検出する白線の種別に応じて第1統合条件を切り替えて線分Lの統合を行う。ここで、白線の種別とは、たとえば、擦れた白線と、ゼブラゾーンを有する白線やリブ式の白線とに大別される。 Subsequently, the first integration processing unit 32 integrates the line segment L by switching the first integration condition according to the type of detected white line. Here, the types of white lines are broadly classified into, for example, worn white lines, white lines with zebra zones, and ribbed white lines.

たとえば、第1統合処理部32は、まず、擦れた白線の線分Lを統合したうえで、ゼブラゾーンやリブ式の白線の線分Lの統合を行う。これにより、ゼブラゾーンを有する白線やリブ式の白線が擦れていた場合であっても、線分Lを適切に統合することができる。 For example, the first integration processing unit 32 first integrates line segments L of rubbed white lines, and then integrates line segments L of zebra zones and rib-type white lines. As a result, even if white lines with zebra zones or ribbed white lines are rubbed, the line segments L can be appropriately integrated.

具体的には、まず、第1統合処理部32は、第1探索領域A1に存在する線分Lを統合することで、第1統合線Li1(図1参照)を生成する。その後、第1統合処理部32は、第1統合線Li1を含む線分L(以下、単に線分Lと記載)に対して第2探索領域A2(図3参照)を設定する。 Specifically, first, the first integration processing unit 32 generates a first integrated line Li1 (see FIG. 1) by integrating line segments L existing in the first search area A1. After that, the first integration processing unit 32 sets a second search area A2 (see FIG. 3) for the line segment L (hereinafter simply referred to as the line segment L) including the first integration line Li1.

第1統合処理部32は、第2探索領域A2に存在する線分Lのうち、対象となる線分Lとの角度差が所定値以下となる線分Lを統合する。また、この際、対象となる線分Lとの長さの差をさらに考慮して線分Lを統合することにしてもよい。 The first integration processing unit 32 integrates, among the line segments L existing in the second search area A2, the line segments L whose angular difference from the target line segment L is equal to or less than a predetermined value. Also, at this time, the line segments L may be integrated by further considering the difference in length from the target line segment L. FIG.

すなわち、ゼブラゾーンやリブ式の白線の線分Lは、長さに規則性を有するので、長さの差が所定値以下となる線分L同士を統合することで、ゼブラゾーンやリブ式の白線の線分Lに対応する線分Lを選抜したうえで統合することができる。 That is, since the line segments L of the zebra zone or rib type white line have regularity in length, by integrating the line segments L whose length difference is equal to or less than a predetermined value, the zebra zone or rib type white line segment L is integrated. Line segments L corresponding to the line segment L of the white line can be selected and integrated.

第1統合処理部32は、第1探索領域A1および第2探索領域A2に基づく第1統合処理を終えると、それぞれの第1統合線Li1をエッジ画像に重畳し、第2統合処理部33に渡す。 After completing the first integration processing based on the first search area A1 and the second search area A2, the first integration processing unit 32 superimposes the respective first integration lines Li1 on the edge image, and sends the image to the second integration processing unit 33. hand over.

第2統合処理部33は、第1統合処理部32から受け取ったエッジ画像に基づき、破線間の線分Lを統合する第2統合処理を行う。まず、第2統合処理部33は、各線分Lに対して、第3探索領域A3を設定する。 Based on the edge image received from the first integration processing unit 32, the second integration processing unit 33 performs a second integration process for integrating the line segments L between the dashed lines. First, the second integration processing section 33 sets a third search area A3 for each line segment L. As shown in FIG.

つづいて、第2統合処理部33は、第3探索領域A3に存在する線分Lのうち、対象となる線分Lとの角度差が所定値以下となる線分Lを統合する。第2統合処理部33は、統合結果となる第2統合線Li2を第1統合処理部32から受け取ったエッジ画像に重畳し、検出部34に渡す。 Subsequently, the second integration processing unit 33 integrates the line segments L whose angular difference from the target line segment L is equal to or less than a predetermined value among the line segments L existing in the third search area A3. The second integration processing unit 33 superimposes the second integration line Li<b>2 as the integration result on the edge image received from the first integration processing unit 32 , and passes the result to the detection unit 34 .

また、第2統合処理部33は、たとえば、検出履歴記憶部22に記憶された白線の検出履歴に基づいて、第2統合条件を設定することにしてもよい。たとえば、第2統合処理部33は、過去フレームまでの白線の検出履歴に基づいて、当該白線に続く白線の予測軌跡を算出する。 Further, the second integration processing unit 33 may set the second integration condition based on the white line detection history stored in the detection history storage unit 22, for example. For example, the second integration processing unit 33 calculates the predicted trajectory of the white line following the white line based on the detection history of the white line up to the past frame.

図4は、白線の予測軌跡の一例を示す図である。図4に示す予測軌跡Oは、たとえば、白線の検出履歴に基づいて検出した白線の曲率を求めることで算出される。たとえば、第2統合処理部33は、予測軌跡Oに沿って第3探索領域A3の向きを設定する。 FIG. 4 is a diagram showing an example of the predicted trajectory of the white line. The predicted trajectory O shown in FIG. 4 is calculated, for example, by obtaining the curvature of the detected white line based on the detection history of the white line. For example, the second integration processing unit 33 sets the orientation of the third search area A3 along the predicted trajectory O.

これにより、たとえば、R値が大きなカーブであっても、白線に沿って第3探索領域A3の向きを設定することができるので、破線間の線分Lを適切に統合することができる。なお、第2統合処理部33は、過去フレームまでの白線の検出履歴に基づいて、第3探索領域A3の長さを設定することにしてもよい。 Thereby, for example, even if the curve has a large R value, the direction of the third search area A3 can be set along the white line, so the line segments L between the dashed lines can be appropriately integrated. The second integration processing unit 33 may set the length of the third search area A3 based on the white line detection history up to the past frame.

すなわち、通常、破線はその長さに規則性を有しているので、検出履歴に基づき、破線の長さ、破線間の距離を算出し、第3探索領域A3の長さを設定することにしてもよい。この場合においても、破線間の線分Lを適切に統合することができる。 That is, since dashed lines usually have regularity in length, the length of the dashed lines and the distance between the dashed lines are calculated based on the detection history, and the length of the third search area A3 is set. may Even in this case, the line segments L between the dashed lines can be appropriately integrated.

ところで、撮像画像Gにおいて、白線部分の画素は、路面部分の画素よりも輝度値が高くなりやすい。そのため、第2統合処理部33は、線分Lを挟んだ周辺領域の輝度値の差分を考慮して線分Lを統合することにしてもよい。 By the way, in the captured image G, pixels in the white line portion tend to have higher luminance values than pixels in the road surface portion. Therefore, the second integration processing unit 33 may integrate the line segment L in consideration of the difference in the brightness values of the peripheral regions sandwiching the line segment L.

図5は、周辺領域の一例を示す図である。図5に示すように、たとえば、線分Lが白線のエッジであれば、白線部分と路面部分との境界となる。そのため、第2統合処理部33は、線分Lの左側に位置する第1周辺領域f1と線分Lの左側に位置する第2周辺領域f2の輝度値の差分に基づいて線分Lを統合する。 FIG. 5 is a diagram showing an example of the peripheral area. As shown in FIG. 5, for example, if the line segment L is the edge of the white line, it becomes the boundary between the white line portion and the road surface portion. Therefore, the second integration processing unit 33 integrates the line segment L based on the luminance value difference between the first peripheral region f1 located on the left side of the line segment L and the second peripheral region f2 located on the left side of the line segment L. do.

より具体的には、第1周辺領域f1と第2周辺領域f2との輝度値の差分が所定値以上であれば、すなわち、輝度差が十分にあれば、線分Lを統合対象とし、第1周辺領域f1と第2周辺領域f2との輝度値の差分が所定値未満であれば、線分Lを統合対象としない。 More specifically, if the difference in brightness value between the first peripheral region f1 and the second peripheral region f2 is equal to or greater than a predetermined value, that is, if the brightness difference is sufficient, the line segment L is set as the integration target, If the difference in luminance value between the first peripheral region f1 and the second peripheral region f2 is less than a predetermined value, the line segment L is not integrated.

このように、輝度値をさらに考慮することで、白線の特徴に対応する線分Lのみを統合することができるので、白線の検出精度の向上を図ることができる。 In this way, by further considering the luminance value, it is possible to integrate only the line segments L corresponding to the characteristics of the white line, thereby improving the detection accuracy of the white line.

図2の説明に戻り、検出部34について説明する。検出部34は、第1統合処理部32による処理結果と、第2統合処理部33による処理結果とに基づいて車線を検出する。たとえば、検出部34は、第1統合線Li1および第2統合線Li2が重畳されたエッジ画像に基づいて白線を検出する。そして、検出部34は、白線の検出結果に基づいて車線を検出する。 Returning to the description of FIG. 2, the detection unit 34 will be described. The detection unit 34 detects lanes based on the processing result of the first integration processing unit 32 and the processing result of the second integration processing unit 33 . For example, the detection unit 34 detects white lines based on the edge image in which the first integrated line Li1 and the second integrated line Li2 are superimposed. Then, the detection unit 34 detects the lane based on the detection result of the white line.

たとえば、検出部34によって検出された白線に関する情報は、たとえば、車両の自動運転を制御する自動運転システムや車両が車線を逸脱した際に警告する警告システムへ出力される。 For example, the information on the white line detected by the detection unit 34 is output to, for example, an automatic driving system that controls automatic driving of the vehicle or a warning system that warns when the vehicle deviates from the lane.

次に、図6を用いて、実施形態に係る車線検出装置10が実行する処理手順について説明する。図6は、車線検出装置10が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、制御部30によって繰り返し実行される。 Next, a processing procedure executed by the lane detection device 10 according to the embodiment will be described with reference to FIG. 6 . FIG. 6 is a flow chart showing a processing procedure executed by the lane detection device 10. As shown in FIG. Note that the processing procedure described below is repeatedly executed by the control unit 30 .

図6に示すように、まず、車線検出装置10は、撮像画像Gを取得すると(ステップS101)、撮像画像Gからエッジ画像を生成する(ステップS102)。つづいて、車線検出装置10は、同一破線内の線分Lを統合する第1統合処理を行う(ステップS103)。 As shown in FIG. 6, first, when the lane detection device 10 acquires the captured image G (step S101), it generates an edge image from the captured image G (step S102). Subsequently, the lane detection device 10 performs a first integration process of integrating the line segments L within the same dashed line (step S103).

つづいて、車線検出装置10は、ステップS103までの処理結果に基づき、破線間の線分Lを統合する第2統合処理を行う(ステップS104)。つづいて、車線検出装置10は、第2統合処理までの処理結果に基づき、車線を検出して(ステップS105)、処理を終了する。 Subsequently, the lane detection device 10 performs a second integration process for integrating the line segments L between the dashed lines based on the processing results up to step S103 (step S104). Subsequently, the lane detection device 10 detects lanes based on the processing results up to the second integrated processing (step S105), and ends the processing.

上述したように、実施形態に係る車線検出装置10は、生成部31と、第1統合処理部32と、第2統合処理部33と、検出部34とを備える。生成部31は、車載カメラ51によって路面を撮影した撮像画像Gからエッジ画像を生成する、第1統合処理部32は、生成部31によって生成されたエッジ画像に基づき、車線を構成する同一破線内の線分Lを線分L間の距離と線分L間の角度差とに基づく第1統合条件に基づいて統合する。 As described above, the lane detection device 10 according to the embodiment includes the generation unit 31, the first integration processing unit 32, the second integration processing unit 33, and the detection unit . The generating unit 31 generates an edge image from the image G captured by the vehicle-mounted camera 51 of the road surface. are integrated based on a first integration condition based on the distance between the line segments L and the angle difference between the line segments L.

第2統合処理部33は、第1統合処理部32による統合結果に基づき、車線を構成する破線間の線分Lを第1統合条件よりも線分L間の距離が長く、線分L間の角度差が小さい第2統合条件に基づいて統合する。検出部34は、第2統合処理部33による統合結果に基づき、車線を検出する。したがって、実施形態に係る車線検出装置10によれば、車線の検出精度を向上させることができる。 Based on the result of integration by the first integration processing unit 32, the second integration processing unit 33 determines the line segments L between the dashed lines that make up the lanes so that the distance between the line segments L is longer than the first integration condition. are integrated based on the second integration condition in which the angle difference between is small. The detection unit 34 detects lanes based on the result of integration by the second integration processing unit 33 . Therefore, according to the lane detection device 10 according to the embodiment, it is possible to improve the lane detection accuracy.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

10 車線検出装置
21 統合条件記憶部
22 検出履歴記憶部
31 生成部
32 第1統合処理部
33 第2統合処理部
34 検出部
51 車載カメラ
G 撮像画像
10 lane detection device 21 integration condition storage unit 22 detection history storage unit 31 generation unit 32 first integration processing unit 33 second integration processing unit 34 detection unit 51 in-vehicle camera G captured image

Claims (6)

車載カメラによって路面を撮影した撮像画像からエッジ画像を生成する生成部と、
前記生成部によって生成された前記エッジ画像に基づき、車線を構成する同一破線内の線分を線分間の距離と前記線分間の角度差とに基づく第1統合条件に基づいて統合する第1統合処理部と、
前記第1統合処理部による統合結果に基づき、前記車線を構成する破線間の前記線分を前記第1統合条件よりも前記線分間の距離が長く、前記線分間の角度差が小さい第2統合条件に基づいて統合する第2統合処理部と、
前記第2統合処理部による統合結果に基づき、車線を検出する検出部と
を備えることを特徴とする車線検出装置。
a generator that generates an edge image from an image captured by an in-vehicle camera of a road surface;
A first integration that integrates line segments within the same dashed line forming a lane based on the edge image generated by the generation unit based on a first integration condition based on a distance between the line segments and an angle difference between the line segments. a processing unit;
Based on the result of integration by the first integration processing unit, the line segments between the dashed lines forming the lane are subjected to a second integration in which the distance between the line segments is longer and the angle difference between the line segments is smaller than the first integration condition. a second integration processing unit that integrates based on conditions;
A lane detection device comprising: a detection unit that detects a lane based on a result of integration by the second integration processing unit.
前記第1統合処理部は、
前記車線の種別に応じて前記第1統合条件を切り替えて前記線分を統合すること
を特徴とする請求項1に記載の車線検出装置。
The first integration processing unit
The lane detection device according to claim 1, wherein the line segments are integrated by switching the first integration condition according to the type of the lane.
前記第2統合処理部は、
前記検出部によって検出された前記車線の検出履歴に基づいて前記第2統合条件を設定すること
を特徴とする請求項1または2に記載の車線検出装置。
The second integration processing unit
The lane detection device according to claim 1 or 2, wherein the second integrated condition is set based on a detection history of the lane detected by the detector.
前記第2統合処理部は、
前記線分を挟んだ周辺領域の輝度値の差分に基づき、前記線分を統合すること
を特徴とする請求項1、2または3に記載の車線検出装置。
The second integration processing unit
4. The lane detection device according to claim 1, wherein the line segments are integrated based on a difference in luminance value of a peripheral area sandwiching the line segment.
車載カメラによって路面を撮影した撮像画像からエッジ画像を生成する生成工程と、
前記生成工程によって生成された前記エッジ画像に基づき、車線を構成する同一破線内の線分を線分間の距離と前記線分間の角度差とに基づく第1統合条件に基づいて統合する第1統合処理工程と、
前記第1統合処理工程による統合結果に基づき、前記車線を構成する破線間の前記線分を前記第1統合条件よりも前記線分間の距離が長く、前記線分間の角度差が小さい第2統合条件に基づいて統合する第2統合処理工程と、
前記第2統合処理工程による統合結果に基づき、車線を検出する検出工程と
を含むことを特徴とする車線検出方法。
A generation step of generating an edge image from an image captured by an in-vehicle camera of a road surface;
A first integration that integrates line segments within the same dashed line forming a lane based on the edge image generated by the generation step, based on a first integration condition based on a distance between the line segments and an angle difference between the line segments. a processing step;
second integration in which the distance between the line segments is longer and the angle difference between the line segments is smaller than the first integration condition, based on the integration result of the first integration processing step; a second integration processing step of integrating based on conditions;
and a detection step of detecting a lane based on the integration result of the second integration processing step.
車載カメラによって路面を撮影された撮像画像からエッジ画像を生成する生成手順と、
前記生成手順によって生成された前記エッジ画像に基づき、車線を構成する同一破線内の線分を線分間の距離と前記線分間の角度差とに基づく第1統合条件に基づいて統合する第1統合処理手順と、
前記第1統合処理手順による統合結果に基づき、前記車線を構成する破線間の前記線分を前記第1統合条件よりも前記線分間の距離が長く、前記線分間の角度差が小さい第2統合条件に基づいて統合する第2統合処理手順と、
前記第2統合処理手順による統合結果に基づき、車線を検出する検出手順と
をコンピュータに実行させることを特徴とする車線検出プログラム。
a generation procedure for generating an edge image from a captured image of a road surface captured by an in-vehicle camera;
A first integration that integrates line segments within the same dashed line forming a lane based on the edge image generated by the generation procedure based on a first integration condition based on a distance between the line segments and an angle difference between the line segments. a processing procedure;
second integration in which the distance between the line segments is longer and the angle difference between the line segments is smaller than the first integration condition, based on the result of integration by the first integration processing procedure; a second integration procedure that integrates based on conditions;
A lane detection program for causing a computer to execute a detection procedure for detecting lanes based on the result of integration by the second integration processing procedure.
JP2021115235A 2021-07-12 2021-07-12 Lane detection device, lane detection method, and lane detection program Active JP7149385B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021115235A JP7149385B1 (en) 2021-07-12 2021-07-12 Lane detection device, lane detection method, and lane detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021115235A JP7149385B1 (en) 2021-07-12 2021-07-12 Lane detection device, lane detection method, and lane detection program

Publications (2)

Publication Number Publication Date
JP7149385B1 JP7149385B1 (en) 2022-10-06
JP2023011400A true JP2023011400A (en) 2023-01-24

Family

ID=83507665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021115235A Active JP7149385B1 (en) 2021-07-12 2021-07-12 Lane detection device, lane detection method, and lane detection program

Country Status (1)

Country Link
JP (1) JP7149385B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175534A (en) * 2000-12-06 2002-06-21 Sumitomo Electric Ind Ltd Method for detecting road white line
JP2007264955A (en) * 2006-03-28 2007-10-11 Fuji Heavy Ind Ltd Lane position detector
WO2012081359A1 (en) * 2010-12-15 2012-06-21 本田技研工業株式会社 Lane recognition device
JP2013120458A (en) * 2011-12-06 2013-06-17 Fujitsu Ltd Road shape estimating device and program
JP2017010464A (en) * 2015-06-25 2017-01-12 富士通株式会社 Lane detection device and lane detection method
JP2017223511A (en) * 2016-06-14 2017-12-21 日本電信電話株式会社 Road structuring device, road structuring method and road structuring program
US20200104607A1 (en) * 2018-09-28 2020-04-02 Samsung Electronics Co., Ltd. Method and apparatus with lane determination

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175534A (en) * 2000-12-06 2002-06-21 Sumitomo Electric Ind Ltd Method for detecting road white line
JP2007264955A (en) * 2006-03-28 2007-10-11 Fuji Heavy Ind Ltd Lane position detector
WO2012081359A1 (en) * 2010-12-15 2012-06-21 本田技研工業株式会社 Lane recognition device
JP2013120458A (en) * 2011-12-06 2013-06-17 Fujitsu Ltd Road shape estimating device and program
JP2017010464A (en) * 2015-06-25 2017-01-12 富士通株式会社 Lane detection device and lane detection method
JP2017223511A (en) * 2016-06-14 2017-12-21 日本電信電話株式会社 Road structuring device, road structuring method and road structuring program
US20200104607A1 (en) * 2018-09-28 2020-04-02 Samsung Electronics Co., Ltd. Method and apparatus with lane determination

Also Published As

Publication number Publication date
JP7149385B1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US20190340447A1 (en) Curb detection by analysis of reflection images
RU2634852C1 (en) Traffic light detecting device and traffic light detecting method
US20180165525A1 (en) Traveling lane determining device and traveling lane determining method
JP2005310140A (en) Method of recognizing and/or tracking objects
US11087146B2 (en) Lane-line recognizing apparatus
JP2004144671A (en) Car-mounted radar device
CN107392080B (en) Image evaluation method and electronic device thereof
WO2014033936A1 (en) Image processing device, image processing method, and image processing program
CN109327660B (en) Image acquisition method and device
JP7149385B1 (en) Lane detection device, lane detection method, and lane detection program
JP6739881B2 (en) Travel locus recognition device, travel locus recognition method, vehicle control device, and vehicle control method
JPH11296660A (en) Road white line detector
JP2022011887A (en) Traveling scheduled route designation system and traveling scheduled route designation method
JP7203587B2 (en) Image processing device and image processing method
JP2020077077A (en) Facility management device, facility management method, and facility management program
JP2007141167A (en) Lane detector, lane detection method, and lane detection program
JP7195131B2 (en) Image processing device and image processing method
JP6935690B2 (en) Detection programs, methods, and equipment
CN114612457A (en) Automobile part laser welding adjusting method and system based on computer vision
JP7095559B2 (en) Bound line detection device and lane marking method
JP2014186516A (en) Driving lane detection device
JP7120835B2 (en) Image processing device
WO2018174123A1 (en) Object detection device, traffic management system, method and program for controlling object detection device
JP2017045261A (en) Information acquisition device, information acquisition method, and information acquisition program
JP7444942B1 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R150 Certificate of patent or registration of utility model

Ref document number: 7149385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150